Quando os primeiros automóveis começaram a circular, foi uma revolução. De repente, as pessoas podiam viajar mais rápido e mais longe do que nunca. Mas havia um detalhe crítico: não havia sinais de trânsito, nem travões eficientes, nem regras claras. O entusiasmo com a nova tecnologia era tão grande que a segurança veio depois — e à custa de muitos acidentes.
Hoje, estamos a viver um momento semelhante com a Inteligência Artificial (IA). A tecnologia está a avançar a uma velocidade alucinante, prometendo ganhos de produtividade e inovação nunca vistos. Mas há um problema: a segurança continua a ser tratada como um acessório opcional. Se no início do século XX tínhamos carros sem travões, hoje temos sistemas de IA a correr sem qualquer controlo de segurança. Na estrada digital da IA, o impacto dos acidentes pode ser global.
O recente caso da DeepSeek, uma startup chinesa que expôs publicamente bases de dados contendo informações sensíveis, é apenas mais um lembrete da fragilidade da IA quando a segurança é negligenciada. Entre os dados expostos estavam históricos de conversas de utilizadores, chaves API secretas e metadados de serviços backend. Numa era em que dependemos cada vez mais da IA para tomar decisões críticas, estes erros são o equivalente a vender um carro sem travões e esperar que ninguém se magoe.
O problema não é pontual. Muitas empresas priorizam a escalabilidade e o desempenho dos seus modelos de IA, ignorando medidas essenciais como encriptação de dados, autenticação robusta, segmentação de acessos, monitorização contínua e proteção contra manipulação, mas isso, por si só, não é suficiente.
Sem uma abordagem holística que inclua resposta a incidentes, auditoria contínua e controlo de acesso baseado em risco, os sistemas de IA continuam expostos a um campo minado de vulnerabilidades: Chatbots podem ser manipulados para divulgar dados sensíveis ou gerar respostas prejudiciais; Modelos de Machine Learning podem ser contaminados por dados manipulados, fazendo com que forneçam informação errada ou até perigosa e APIs desprotegidas podem ser exploradas para roubo de modelos proprietários. Não devemos estar a construir uma nova era digital sobre fundações frágeis. E, como a história nos ensinou, quando se ignora a segurança no início, o preço a pagar depois é muito mais alto.
Assim como a indústria automóvel acabou por adotar cintos de segurança, airbags e ABS, a IA precisa de integrar a cibersegurança desde a base. Não podemos continuar a tratar a segurança como um detalhe de última hora. Todos os intervenientes, desde fornecedores, consumidores, criadores, reguladores e utilizadores têm um papel fundamental nesta mudança de mentalidade.
Os fornecedores de IA devem garantir uma abordagem de Segurança by Design e Zero Trust desde a concepção, assegurando a encriptação de dados sensíveis e a segurança das APIs. Devem também realizar testes adversariais para detetar vulnerabilidades antes que os atacantes o façam, garantir conformidade com normas internacionais como ISO 27001 e NIST CSF, e estabelecer políticas transparentes de segurança e proteção de dados.
Já os utilizadores de IA devem avaliar riscos antes de adotar novas soluções baseadas em IA, garantir conformidade com regulamentações como RGPD, definir regras claras para retenção e eliminação de dados sensíveis, implementar técnicas de IA que preservem a privacidade, como técnicas que permitem treinar modelos sem centralizar dados sensíveis, e criar estruturas de gestão para monitorizar a recolha e utilização de dados.
O caso da DeepSeek reforça um alerta crítico: a inovação sem segurança é um desastre anunciado. A indústria precisa de reconhecer que a cibersegurança não é um entrave, mas sim um pilar essencial para a sustentabilidade da IA.
Reguladores como a União Europeia já estão a reagir com leis mais rigorosas, como o AI Act e a Diretiva NIS 2, mas não basta criar regulações; é preciso uma mudança de mentalidade em toda a indústria para garantir que a IA não se torne uma fonte de riscos imprevisíveis. Empresas que adotarem a segurança como um pilar desde já estarão mais preparadas para liderar esta revolução tecnológica de forma responsável e sustentável.
A escolha é clara: ou integramos a segurança na IA desde já, ou enfrentaremos um futuro repleto de riscos e crises evitáveis. A diferença entre um carro sem travões e um carro seguro não é a tecnologia — é a responsabilidade com que a aplicamos. A IA não pode ser diferente.
Se vamos acelerar rumo ao futuro, que seja com travões a funcionar adequadamente.