O conteúdo gerado por inteligência artificial deverá tornar-se cada vez mais persuasivo, à medida que as suas capacidades técnicas evoluem, a dependência dos utilizadores aumenta e os sistemas são treinados com base no feedback humano.
O alerta consta do mais recente Internet Safety Report, que sublinha que estes avanços tecnológicos serão inevitavelmente explorados por cibercriminosos.
A investigação recente à plataforma social X, de Elon Musk, devido à circulação de imagens sexualizadas geradas por deepfake através do chatbot Grok, voltou a colocar o tema no centro do debate público. Para especialistas em cibersegurança, o problema vai muito além do conteúdo explícito: imagens e vídeos criados por IA estão a ser utilizados de forma crescente em esquemas de fraude, burlas e roubo de identidade.
A facilidade com que se fabrica o falso
A rapidez com que um deepfake convincente pode ser produzido ficou demonstrada num vídeo viral onde os atores Tom Cruise e Brad Pitt surgiam a lutar numa cena fictícia. O realizador Ruairi Robinson revelou que o vídeo foi criado a partir de um simples prompt de duas linhas.
Em paralelo, a Comissão Europeia e vários países iniciaram investigações à plataforma X na sequência da geração de imagens sexuais manipuladas através da sua ferramenta de IA.
Segundo especialistas da Planet VPN estas ferramentas abrem portas a ataques mais sofisticados e em maior escala. Konstantin Levinzon, cofundador da empresa, afirma que o crescimento das tecnologias baseadas em IA facilitou a capacidade de enganar utilizadores como nunca antes.
«Um dos aspetos mais perigosos da IA é a dificuldade em distinguir o que é real do que é fabricado. A internet está inundada de imagens e vídeos falsos, criados em segundos com ferramentas gratuitas ou de baixo custo. Estes conteúdos são utilizados em ataques que vão desde burlas com vídeos manipulados até fraude de identidade e usurpação de personalidade», explica.
Empresas também na mira
As organizações não estão imunes. Segundo Levinzon, há casos em que colaboradores são alvo de vídeos manipulados que imitam administradores ou CEO, levando a transferências não autorizadas. Instituições financeiras enfrentam também desafios acrescidos, uma vez que imagens e vídeos falsificados podem ser utilizados para contornar mecanismos de verificação online.
O mais recente relatório internacional de segurança alerta que o risco tenderá a crescer: à medida que a IA se torna mais eficaz e integrada no quotidiano, o seu poder persuasivo aumentará, ampliando o impacto potencial de campanhas maliciosas.
Como identificar e prevenir
Embora os deepfakes sejam cada vez mais sofisticados, especialistas indicam que continuam a deixar sinais. Movimentos faciais pouco naturais, sombras incoerentes, distorções ou desfoque à volta do rosto podem ser indícios de manipulação.
Existem também serviços especializados que analisam imagens e vídeos em busca de artefactos digitais ou inconsistências técnicas. No entanto, estes sistemas fornecem apenas resultados probabilísticos, não garantias absolutas.
Entre as recomendações práticas destacam-se:
Limitar a exposição de vídeos pessoais online, reduzindo o material disponível para manipulação;
Proteger contas com autenticação multifator, dificultando o acesso indevido;
Utilizar redes VPN, que encriptam o tráfego de internet e reduzem a exposição de dados.
Um desafio para a liderança
Num contexto empresarial, este fenómeno levanta questões críticas sobre governação digital, literacia tecnológica e gestão de risco. A evolução da IA traz ganhos inegáveis de eficiência e inovação, mas exige também novas estratégias de proteção e sensibilização.
À medida que a tecnologia se torna mais convincente, a responsabilidade coletiva – de empresas, reguladores e utilizadores – cresce na mesma proporção.


