Não é novidade que a inteligência artificial (IA) veio facilitar o dia a dia dos trabalhadores da maioria dos setores. Ainda assim, há perigos que se podem esconder na utilização pouco consciente de algumas plataformas.
Um estudo recente da Cybernews, realizado em agosto de 2025 com mais de mil trabalhadores nos Estados Unidos, revela um fenómeno crescente e preocupante: 59% dos trabalhadores admitem utilizar ferramentas de IA que os seus empregadores não aprovaram.
Adicionalmente, 75% destes reconhecem ter partilhado dados sensíveis — como informação sobre clientes, colegas ou documentos internos.
As conclusões traçam um retrato da chamada shadow AI — o uso de IA fora do controlo corporativo — e dos riscos que isso representa para a segurança de dados e a governação tecnológica.
Ferramentas sem aprovação, riscos sem controlo
Muitos recorrem a estas plataformas porque as ferramentas aprovadas pelas empresas não respondem às suas necessidades. Apenas um terço dos trabalhadores afirma que as soluções oficiais que têm à disposição são suficientes para o desempenho diário.
«É hora de as empresas deixarem de fingir que conseguem competir sem usar IA», explica Mantas Sabeckis, investigador de segurança na Cybernews. «Mas isso não significa autorizar tudo indiscriminadamente. Significa adotar ferramentas seguras, eficientes e responsáveis — e criar uma cultura de segurança que combine inovação com proteção.»
Este comportamento, aparentemente inofensivo, está mesmo a sair caro. A IBM estima que a utilização de IA não aprovada pode aumentar o custo médio de uma fuga de dados em 670 mil dólares.
«Quando os colaboradores usam ferramentas de IA não autorizadas, não há forma de saber que tipo de informação estão a partilhar», acrescenta. «Como plataformas como o ChatGPT criam uma sensação de conversa informal, as pessoas esquecem-se de que os dados são enviados para empresas externas que os podem armazenar ou utilizar para treinar modelos.»
Gestores das empresas são os piores infratores
De forma paradoxal, os executivos e gestores são os que mais utilizam IA não aprovada — 93% admitiram fazê-lo. E, ainda mais surpreendente, 57% dos colaboradores que recorrem a ferramentas não autorizadas afirmam que os seus chefes aprovam tacitamente o uso dessas tecnologias, enquanto 16% dizem que os seus superiores ‘não se importam’.
Isto cria uma zona cinzenta perigosa nas organizações: os gestores toleram o uso de IA para aumentar a produtividade, mas perdem controlo sobre a informação que circula fora dos sistemas oficiais.
Consciência existe, regras não
Curiosamente, 89% dos inquiridos dizem compreender os riscos da IA, e ainda assim continuam a usá-la de forma irresponsável. Pior: 23% das empresas não têm qualquer política oficial sobre o uso de ferramentas de IA no local de trabalho.
Para Sabeckis, este é o verdadeiro problema. «A consciência existe, mas falta conhecimento prático e regras claras. Seria trágico que só uma violação de dados fizesse as empresas reagir», alerta.
De facto, 57% dos trabalhadores afirmam que só deixariam de usar ferramentas não aprovadas se houvesse uma fuga de dados real. A prevenção continua a ser mais teórica do que prática.



