Na véspera do Dia Internacional da Privacidade de Dados, que se assinala amanhã, 28 de janeiro, especialistas alertam para os riscos associados à utilização crescente da inteligência artificial (IA) no trabalho e defendem a adoção de boas práticas para proteger informação pessoal e sensível.
À medida que ferramentas baseadas em IA se tornam parte do dia a dia profissional, aumentam também as preocupações com a segurança da informação. «A IA deve ser encarada como um facilitador, e não como uma ameaça, mas apenas se for utilizada com consciência e salvaguardas claras», afirma Raphael Reischuk, Partner e Group Head Cybersecurity da Zühlke.
Quatro estratégias essenciais
Partilhar menos dados em modelos públicos
Sempre que são utilizados modelos públicos de IA, como chatbots, devem ser removidas informações pessoais ou sensíveis. Nomes, localizações e dados empresariais devem ser substituídos por dados fictícios ou sintéticos, recorrendo a técnicas como pseudonimização e mascaramento de dados.
Questionar os conteúdos gerados por IA
Textos, imagens e vídeos podem ser facilmente criados ou manipulados por IA. Verificar fontes e manter uma postura crítica ajuda a reduzir riscos de desinformação e uso indevido.
Preferir modelos locais ou on-site
Soluções de IA internas permitem processar informação sem a partilhar com fornecedores externos, garantindo maior controlo e segurança sobre os dados tratados.
Usar a IA de forma segura, não proibir
Em vez de rejeitar a IA, as organizações devem criar ambientes seguros para experimentação responsável, com regras claras e ferramentas aprovadas.
Num contexto de rápida transformação digital, o Dia Internacional da Privacidade de Dados reforça a importância de alinhar inovação tecnológica com proteção da informação e confiança dos utilizadores.


