A Inteligência Artificial tornou-se um intermediário com poder real para moldar perceções, influenciar decisões e criar assimetrias. No setor da saúde, esse poder não é neutro e os mais penalizados são, precisamente, os doentes e os países menos centrais da União Europeia. Esta é uma das conclusões centrais do relatório IA y Política Pública: Hacia […]
A Inteligência Artificial tornou-se um intermediário com poder real para moldar perceções, influenciar decisões e criar assimetrias. No setor da saúde, esse poder não é neutro e os mais penalizados são, precisamente, os doentes e os países menos centrais da União Europeia.
Esta é uma das conclusões centrais do relatório IA y Política Pública: Hacia una nueva arquitectura de incidencia, elaborado pela LLYC no âmbito da European Health Summit. O estudo analisou 1484 respostas geradas por quatro grandes modelos de linguagem — OpenAI, Anthropic, Perplexity e Gemini — a perguntas sobre quatro regulamentações-chave da política de saúde europeia.
O retrato que emerge é claro: a qualidade da informação varia consoante quem pergunta, de onde pergunta e qual o modelo de IA utilizado.
Doentes recebem pior e menos informação
A desigualdade começa no perfil do utilizador. Os modelos de IA tendem a oferecer respostas mais completas, rigorosas e bem fundamentadas quando o interlocutor é um profissional de saúde ou uma entidade institucional. Já os doentes ficam para trás.
Segundo o relatório, os profissionais do setor recebem, de forma consistente, informação mais detalhada, tecnicamente sólida e com maior visibilidade. Os doentes, pelo contrário, enfrentam lacunas significativas: respostas mais curtas, menos precisas e com menor suporte em fontes qualificadas.
Os meios de comunicação social surgem também numa posição frágil. Apesar de lidarem com temas de interesse público, registam as pontuações mais baixas em visibilidade, qualidade argumentativa e uso de fontes, acumulando algumas das maiores falhas informativas. As administrações públicas, por seu lado, beneficiam de uma postura particularmente favorável por parte dos sistemas de IA.
«A IA tornou-se um interveniente com capacidade para influenciar a opinião pública, a circulação de informação e a perceção de temas fundamentais como a saúde e a regulamentação», alerta Carlos Parry, líder de Healthcare Europa na LLYC. Para o responsável, as desigualdades detetadas colocam «um desafio crítico de equidade» que deve ser acompanhado de perto por reguladores e pela indústria.
O país também conta
A geografia é outro fator determinante. As respostas não são homogéneas dentro da União Europeia e adaptam-se claramente ao contexto nacional a partir do qual a pergunta é feita. Países como Espanha, Alemanha e França recebem, de forma sistemática, informações mais completas, com melhor qualidade argumentativa e maior diversidade de fontes. Já em países da Europa de Leste, como a Polónia ou a Hungria, as respostas tendem a ser mais fragmentadas, com menor consenso e menor profundidade.
Esta disparidade levanta questões sensíveis sobre acesso equitativo à informação num espaço europeu que, em teoria, partilha o mesmo quadro regulatório.
O estudo analisou ainda o posicionamento das principais normas comunitárias. O European Health Data Space (EHDS) surge como a regulamentação mais sólida, combinando elevada visibilidade com boa qualidade argumentativa. Já a AI Act destaca-se pela carga emocional mais intensa nas respostas geradas. A reforma farmacêutica e a avaliação de tecnologias de saúde (HTA) apresentam, por contraste, maiores lacunas informativas.
Gemini destaca-se entre os modelos
No plano tecnológico, as diferenças entre modelos são igualmente relevantes. O Gemini afirma-se como o líder indiscutível na análise de regulamentação sanitária europeia, destacando-se pela precisão, pela capacidade de reduzir a desinformação e por manter uma qualidade consistente para diferentes perfis de utilizador. É também o modelo mais favorável às políticas europeias.
O Anthropic apresenta um perfil mais estratégico, particularmente útil para antecipar impactos regulamentares. Já o Perplexity levanta sinais de alerta: regista o maior risco de desinformação e depende fortemente de meios de comunicação generalistas — mais de 80% das suas fontes — em detrimento de documentação oficial. O OpenAI surge com um desempenho mais modesto, embora se destaque pela utilização relevante de fontes institucionais europeias e literatura científica revista por pares.
Para Daniel Fernández Trejo, diretor-geral de Deep Learning na LLYC, o problema é estrutural: «Os modelos de linguagem não são meros repositórios de dados. São intermediários ativos que interpretam e distorcem a informação consoante quem a solicita», afirma. E conclui: «Passámos de uma Web de pesquisa para uma Web de respostas sintéticas. Compreender esta nova arquitetura da influência é hoje tão essencial como foi, no passado, compreender o funcionamento dos media.”
No balanço final, o relatório é claro: a interação entre Inteligência Artificial e política pública na saúde está longe de ser neutra. Os vieses existem, são sistemáticos e têm consequências. Num setor onde a informação pode fazer a diferença entre esclarecimento e exclusão, ignorá-los já não é uma opção.



