Foi aprovada esta quarta-feira, dia 13, a versão final da primeira lei para a Inteligência Artificial (IA), após um longo processo com início em 2019. Os legisladores da União Europeia validaram o acordo histórico do AI Act, em Estrasburgo, que visa mais controlo sobre as ferramentas de IA utilizadas, e onde estão consideradas coimas para as empresas que não cumprirem com as diretivas.
A Diretiva Europeia avança que, embora a maioria dos sistemas de IA apresente riscos limitados ou nulos e possa contribuir para a resolução de muitos desafios, certos sistemas podem criar riscos. A nova lei faz parte de um pacote de medidas denominado AI Pact, que conjuga uma série de medidas de apoio ao desenvolvimento de uma IA fiável.
A legislação vai regular os modelos de IA de grande impacto e de uso geral, assim como os sistemas mais específicos, que terão de cumprir obrigações específicas de transparência e direitos de autor.
Cinco anos depois, em que ponto estamos?
A legislação foi sendo discutida e alterada desde 2019 e só agora foi aprovada uma versão final. Atualmente, existem quatro classificações para os sistemas de IA:
- risco mínimo, que engloba sistemas de filtragem de spam de email e aplicações semelhantes;
- risco elevado, referente a infraestruturas como a rede elétrica ou contagem de votos em eleições;
- risco limitado (de transparência), relacionado com a utilização de chatbots ou divulgação de conteúdos gerados por IA;
- sistemas de risco inaceitável (proibidos na EU), tais como brinquedos ativados por voz ou identificação biométrica.
Estão excluídos programas relacionados com a defesa nacional, uma matéria que está fora da jurisdição da EU.
O Parlamento considerou como de alto risco aplicações de IA nos seguintes meios: componentes de segurança de produtos, como cirurgias roboticamente assistidas; treino educacional, como avaliação de exames escolares; processos de recrutamento, como softwares de seleção de currículos; infraestruturas críticas, como transportes; serviços públicos e privados essenciais, como envolvimentos na oportunidade de obter empréstimos; aplicação da lei que possa interferir com os direitos fundamentais dos cidadãos; gestão da migração, como análises automatizadas de pedidos de visto; administração da justiça e processos democráticos.
Ao mesmo tempo, o regulamento procura reduzir os encargos administrativos e financeiros para as empresas, em especial as pequenas e médias empresas (PME).
O AI Act pretende atuar das seguintes formas:
- abordar os riscos especificamente criados pelas aplicações de IA;
- proibir práticas de IA que representem riscos inaceitáveis;
- determinar uma lista de aplicações de alto risco;
- estabelecer requisitos claros para os sistemas de IA para aplicações de alto risco;
- definir obrigações específicas para os implantadores e fornecedores de aplicações de IA de alto risco;
- exigir uma avaliação da conformidade antes de um determinado sistema de IA entrar em serviço ou ser colocado no mercado;
- aplicar medidas de controlo após a colocação de um determinado sistema de IA no mercado;
- estabelecer uma estrutura de governação a nível europeu e nacional.
As empresas que não cumprirem com as diretivas arriscam coimas que variam entre 7,5 milhões de euros ou 1,5% do volume de negócios e 35 milhões de euros ou 7% do volume de negócios global.
Leia o AI Act na íntegra aqui.