Em junho deste ano, os eurodeputados negociaram a sua posição sobre o Regulamento de Inteligência Artificial (IA), cujas regras, uma vez aprovadas, serão as primeiras do Mundo sobre a matéria. Prevê-se, em breve, chegar a um esboço que será parte da Lei da UE sobre IA. Hoje, dia 6 de dezembro, acontece um próximo encontro, […]
Em junho deste ano, os eurodeputados negociaram a sua posição sobre o Regulamento de Inteligência Artificial (IA), cujas regras, uma vez aprovadas, serão as primeiras do Mundo sobre a matéria. Prevê-se, em breve, chegar a um esboço que será parte da Lei da UE sobre IA. Hoje, dia 6 de dezembro, acontece um próximo encontro, um trílogo, onde o acordo não está garantido.
A Líder falou com Elsa Veloso, advogada especialista em privacidade e proteção de dados e fundadora e CEO da DPO Consulting, para quem é importante que as pessoas tomem conhecimento desta Lei, uma vez que ela terá um impacto significativo na forma como a IA é desenvolvida e utilizada.
Quais são para si os pontos essenciais a reter desta Lei?
Para mim, os pontos essenciais a reter são: o regulamento de Inteligência Artificial é um passo importante para a proteção dos direitos fundamentais na era da IA; o regulamento estabelece requisitos rigorosos para a segurança, transparência e não discriminação dos sistemas de IA e é um quadro jurídico complexo e desafiante, que requer uma interpretação e aplicação cuidadosas.
Como tem sido o percurso desde o arranque dos trabalhos até agora?
Tem sido um percurso complexo e desafiante. Por um lado, é um tema extremamente técnico, que requer um profundo conhecimento da tecnologia da IA e das suas implicações para os direitos fundamentais. Por outro lado, é um tema que levanta preocupações sociais e políticas significativas, que precisam de ser ponderadas e equilibradas. Em todo o mundo, os países estão a projetar e a implementar legislação que regule a IA numa tentativa de acompanhar a velocidade e variedade de tecnologias alimentadas por IA em rápida proliferação. Os esforços legislativos incluem o desenvolvimento de legislação abrangente, legislação focada em casos de uso específicos e diretrizes e padrões voluntários.
À medida que jurisdições individuais avançam com as suas próprias estruturas e abordagens, elas também tentam concentrar esforços multilaterais para coordenar e harmonizar as diferentes abordagens. Os princípios de IA da Organização para a Cooperação e Desenvolvimento Económico (OCDE) foram reafirmados em muitos contextos diferentes, incluindo pelos ministros digitais e de tecnologia dos países do G7 durante o Summit de Hiroshima 2023. A UNESCO, a Organização Internacional de Normalização, a União Africana e o Conselho da Europa estão todos a trabalhar em estruturas de governança de IA multilaterais. O governo do Reino Unido organizou o primeiro Summit de Segurança de IA para as partes interessadas do governo e da indústria, com o objetivo de concordar, avaliar e monitorizar os riscos mais significativos da IA. Acompanhar, desvendar e governar o complexo campo da legislação e política global de governance da IA, rapidamente se tornou uma questão estratégica de alto nível para as organizações.
O que se se espera que possa sair da reunião de hoje?
Em junho, os eurodeputados negociaram a sua posição sobre o Regulamento de Inteligência Artificial, que é uma proposta da Comissão Europeia. A posição dos eurodeputados é mais ambiciosa do que a da Comissão, e inclui requisitos mais rigorosos para a segurança, transparência e não discriminação dos sistemas de IA. O que se espera que possa sair da reunião é um acordo entre a Comissão Europeia, o Parlamento Europeu e o Conselho da União Europeia. Este acordo será o primeiro passo para a aprovação do Regulamento de Inteligência Artificial.
Existem temas muito importantes para serem regulados e a serem discutidos, nomeadamente: Proíbem certos tipos de sistemas de IA, ou seja, aqueles que são manipulativos, exploratórios, realizam pontuação social ou usam sistemas de identificação biométrica em “tempo real”; Classificam os sistemas de IA de alto risco e estabelecem requisitos com os quais esses sistemas e os seus fornecedores devem cumprir; Delegam autoridades reguladoras e de fiscalização; Prescrevem padrões de conformidade que podem ser aplicados pelos sistemas de alto risco; Garantem obrigações de transparência para sistemas de IA que interagem com pessoas naturais; Fornecem medidas de inovação; Estabelecem um quadro de governança dividido entre o Conselho de IA da UE e autoridades nacionais; Criam um banco de dados para sistemas de alto risco; Exigem um processo iterativo de revisão após a implantação no mercado; Estimulam a formação de códigos de conduta para sistemas de IA que não são de alto risco; Estipulam requisitos de confidencialidade para as autoridades que lidam com dados proprietários; Conferem poder para adotar atos delegados à Comissão Europeia.
Se não existir acordo, quais as implicações?
Se não existir acordo, as implicações serão significativas. A União Europeia não terá um quadro jurídico claro para a IA, o que poderá levar a uma fragmentação do mercado e a uma redução da confiança dos cidadãos na tecnologia.
Quais são as maiores preocupações dos juristas à proposta atual e as considerações necessárias numa próxima proposta?
As maiores preocupações são, em primeiro lugar, a falta de clareza e precisão de alguns conceitos, como “risco inaceitável” e “não discriminatório”. Em segundo lugar, a falta de flexibilidade da proposta, que poderá dificultar a inovação na IA. As considerações necessárias numa próxima proposta devem ser, por um lado, a clarificação dos conceitos e a introdução de mais flexibilidade. Por outro lado, a necessidade de garantir que o Regulamento de Inteligência Artificial seja eficaz na proteção dos direitos fundamentais, sem sufocar a inovação.
Segundo informação partilhada pelo Parlamento Europeu, os diferentes níveis de risco vão depois implicar mais ou menos regulamentação. Haverá regras diferentes para diferentes tipos de risco.
Segundo a proposta atual, os sistemas de IA serão classificados de acordo com o risco que representam para os utilizadores. Os sistemas de risco inaceitável serão proibidos, os sistemas de risco elevado estarão sujeitos a requisitos rigorosos e os sistemas de risco limitado estarão sujeitos a requisitos menos rigorosos.
Na prática como se aplica esta regulamentação? Pode dar um exemplo?
Na minha opinião, esta regulamentação será aplicada através de uma avaliação do risco dos sistemas de IA, realizada por quem desenvolve ou utiliza. Esta avaliação deverá considerar fatores como o tipo de dados utilizados pelo sistema, o propósito do sistema, o impacto potencial do sistema nos utilizadores e a capacidade do sistema de ser controlado. Um exemplo de como esta regulamentação poderia ser aplicada é o caso de um sistema de IA utilizado para classificar pessoas em função da sua raça ou origem étnica. Este sistema seria classificado como de risco inaceitável, uma vez que o seu uso poderia levar a discriminações.
A prioridade é garantir que os sistemas sejam «seguros, transparentes, rastreáveis, não discriminatórios e respeitadores do ambiente». É mais uma questão de ética e não tanto de direito?
Concordo com estas prioridades de garantir que os sistemas de IA sejam seguros, transparentes, rastreáveis, não discriminatórios e respeitadores do ambiente. Estes requisitos são essenciais para proteger os direitos fundamentais dos cidadãos, como o direito à privacidade, à não discriminação e ao ambiente. A questão de saber se estes requisitos são mais uma questão de ética ou de direito é complexa e não tem uma resposta fácil. Por um lado, estes requisitos são fundamentados em princípios éticos, como a justiça, a igualdade e a sustentabilidade. Por outro lado, estes requisitos também têm implicações jurídicas, uma vez que podem ser utilizados para fundamentar ações judiciais contra os desenvolvedores ou utilizadores de sistemas de IA.
Como fazer essas regras, que padrões e métricas devem ser instituídos para que a comunidade global os deva seguir?
A criação de padrões e métricas para a IA é um desafio complexo, uma vez que a tecnologia da IA está em constante evolução. No entanto, é essencial que a comunidade global se coordene para criar padrões e métricas que sejam eficazes na garantia da segurança, transparência e não discriminação dos sistemas de IA.
Se os sistemas operacionalizados pela IA podem tomar decisões morais, como podem e devem ser programados para o fazer?
A programação de sistemas de IA para tomarem decisões morais é uma área de investigação emergente. No entanto, ainda existem muitos desafios a serem superados, como a definição de critérios para a moralidade e a criação de algoritmos que sejam capazes de tomar decisões morais complexas.


