A Inteligência Artificial (IA) já não é uma mera corrida por inovações tecnológicas. Em jogo está a derradeira liderança dos modelos de linguagem, ferramentas mais acedidas pelo utilizador comum. Recentemente, o modelo chinês DeepSeek-R1 surgiu para rivalizar com o ChatGPT-4 da OpenAI, causando disrupção de um meio até então dominado pelo gigante americano.
Com um custo significativamente mais baixo e igual desempenho, o novo modelo levanta, no entanto, algumas questões relacionadas com transparência, ética e veracidade de algumas informações.
Daniel Pereira, Partner da LTPlabs, consultora portuguesa de gestão a operar com IA, esclarece estas premissas, deixando claro o que podemos esperar daqueles modelos de linguagem nos próximos tempos.
Quais são as maiores diferenças entre a OpenAI e a DeepSeek?
A OpenAI e a DeepSeek seguem abordagens distintas, tanto no desenvolvimento dos seus modelos como na forma como interagem com a comunidade. A OpenAI, americana líder na área de IA Generativa, é conhecida por modelos como o ChatGPT-4, o qual tem um uso generalista (abarca todas as áreas, sem uma especialização).
No entanto, adota uma estratégia fechada, não disponibilizando o código dos seus modelos mais avançados — o que significa que só ela o pode alterar — garantindo assim maior controlo sobre o seu desenvolvimento e aplicação.
Já a DeepSeek, uma start-up chinesa, segue uma filosofia oposta. Com o lançamento do DeepSeek-R1 em finais de janeiro, aposta num modelo open-source, permitindo que a comunidade aceda ao código e o modifique.
Embora também seja um modelo de uso generalista, em rigor, acaba por ser mais ‘especializado’, pois tem-se destacado no processamento avançado de cálculos matemáticos e em aplicações nas áreas de engenharia e finanças.
Estas diferenças refletem não apenas os objetivos estratégicos de cada empresa, mas também a forma como contribuem para o ecossistema de inovação. Ou seja, a OpenAI com uma abordagem mais centralizada e controlada e a DeepSeek incentivando uma evolução mais colaborativa e aberta.
Tendo em conta que a OpenAI não disponibiliza os modelos mais avançados em código aberto, qual é a sua opinião sobre as restrições de acesso a estas tecnologias? Como conciliar transparência e controlo, especialmente face aos potenciais riscos do seu uso?
A questão do acesso a modelos de IA é um dos debates centrais no setor. A decisão da OpenAI de manter os modelos mais avançados fechados visa mitigar riscos como desinformação, uso malicioso e deepfakes (alterar um áudio ou um rosto/situação de um vídeo ou de uma foto, podendo comprometer a imagem de uma pessoa), mas levanta preocupações sobre a concentração de poder e a limitação da inovação.
Já abordagens open-source, como a da DeepSeek, promovem maior transparência e permitem que empresas e investigadores adaptem os modelos às suas necessidades. No entanto, também apresentam desafios, pois um modelo aberto pode ser utilizado sem supervisão para finalidades problemáticas, como por exemplo: criação automática de textos que imitam comunicações oficiais para enganar pessoas e obter informações sensíveis e produção massiva de conteúdos falsos para manipular a perceção pública.
Acredito que um modelo de governança equilibrado, que combine transparência com mecanismos de controlo eficazes e efetuados por entidades credenciadas para o efeito, será essencial para garantir um ecossistema de IA inovador e de confiança.
Com o avanço da IA, surgem preocupações em relação aos potenciais perigos e ao uso indevido das tecnologias, como a manipulação de informações ou a criação de algoritmos nocivos. Qual a responsabilidade de empresas como a DeepSeek e a OpenAI para mitigar esses riscos? Há diferença entre ambas?
Empresas como a OpenAI e a DeepSeek têm a responsabilidade de adotar medidas concretas para minimizar os riscos associados ao uso indevido da IA, especialmente quando os modelos estão disponíveis ao público. Para isso, existem quatro mecanismos que podem ser introduzidos.
Por um lado, é fundamental investir em monitorização contínua dos modelos para detetar utilizações problemáticas em tempo real, permitindo a implementação rápida de medidas corretivas e a atualização de restrições de segurança.
Por outro, é necessário implementar controlos técnicos, como a limitação do acesso a funcionalidades sensíveis ou a exigência de autenticação para determinados casos de uso, reduzindo o potencial de abuso.
É ainda preciosa a colaboração com instituições académicas e reguladores para estabelecer diretrizes claras de ética e de segurança, promovendo um desenvolvimento responsável da tecnologia.
Por fim, mas não menos importante, é preciso efetuar auditorias e avaliações de impacto, que analisam periodicamente a forma como os modelos estão a ser utilizados, antecipando riscos emergentes e garantindo maior transparência nos processos de treino e de tomada de decisão. Ao contrário da monitorização ativa (focada na deteção e resposta imediata), estas auditorias permitem uma visão abrangente e estratégica dos riscos ao longo do tempo.
Sendo uma aplicação chinesa e havendo já exemplos de como alguma informação sobre a China não é partilhada pelo DeepSeek, deve haver maior preocupação com a veracidade da transparência da informação deste modelo?
A transparência e a fiabilidade da informação são fundamentais na adoção de qualquer modelo de IA, independentemente da sua origem. O importante é compreender as limitações e os vieses de cada modelo e garantir que os utilizadores estejam cientes dessas questões.
Os modelos de IA são treinados com base em dados que podem ser influenciados por restrições geopolíticas, culturais ou regulatórias. Por isso, deve existir um esforço contínuo para promover transparência na forma como os modelos são treinados e utilizados. Empresas, academia e reguladores devem trabalhar juntos para garantir que as tecnologias sejam desenvolvidas e aplicadas de forma responsável.
A gratuidade das ferramentas de IA tem um impacte a longo prazo na sustentabilidade das empresas que as criam. A DeepSeek vê um futuro em que as soluções de IA permaneçam acessíveis sem custos. Considera esta ideia possível ou acha que um modelo de monetização é necessário para garantir a inovação contínua?
A oferta gratuita de ferramentas de IA é muitas vezes uma estratégia para promover a adoção e o crescimento do ecossistema. No entanto, a sustentabilidade a longo prazo exige um modelo de monetização. Muitas empresas começam com versões gratuitas e depois introduzem planos pagos, seja por meio de subscrições premium, seja através da integração em produtos comerciais.
O desafio está em encontrar um equilíbrio: manter o acesso democrático à tecnologia sem comprometer o investimento necessário para a sua evolução. Modelos híbridos, que combinam acesso gratuito com opções pagas mais avançadas, parecem ser a abordagem viável para garantir inovação contínua.
A introdução de IA em setores como a indústria de armamento levanta sérias questões éticas. Deveria haver uma regulamentação mais rigorosa sobre o uso de IA em contextos militares?
A aplicação da IA em contextos militares é um dos temas mais sensíveis no debate ético sobre esta tecnologia. Embora alguns países e organizações já estejam a discutir diretrizes para regulamentar esse uso, ainda não existe um consenso global.
Regulamentação mais rigorosa é essencial para evitar riscos e potenciais abusos. Um exemplo concreto deste debate é a proposta da ONU sobre a proibição de armas autónomas letais, que procura estabelecer regras internacionais para que estas tecnologias não sejam aplicadas de forma descontrolada.
O envolvimento de especialistas em ética, segurança e direito internacional será determinante para garantir que a IA seja utilizada de forma responsável e alinhada com princípios humanitários.
Como é que empresas de IA — como a DeepSeek e a OpenAI — podem colaborar para garantir um futuro ético para a inteligência artificial, respeitando a privacidade, a segurança e os direitos dos indivíduos? Existe necessidade de uma regulação global para o setor ou a autorregulação das empresas é suficiente?
Sobre a colaboração entre empresas de IA, esta pode ocorrer de várias formas, nomeadamente através da criação de fóruns conjuntos, da partilha de boas práticas e do desenvolvimento de padrões comuns para segurança e transparência.
Todavia, na verdade, nem esta colaboração nem a autorregulação são suficientes para garantir um uso responsável da IA à escala global.
É necessário e, diria, até urgente, criar legislação global para reduzir ao máximo todos os riscos do uso indevido desta ferramenta.
O grande desafio está em encontrar um enquadramento regulatório internacional que seja eficaz e aplicável em múltiplas regiões, considerando que diferentes países têm abordagens distintas para privacidade, ética e controlo tecnológico.
A fragmentação legislativa pode levar a inconsistências e a dificultar a criação de um ecossistema de IA seguro e responsável. Por isso, a criação de um quadro regulatório equilibrado, que promova a inovação sem comprometer direitos fundamentais, será um dos grandes desafios dos próximos anos.