A polémica sobre os “grandes modelos de linguagem” (LLMs no acrónimo em inglês) como o GPT da OpenAI ou o LaMDA da Google continua. Agora porque um conjunto de personalidades a reclamarem uma moratória de seis meses para sistemas mais avançados do que o GPT4. A ideia é que estamos numa corrida desenfreada para criar “mentes digitais” que são ainda pouco compreendidas, previsíveis e controláveis. Segundo os mais de 1000 subscritores devemos parar até compreender os efeitos e riscos desta tecnologia.
Primeiro os modelos como o GPT ou o LaMDA não são uma forma de inteligência artificial geral, são simplesmente modelos treinados em quantidades muito grandes de informação e que geram respostas estatisticamente prováveis. O facto de a interface a estes modelos ser conversacional (o chat) torna as respostas articuladas o que se pode confundir com inteligência e criatividade que não possuem. Segundo estes modelos já estão disponíveis de forma relativamente aberta e disseminada. Por exemplo o LLaMA da Meta já corre num computador pessoal e em breve num simples telemóvel. A existir a caixa de Pandora já está aberta.
Vamos admitir que os LLMs são uma tecnologia de utilização geral, ou seja, que representam uma vaga como o computador pessoal, a Internet ou a computação móvel que terá um impacto transversal na indústria e na economia e sociedade. A primeira questão que nos deveria tranquilizar é que as mudanças comportamentais e a capacidade de uma tecnologia ter um impacto substancial na sociedade e na economia demoram cinco a dez anos. Não porque a tecnologia não possa evoluir rapidamente, mas simplesmente porque a adoção pelas pessoas e pelas organizações é lenta. O facto de alguns milionários ou tecnólogos, amplificados pelos media, estarem a falar muito sobre o tema não muda esta curva de adoção. Para cada uma destas pessoas existem milhões que nem fazem ideia do que é o GPT e muitos outros que têm problemas muito mais sérios para resolverem nas suas vidas. A endogeneização de uma tecnologia de utilização geral demora décadas e implica capacidades de escala e de educação e preparação das pessoas e das organizações. Veja-se o que aconteceu com a Internet e quanto tempo demorou a ser generalizada.
A segunda questão é que os receios que possamos entrar num ciclo explosivo em que estes modelos possam ser capazes de gerar novos modelos até que surja uma inteligência artificial genérica tão poderosa que nos fuja ao controlo. Sem querer entrar em pormenores técnicos este argumento significa que um modelo estatístico seria capaz de gerar um modelo estruturalmente distinto capaz de exibir um comportamento inteligente e intencional com capacidade para interferir no mundo físico. Parece muito pouco provável que isso venha a acontecer. Mais provável é que os subscritores da moratória pretendam contribuir para o que Lee Vinsel chama de hype-crítico a ideia que os críticos da tecnologia acabam por ser promotores indiretos dessa mesma tecnologia exacerbando os cenários mais tenebrosos. O hype-crítico tem um forte aliado nos modelos mentais popularizados pela ficção científica, de Metropolis a 2001 odisseia no espaço a Predador ou Matrix (esses filmes antigos como dizem os meus alunos). Mas a motivação pode ser bem mais simples, ao gerar uma onda de preocupação social e política criamos um negócio em que consultoras, advogados e políticos acabam por beneficiar da moda tecnológica. O medo vende muitos pareceres, estudos, foresights, roadmaps e estratégias. Influenciar a regulação é um grande negócio.
A terceira e mais importante questão é a da adoção sobre a qual temos controlo. Todos nós podemos (e devemos) decidir em que áreas e como estes modelos podem ser adotados e a que tipo de informação podem ter acesso. Na educação, na justiça, na saúde? Não estou a falar de banir o chatGPT das escolas (isso nem sequer faz sentido) mas da importância de ensinar o pensamento crítico a uma geração que irá ter estes modelos a produzir explicações eloquentes com duvidosa precisão factual ou sujeita a enviesamentos (para não falar de desinformação). Ou a ideia de que sistemas como o judicial e de saúde possam ser automatizados com recurso a este tipo de tecnologias. Podemos ter um LLM a escrever uma pronúncia ou uma sentença ou a ajudar um enfermeiro na triagem ou uma médica a estabelecer um diagnóstico ou uma terapêutica? Devemos usar LLMs em processos de investigação onde a quantidade de informação poderia ser analisada rapidamente tirando conclusões sobre documentos, emails, transcrições, etc. Existirá uma enorme pressão (e oportunidade) para introduzir LLMs neste tipo de contextos que merecem a tal moratória porque podem ter consequências imprevisíveis. Finalmente o impacto que estes modelos terão no mercado de trabalho. Aqui confesso que estou muito mais preocupado com a necessidade de reformar o nosso sistema de ensino para promover o pensamento crítico, a agilidade e adaptabilidade a ambientes de incerteza. Elevar a importância de uma formação humanista, para estimular a curiosidade, a criatividade, a interdisciplinaridade em vez da especialização pela memorização e pela repetição. Já agora foram estes os princípios da reforma do modelo de ensino do IST de quer fui coautor em 2019, numa altura em que não tinha acontecido uma pandemia, uma guerra na Europa e o chatGPT só existia nos artigos científicos.
Em conclusão sou naturalmente contra a moratória aos “grandes modelos de linguagem”. Parece-me claramente oportunista e sem qualquer efeito prático a não ser que o objetivo seja criar um mercado baseado no hype-crítico ou hipoteticamente influenciar a competição global onde só vejo vantagem para regimes ditatoriais ou empresas (e empresários) de ética duvidosa. Não se pode parar o vento com as mãos, mas podemos ajustar as velas na direção certa.

