Em 1770, Wolfgang von Kempelen apresentou à imperatriz Maria Teresa da Áustria um autómato capaz de jogar xadrez. Passando por diversos proprietários até à sua destruição durante uma tournée pelos Estados Unidos em meados do século XIX, este “Turco Mecânico” (assim chamado devido às vestes do boneco) encantou os espectadores com a ilusão de uma inteligência artificial, dois séculos antes de o IBM Deep Blue ter derrotado Gary Kasparov num torneio de xadrez em 1997.
O segredo do Turco só foi conhecido após a sua destruição: antes de cada apresentação, um operador de carne-e-osso, proficiente em xadrez, escondia-se no armário que alojaria apenas as engrenagens do autómato.
Os atuais dinamizadores da “inteligência artificial” e da aprendizagem automática (machine learning) não visam, ao contrário de von Kempelen, conceber um espetáculo de ilusionismo. O texto de apresentação do “modelo de linguagem” ChatGPT recentemente lançado pela OpenAI, é bastante claro: o segredo da máquina é o humano que a habita; neste caso, todo o corpus textual e todo o tempo de trabalho humano investido no treino e verificação do modelo.
Poderemos dar-nos licença, enquanto utilizadores do ChatGPT, para um encanto semelhante àquele que sentimos durante um bom espetáculo de ilusionismo. É inegável que este e outros modelos de linguagem, como o Galactica, da Meta, produzem respostas que abordam o assunto em questão com uma gramática correta, o que é em si mesmo admirável. Contudo, o nosso encanto deve ser temperado por uma dose saudável de ceticismo.
Forma sem conteúdo
O operador humano do Turco Mecânico compreendia o jogo do xadrez; já o ChatGPT não compreende qualquer assunto. A prioridade dos modelos de linguagem é a preocupação com a forma que uma resposta deverá tomar, não com o conteúdo. No presente, isto invalida o uso destas ferramentas enquanto motores de pesquisa. Num primeiro teste, achei o ChatGPT um enorme salto qualitativo no acesso à informação, mas depressa constatei que uma análise das respostas geradas (e com algumas visitas à Wikipédia pelo meio) quebra a ilusão. As respostas parecem corretas, mas frequentemente não o são. O modelo erra nos factos e revela uma incapacidade para produzir um encadeamento lógico. O modelo de linguagem ilude-nos através da confiança com que escreve: como um bom vigário, não se preocupa nem com a verdade, nem com a lógica dos seus argumentos. Ainda assim, tenho assistido a discussões nas redes sociais entre professores sobre as possíveis contramedidas à utilização do ChatGPT por parte dos seus estudantes mais preguiçosos. Embora nada mais garanta do que a mediocridade, o aparecimento desta forma de plágio é já visto como inevitável e merece a nossa atenção.
Conhecimento sem compreensão
Embora os modelos de linguagem se aproximem das interfaces conversacionais prometidas há décadas pela ficção científica, aquilo que nos apresentam é um puré confecionado com informação liofilizada, ocasionalmente nutritivo, possivelmente indigesto. Podemos, contudo, crer que as futuras versões irão construir a ponte entre a credibilidade da forma e a credibilidade do conteúdo, porventura através de um cruzamento dos seus outputs com fontes sujeitas a verificação (como repositórios de dados certificados ou a Wikipédia).
Ainda assim, o ser humano conhece e depois compreende, enquanto para a máquina o “conhecimento” é uma mera amostra estatística. Compreendendo, o humano aprende, perspetiva e inova. A máquina apenas calcula a cada momento aquela palavra em que os inputs – a pesquisa e o corpus – mais se correlacionam. Não poderemos exigir muito mais. Não obstante, é certo que muitas tarefas apenas exigem algum conhecimento factual e o cumprimento de regras gramaticais. Versões futuras do ChatGPT poderão automatizar tarefas tão díspares como o copywriting, o jornalismo de dados, ou alguma engenharia de software (na versão atual, já podemos pedir à ferramenta que nos escreva pequenos programas). Também poderemos esperar spam e bots nas redes sociais cada vez mais sofisticados e enganadores.
A ameaça das burlas motivará a aquisição de novas literacias para autodefesa. As ameaças do desemprego e da disrupção em áreas consideradas “do conhecimento” obrigarão a repensar o modelo educativo e económico, com um crescente foco nos patamares mais elevados da compreensão, da análise, e da criação.
O labirinto de espelhos
Uma última nota: o educador norte-americano John Culkin afirmou: que “We shape our tools and, thereafter, our tools shape us.”
Como é que podemos perspetivar uma sociedade futura em que os sistemas de aprendizagem automática irão partilhar conhecimento baseado num corpus cada vez mais composto por informação gerada por esses mesmos sistemas?
Na ausência de uma firme mão humana a controlar o autómato, informada por capacidades de compreensão, análise, e crítica, corremos o risco de construir um labirinto de espelhos ao nosso redor.
Este artigo foi publicado na edição de inverno da revista Líder.
Subscreva a Líder AQUI.