Sebastian Sunday, filósofo e professor da Universidade de Pequim, surpreende com uma argumentação profunda e ao mesmo tempo pragmática sobre a questão se as máquinas podem ou não ser conscientes.
Na sua visão, a resposta é sim! Essa exposição baseia-se num encadeamento de ideias que na base têm como fonte o trabalho e legado do matemático Alan Turing, criador da máquina de Turing, um projeto primórdio do que viria a ser um computador.
Mergulhe nesta conversa de Sebastian Sunday com a Líder, e viaje pela lógica da filosofia aliada ao tema da Inteligência Artificial, do desenvolvimento do futuro da tecnologia e da própria Humanidade.
Na sua pesquisa e afirmação de que as máquinas podem ser conscientes, quando consideramos um LLM (Large Language Model) como o Chat GPT, é possível que ele também desenvolva consciência?
A resposta curta é: Sim. Uma resposta um pouco mais longa é que, pelo que sabemos, não há razão para acreditar que LLMs não possam desenvolver consciência. Vou elaborar um pouco sobre isso. No artigo que fala, «As Máquinas podem ser conscientes?», o coautor e eu argumentamos que os avanços recentes em bioengenharia – especificamente, próteses inteligentes recém-desenvolvidas – fornecem evidências significativas de que o sistema nervoso humano pode ser substituído por partes de um material diferente, como silício ou plástico, para que um humano possa ser gradualmente transformado numa máquina, mantendo ainda a consciência.
Assim, esses recentes avanços científicos fornecem evidências significativas de que uma máquina pode ser consciente. No entanto, alguém pode objetar de que isso não significa que a consciência artificial seja possível. E isso é verdade de certa forma. Pois não argumentamos que a consciência possa ser criada artificialmente, a partir do zero, numa máquina. No nosso pensamento experimental, consideramos um organismo vivo consciente (um humano) e transformamo-lo gradualmente numa máquina. Portanto, mesmo que o resultado seja uma máquina consciente, não teremos criado artificialmente a consciência; em vez disso, teremos pegado numa parte da consciência existente e transformado o seu suporte físico numa máquina.
Portanto, mesmo que nosso argumento esteja correto, ainda pode ser impossível para os LLMs desenvolverem consciência. Na verdade, como acabei de explicar, pode até ser impossível criar consciência artificial ao usar qualquer tecnologia existente ou futura. Atualmente, não o sabemos. Dito isso, acredito que o nosso argumento dá uma boa razão para acreditar que a consciência artificial é possível. Ao mesmo tempo, não conheço nenhuma boa razão para acreditar que a consciência artificial não seja possível. Portanto, dado o nosso conhecimento atual sobre a consciência e ao ver a força e capacidade dos LLMs existentes, estou relativamente confiante de que no futuro essa tecnologia pode ser aprimorada e complementada de tal forma a produzir consciência.
Sempre que interajo com o ChatGPT, digo ‘bom dia’ e ‘por favor’. O comportamento gera comportamento, certo?
Acho que concordo. Acho que está a sugerir que nossa experiência de ter interações interessantes e gentis com LLMs, como o ChatGPT, não significa necessariamente que estamos a lidar com um outro tipo de mente. Os humanos são facilmente influenciados e muitas vezes enganados para reagir a coisas com rostos, vozes ou gestos humanos de uma maneira tal como se o outro fosse mais (mais um ser com mente – «minded being») do que realmente é. Essa característica da psicologia humana – a aparente inevitabilidade de antropomorfizar o mundo ao nosso redor – é um problema sério em relação à IA, porque cria o risco de uma ilusão coletiva em larga escala. E acredito que isso é um exemplo de um fenómeno mais geral que pode ser chamado de perigo de viver numa realidade meramente virtual (ou seja, uma espécie de realidade falsa ou simulação enganosa).
O potencial de uma IA superinteligente levanta preocupações sobre riscos existenciais para a humanidade. Concorda?
Concordo. E julgo que, hoje em dia, a maioria das pessoas concordaria também. No entanto, as pessoas diferem em relação à forma como avaliam a verdadeira gravidade desse tipo de risco. Quão urgente é esta ameaça existencial? Neste ponto, estou em acordo com aqueles que enfatizaram que essas futuras possibilidades exigem ação no presente. A capacidade do ChatGPT, especialmente após o lançamento do GPT-4, surpreendeu muitas pessoas, incluindo muitos especialistas. Isso mostra que a pesquisa em IA tem o potencial de avanços significativos e inesperados; as coisas podem correr muito mal, muito rapidamente.
No início desta entrevista, falamos sobre a possibilidade de consciência das máquinas. Uma pergunta relacionada é: como vamos saber se realmente existe ou não consciência numa determinada máquina? Como sabemos se alguém é consciente? Essas são perguntas importantes e muito difíceis, sobre as quais a sociedade humana deve conseguir rapidamente responder – não necessariamente da maneira teórica mais fundamental, mas pelo menos encontrar soluções práticas, o que já vai ser difícil.
Alan Turing, matemático e pioneiro em IA, sugeriu que é comum entre os humanos seguir a convenção de que todos têm consciência, e que deve ser dado à máquina um tratamento justo. Mas outros enfatizaram com razão que tal ‘tratamento justo’ em relação às máquinas pode significar o fim da espécie humana. Argumentei em outros locais (por exemplo, no meu livro ‘Nietzsche e as Máquinas’) que, de qualquer maneira, provavelmente não temos muito tempo a perder. Seja qual for o futuro, quase certamente será rápido e confuso. Na minha opinião, a melhor e mais realista preparação, seria um discurso mais reflexivo no presente, para que possamos pelo menos entender melhor que tipo de convivência desejamos realmente ter com as máquinas.
Os sistemas de IA podem tomar decisões morais e, em caso afirmativo, como deverão ser programados para o fazer?
Num sentido importante, os sistemas de IA já estão a tomar decisões morais. Por exemplo, os algoritmos de social media já existem para evitar a distribuição de conteúdo prejudicial. A tomada de decisões morais em robôs e veículos autónomos é outra área de pesquisa muito ativa.
Pode-se objetar que o fato de esses sistemas de IA fazerem o que fazem, significa que não estão a tomar decisões morais por si próprios; e que, uma vez que os sistemas de IA têm de ser de alguma forma projetados para fazer o que fazem, eles na verdade não podem tomar decisões morais (ou qualquer decisão) por si mesmos. No entanto, devemo-nos lembrar que esses algoritmos de aprendizagem são tipicamente muito complexos. De facto, esses algoritmos tendem a ser tão complexos que as pessoas que os criam geralmente não preveem o que eles vão fazer – ou talvez decidir fazer – numa determinada situação; portanto, essas coisas parecem pelo menos ter uma certa autonomia, e isso torna bastante natural descrevê-las como tomando decisões, incluindo decisões morais, e assim por diante.
Agora, dada a falta de compreensão que muitas vezes temos sobre o que acontece dentro dessas “caixas negras”, muitos éticos argumentam que deve ser feito mais trabalho para tornar os sistemas de IA razoavelmente interpretáveis. Isso parece claramente certo: definitivamente queremos ter uma compreensão sólida das razões sobre as quais um sistema de IA parece operar, especialmente quando essas operações têm alguma relevância moral. Ao mesmo tempo, não devemos esquecer que muitas vezes não entendemos muito bem as razões das outras pessoas, nem mesmo as nossas; então, talvez também haja limites naturais para o que devemos esperar ser capazes de entender ao lidar com sistemas de IA.
O que podemos esperar da sua participação na Leadership Summit Portugal?
Na minha apresentação, vou falar principalmente sobre a questão de as máquinas poderem ser ou não conscientes, inteligentes, dotadas de sentido e assim por diante, tal e qual um típico ser humano. Em termos gerais, a pergunta pode ser formulada da seguinte forma: as máquinas podem adquirir a mentalidade humana (human mindedness)? Este é também o título da minha apresentação. E acredito que essa seja a pergunta fundamental que queremos responder quando fazemos perguntas se as máquinas podem pensar, se o ChatGPT pode entender inglês ou se os robôs podem ter emoções. Queremos saber até que ponto as máquinas podem se tornar como nós; e se talvez até possam se tornar um de nós. Na minha talk, vou apresentar um argumento baseado na ciência que conclui que as máquinas realmente podem adquirir a mentalidade humana. Claro, o argumento diz respeito a máquinas que ainda não existem. Na verdade, diz respeito a máquinas que muitos podem dizer que nunca serão feitas. Alan Turing, por exemplo, parecia pensar assim. Mas também vou apresentar razões para acreditar que o tipo de máquina necessário será criado, e provavelmente mais cedo do que pensamos.
Uma mensagem de esperança para renascer do caos.
Acredito que ‘Renascer do Caos’ traz em si uma mensagem positiva de esperança. Eu disse que o futuro será rápido e confuso. Quero com isso dizer que as hipóteses são de que o mundo ser mais rápido e mais caótico no futuro do que jamais terá sido no passado. Ou seja, o mundo ficará cada vez mais caótico. Não apenas o tema da Cimeira, ‘Reborn from Chaos’, sugere que já emergimos do caos antes, mas o fato de ter esse nome também mostra que existem pessoas – ou seja, os organizadores, patrocinadores, participantes e convidados – que levam a sério essa ideia e essa tarefa de emergir do caos. E assim, este próprio evento, parece-me uma declaração poderosa e credível de esperança. Esta é uma das razões pelas quais estou ansioso para participar.