Na sua infinita inconsciência, a Inteligência Artificial (IA) será capaz de transformar o mundo. Já é. Em dois estudos diferentes, ambos publicados em agosto na Nature, duas equipas de investigação descreveram que através de Brain–Computer Interfaces (BCIs) foi possível traduzir sinais neurais em texto ou palavras pronunciadas por uma voz sintética. Os BCIs descodificaram 62 palavras por minuto e 78 palavras por minuto, respetivamente. Uma conversa natural decorre com cerca de 160 palavras por minuto, mas estas novas tecnologias são ambas mais rápidas do que qualquer outra tentativa anterior.
Há 20 anos, Ann Jonhson, então professora e treinadora de voleibol, sofreu um AVC que a deixou paralisada e incapaz de falar. Os investigadores implantaram elétrodos que decodificaram os sinais cerebrais de Ann enquanto tentava formular frases. Estes sinais foram convertidos em linguagem escrita e vocalizada, e um avatar num ecrã de computador falou as palavras e mostrou expressões faciais. É a primeira vez que palavras faladas e expressões faciais são sintetizadas diretamente a partir de sinais cerebrais. Ann escolheu um avatar que se parece com ela, e os investigadores utilizaram o discurso do seu casamento para desenvolver a voz do avatar. O principal objetivo é ajudar pessoas que perderam a capacidade de falar devido a AVCs ou condições como paralisia cerebral e esclerose lateral amiotrófica.
A Inteligência Artificial (IA) desempenha um papel crucial nestes estudos, uma verdadeira pAIrtnership:
Decodificação dos Sinais Cerebrais: a IA é utilizada para interpretar e descodificar os sinais cerebrais captados pelos elétrodos implantados no cérebro de Ann. Estes sinais representam as intenções de fala, mesmo que a fala real não seja produzida devido à paralisia.
Conversão em Linguagem: assim que os sinais cerebrais são decodificados, a IA auxilia na conversão desses sinais em linguagem escrita e falada. A complexidade desta tarefa envolve a compreensão de sensibilidades, intenções e contextos para traduzir corretamente os sinais em palavras.
Utilização de Modelos de Linguagem Preditiva: os sistemas utilizam modelos de linguagem preditiva para prever e ajudar na descodificação das palavras que a pessoa está a tentar dizer. Estes modelos são treinados em grandes conjuntos de dados de linguagem e podem antecipar palavras ou frases com base nos sinais cerebrais recebidos.
Expressão Facial do Avatar: Além de verbalizar as palavras, a IA também interpreta e traduz os sinais cerebrais associados às emoções da pessoa. Isto faz com que o avatar mostre expressões faciais correspondentes, adicionando uma dimensão à comunicação.
A IA atua como uma ponte entre a atividade cerebral e a comunicação expressiva, permitindo que pessoas paralisadas não só construam palavras e discurso lógico, mas que expressem também emoções através de um doppelganger digital.