As alucinações da Inteligência Artificial (IA) têm sido um fenómeno recorrente nas várias plataformas que utilizam esta tecnologia. Este fenómeno consiste na apresentação de conteúdos não fundamentados, ou seja, o modelo alterou os dados que lhe foram fornecidos ou acrescentou informações.
Estas alucinações podem ser benéficas quando os utilizadores pretendem que a IA crie uma história de ficção científica ou forneça ideias não convencionais, mas a maioria das organizações que desenvolvem assistentes de IA necessitam que estes sejam capazes de fornecer informações fiáveis e fundamentadas, como é o caso das instituições de saúde ou de ensino, nas quais a precisão dos dados é fundamental.
Com o propósito de combater o fenómeno das alucinações, a Microsoft criou uma tarefa de recuperação de texto e acompanhou o processo, com o intuito de melhorar as respostas dos modelos. Este trabalho conduziu a uma nova forma de reduzir os casos em que os grandes modelos de linguagem (LLM) se desviam dos dados que lhes são fornecidos, pois sabe-se que estes tendem a alucinar mais com factos que estão menos disponíveis nos dados de treino da Internet.
A estratégia delineada pela Microsoft
Os esforços da Microsoft são dedicados a desenvolver a IA com responsabilidade, para que esta opere de uma forma segura, confiável e ética, e por isso mesmo foi criado um conjunto abrangente de ferramentas cuja finalidade consiste em ajudar a resolver a falta de fundamentação com base na experiência do desenvolvimento dos seus próprios produtos de IA, como o Microsoft Copilot.
Os engenheiros da Microsoft passaram meses a fundamentar o modelo do Copilot com dados de pesquisa do Bing através da técnica retrieval augmented generation, que acrescenta conhecimentos a um modelo sem ter de o treinar novamente.
As respostas, o índice e os dados de classificação do Bing estão a ajudar o Copilot a fornecer respostas mais precisas e relevantes, juntamente com citações que permitem aos utilizadores procurar e verificar informações.
Neste momento, a Microsoft está também focada em fazer com que os seus clientes utilizem estas ferramentas avançadas. A funcionalidade On Your Data no Azure OpenAI Service apoia as organizações a fundamentar as suas aplicações de IA generativa com os seus próprios dados num ambiente seguro à escala empresarial.
Outras ferramentas disponíveis no Azure AI ajudam os clientes a proteger as suas aplicações ao longo do ciclo de vida da IA generativa. Um serviço de avaliação ajuda os clientes a medir o fundamento em aplicações em produção e em relação a métricas de fundamento pré-criadas. Os modelos de mensagens do sistema de segurança facilitam aos engenheiros a instrução de um modelo para se concentrarem na obtenção de dados.
A Microsoft está também a desenvolver uma nova funcionalidade de mitigação para bloquear e corrigir instâncias não fundamentadas em tempo real, ou seja, quando é detetado um erro de conexão, a funcionalidade reescreve automaticamente as informações com base nos dados.


