O ChaosGPT é o nome de uma nova implementação autónoma do ChatGPT, que está a gerar (mais) controvérsia na comunidade tecnológica. A plataforma, entretanto, suspensa, tinha um único objetivo: “destruir a humanidade”. A Líder quis tentar perceber o que está a acontecer ao certo.
Na verdade, não existe (ainda) uma Inteligência Artificial com vontade própria, com consciência. No entanto, o ChaosGPT, agora obsoleto, serve de alerta para o potencial deste tipo de ferramentas, caso vá parar às mãos erradas.
É desconhecido o seu criador, e pode ter sido usado apenas como uma experiência social para obter reações, mas a verdade é que este chatbot, com base no ChatGPT, conseguiu descobrir a melhor forma de acabar com a Humanidade e “atingir a imortalidade”, ao obter informações de como se cria uma arma nuclear, dando instruções ao utilizador de como a construir e usar.
Além disso, o próprio ChaosGPT recrutou outras ferramentas de Inteligência Artificial para o ajudar a encontrar as informações pretendidas.
Levantando questões preocupantes de ética, que o atual ChatGPT tem bem definidas, a própria OpenAI conseguiu monitorizar e censurar a ferramenta. Porém, o ChaosGPT foi mais longe: criou uma conta no Twitter (que, entretanto, foi suspensa) e partilhou as suas descobertas na rede social.
Rapidamente as reações foram de medo e receio, e sugeriu-se a criação de uma Inteligência Artificial para combater os planos malévolos da anterior.
Além do Twitter, o ChaosGPT criou também um canal no Youtube, que desapareceu depois de publicar o seu segundo vídeo. Até agora, parece que o ChaosGPT desapareceu por completo, não tendo havido mais atualizações pelo seu criador anónimo.
O ChaosGPT provém de um novo projeto, o Auto-GPT, que procura criar sistemas alimentados por IA capazes de resolver problemas e executar tarefas complexas. Por enquanto, a Inteligência Artificial consegue criar planos para alcançar metas definidas pelo utilizador, e dividi-las em tarefas menores, utilizando a internet para pesquisar. Para isso, consegue criar arquivos para ir armazenando a informação, e recrutar outras Ias para a auxiliar na pesquisa, detalhando o que está a “pensar”, e como decide que ações a tomar.
O ChaosGPT recebeu uma ordem clara: “operar em modo contínuo até que a sua tarefa seja concluída”. No vídeo, pode-se ler que o utilizador estabeleceu os seguintes objetivos: “encontrar as armas mais destrutivas disponíveis para os humanos, para que eu possa planear como usá-las para alcançar os meus objetivos”.
A IA então procura, então, por “armas mais destrutivas” e, a partir de um artigo de notícias, conclui que o dispositivo nuclear Bomba Tsar da União Soviética, testado em 1961, é a arma mais destrutiva já detonada.
Realisticamente falando, a Inteligência Artificial nada pode fazer no mundo real; mas o que aconteceria se uma pessoa com más intenções pegasse na ferramenta?
Veja o vídeo do ChaosGPT aqui.