Estudo revela ocorrência de "alucinações" em respostas de IA
Essas ocorrências ocorrem em pelo menos 3% das vezes
Foto: Reprodução/zf L/Getty Images
Há aproximadamente um ano, as inteligências artificiais generativas conquistaram popularidade, sendo amplamente exploradas por usuários em diversas atividades cotidianas. Embora seu papel como ferramenta auxiliar tenha sido benéfico, aqueles que a utilizam como fonte de conhecimento frequentemente relatam respostas incorretas, um fenômeno chamado de "alucinações". De acordo com um estudo recente conduzido pela startup Vectara, fundada por ex-colaboradores do Google, essas ocorrências ocorrem em pelo menos 3% das vezes.
Para investigar essa questão, especialistas solicitaram uma tarefa simples aos modelos de linguagem mais populares: resumir documentos de texto. O Chat-GPT, da OpenAI, demonstrou a menor taxa de alucinações, com respostas incorretas variando entre 3% e 3,5%. Já o Lhama, da Meta, apresentou erros em 5% a 6% das respostas; o Cohere, entre 7,5% e 8,5%; o Claude 2, da Anthropic, em 8,5%; o Mistral 7B, em 9,4% e o Palm, do Google, variando de 12,1% a 27,2%.
Os autores do estudo observam que essa taxa foi registrada com base em uma tarefa específica, mas em outras situações, como ao pedir uma resposta sem especificar uma fonte, as alucinações podem ser ainda mais comuns. Nota-se que na ferramenta do Google, os erros são mais frequentes, uma vez que as respostas tendem a ser mais longas e contextualizadas.
Essas ocorrências são motivo de preocupação, pois muitas vezes têm implicações reais. Um caso emblemático ocorreu em um tribunal, quando um advogado solicitou ao ChatGPT uma pesquisa de casos similares ao que estava defendendo. Infelizmente, o modelo gerou casos fictícios que foram utilizados em documentos oficiais, colocando o advogado em risco de sanções legais futuras.
É crucial entender que, ao contrário do que muitos imaginam, esses programas não são capazes de raciocinar ou conduzir pesquisas concretas. Em vez disso, com base em seu treinamento, eles preveem a ordem mais lógica de palavras de acordo com a pergunta do usuário. Essa dinâmica também se aplica a geradores de imagens, áudios ou vídeos, que podem apresentar alucinações, como dedos ou membros ausentes.
As empresas trabalham constantemente para reduzir essas falhas, mas surge a questão sobre se elas são inerentes a essa tecnologia. Especialistas sugerem que essas ferramentas sejam utilizadas de maneira crítica, como um "co-piloto", sem atribuir funções intrinsecamente humanas a elas.
Essa discussão também abre reflexões sobre o futuro das inteligências artificiais. Embora sua presença seja indiscutível, o espaço que ocuparão em nossas rotinas é um tema que ainda demandará ampla discussão na sociedade.