As pesquisas realizadas pela OpenAI revelam que os modelos o3 e o4-mini produzem respostas incorretas em 33% e 48% dos casos, respectivamente. Essa tendência, chamada de alucinação, levanta questões sobre a confiabilidade dos sistemas de IA, especialmente em áreas críticas como medicina ou finanças. Eleanor Watson, especialista em ética da IA, destaca os riscos desses erros sutis, mas potencialmente graves.
A alucinação não é apenas um defeito, mas uma característica inerente aos modelos de linguagem. Sohrob Kazerounian, pesquisador de IA, explica que essa capacidade de gerar conteúdo original é o que permite à IA criar, e não apenas reproduzir. Sem essa faculdade, os sistemas de IA estariam limitados a respostas pré-existentes, sem possibilidade de inovação (ver capítulo no final do artigo).
No entanto, o problema se agrava com os modelos mais avançados. As alucinações tornam-se menos evidentes e mais difíceis de detectar, incorporadas em narrativas plausíveis. Eleanor Watson explica que isso pode corroer a confiança nos sistemas de IA, especialmente quando os usuários aceitam as informações como verdadeiras.
As soluções para mitigar esse fenômeno incluem o uso de fontes externas para verificar as informações geradas. Eleanor Watson também menciona a importância de estruturar o raciocínio dos modelos e ensiná-los a reconhecer sua própria incerteza. Essas abordagens, embora imperfeitas, poderiam melhorar a confiabilidade das respostas.
Por fim, Sohrob Kazerounian lembra que, diante das limitações da IA, uma dose de ceticismo ainda é necessária. Assim como com as informações fornecidas por humanos, é importante verificar os dados produzidos pelos modelos de linguagem, especialmente onde a precisão é crucial.
Por que as IAs alucinam?
A alucinação nos modelos de IA é um fenômeno que decorre de sua capacidade de gerar conteúdo original. Diferentemente dos sistemas tradicionais, que se baseiam em dados existentes, os modelos de linguagem avançados tentam criar respostas novas, o que pode levar a invenções.
Essa capacidade é essencial para tarefas criativas, como redação ou design, onde a inovação é valorizada. No entanto, torna-se problemática quando a IA é usada para fornecer informações factuais, onde a precisão é exigida.
Os pesquisadores trabalham em métodos para reduzir essas alucinações sem sufocar a criatividade dos modelos. Entre esses métodos, estão o uso de bancos de dados externos para verificar fatos ou a introdução de mecanismos de verificação interna.
Apesar desses esforços, a alucinação continua sendo um problema maior, especialmente com a rápida evolução das capacidades dos modelos de IA.
Fonte: OpenAI