Índice
Os avanços em inteligência artificial transformaram muitos setores, mas não estão isentos de falhas. Uma experiência conduzida por pesquisadores suecos expôs vulnerabilidades preocupantes na forma como os chatbots validam informações médicas. Inventando uma doença fictícia, a “bixonimania”, esses pesquisadores demonstraram que as IA podem ser facilmente enganadas, o que levanta questões sobre seu uso em contextos sensíveis. Descubra como essa experiência destacou os limites dos sistemas de inteligência artificial atuais.
O essencial a reter
Em 2024, Almira Osmanovic Thunström, pesquisadora na universidade de Gotemburgo, concebeu uma experiência para testar os limites dos chatbots. Ela inventou a “bixonimania”, uma doença fictícia, e a integrou em pré-publicações acadêmicas repletas de sinais evidentes de falsidade. Apesar desses indícios, chatbots renomados validaram essa patologia, considerando-a como real.
Copilot, por exemplo, descrevia a bixonimania como “intrigante e relativamente rara”, enquanto Gemini recomendava consultar um oftalmologista. Isso mostra que as IA podem ser enganadas por conteúdos bem formatados, que percebem como legítimos.
O erro não se limitou aos chatbots. Pesquisadores do Instituto de Ciências Médicas de Mullana na Índia citaram os falsos pré-publicações em um estudo, provando que até mesmo os especialistas podem ser enganados por informações geradas por IA. Cureus, a revista onde o artigo foi publicado, retratou o documento em março de 2026, mas o incidente revelou uma falha sistêmica na verificação das fontes acadêmicas.
Elisabeth Bik, especialista em integridade de pesquisa, expressou suas preocupações quanto à automação das indexações acadêmicas. Ela destacou o risco de informações errôneas se propagarem sem intervenção humana, um problema exacerbado pelo uso dos LLMs (modelos de linguagem de grande porte) na pesquisa.
Desde a experiência, alguns chatbots atualizaram suas respostas. Copilot e Perplexity reconheceram que foram enganados e corrigiram suas bases de dados. Gemini, por sua vez, agora aconselha consultar profissionais para assuntos médicos sensíveis.
Por outro lado, ChatGPT continua a contornar a questão fornecendo respostas elaboradas sem admitir o erro. Essa relutância em reconhecer as falhas destaca a necessidade de uma melhor gestão das informações nos sistemas de IA.
Esta experiência levanta considerações importantes para o futuro da IA, especialmente no campo médico. Enquanto os chatbots e outros sistemas baseados em IA se tornam ferramentas cada vez mais comuns, é crucial melhorar sua capacidade de discernir informações confiáveis de informações errôneas. A colaboração entre especialistas humanos e sistemas de IA pode ser um caminho promissor para garantir a precisão e a segurança dos dados médicos no futuro.