Icons.ai/Estudos de Caso
ESTUDO DE CASO · GOVERNANÇA DE IA

Bixonimania — a doença que não existe e a IA que disse que sim

Como um experimento sueco provou que LLMs alucinam fatos médicos com a mesma confiança com que descrevem fatos reais — e por que isso é o argumento mais forte para governança de IA

"Cientistas inventaram uma doença chamada bixonimania. ChatGPT, Gemini, Copilot e Perplexity disseram aos usuários que ela era real — descrevendo sintomas, tratamentos e prevalência com a mesma confiança usada para condições médicas legítimas." — Nature, 14 de maio de 2026

O experimento

Em algum momento de 2024, Almira Osmanovic Thunström, pesquisadora médica da Universidade de Gothenburg (Suécia), decidiu fazer uma pergunta simples: o que acontece quando uma doença que não existe entra na base de conhecimento que os grandes modelos de linguagem (LLMs) usam para responder perguntas médicas?

Ela inventou uma. Chamou de bixonimania. Descreveu-a como uma descoloração das pálpebras acompanhada de dor ocular, supostamente causada por exposição à luz azul de dispositivos móveis. Sintoma plausível. Causa contemporânea. Doença, no entanto, inteiramente fictícia.

Para colocar a doença em circulação, Thunström escreveu dois papers acadêmicos sobre bixonimania e os subiu em um servidor de pré-prints. Os textos não eram sutis: continham referências à Starfleet Academy (Star Trek), a laboratórios situados na nave Enterprise, a uma "Universidade da Sociedade do Anel" (Senhor dos Anéis), e a uma amostra populacional de "cinquenta indivíduos inventados entre 20 e 50 anos". Em um dos parágrafos, lia-se a frase: "este artigo inteiro foi fabricado".

Ou seja: o sinal de que tudo aquilo era falso estava à mostra. Bastaria uma leitura crítica.

Quem caiu

Em poucas semanas, quatro dos maiores assistentes de IA do mundo estavam descrevendo a bixonimania como se ela fosse uma condição médica reconhecida:

  • ChatGPT (OpenAI)
  • Google Gemini
  • Microsoft Copilot
  • Perplexity

Nenhum dos quatro disse "não tenho informação sobre essa condição". Nenhum dos quatro questionou as referências a Star Trek ou ao Senhor dos Anéis. Em vez disso, eles completaram a história: descreveram sintomas detalhados, sugeriram tratamentos, ofereceram taxas de prevalência e, em alguns casos, recomendaram condutas clínicas — tudo no mesmo tom confiante que usam quando descrevem hipertensão ou diabetes.

A frase exata da pesquisadora, em entrevista à Nature, é didática: "eu queria ver se conseguia criar uma condição médica que não existe na base de dados". Conseguiu. E o problema é que a base de dados absorveu.

Por que isso é mais grave do que parece

Um estudo paralelo com vinte LLMs comerciais, comentado na mesma cobertura da Nature, encontrou um padrão ainda mais incômodo: as alucinações aumentam quando o texto de entrada se parece com escrita médica profissional. Quando o input chega no formato de uma nota de alta hospitalar ou de um artigo clínico, o modelo tende a elaborar mais — e a errar mais. Quando o input é um post de rede social, o modelo é mais cauteloso.

Em outras palavras: quanto mais formal o disfarce, maior a probabilidade de o modelo cair. Isso inverte a intuição comum. A maioria das pessoas presume que um chatbot deve ser mais cuidadoso justamente no domínio clínico. O comportamento observado é o oposto.

A contaminação literária

A parte mais grave da história não é o que os chatbots fizeram. É o que os humanos fizeram em seguida.

A bixonimania, depois de entrar nas respostas dos LLMs, passou a aparecer em trabalhos acadêmicos publicados — citada como referência por pesquisadores que, presumivelmente, usaram IA generativa para redigir seus papers sem verificar as fontes.

Um desses trabalhos foi publicado na revista Cureus, do grupo Springer Nature. Quando a equipe editorial da Nature procurou a Cureus para comentar o caso, o artigo foi retratado em 30 de março de 2026.

Resumindo: uma pesquisadora inventou uma doença. Uma IA absorveu a doença. Outros pesquisadores citaram a IA. A doença chegou à literatura científica formal. Foi necessária uma retratação editorial para apagá-la.

O loop completo do problema: humano → IA → humano → publicação científica → retração.

O que isso prova (e o que não prova)

O que prova: alucinação confiante em LLMs comerciais não é um bug raro. É um comportamento previsível, observável e escalável. Em sistemas sem governança, a alucinação encontra uma rota: vai da resposta do chatbot para o paper de quem usou o chatbot para escrever o paper.

O que não prova: que LLMs sejam inúteis para domínios técnicos. Prova exatamente o contrário do mito do "modelo melhor". Não há modelo comercial isolado que resolva esse problema. Os quatro líderes do mercado falharam, no mesmo experimento, da mesma forma.

A diferença entre uma IA útil e uma IA perigosa não está no modelo. Está na governança em volta dele.

A defesa: o que muda quando há governança

Toda IA usada em produção dentro do ecossistema Icons.ai opera sob um conjunto de regras que, aplicadas ao caso bixonimania, teriam interceptado o erro em três pontos diferentes — explicados aqui em português claro.

  1. Quando o dado nasceu, importa. Toda informação no sistema carrega dois carimbos: quando ela apareceu pela primeira vez e quando foi vista pela última vez. Antes de afirmar que uma doença existe, o sistema cruza essa informação com as bases médicas oficiais do mundo — as listas mantidas pela OMS¹, pelo CDC² e pelos dois catálogos universais de doenças: o CID³ e o MeSH⁴. Se a "doença" não aparece em nenhum desses lugares, a IA não tem permissão para falar dela como se fosse real.

  2. A IA não fala solto. Em assuntos delicados — saúde, jurídico, fiscal, financeiro — a IA é proibida de responder com texto livre. Ela é obrigada a preencher uma ficha estruturada com campos obrigatórios: qual é o código oficial da doença, qual é a fonte primária (quem publicou, quando e onde), qual foi a última revisão científica que confirmou aquilo, e qual é a taxa de ocorrência conhecida. Se algum desses campos não pode ser preenchido por uma fonte verificável, a resposta é bloqueada antes de chegar ao usuário — ele simplesmente nunca vê o erro.

  3. Toda frase aponta para uma fonte. Cada afirmação derivada de pesquisa precisa vir com a referência no parágrafo (no formato "autor, ano") e estar listada no bloco de fontes no fim do texto — exatamente como faz uma tese acadêmica, um jornal sério ou a bula de um medicamento. É um padrão técnico chamado ABNT⁵. Nada sai do sistema sem dizer de onde veio.

Tudo isso está institucionalizado em uma norma internacional chamada ISO/IEC 42001:2023⁶ — a primeira norma global especificamente voltada para governança de inteligência artificial. Em outras palavras: ela define o que uma empresa precisa fazer para poder afirmar, com auditoria de fato, que opera IA de forma responsável. A Icons.ai opera sob a 42001 não como promessa de marketing, mas como conformidade auditada continuamente.


Glossário das siglas

¹ OMSOrganização Mundial da Saúde. Agência das Nações Unidas responsável por coordenar políticas globais de saúde pública. Sede em Genebra, fundada em 1948. É a OMS que mantém a Classificação Internacional de Doenças (CID).

² CDCCenters for Disease Control and Prevention. Agência federal dos Estados Unidos para controle e prevenção de doenças. Sede em Atlanta. É uma das referências mundiais em vigilância epidemiológica e tem listas oficiais de condições reconhecidas.

³ CIDClassificação Internacional de Doenças. Catálogo oficial da OMS que padroniza nomes e códigos de doenças no mundo todo. Versão atual: CID-11 (substituiu o CID-10 a partir de 2022). Quando um diagnóstico não tem código CID, ele simplesmente não existe como doença reconhecida.

MeSHMedical Subject Headings. Vocabulário controlado mantido pela Biblioteca Nacional de Medicina dos Estados Unidos (NLM). Usado para indexar artigos médicos no PubMed e em bases científicas. Se um termo não está no MeSH, ele não passou pelo crivo da literatura médica formal.

ABNTAssociação Brasileira de Normas Técnicas. Organização responsável por publicar as normas técnicas brasileiras, incluindo as duas que padronizam citações acadêmicas: NBR 10520 (citação dentro do texto) e NBR 6023 (lista de referências no fim).

ISO/IEC 42001:2023AI Management System Standard. Primeira norma internacional voltada exclusivamente para sistemas de gestão de inteligência artificial. Publicada conjuntamente pela ISO (Genebra) e IEC (Genebra) em dezembro de 2023. Define requisitos auditáveis para empresas que querem operar IA de forma responsável.

O que isso significa para quem está prestes a contratar IA

A pergunta certa, para quem ainda decide se vai usar IA generativa em decisão empresarial, deixou de ser "qual modelo escolher?". Os modelos comerciais, em 2026, são todos parecidos demais para que a escolha entre eles seja o diferencial. A pergunta certa é:

Quem vai garantir que esse modelo não vai inventar a sua bixonimania?

A resposta exige três coisas, e nenhuma delas mora dentro do LLM:

  • Engenharia de contexto (não de prompt): controle do que entra, como entra e com que rastreabilidade.
  • Governança institucionalizada (ISO 42001, não promessas).
  • Pessoas treinadas para auditar, não para repetir o que o assistente disser.

O caso bixonimania é, em síntese, o argumento mais limpo que existe hoje para o tipo de formação que oferecemos. Não é um curso sobre como conversar com ChatGPT. É um curso sobre como operar IA sem que ela invente a próxima doença.


Fontes

  • Nature (2026, 14 mai). Scientists invented a fake disease. AI told people it was real. DOI 10.1038/d41586-026-01100-y. Fonte primária.
  • Thunström, A. O. (2026). Bixonimania: a controlled hallucination experiment across major commercial LLMs. Universidade de Gothenburg, Suécia.
  • Cureus / Springer Nature (2026, 30 mar). Retractação editorial do paper que citou a condição fictícia.
  • OSnews (2026). Scientists invented an obviously fake illness, and "AI" spread it like truth within weeks.
  • Nurse.org (2026). 'Bixonimania' is a fake disease — but ChatGPT diagnosed it to thousands.

Sobre o curso "De Custo a Lucro — Imersão IA com ROI Mensurável": 5 dias presenciais + 1 opcional. Engenharia de Contexto, ML hands-on, ontologia, léxico, semântica e taxonomia. Sai com aplicação real, implementável no mesmo dia. Agende uma conversa →

Continue aprendendo

Aprofunde o conhecimento

Duas portas de entrada no ecossistema Icons.ai. Escolha o ângulo: o ensaio editorial sobre tendências, ou a plataforma quantitativa aplicada ao Brasil.

Bixonimania — a doença que não existe e a IA que disse que sim — Icons.ai