Ilusão de conhecimento é mais perigosa do que ignorância
Oposição a consensos científicos é mais forte entre os que, sem saber, pensam que sabem.
“O maior inimigo do conhecimento não é a ignorância. É a ilusão de conhecimento”. Essa frase circula amplamente pela internet, quase sempre atribuída a Stephen Hawking (embora não haja registros de que o físico britânico tenha de fato dito isso). A fonte mais próxima parece ser Daniel Boorstin, historiador americano que escreveu algo conceitualmente semelhante: “The greatest obstacle to discovery is not ignorance—it is the illusion of knowledge“.
Independentemente da autoria, a frase aborda um fenômeno que tem consequências práticas: a confiança desproporcional daqueles que sabem o suficiente para se sentirem competentes, mas não o bastante para reconhecer a vastidão daquilo que desconhecem.
Não se trata de mera especulação. Em 2022, artigo publicado na revista Science Advances examinou a “psicologia da oposição ao consenso científico”. Ao longo de cinco estudos envolvendo milhares de participantes nos Estados Unidos, os pesquisadores investigaram a relação entre três variáveis: o grau de oposição ao consenso científico estabelecido, o conhecimento objetivo real que as pessoas têm sobre os temas discutidos e, mais importante, o quanto elas acreditam que sabem sobre aquilo (que podemos chamar aqui de “conhecimento subjetivo”).
Foram escolhidos sete temas aparentemente controversos, mas sobre os quais há consenso científico: mudanças climáticas antropogênicas, segurança de alimentos geneticamente modificados, vacinação infantil, energia nuclear, medicina homeopática, teoria da evolução e teoria do Big Bang. Os resultados apresentam um padrão que, em geral, se repetiu: quanto maior a oposição ao consenso científico, menor o conhecimento objetivo sobre o tema, mas maior a confiança subjetiva. Aqueles no extremo da oposição ao consenso científico classificaram seu próprio conhecimento nos níveis mais altos da amostra, enquanto seus escores em testes objetivos de conhecimento científico ficaram entre os mais baixos.
A questão se complica quando examinamos as nuances. Um estudo de 2023, publicado em Nature Human Behaviour, conduzido por Simone Lackner, analisou quatro grandes levantamentos ao longo de 30 anos na Europa e Estados Unidos. Os pesquisadores desenvolveram uma métrica de “superconfiança” que não dependia de autorrelato subjetivo, mas media objetivamente a tendência de dar respostas incorretas em vez de admitir “não sei” para questões sobre fatos científicos.
O achado central foi de que a superconfiança não é maior entre os completamente ignorantes. Ela atinge seu pico em níveis intermediários de conhecimento científico. A confiança cresce muito mais depressa do que o conhecimento real, criando uma lacuna que é máxima justamente no ponto em que as pessoas sabem o suficiente para se sentir informadas, mas não o bastante para reconhecer a complexidade do que não dominam. E são esses indivíduos com conhecimento intermediário que também demonstram as atitudes mais negativas em relação à ciência e aos cientistas.
Ambos os achados têm implicações que vão além da curiosidade acadêmica. Mostram que o problema não é apenas falta de informação. É algo estruturalmente mais complexo e, portanto, mais difícil de resolver.
Apostando na ignorância
Críticos poderiam argumentar que pessoas com diferentes níveis de oposição ao consenso podem ter usado critérios diferentes ao avaliar seu próprio conhecimento. Talvez reconheçam que seu entendimento não reflete os mesmos fatos aceitos pela comunidade científica, mas considerem seus enquadramentos alternativos igualmente válidos.
Para testar essa hipótese, os pesquisadores do artigo da Science Advances ofereceram aos participantes a oportunidade de apostar em sua capacidade de pontuar acima da média em questões objetivas de conhecimento científico sobre o tema que lhes foi designado. Poderiam escolher entre ganhar um pouco mais de dinheiro se acertassem as respostas, ou receber um pagamento menor, garantido, sem arriscar. Neste paradigma, decidir apostar indicaria confiança genuína, uma vez que há dinheiro real em jogo, e não apenas uma postura retórica.
Os resultados mostraram que quanto maior a oposição ao consenso científico, maior também a probabilidade de apostar. E quanto maior a oposição, menor a probabilidade de pontuar acima da média nas questões de conhecimento. Assim, os oponentes mais extremos do consenso científico ganharam menos dinheiro (como resultado de terem apostado que teriam conhecimentos que objetivamente não têm).
É quase irresistível, neste ponto, invocar o famoso efeito Dunning-Kruger como explicação definitiva. Afinal, esse fenômeno psicológico, descrito em 1999, documenta a tendência de indivíduos com baixa competência em determinado domínio a superestimar suas habilidades. Mas precisamos de cuidado por duas razões. Primeiro, seria anacrônico aplicar o conceito original sem considerar os refinamentos e contestações que surgiram nas últimas duas décadas de pesquisa. Segundo, porque as evidências mais recentes sugerem que o fenômeno é mais sutil.
O Dunning-Kruger original focava em habilidades específicas e mensuráveis, como raciocínio lógico ou competência gramatical, testadas em contextos controlados. O que estamos discutindo aqui opera em uma escala diferente: conhecimento científico factual sobre questões de enorme relevância social e atitudes em relação ao consenso estabelecido por comunidades científicas inteiras, ao longo de décadas de pesquisa acumulada.
Além disso, estudos mais recentes levantaram questões sobre quanto do efeito Dunning-Kruger original pode derivar, parcialmente, de um achado estatístico relacionado à regressão à média e ao ruído nas medições. Nada disso invalida o fenômeno subjacente (pessoas realmente têm dificuldade em avaliar com precisão os limites de seu próprio conhecimento), mas complica a narrativa simples de que “ignorantes não sabem que são ignorantes”.
Nesse sentido, o estudo de Lackner oferece um modelo mais sofisticado. Não seriam os completamente ignorantes que apresentam maior superconfiança, mas aqueles com conhecimento intermediário. Isso faz sentido quando pensamos em uma curva de aprendizado: no início, não se sabe o suficiente nem para ter alguma confiança. No final, especialistas desenvolvem metacognição suficiente para reconhecer limitações e incertezas. No meio, há uma zona perigosa onde o conhecimento é suficiente para gerar confiança, sem que haja ainda a sofisticação metacognitiva necessária para calibrá-la.
Os dados do estudo da Science Advances revelam ainda outro padrão: a relação entre oposição ao consenso e superconfiança não se mantém uniforme em todos os temas científicos. Para questões altamente polarizadas politicamente, como mudanças climáticas, o efeito se atenua, ou desaparece.
A relação entre oposição e conhecimento subjetivo falhou em atingir significância para mudanças climáticas, Big Bang e evolução. O que isso nos diz sobre a natureza da oposição ao consenso científico? Quando um tema é capturado por identidades políticas ou religiosas, o papel do conhecimento individual (seja objetivo ou subjetivo) diminui. A atitude passa a ser determinada mais pela afiliação comunitária do que por avaliação cognitiva individual, por mais equivocada que essa avaliação possa ser.
Em outras palavras: para temas altamente polarizados, você não precisa necessariamente de uma ilusão de conhecimento para se opor ao consenso. Basta pertencer ao grupo “certo”, consumir as “mídias certas”, identificar-se com os “valores certos”. Mas para temas menos capturados politicamente, como alimentos geneticamente modificados, medicina homeopática e vacinação (antes da pandemia!), o padrão se mantém robusto: extrema oposição correlaciona-se consistentemente a baixo conhecimento objetivo e alto “conhecimento subjetivo”.
Cenário brasileiro
Recentemente, participei de um painel sobre desinformação em saúde em Brasília. Neste evento, foi apresentado um relatório com um recorte de dados sobre a confiança em saúde na população brasileira, do Edelman Trust Barometer 2025. É interessante notar como as informações levadas ao evento dialogam com os estudos que estamos discutindo.
Por exemplo: no Brasil, nenhuma instituição é vista como confiável quando o assunto é saúde. Empresas alcançam apenas 54% de confiança, ONGs 48%, a mídia tradicional 39% e o governo 38%. Mais alarmante: 69% dos brasileiros acreditam que as ações de empresas, governo ou ONGs prejudicam ativamente sua capacidade de obter assistência de saúde de boa qualidade.
E o mais interessante: 75% dos brasileiros afirmaram sentir-se confiantes quanto à sua própria capacidade de encontrar informações confiáveis sobre saúde. De modo semelhante, 76% dizem sentir-se confiantes em sua capacidade de distinguir conselhos médicos bons de ruins.
Leia novamente esta curiosa combinação: segundo os brasileiros, as instituições não são confiáveis, mas “eu”, individualmente, confio na minha capacidade de navegar esse mar de “desinformação” institucional. É o equivalente a declarar que todos os mapas disponíveis devem estar errados (ou até mesmo ser falsos), mas que você confia plenamente em seu senso de direção inato para atravessar um território desconhecido.
A intersecção desses dados com os achados internacionais sobre o “excesso de confiança subjetiva” é imediata. Temos uma população que simultaneamente: (1) desconfia de todas as instituições relacionadas à saúde; (2) confia altamente em sua própria capacidade de avaliar informações médicas; (3) é influenciada por redes sociais informais e criadores de conteúdo sem formação médica; e (4) entre os mais jovens, acredita que a busca independente de informações pode equiparar-se à formação especializada.
O Trust Barometer revela ainda que, após médicos pessoais e cientistas, a principal influência nas decisões de saúde dos brasileiros é exercida por amigos e familiares — 64% da população relata que esse grupo já influenciou suas decisões. Vinte por cento dos brasileiros afirmam que criadores de conteúdo sem formação médica já influenciaram suas decisões de saúde.
Quando analisamos as crenças sobre vacinação infantil, a fragmentação das fontes de informação se torna mais evidente. Entre brasileiros de 18 a 34 anos com crenças variadas sobre vacinação infantil, as bases dessas crenças distribuem-se assim: 33% citam mídias sociais, 32% experiências pessoais de outros, 29% governo e autoridades de saúde pública, 34% seus prestadores de saúde e 34%, evidências científicas encontradas online.
É esse conhecimento intermediário, adquirido por meio de vídeos do YouTube, posts de Instagram de “influenciadores de saúde”, threads no Twitter, relatos pessoais em grupos de WhatsApp, que gera o pico de “superconfiança” identificado pelos estudos que discutimos. As pessoas não estão “desinformadas” no sentido clássico. Consumiram conteúdo, absorveram fragmentos factuais, memorizaram estatísticas descontextualizadas e, com isso, sentem-se informadas. E é essa sensação que se torna perigosa quando desconectada de conhecimento estruturado real.
Outro dado que merece destaque pela sua gravidade: 73% dos brasileiros acreditam que autoridades governamentais mentem propositalmente em assuntos de saúde, dizendo coisas que sabem ser falsas ou grosseiramente exageradas. Setenta e um por cento dizem o mesmo sobre líderes empresariais e 67%, sobre jornalistas.
É claro que essa percepção generalizada de mentira intencional não surge do nada. Escândalos de corrupção documentados, conflitos de interesse mal gerenciados, comunicação institucional historicamente opaca, episódios reais de desinformação por parte de autoridades etc., contribuem para a erosão de confiança. Mas o problema é que essa desconfiança, insuflada por relação a falhas institucionais específicas, generaliza-se em uma desconfiança indiscriminada que prepara o terreno para que a ilusão de conhecimento prospere. A lógica se torna: “Se as instituições estão mentindo sistematicamente, então buscar conhecimento em canais oficiais seria ingenuidade. Logo, preciso buscar a verdade por conta própria em fontes ‘alternativas’ que ‘eles’ tentam suprimir.”
Como consequência, temos um cenário fértil para teorias conspiratórias: a ausência de evidência a favor da conspiração é reinterpretada como evidência da própria conspiração, já que “eles” naturalmente esconderiam as provas. E dentro dessa lógica circular, o conhecimento superficial adquirido de fontes duvidosas torna-se a “verdade suprimida”.
Consequências mensuráveis
Os estudos sobre COVID-19 incluídos na pesquisa da Science Advances trazem o fenômeno abstrato da superconfiança para o território concreto das consequências imediatas e mensuráveis. Dois estudos separados examinaram, respectivamente, a disposição para receber vacina contra COVID-19 (conduzido em julho de 2020, antes das vacinas estarem disponíveis ao público) e a adesão a medidas de mitigação, como o uso de máscaras e o distanciamento social (conduzido em setembro de 2020).
Em ambos os casos, o padrão documentado em outros temas científicos se repetiu. Maior oposição para receber vacinas correlacionou-se com menor conhecimento objetivo sobre ciência geral e sobre COVID-19 especificamente, mas com maior “conhecimento subjetivo” sobre como uma vacina contra COVID-19 funcionaria. Maior oposição a políticas de mitigação e menor adesão autorreportada a comportamentos preventivos recomendados seguiram exatamente o mesmo padrão.
Um achado particularmente interessante: os pesquisadores dividiram os participantes entre aqueles que classificaram seu próprio conhecimento sobre COVID-19 como superior ao dos cientistas (28% da amostra) e os demais. Esse grupo que se considerava mais conhecedor do que cientistas especializados era significativamente mais contrário a políticas de mitigação do vírus, reportava menor adesão a comportamentos preventivos e, simultaneamente, pontuava mais baixo em medidas objetivas de conhecimento sobre COVID-19. No fim das contas, isso se traduz em comportamentos que, em contexto de pandemia, custam vidas de forma direta e mensurável.
Considerações finais
Diante desse diagnóstico, qual seria o caminho? O estudo da Science Advances oferece algumas direções, embora reconheça que soluções simples não existem. Intervenções educacionais baseadas exclusivamente em fornecimento de fatos têm eficácia limitada, especialmente para aqueles opostos ao consenso científico. Afinal, se alguém já acredita que tem ampla compreensão sobre determinado assunto, por que absorveria novas informações que contradizem esse “conhecimento”? A informação corretiva acaba não sendo processada como atualização, mas como ameaça à identidade cognitiva.
Nesse sentido, uma possível abordagem seria reduzir a confiança subjetiva antes de tentar aumentar o conhecimento objetivo real. Por exemplo: pedir às pessoas para explicar em detalhe mecanismos causais complexos pode ajudar a reduzir sua confiança subjetiva, já que o ato de tentar articular uma explicação coerente e detalhada revelaria de forma mais clara as lacunas no próprio entendimento. Essa técnica é chamada de “ilusão de profundidade explanatória”.
Mas talvez a lição mais importante que podemos extrair, considerando também os dados brasileiros, seja a de que não podemos ignorar as dimensões relacionais e sistêmicas do problema. Se pessoas buscam ativamente informações factualmente duvidosas porque vêm acompanhadas de empatia, tempo, atenção e linguagem acessível que o sistema formal não oferece, então apenas corrigir o conteúdo informacional é insuficiente.
O que os dados revelam é que não vivemos apenas uma crise de informação, mas uma crise de confiança. Pessoas não se opõem ao consenso científico porque desconhecem os fatos, mas porque se sentem suficientemente informadas (pelas vias que julgam confiáveis).
Talvez, no fim, a defesa mais efetiva do conhecimento não passe por torná-lo mais assertivo, ruidoso ou combativo, mas por torná-lo novamente digno de confiança — não apenas por seus métodos, que já o são, mas também por suas práticas comunicacionais, por sua ética relacional e por sua capacidade de dialogar.
No mundo concreto das decisões em saúde, o maior adversário do conhecimento não é a ignorância assumida. Ele se apresenta, quase sempre, com a aparência confortável da certeza (mal fundamentada). E é justamente por isso que é tão difícil de derrotar.
André Bacchi é professor adjunto de Farmacologia da Universidade Federal de Rondonópolis. É divulgador científico e autor dos livros “Desafios Toxicológicos: desvendando os casos de óbitos de celebridades” e “50 Casos Clínicos em Farmacologia” (Sanar), “Porque sim não é resposta!” (EdUFABC), “Tarot Cético: Cartomancia Racional” (Clube de Autores) e “Afinal, o que é Ciência?…e o que não é. (Editora Contexto).
“Assombrou minha existência por décadas”: os relatos de quem sofre de paralisia do sono
Privada: a maior invenção da humanidade
Besouro peludo é batizado em homenagem a Chewbacca
Mapa-múndi mais antigo do mundo aponta para a Arca de Noé? Entenda





