A inteligência artificial (IA) pode ser uma ferramenta importante na luta contra as teorias da conspiração.
Um exemplo disso é o Debunkbot, uma IA baseada no modelo GPT-4 Turbo, que foi projetada para conversar com pessoas que acreditam em conspirações. Em vez de tentar provar que elas estão erradas ou forçar um ponto de vista, o Debunkbot adota um tom neutro e paciente, compartilhando apenas informações confiáveis e comprovadas. A ideia é que, com o tempo, isso ajude as pessoas a refletirem e, eventualmente, questionarem suas próprias crenças.
O Debunkbot foi testado em um estudo conduzido pelo psicólogo Thomas Costello, da American University, nos Estados Unidos. Ele e sua equipe fizeram experimentos em que pessoas conversavam com a IA sobre teorias da conspiração em que acreditavam. A IA respondia com paciência e objetividade, sem tentar convencer ou argumentar com os participantes. Em vez disso, ela apenas apresentava fatos e informações verificadas, de maneira calma e sem julgamento.
O resultado foi surpreendente: após essas conversas, o nível de crença em teorias da conspiração diminuiu em cerca de 20% nos participantes. Além disso, 27,4% deles passaram a questionar se suas crenças eram verdadeiras. Esses efeitos duraram até dois meses depois da interação com a IA.
Uma das razões pelas quais o Debunkbot tem sucesso é que ele não desperta a mesma reação defensiva que ocorre em uma discussão entre duas pessoas. Quando alguém desafia diretamente nossas crenças, é comum nos sentirmos atacados e rejeitarmos o argumento. Mas, como a IA não é uma pessoa e não demonstra emoções, muitas pessoas tendem a vê-la como objetiva e imparcial. Assim, ficam mais dispostas a ouvir o que ela diz, sem a sensação de que estão sendo julgadas ou ridicularizadas.
Além disso, algumas pessoas acreditam que a IA possui um grande conhecimento e que suas informações são confiáveis. Isso contribui para que elas aceitem mais facilmente as informações fornecidas pelo Debunkbot.
Apesar dos bons resultados, a IA não é uma solução mágica contra as teorias da conspiração. O estudo mostrou que, para algumas pessoas, mesmo as respostas calmas e objetivas da IA não mudaram suas crenças. Alguns participantes, por exemplo, achavam que a IA estava sendo manipulada por interesses políticos. Outros simplesmente não acreditam que uma máquina possa ser imparcial ou confiável.
Além disso, existe o risco de que a IA seja usada para espalhar desinformação. Modelos de IA podem ser programados para reforçar teorias da conspiração, dependendo de quem controla essa tecnologia. Isso poderia criar uma internet ainda mais dividida, onde cada grupo recebe apenas as informações que confirmam suas crenças, formando “bolhas” de informação e dificultando a convivência entre diferentes opiniões.
O pesquisador Thomas Costello acredita que a IA também pode ser útil em outras áreas, como o combate a desinformação sobre saúde e tratamentos médicos falsos. Muitas pessoas acreditam em promessas milagrosas e remédios sem comprovação científica. Modelos como o Debunkbot poderiam fornecer informações de qualidade, desmentindo curas falsas e ajudando as pessoas a fazerem escolhas mais informadas sobre sua saúde.