L’avvento dei chatbot basati su intelligenza artificiale segna una svolta tecnologica significativa. Questi strumenti hanno richiesto un periodo di adattamento iniziale, durante il quale si sono sollevate preoccupazioni sull’eventuale diffusione di informazioni false, alimentate da studi preliminari. I chatbot, formati attraverso l’immensa quantità di dati disponibili online, possono assimilare tanto informazioni veritiere quanto misconceptions.
Rivisitazione degli algoritmi generativi
Tuttavia, recenti ricerche, inclusa una notevole da parte di ricercatori del MIT a Boston, hanno capovolto questa narrativa. Thomas Costello, leader di questo progetto, ha esplorato come i modelli linguistici alla base di chatbot come ChatGPT, Gemini (precedentemente noto come Google Bard) e Copilot (precedentemente Microsoft Bing AI), possano influenzare positivamente le credenze di coloro che aderiscono a teorie del complotto.
Studio sul cambiamento di percezione
Pubblicato su PsyArXiv, lo studio ha coinvolto 2.190 individui inclini alle teorie del complotto, da chi sostiene la Terra piatta a chi nega l’allunaggio, fino a chi crede in teorie riguardanti attentati governativi o microchip nei vaccini. Durante l’esperimento, i partecipanti hanno presentato le loro teorie al modello GPT-4 Turbo Large Language Model che, dopo aver generato un riassunto, ha dialogato con loro. Dopo brevi scambi di idee, circa il 20% degli intervistati ha riconsiderato e modificato le proprie convinzioni.
Impatto emotivo e approccio raziocinante
La capacità dei chatbot di persuadere si è dimostrata superiore a quella di molti umani. Thomas Costello ha sottolineato che gli approcci superficiali sono inefficaci nel persuadere i teorici del complotto, che tendono a esaminare in dettaglio le proprie credenze. L’efficacia dei chatbot risiede nella loro capacità di ingaggiare una discussione costruttiva, basata sui fatti e priva di emotività o empatia, che apre la strada a una maggiore apertura mentale.