Nel 1975, un gruppo di ricercatori di Stanford organizzò un esperimento apparentemente semplice ma con implicazioni profonde sul funzionamento della mente umana. Gli studenti universitari che vi parteciparono si trovarono di fronte a biglietti di persone suicide: alcuni erano scritti da persone che realmente si erano tolte la vita e altri erano inventati. Il loro compito era distinguere quale fosse autentico e quale no. Dopo aver analizzato venticinque coppie di biglietti, alcuni studenti furono elogiati per la loro presunta straordinaria capacità di individuare quelli reali, avendone identificati correttamente ventiquattro su venticinque. Altri, invece, ricevettero un riscontro disastroso: erano riusciti a distinguere i biglietti autentici in soli dieci casi.
Quello che gli studenti non sapevano era che tutto l’esperimento era una messa in scena. Sebbene metà dei biglietti fossero effettivamente autentiche (raccolte dall’ufficio del coroner della contea di Los Angeles), i punteggi assegnati erano completamente arbitrari. Nessuno aveva davvero fatto meglio o peggio: le loro prestazioni erano state inventate.
A metà dell’esperimento, i ricercatori svelarono l’inganno e spiegarono agli studenti che il vero obiettivo dello studio era osservare le loro reazioni nel pensare di aver fatto bene o male. Ma il momento più interessante arrivò subito dopo, quando chiesero ai partecipanti di stimare il proprio effettivo livello di accuratezza. Nonostante avessero appena appreso che i punteggi erano fittizi, coloro a cui era stato detto di aver ottenuto un punteggio alto continuarono a credere di aver fatto meglio della media, mentre quelli con un punteggio basso rimasero convinti di aver fatto peggio.
“Una volta formate” – annotarono i ricercatori – “le impressioni sono straordinariamente persistenti“.
Pochi anni dopo, un altro esperimento a Stanford confermò lo stesso principio. Un gruppo di studenti ricevette dei dossier su due pompieri, Frank K. e George H., con informazioni sulla loro vita e sul loro approccio al rischio. In una versione del dossier, Frank era un pompiere di successo che sceglieva sempre l’opzione più sicura. Nell’altra, faceva le stesse scelte prudenti, ma era un pessimo pompiere, spesso rimproverato dai suoi superiori. Anche in questo caso, a metà esperimento, ai partecipanti venne rivelato che tutte le informazioni fornite erano false e costruite apposta per lo studio. E quando fu chiesto loro di esprimere la propria opinione su quale atteggiamento nei confronti del rischio rendesse un pompiere più efficace, gli studenti non modificarono le loro convinzioni iniziali. Chi aveva ricevuto la prima versione continuò a ritenere che evitare i rischi fosse la chiave del successo, mentre chi aveva ricevuto la seconda rimase convinto che un buon pompiere dovesse essere audace e prendere rischi.
I ricercatori conclusero che, anche quando le prove a sostegno di una convinzione vengono completamente smontate, le persone hanno una straordinaria resistenza nel rivedere le proprie opinioni. Questo fenomeno, noto come “perseveranza delle credenze“, dimostra quanto sia difficile cambiare idea, anche di fronte a prove schiaccianti.
Il fenomeno della resistenza ai fatti non si limita alla percezione di sé, ma si estende a tutte le sfere del pensiero umano. Il cosiddetto bias di conferma, ovvero la tendenza a selezionare solo le informazioni che confermano le nostre convinzioni e a rifiutare quelle che le mettono in discussione, è uno dei meccanismi cognitivi più potenti e documentati. Un altro esperimento condotto sempre a Stanford sulla pena di morte lo ha dimostrato chiaramente: agli studenti furono presentati dati inventati, alcuni a favore della pena capitale come deterrente per i crimini, altri contrari. Invece di valutare i dati in modo imparziale, ogni gruppo di studenti trovò più credibili le informazioni che confermavano la propria posizione iniziale, e alla fine dell’esperimento le loro opinioni divennero ancora più radicalizzate. Questo dimostra che le informazioni di per sé non bastano a modificare una convinzione, anzi, spesso la rafforzano. Se la ragione fosse stata progettata per aiutarci a prendere decisioni razionali, il bias di conferma sarebbe un difetto fatale. Ma la nostra mente non funziona così.
Lo hanno dimostrato nel loro libro The Enigma of Reason gli scienziati cognitivi Hugo Mercier e Dan Sperber. Spogliata della complessità del linguaggio scientifico, l’argomentazione di Mercier e Sperber si riduce a un principio essenziale: la più grande forza dell’essere umano rispetto alle altre specie è la sua capacità di cooperare. Tuttavia, la cooperazione è un equilibrio fragile, difficile da costruire e altrettanto difficile da mantenere. In un contesto sociale, l’individuo ha sempre un incentivo a comportarsi in modo opportunistico, sfruttando gli altri senza contribuire. Per affrontare questa sfida, la ragione non si è evoluta con lo scopo primario di risolvere problemi astratti o di trarre conclusioni logiche dai dati, ma piuttosto per aiutarci a navigare nelle dinamiche di gruppo, gestire conflitti, negoziare alleanze e proteggere la nostra posizione sociale. La nostra mente, quindi, è ottimizzata non tanto per la ricerca oggettiva della verità, quanto per difendere le nostre convinzioni e convincere gli altri della loro validità, un’abilità cruciale per la sopravvivenza in una società ipersociale come la nostra.
Gli esseri umani, sottolineano Mercier e Sperber, non sono creduloni in modo casuale. Sappiamo riconoscere le falle nei ragionamenti altrui con una certa facilità, ma quando si tratta delle nostre convinzioni, diventiamo sorprendentemente ciechi. Questa asimmetria è stata dimostrata da un esperimento condotto da Mercier e da alcuni suoi colleghi europei.
Ai partecipanti è stato chiesto di risolvere una serie di problemi di ragionamento. Successivamente, hanno dovuto spiegare le loro risposte e avevano la possibilità di modificarle se avessero individuato errori. In questa fase, meno del 15% ha cambiato idea. Poi, nella terza fase, è stato presentato loro uno degli stessi problemi, accompagnato sia dalla loro risposta che da quella di un altro partecipante che aveva scelto diversamente. Ma, indovinate un po’, c’era un inganno: la risposta “dell’altro” era in realtà la loro, mentre la loro originale era presentata come se appartenesse a qualcun altro. Circa la metà dei partecipanti ha intuito il trucco, ma tra quelli che non lo hanno capito è successo qualcosa di interessante: improvvisamente, sono diventati molto più critici. Quasi il 60% ha rifiutato la risposta che prima avevano difeso con convinzione.
Questo risultato, secondo gli scienziati, conferma che la ragione si è evoluta non tanto per aiutarci a pensare in modo più logico e obiettivo, ma per proteggerci dagli inganni sociali. Nei gruppi di cacciatori-raccoglitori, ciò che contava era difendere la propria posizione all’interno della comunità, non necessariamente arrivare alla verità assoluta. Vincere una discussione, o almeno non essere ingannati dagli altri membri del gruppo, era molto più utile che applicare una logica ineccepibile. Per questo motivo, tendiamo a difendere le nostre convinzioni con ostinazione, mentre siamo molto più abili nel trovare falle nei ragionamenti altrui.
Un altro aspetto chiave della nostra resistenza ai fatti è l’illusione della conoscenza. In sostanza, crediamo di sapere molto più di quanto effettivamente sappiamo, perché ci affidiamo inconsciamente alla conoscenza collettiva del nostro gruppo. Un esperimento condotto a Yale dimostrò che le persone tendono a sopravvalutare la propria comprensione del mondo. Quando fu chiesto agli studenti di spiegare dettagliatamente il funzionamento di oggetti comuni come un water o una cerniera lampo, si resero conto di saperne molto meno di quanto pensassero inizialmente. Il motivo è che la conoscenza necessaria per progettare un water non è individuale, ma distribuita tra ingegneri, idraulici e produttori. In altre parole, siamo in grado di usare il water senza capirne i dettagli, perché qualcun altro lo ha progettato affinché fosse intuitivo.
Questa capacità di fare affidamento sulle competenze altrui è uno dei tratti distintivi dell’essere umano. Dalla caccia primitiva alla tecnologia moderna, il progresso si è basato sulla divisione cognitiva del lavoro. Gli scienziati Sloman e Fernbach sostengono che collaboriamo talmente bene che fatichiamo a distinguere ciò che sappiamo personalmente da ciò che è immagazzinato nella mente degli altri. Questo ci porta a sovrastimare la nostra comprensione del mondo e a credere di avere idee chiare su argomenti complessi, quando in realtà ci basiamo su conoscenze di seconda mano.
Questa confusione tra conoscenza individuale e collettiva, paradossalmente, è anche ciò che ha permesso il progresso umano. Ogni innovazione ha creato nuovi livelli di ignoranza: quando gli esseri umani iniziarono a lavorare i metalli, pochi capivano il processo in dettaglio, ma questo non impedì di sviluppare armi e strumenti più efficienti. Se tutti avessero dovuto padroneggiare i fondamenti della metallurgia prima di usare un coltello di bronzo, il progresso tecnologico si sarebbe fermato. In questo senso, la nostra ignoranza è spesso un motore dell’innovazione, perché ci permette di usare le scoperte altrui senza doverle comprendere pienamente.
Come se ciò non bastasse, oggi viviamo in un’epoca in cui il bias di conferma è amplificato dai social media, che ci espongono principalmente a contenuti che rafforzano le nostre idee. La disinformazione trova terreno fertile in questo meccanismo: le persone tendono a condividere e credere alle notizie che supportano la loro visione, senza verificarne la veridicità. Questo è evidente nel caso delle fake news sul Covid-19, in cui teorie infondate si sono propagate rapidamente tra gruppi chiusi sui social, creando una sorta di “realtà parallela” immune ai fatti.
In Italia, fenomeni simili si sono manifestati in innumerevoli contesti. L’ondata di scetticismo sui vaccini, ad esempio, ha mostrato come una convinzione, una volta radicata, possa resistere anche alle prove scientifiche più solide. Nonostante l’inesistenza di correlazioni tra vaccini e autismo, la convinzione che essi fossero dannosi si è diffusa negli anni, in parte grazie alla ripetizione della stessa informazione su social e media. Lo stesso meccanismo si è visto con i terrapiattisti e i negazionisti del cambiamento climatico, gruppi che trovano sempre nuove giustificazioni per respingere le evidenze scientifiche. Anche nella politica il fenomeno è evidente: gli elettori tendono a mantenere le loro posizioni indipendentemente dalle performance dei loro leader, rifiutando le critiche come attacchi pretestuosi e giustificando qualsiasi errore con argomentazioni che confermano le loro convinzioni.
Ma è possibile cambiare idea?
Gli esperimenti suggeriscono che il modo migliore per farlo non è fornire più informazioni, ma chiedere alle persone di spiegare nel dettaglio la loro posizione. In un esperimento del 2012, ai partecipanti fu chiesto di descrivere passo dopo passo l’impatto di un progetto politico che sostenevano. Dopo essersi resi conto di non avere abbastanza conoscenze per spiegarla, le loro posizioni divennero meno rigide. Questo suggerisce che il metodo più efficace per ridurre la polarizzazione e la disinformazione non è bombardare le persone con dati, ma coinvolgerle in un ragionamento critico che le costringa a riconoscere i propri limiti di conoscenza.
Se la razionalità fosse il nostro punto di forza, il mondo sarebbe molto diverso. Ma il nostro pensiero è plasmato da bias cognitivi, interazioni sociali e appartenenze di gruppo, rendendo il cambiamento di idea un evento raro. Tuttavia, il dialogo e la riflessione critica possono aiutarci a riconoscere i nostri limiti e ad adottare una mentalità più aperta. In un’epoca dominata dalla disinformazione e dalla polarizzazione, prendere consapevolezza dei nostri errori cognitivi è il primo passo per un dibattito più sano. Cambiare idea è difficile, ma non impossibile. Il segreto? Meno certezze, più domande.