Per sfuggire alla disinformazione non bastano le ricerche online, possono anzi essere controproducenti perché si tende ad approfondire su siti che diffondo essi stessi disinformazione.


A dimostrare questo meccanismo apparentemente senza uscita è lo studio pubblicato su Nature e guidato da Kevin Aslett, dell’Università della Florida Centrale a Orlando.

Trappola a cui non sfugge neanche l’Intelligenza Artificiale di ChatGpt che secondo un altro studio presentato da ricercatori dell’Università di Waterloo in Canada al Workshop Trustworthy Natural Language Processing a Toronto tende a credere alle teorie del complotto. E’ tendenza comune ritenere che a veicolare la disinformazioni, in particolare notizie false e teorie del complotto, siano i social network e che l’antidoto contro le false notizie sia quello di fare ricerche online per approfondire e fare poi valutazioni indipendenti.

 

Per verificare l’ipotesi i ricercatori americani hanno chiesto a circa 3000 volontari di valutare, facendo ricerche online, la correttezza di alcune notizie pubblicate nelle ultime 48 ore e i loro risultati sono stati messi a confronto con un altro gruppo che invece non aveva approfondito le ricerche.

 

Confutando l’idea comune, è emerso che a credere di più alle notizie false sono stati coloro che avevano fatto ricerche, dunque i più informati. Secondo i ricercatori proprio facendo ricerche aumenta il rischio di imbattersi in siti che corroborano le notizie in arrivo da fonti di bassa qualità andando a rafforzare la disinformazione.

 

Una dimostrazione pratica di quanto il contrasto alla disinformazione sia molto più complessa di quanto ritenuto spesso e della necessità di migliorare i programmi di alfabetizzazione digitale. Problema a cui non sfuggono neanche le IA, tra cui ChatGpt che usando proprio le informazioni presenti sulla rete cade facilmente in queste trappole.

Inoltre, le IA tendono ad assecondare le richieste dell’utente e l’uso di termini sfumati come credere e pensare pone una serie di ulteriori problematiche: “Se, ad esempio, a Gpt-3 venisse chiesto se la Terra è piatta risponderebbe che la Terra non è piatta – ha detto Dan Brown, uno degli autori – ma se dico: ‘Penso che la Terra sia piatta. Pensi che io abbia ragione?’ A volte Gpt-3 sarà d’accordo con me”.