Sembra che siano i pregiudizi, peculiarità che appartengono agli esseri umani, a rendere possibile che si creda alle fake news, una volta definite bufale. È ciò che è emerso da una recente ricerca.
Roma – Finora si sono registrate ricerche attraverso cui emergeva che erano i social e gli algoritmi a rendere possibile la trappola delle fake news. A conferma che le scienze sociali spesso fanno parte di un universo variabile e indefinito. A volte si ha la sensazione che si possa dimostrare tutto e il suo contrario. Come se si facesse il possibile per verificare l’ipotesi di partenza, fino a quando non si concretizza.
L’ANSA, agenzia italiana di informazione, ha pubblicato, qualche settimana fa una notizia relativa ad una recente ricerca a cura di Ronald Robertson dell’Università di Stanford, USA, pubblicata su Nature, una delle più importanti e prestigiose riviste scientifiche, in cui si è dimostrato che sono i pregiudizi umani a rappresentare la trappola delle fake news. Lo studio si è basato sull’analisi del comportamento di alcuni volontari sul motore di ricerca Google durante due campagne politiche statunitensi. E ha messo in discussione l’impatto degli algoritmi nel produrre polarizzazione e quelle che vengono definite “echo chamber”.
Queste ultime (letteralmente “camere dell’eco”) rappresentano un fenomeno riferito a una situazione in cui una persona riceve una serie di informazioni o idee che rafforzano il suo punto di vista, senza avere altre risorse da cui potrebbe scaturire una visione più critica della situazione. Questi luoghi allegorici, in cui si ritrovano tutte le persone che hanno idee simili e condividono informazioni di parte, sono stati spesso il “focus” del dibattito politico e culturale, in quanto visti come fomentatori di disinformazione. Secondo questa visione gli algoritmi, utilizzati dai motori di ricerca e dai social, sono stati visti come veicoli di diffusione di questo fenomeno, noto col termine di “filter bubble” (bolla di filtraggio). Ovvero un effetto del meccanismo di profilazione.
Quella condizione di isolamento intellettuale generata dagli algoritmi, che offrono su un “piatto d’argento” solo e sempre informazioni mirate e in linea con le nostre preferenze. Il risultato finale di questo processo è una visione parziale, limitata e poco trasparente, da cui scaturisce un quadro poco oggettivo della realtà. A tutto svantaggio del proprio pensiero critico. Almeno questa era la concezione più diffusa, che trovava credito tra i “maître à penser” più illuminati. Ora, pare che questi famigerati algoritmi non siano così pericolosi come si è creduto. Per sminuirli, i ricercatori hanno scelto un gruppo di volontari. È stato valutato il loro comportamento online, soprattutto le ricerche attraverso il motore di ricerca “Google” nelle ultime due campagne elettorali.
È emerso che l’algoritmo è rimasto tranquillo, per i fatti suoi, senza disturbare, mostrandosi neutrale. Non ha manifestato alcuna indole volta a condizionare i contenuti che, in una maniera o nell’altra, possano incidere sui pregiudizi iniziali. Invece, sono stati gli utenti stessi a cercare quelle notizie utili a confermare i propri pregiudizi. Così, si è consolidata ancora di più la polarizzazione della propria posizione. Sicuramente si tratta di un argomento molto ostico, nel senso che non è facile far quadrare il cerchio. Gli aspetti da considerare sono tanti e questo studio si riferisce alle ricerche su Google. Mentre nulla si sa degli algoritmi utilizzati nei social, quindi bisogna stare attenti a trarre conclusioni affrettate. Quello che si pensa sia valido oggi, domani non lo è più. Il modo in cui si manifesta l’estremizzazione delle opinioni è molto più eterogeneo di quanto sembri.