Il ricorso all’IA non mette al riparo dalla generazione di “fake news”, anzi. E non sempre tali contenuti sono generati consapevolmente.
Con la prepotente entrata in scena dell’Intelligenza Artificiale sul palcoscenico dei processi sociali, sono sorte tante preoccupazioni e, al contempo, entusiasmi a dir poco estatici. Insieme alla disinformazione, che è la diffusione voluta e consapevole di fake news, ne esiste un’altra, meno pericolosa, forse, ma più infida, la “misinformazione”, definita come un’informazione non accurata ma propagata inconsapevolmente.
Questi argomenti e l’idea che l’IA possa offrire ai giornalisti nuovi strumenti per un’informazione di qualità e attendibile, sono l’oggetto di studio del progetto A14TRUST. Questo piano, finanziato dall’Unione Europea (UE), intende sviluppare un sistema ibrido basato sulla cooperazione uomo-macchina e su soluzioni basate sull’ IA.
Lo scopo è di supportare gli operatori dei media e i decisori politici per contrastare la disinformazione e la misinformazione. In pratica verranno monitorate molteplici piattaforme social in tempo reale o quasi, comunicando, grazie all’uso di nuovi algoritmi, i contenuti più suscettibili alla disinformazione per essere rivisti da esperti. NewsGuard, un’estensione per browser, fondata da NewsGuard Technologies, è un programma che contrassegna le notizie con un’icona di colore verde o rosso, che permette di riconoscere le fake news. Ebbene, ha rintracciato ben 528 siti che utilizzano l’IA per produrre false informazioni. Questo tanto per segnalare che il problema c’è e va affrontato.
I rischi scaturiti dall’IA riguardano l’aumento della quantità, qualità e personalizzazione della misinformazione. Secondo gli esperti del progetto, queste tre preoccupazioni, al momento, sarebbero puramente teoretiche. Le ricerche a disposizione segnalano come l’ IA generativa produce rischi modesti sulla disinformazione. In linea generale, per IA generativa si intende l’utilizzo dell’IA per la creazione di nuovi contenuti, come testo, immagini, musica, audio e video. Pericolo scampato dunque? Parrebbe di sì –come hanno sostenuto sempre gli esperti- anzi potrebbero verificarsi miglioramenti qualitativi dell’informazione proveniente da siti affidabili. Tutto va bene madama la marchese, dunque? Bah, staremo a vedere. Queste grandi “teste d’uovo” ritengono che allarmismi eccessivi possono provocare conseguenze negative sulla democrazia, che si manifestano in sfiducia finanche nelle notizie accurate e in chi le produce. Inoltre, la quantità di misinformazione è limitata più dalla domanda che dall’offerta e allo stato dell’arte non ci sono dati secondo cui la domanda non viene assorbita dal mercato.
Per la qualità, qualora l’IA migliorasse la seduzione di questi contenuti, la gran parte delle persone ne sarebbero immuni. Infine, se l’IA producesse una misinformazione personalizzata sui gusti dell’utente, i ricercatori ammettono la plausibilità del rischio, sebbene la persuasione di specifici contenuti personalizzati sembri essere limitata. Alla fine della giostra, gli esperti ammettono che l’utilizzo dell’IA generativa possa produrre dei verosimili rischi. Comunque la si pensi, senza sfociare in una visione fideistica o, al contrario, minimalista, quando si parla di tecnologia, meglio essere dubbiosi e trattare il problema con le pinze. L’IA, ormai, è irreversibile, non se ne potrà fare a meno. Tuttavia, drizzare le antenne su una tecnologia che può anche degenerare è molto meglio che far finta di niente.