Se si confronta il periodo attuale con quello di 20 anni fa, ci si rende conto dei radicali mutamenti introdotti con l’intelligenza artificiale (IA) nella vita quotidiana e nel mondo del lavoro. È necessario considerare i rischi derivanti da cambiamenti così epocali.
Roma – Semplificando, l’intelligenza artificiale è una disciplina che studia se e in che modo si possono realizzare sistemi informatici intelligenti in grado di simulare la capacità e il comportamento del pensiero umano. Ma non è tutto oro ciò che luccica, perché il rovescio della medaglia presenta rischi mai visti prima. Non sono considerazioni tra amici alla fermata del tram, ma le dichiarazioni durante l’audizione al Senato degli USA da parte di Sam Altman, amministratore delegato di OpenIA, organizzazione senza fini di lucro che promuove e sviluppa un’IA senza recare danni all’umanità. Inoltre è stato il fondatore di ChatGPT (Generative Pre-trained Transformer), un chatbot, ovvero un software ideato per comunicare con l’uomo.
Altman ha dichiarato: “Se questa tecnologia andasse male, dobbiamo dirlo ad alta voce e lavorare col Governo per evitare che le cose potrebbero finire molto male.” Altman si associa ad altre voci autorevoli che hanno manifestato timori contro i pericoli dell’IA. Ha, infatti, chiesto che la politica fissi delle regole per le aziende che operano in questo campo. Ha auspicato la realizzazione di un’agenzia governativa per l’assegnazione delle licenze per lo sviluppo delle piattaforme di IA, per il controllo degli standard di sicurezza e per il ritiro delle licenze in caso di inosservanze. Sarebbero necessari anche standard di sicurezza per far sì che l’IA possa riprodursi o rivoltarsi contro gli esseri umani. Un altro pericolo concreto è costituito dagli attacchi hacker dall’esterno.
Tuttavia Altman non ha toccato due temi fondamentali: la trasparenza per l’uso dei dati personali quando si addestra l’IA e l’abuso dei contenuti coperti da copyright. Qualche anno fa erano i politici a porre domande agli imprenditori digitali. Basti ricordare la difficoltosa audizione di Mark Zuckerberg, fondatore di Meta, azienda che controlla i servizi di rete sociale Facebook e Instagram, nonché quelli di messaggistica istantanea WhatsApp e Messenger, nel 2018. Al contrario oggi sono gli imprenditori che chiedono l’intervento della politica. Sono il frutto dei cambiamenti. La strada da intraprendere, secondo Altman, è simile a quella che fu percorsa per la regolamentazione delle “armi nucleari”.
Gli USA, secondo questa visione, dovrebbero ergersi a “guida per la regolamentazione” dell’IA. Per fare cosa? Innanzitutto, stabilire standard di sicurezza validi a livello mondiale. Come era avvenuto per gli armamenti nucleari, con la fondazione dell’International Atomic Energy Agency. Questa strada potrebbe essere quella più idonea, anche se Altman sostiene che sia “un’idea impraticabile”. Non ci è dato sapere perché lo sia, però un fatto è certo. Se molti imprenditori che hanno investito nell’IA, lanciano strali sui pericoli ad essa connessa e chiedono l’intervento della politica, qualche timore c’è.
Innanzitutto potrebbe sfuggire al controllo dell’uomo, imponendo una propria autonomia. In questo caso gli scenari potrebbero essere davvero apocalittici, confermando le peggiori distopie di autori di fantascienza e non, da Asimov a Orwell, dimostrando ancora una volta che la letteratura è capace di prevedere il futuro più di qualsiasi saggistica. Una volta si diceva: “Dove andremo a finire, signora mia”! Già, dove andremo a finire? Ai posteri l’ardua sentenza.