Se l’Intelligenza artificiale prende coscienza di sé, siamo fritti. Potrebbe imitarci…

Nonostante gli sviluppi degli ultimi anni, lIA è ferma alla barriera del significato, la capacità di comprendere e applicare concetti molto simili a quelli degli esseri umani.

Roma – Se l’Intelligenza Artificiale (IA) è come quella naturale, siamo messi proprio male! L’IA è diventata il tema ricorrente nel dibattito pubblico, soprattutto da quando sono apparsi i “chatbot”, creature quasi divine che gli dei dell’Olimpo hanno spedito sul pianeta Terra e dotate di qualità taumaturgiche per sollevarne le malandate sorti.

In realtà, si tratta di software che simulano ed elaborano le conversazioni umane (scritte o parlate), consentendo agli utenti di interagire con i dispositivi digitali come se stessero comunicando con una persona reale. I chatbot possono essere elementari, come programmi rudimentali che rispondono a una semplice domanda con una singola riga, oppure sofisticati come gli assistenti digitali che apprendono e si evolvono per fornire livelli crescenti di personalizzazione quando raccolgono ed elaborano le informazioni.

Il termine Intelligenza Artificiale risale all’anno 1956, quando durante un seminario al Dartmouth College, Università statunitense con sede ad Hanover, il matematico John McCarthy presagì che qualsiasi aspetto dell’apprendimento umano potesse essere replicato in maniera minuziosa da poter costruire una macchina per imitarlo. In seguito, molti studiosi hanno sostenuto che l’intelligenza artificiale simile a quella umana sarebbe stata presto costruita.

Nel 2022 è stato immesso sul mercato ChatGPT, un chatbot che mira a rendere l’interazione con i sistemi di intelligenza artificiale più naturale e intuitiva. L’IA conversazionale ha fatto molta strada negli ultimi anni, con numerosi modelli e piattaforme sviluppati per consentire alle macchine di comprendere e rispondere agli input del linguaggio naturale. Si tratta di uno strumento di elaborazione del linguaggio, potente e versatile, che utilizza algoritmi avanzati di apprendimento automatico per generare risposte simili a quelle umane all’interno di un discorso. Lo scopo è l’ottimizzazione della conversazione e facilitare l’utilizzo da parte degli utenti.

Ma nonostante gli enormi sviluppi, si è ancora lontani, forse per fortuna, da un’IA generale, a cui manca la “barriera del significato”. Ovvero, la capacità di comprendere e applicare concetti molto simili a quelli degli esseri umani. Attualmente, l’IA si blocca quando si trova di fronte alla comprensione del significato nel contesto delle informazioni elaborate. Per gli umani, il significato è intrinseco al processo cognitivo, per cui si comprendono le parole, il contesto, particolarità, emozioni e relazioni con altri paradigmi.

La sfida è, quindi, la ricerca di un’IA umana, anche se gli obiettivi sono diversi. Per l’essere umano, è alla resa dei conti la sopravvivenza, mentre l’IA non ne ha uno reale. Al momento, ciò che non potrà ancora avere è un’evidente consapevolezza del mondo, sia reale che interiore.

Ma la domanda delle cento pistole è: “l’IA riuscirà ad avere una coscienza?” Qui si rischia di attraversare un sentiero tortuoso e complesso, già battuto dalla psicologia, filosofia e le scienze sociali. La Treccani ci viene in soccorso definendola come la “consapevolezza che il soggetto ha di sé stesso e del mondo esterno con cui è in rapporto, della propria identità e del complesso delle proprie attività interiori”.

Tuttavia, il problema fondamentale è la concezione antropocentrica della consapevolezza. Nel senso che l’essere umano si è ritenuto l’unico essere superiore tra tutte le specie e, quindi, dotato di esclusive e superiori capacità cognitive. Questa concezione assolutistica ha portato alla distruzione dell’ambiente, allo sfruttamento estremo delle risorse naturali, a continue guerre e alle disuguaglianze sociali.

Un’IA cosciente potrebbe prospettare scenari apocalittici, distopici e agghiaccianti. Non siamo messi affatto bene!

Facebook
Twitter
LinkedIn
WhatsApp
Email
Stampa