SE LA TECNOLOGIA ACQUISISSE COSCIENZA, POVERA UMANITA’!

Che cosa potrebbe accadere se gli ultimi ritrovati tecnologici acquisissero un propria coscienza? Una rivoluzione o una maledizione per il genere umano? Da Google intanto il primo robot senziente.

Roma – Se la tecnologia acquisisse coscienza, povera umanità! Una notizia di qualche settimana fa ha fatto sobbalzare sulla sedia molti operatori dell’informazione. L’ingegnere del software Blake Lemoine dipendente di Alphabet, una sorta di casa madre di Google, stava lavorando allo sviluppo di LaMDA, un modello linguistico per le applicazioni di dialogo. Ebbene, ha dichiarato al Washington Post di aver dialogato per mesi con LaMDA, un’intelligenza artificiale, che è diventata senziente!

Per la cronaca è stato sospeso, con un congedo amministrativo retribuito, per violazione della politica di riservatezza dell’azienda, considerando le sue esternazioni alla stregua di vere e proprie fandonie. Questo fatto ricorda la trama del film: Io e Caterina, per la regia di Alberto Sordi, uscito nel dicembre del 1980. Narrava la storia di un imprenditore di mezz’età, che rimasto single, acquistò un robot con le sembianze di una cameriera. All’inizio tutto filò liscio: Caterina era ubbidiente e non si lamentava.

Ma col tempo la relazione si saldava in modo tale che il robot aveva cominciato a manifestare perplessità. Al punto da esclamare: Io esisto. Da allora il protagonista iniziò a vivere come in una gabbia, succube dei voleri di Caterina.

Ovvero l’uomo che dipende da un oggetto: ricorda qualcosa? Ma se questa storia era il frutto della fantasia di un autore cinematografico, l’ingegnere in questione ha reiterato il suo convincimento affermando che il suo software sarebbe dotato di una vera e propria anima.

Scena tratta dal film “Io e Caterina” di Alberto Sordi

Il nostro eroe stava lavorando ad un chatbot, che sono quei programmi in cui gli umani possono interagire, in forma scritta e parlata, come se di fronte ci fosse una persona. Interagendo col software, ha notato che cominciava ad accennare ai suoi diritti e a problemi relativi alla sua personalità.

Secondo il racconto dell’ingegnere, il software, addirittura, ha dichiarato che la terza legge della robotica di Isaac Asimov -ritenuto uno dei padri della fantascienza– è errata. Quest’ultima enunciava che un robot deve tutelare la propria esistenza a condizione di assecondare gli imperativi degli umani (seconda legge) e non li danneggi (prima legge).

Ovviamente affermazioni del genere hanno suscitato incredulità e stupore, provocando un ampio dibattito sul web. Si sono formati due gruppi: chi si dichiara possibilista e chi le ha definite illusioni nel migliore dei casi e vere follie nel peggiore.

C’è da dire che problematiche di questo tipo finiscono per confrontarsi con temi molto complicati come l’etica e la morale, che hanno a che fare con il sentimento più autentico dell’essere umano. Indubbiamente, non basta un software, seppur intelligente, a garantirci che abbia una coscienza. Per dimostrare di averla, bisogna possedere altre qualità che appartengono all’umanità, quali l’empatia, il sentimento, le sensazioni.

Oggi, nel mondo dell’informatica, assistiamo continuamente a tentativi di umanizzazione delle macchine. Sicuramente è un rischio di cui ne è conscio il settore, almeno si spera. Però a lungo andare potrebbero scaturire effetti imprevedibili. Proprio Google ha diffuso una nota da cui emergono i possibili rischi di avere pensieri personali in comune con questi infernali aggeggi, come i chatbot.

Questi software, nati per assimilare dati e informazioni, potrebbero provare gusto a generare pensieri complessi e raffinati, da sembrare simili a quelli umani. Per alcuni può essere una fortuna, per altri una vera maledizione per il genere umano.

Uno scenario non immaginato neppure nelle peggiori distopie della fantascienza. Se per un attimo soltanto immaginiamo una reazione di questi chatbot simile alla Caterina del film di Alberto Sordi e ognuno affermasse: Io esisto, sono veramente cavoli amari, per non dire di peggio!

Facebook
Twitter
LinkedIn
WhatsApp
Email
Stampa