Il 2 Febbraio scorso, nell’Aula Magna del Liceo Bodoni, si è tenuta la conferenza organizzata dal Professor Federico Dinucci intitolata “L’intelligenza artificiale: Superpappagallo o dio vivente?”.
Nonostante il titolo provocatorio, lo scopo della discussione era trattare in modo oggettivo di CHAT GPT (acronimo di Generative Pretrained Transformer), il nuovo fenomeno del momento nell’ambito di Internet. CHAT GPT è un’unità di integrazione testuale: è in grado di rispondere alle domande che gli sono poste con un linguaggio naturale, molto somigliante a quello umano il che è già di per sé strabiliante, ma non solo.
Tra le sue capacità infatti vanta il poter riassumere un testo, trasformarlo, scriverlo da zero e persino copiare lo stile di un qualsiasi autore (persino Dante!).
Dopo questa premessa generale, ci siamo posti una domanda che ha tormentato per decenni alcune delle menti più geniali: un’intelligenza artificiale può essere senziente?
In breve, la risposta è no. Grazie a un excursus sulla composizione e il funzionamento del chatbot (app con la quale gli utenti interagiscono) è risultato ovvio che CHAT GPT è un vero è proprio “Superpappagallo”, come dice Davide Ferrucci (l’informatico che ha inventato il termine “Superpappagallo”), cioè non ha la capacità di discernimento semantico.
Si sono poi citati altri esempi di software come LAMDA, MINDAR e DEEP BLUE e si è cercato di comprendere i possibili risvolti che queste nuove tecnologie possono avere sulla nostra società: tra robot che intrattengono i fedeli buddhisti e cristiani, IA che battono campioni di scacchi e studenti di Harvard che fanno svolgere i loro temi a CHAT GPT, può sembrare che l’uomo sia ad un passo dall’essere sostituibile da una macchina. I creatori di CHAT GPT smentiscono che sia pericolosa in quanto progettata per essere neutra: ad esempio non risponde a domande personali o su temi delicati in modo da non andare incontro a problemi legali.
Di fatto sta avendo un successo significativo grazie alla versatilità d’impiego ed alla capacità di variare sempre le sue risposte, ma sta anche generando molti timori per il suo utilizzo futuro, come è accaduto nel caso di Blake Lemoine, l’impiegato di Google licenziato perché pensava che l’IA fosse senziente. La discussione si è conclusa ribadendo l’importanza di non diventare dipendenti da questa tecnologia e riflettendo sulla possibilità che l’IA sia senziente: del resto, come sosteneva Cartesio con la sua formula “Cogito ergo sum”, si può esseri sicuri soltanto della propria esistenza, ma non di quella delle altre persone o esseri.