IL FATTO
l’intelligenza artificiale entra nelle nostre vite con un’invadenza sempre maggiore. QUali sono i rischi connessi al progresso esponenziale di questa tecnologia?
Un allarme sui rischi connessi all’intelligenza artificiale è stato espresso tra gli altri, nei giorni scorsi, anche da Sundar Pichai, ceo di Google. In particolare, il dirigente ha puntato il dito su una possibile frettolosa adozione dell’Ia nei diversi campi di applicazione senza prima passare da una regolamentazione rigorosa. «Sarebbe sbagliato e molto pericoloso». Una premessa, questa, che diventa fondamentale in uno scenario di comunicazione perennemente connessa nel quale potrebbe aumentare il rischio generale della disinformazione. Pichai ha riflettuto «sulla possibilità che le fake news, rese ancora più sofisticate dall’intelligenza artificiale, possano aumentare a dismisura danneggiando quindi il mondo. Sarà bene che la società sappia adeguarsi all’introduzione di queste nuove tecnologie».
Pichai segnala quali possono essere i principali pericoli: «In primis i deepfake». Si tratta cioè di quelle immagini che raffigurano persone mentre pronunciano parole che nella realtà non hanno mai detto. Oppure che si trovano ritratti al centro di situazioni mai vissute. «Dobbiamo prevedere conseguenze sul piano delle sanzioni per chi si rende autore di queste creazioni. E al tempo stesso – continua il manager di Google – l’umanità dovrà introdurre nuove norme sociali per capire come adattarsi all’introduzione dell’intelligenza artificiale nella vita quotidiana delle persone».
L’amministratore delegato dell’azienda americana di Mountain View ipotizza come contromisura le stesse regole già applicate al nucleare.
Non sono certo questioni di poco peso. Se pensiamo ad alcune immagini circolate nell’ultimo periodo, possiamo rendercene conto. Significativa la foto che ritraeva Papa Francesco in un elegantissimo giaccone invernale candidamente bianco ma eccessivamente sfarzoso per il suo ruolo. Sembrava un’immagine assolutamente autentica, ma non lo era. Facile immaginare quello che potrebbe accadere con l’uso improprio di immagini compromettenti associate a personaggi importanti.
Nel marzo 2023, a questo proposito, più di mille personaggi famosi (tra questi anche Elon Musk e Steve Wozniak) hanno firmato una lettera aperta per esortare tutti i laboratori di intelligenza artificiale a sospendere l’addestramento di sistemi più potenti del Gpt-4, modello linguistico di intelligenza artificiale già diffuso in tutto il mondo. Ma il rischio più che fondato è che dietro ci sia una sfida di natura commerciale per il dominio di questa tecnologia rivoluzionaria, più che ragioni di natura etica. La posta in palio è infatti altissima. «La concorrenza non si preoccupi – ha risposto Pichai -. Ma la società nel suo complesso potrebbe non essere pronta per far fronte all’impatto della nuova tecnologia, destinata ad avere effetti su ogni prodotto di ogni azienda».