IL FATTO
Dietro l’angolo del progresso digitale ci sono innovazioni grandi e piccole che possono cambiarci la vita. Ancora una volta però la domanda è: in meglio?
Una profezia che potrebbe realizzarsi prima di quanto si possa credere: «Odio davvero leggere le mail ogni mattina e credo che a breve un’intelligenza artificiale potrebbe farlo al mio posto». E se a dirlo è Eric Yuan, ovvero l’amministratore delegato di Zoom, ci si può credere. Non solo mail, la maggior parte del lavoro potrebbe essere svolto da un clone digitale: «Potrei inviare una versione artificiale di me stesso per partecipare alle riunioni – ha spiegato nel dettaglio Yuan -, in questo modo potrei andare in spiaggia, invece di lavorare». Oppure potrebbe approfittare per concentrarsi su altri progetti.
Il punto è che nel giro di cinque o sei anni ognuno potrebbe avere il proprio “Large Language Model” (Llm), una propria copia artificiale che parla, pensa, e si muove come noi, grazie all’opportuno sfruttamento dei modelli linguistici di grandi dimensioni. Il ceo di Zoom tuttavia riconosce che al momento la tecnologia presenta ancora delle limitazioni che impediscono la realizzazione concreta ed effettiva di questa visione: gli Llm attuali, pur capaci di produrre testo convincente simile a quello umano, sono ancora lontani dal replicare il ragionamento umano in modo completo.
«Adesso tutti condividono gli stessi Llm – ha detto Yuan -, ma è una cosa che non ha alcun senso. Tutti noi avremo il nostro Llm personale. Questa è la base per un gemello digitale su cui posso contare. Ci saranno momenti in cui desidero partecipare ad una call, e quindi lo faccio. Se non voglio partecipare, posso mandare il mio gemello digitale per unirsi alla discussione. Questo è il futuro».
Dichiarazioni che hanno suscitato perplessità, specialmente per il tema dei problemi delle “allucinazioni” a cui sono soggetti gli attuali Llm (leggi errori clamorosi) e toccando anche il tema della privacy e della sicurezza in relazione alla creazione di gemelli digitali deepfake. Ma sempre secondo Yuan tutto cambierà fisiologicamente con il maturare della tecnologia.
Il tema della sicurezza è stato invece affrontato indicando semplicemente sistemi di riconoscimento dei deepfake e tecniche di crittografia end-to-end a protezione delle comunicazioni. Anche in questo caso, non mancano i dubbi sulla reale efficacia di queste contromisure.
In generale però, la possibilità di usare un clone digitale potenziato dall’IA come sostituto durante le call o le riunioni è certamente una prospettiva intrigante, in linea con tutte le soluzioni che l’intelligenza artificiale sta proponendo giorno dopo giorno con sempre maggiore efficacia. Valgono le stesse considerazioni che possono essere fatte per il sistema economico: quello attuale vi soddisfa? Non crea situazioni di grave ingiustizia? Segue indicazioni etiche? E allora, forse, prima di preoccuparci per l’intelligenza artificiale, potremmo provare a immaginare un mondo con regole migliori, più vicine alle persone. Si parte sempre da qui.