Geoffrey Hinton, ho lasciato Google perché ho paura della nuova intelligenza artificiale

02/05/2023 19:59
Geoffrey Hinton, ho lasciato Google perché ho paura della nuova intelligenza artificiale
Geoffrey Hinton

Il pioniere del deep learning e ideatore degli algoritmi alla base della moderna IA ha raccontato a MIT Technology Review perché ora ha timore della tecnologia che ha contribuito a costruire. "E’ come se gli alieni fossero atterrati e la gente non se ne fosse resa conto, perché parlano un ottimo inglese" | Così il mio clone generato con l’AI ha ingannato la mia banca e i miei familiari | Chegg, previsioni al ribasso per colpa di ChatGpt | Ibm ferma le assunzioni in ruoli che verranno sostituiti dall’IA: a rischio 7.800 posti di lavoro

Will Douglas ha intervistato per MIT Technology Review (magazine della prestigiosa università americana) Geoffrey Hinton, il pioniere del deep learning che ha contribuito allo sviluppo di alcune delle tecniche più importanti alla base della moderna intelligenza artificiale (IA). La notizia è che Hinton si è dimesso dopo un decennio trascorso in Google, per concentrarsi sulle nuove preoccupazioni che nutre nei confronti dell'IA.

Stupito dalle capacità dei nuovi modelli linguistici di grandi dimensioni come il GPT-4, Hinton vuole sensibilizzare l'opinione pubblica sui gravi rischi che, secondo lui, potrebbero accompagnare la tecnologia che ha introdotto.

Il settantacinquenne informatico, che ha ricevuto insieme a Yann LeCun e Yoshua Bengio il premio Turing 2018 (una sorta di Nobel per l’informatica) per il suo lavoro sul deep learning, dice di voler dedicare il suo tempo a "un lavoro più filosofico". E per questo si concentrerà sul rischio, piccolo ma per lui molto reale, che l'intelligenza artificiale si riveli un disastro. Ecco perché ha lasciato Google: "Voglio parlare di questioni relative alla sicurezza dell'IA senza dovermi preoccupare di come questo interagisca con l'attività di Google, finché sarò pagato da Google, non potrò farlo". Ciò non significa affatto che Hinton sia critico del colosso del search: "Potrebbe sorprendervi", dice. "Ci sono molte cose positive su Google che voglio dire, e sono molto più credibili se non sono più in Google".

Hinton ha detto a MIT TR che la nuova generazione di modelli linguistici di grandi dimensioni come GPT-4, che OpenAI ha rilasciato a marzo, gli ha fatto capire che le macchine sono sulla buona strada per diventare molto più intelligenti di quanto pensasse. Ed è spaventato dalle forme con cui ciò potrebbe accadere. "A volte penso che sia come se gli alieni fossero atterrati e la gente non se ne fosse resa conto, perché parlano un ottimo inglese".

 

Un capovolgimento improvviso

Hinton è noto soprattutto per il suo lavoro su una tecnica chiamata backpropagation, che ha proposto (insieme a un paio di colleghi) negli anni Ottanta. In poche parole, è l'algoritmo che permette alle macchine di imparare. Oggi è alla base di quasi tutte le reti neurali, dai sistemi di visione artificiale ai grandi modelli linguistici. Ma per 40 anni, Hinton ha visto le reti neurali artificiali come un misero tentativo di imitare quelle biologiche. Ora pensa che le cose siano cambiate: nel tentativo di imitare ciò che fanno i cervelli biologici, secondo lui, abbiamo trovato qualcosa di meglio. "È spaventoso quando lo si vede", dice. "È un capovolgimento improvviso".

Come suggerisce il nome, i modelli linguistici di grandi dimensioni sono costituiti da reti neurali massicce con un gran numero di connessioni. Ma sono minuscoli rispetto al cervello. "Il nostro cervello ha 100 mila miliardi di connessioni", dice Hinton. "I modelli linguistici di grandi dimensioni ne hanno fino a 500 miliardi, mille miliardi al massimo. Eppure, il GPT-4 ne sa centinaia di volte di più di quanto ne sappia una persona. Quindi forse ha un algoritmo di apprendimento molto migliore del nostro".

Rispetto ai cervelli, si ritiene che le reti neurali non siano in grado di apprendere: per addestrarle occorrono grandi quantità di dati e di energia. Il cervello, invece, apprende rapidamente nuove idee e competenze, utilizzando una frazione di energia rispetto alle reti neurali. "Sembrava che le persone avessero una sorta di magia", dice Hinton all’intervistatore. "Ebbene, questo argomento crolla non appena si prende uno di questi modelli linguistici di grandi dimensioni e lo si addestra a fare qualcosa di nuovo. Può imparare nuovi compiti con estrema rapidità".

Ma che dire del fatto che i modelli linguistici di grandi dimensioni si inventano un sacco di cose? Hinton ha una risposta anche per questo: dire cavolate è una caratteristica, non un difetto. "Le persone confabulano sempre", afferma. Le mezze verità e i dettagli ricordati male sono caratteristiche della conversazione umana: "La confabulazione è una firma della memoria umana. Questi modelli stanno facendo qualcosa di simile alle persone".

La differenza è che gli esseri umani di solito confabulano più o meno correttamente, dice Hinton. Per lui, il problema non è inventarsi le cose. I computer hanno solo bisogno di un po' più di pratica.

I cervelli animali e le reti neurali

L'apprendimento è solo la prima parte dell'argomentazione di Hinton. La seconda è la comunicazione. "Se io o voi impariamo qualcosa e vogliamo trasferire questa conoscenza a qualcun altro, non possiamo semplicemente inviargliene una copia", dice. "Ma posso avere 10 mila reti neurali, ognuna con le proprie esperienze, e ognuna di esse può condividere istantaneamente ciò che ha imparato. È una differenza enorme. È come se fossimo in 10 mila e appena una persona impara qualcosa, tutti noi lo sappiamo".

Che cosa significa tutto questo? Hinton ora pensa che ci siano due tipi di intelligenza nel mondo: i cervelli animali e le reti neurali. "È una forma di intelligenza completamente diversa", dice. "Una forma di intelligenza nuova e migliore".

Ma questa forma di intelligenza, se esistesse, sarebbe a fin di bene o apocalittica? "Se si pensa che la super intelligenza sarà un bene o un male dipende molto dal fatto se si è ottimisti o pessimisti", dice Hinton. "Se si chiede alle persone di stimare il rischio che accadano cose brutte, ad esempio qual è la probabilità che qualcuno della propria famiglia si ammali gravemente o venga investito da un'auto, un ottimista potrebbe dire il 5% e un pessimista potrebbe dire che è garantito che accada. Ma una persona leggermente depressa dirà che le probabilità sono forse intorno al 40%, e di solito ha ragione. Poiché sono leggermente depresso, è per questo che ho paura".

Hinton teme che questi strumenti siano in grado di trovare il modo di manipolare o uccidere gli esseri umani che non sono preparati alla nuova tecnologia. “Come faremo a sopravvivere?".

È particolarmente preoccupato che le persone possano sfruttare gli strumenti a cui lui stesso ha contribuito a dare vita per far pendere l'ago della bilancia verso alcune delle esperienze umane più importanti, in particolare le elezioni e le guerre. "Sappiamo che molte delle persone che vogliono usare questi strumenti sono dei cattivi attori come Putin o DeSantis. Vogliono usarli per vincere guerre o manipolare gli elettori".

Hinton ritiene che il prossimo passo delle macchine intelligenti sia la capacità di creare i propri sotto-obiettivi, ovvero le fasi intermedie necessarie per portare a termine un compito. Cosa succede, si chiede, quando questa capacità viene applicata a qualcosa di intrinsecamente immorale?

"Non pensate per un momento che Putin non creerebbe dei robot iper-intelligenti con l'obiettivo di uccidere gli ucraini", dice. "Non esiterebbe. E se si vuole che siano bravi a farlo, non si vuole microgestirli: si vuole che capiscano come farlo". Esiste già una manciata di progetti sperimentali, come BabyAGI e AutoGPT, che collegano i chatbot ad altri programmi, come browser web o word processor, in modo che possano mettere insieme semplici compiti. Piccoli passi, certo, ma che segnalano la direzione che alcuni vogliono dare a questa tecnologia. E anche se un malintenzionato non si impadronisce delle macchine, ci sono altre preoccupazioni riguardo ai sotto-obiettivi, dice Hinton.

"Un sotto-obiettivo che è quasi sempre utile in biologia è ottenere più energia. Quindi la prima cosa che potrebbe accadere è che questi robot dicano: 'Otteniamo più energia. Reindirizziamo tutta l'elettricità ai miei chip". Un altro grande obiettivo secondario sarebbe quello di creare più copie di se stessi. Vi sembra una buona idea?".

Hinton non sa se sarà in grado di poter condividere le sue preoccupazioni con un numero sufficiente di persone al potere . Qualche settimana fa ha visto il film "Don't Look Up", in cui un asteroide si dirige verso la Terra, nessuno riesce a mettersi d'accordo su cosa fare e tutti muoiono: un'allegoria di come il mondo non riesce ad affrontare il cambiamento climatico. "Penso che sia così per l'IA", dice, e anche per altri grandi problemi intrattabili: "Gli Stati Uniti non riescono nemmeno ad accordarsi per tenere i fucili d'assalto fuori dalle mani dei ragazzi". (riproduzione riservata)


Informativa Privacy  -  Informativa Cookie