Intelligenza o stupidità artificiale?

di Alessandro Carollo 09/05/2018 12:28
Intelligenza o stupidità artificiale?

Intelligenza Artificiale è una definizione sbagliata, sostiene Bengio, guru del deep learning: le macchine sono solo un po’ meno stupide di prima. I passi che la scienza deve fare sono ancora tanti.

Il professor Yoshua Bengio guida uno dei gruppi di ricerca più importanti al mondo per lo sviluppo di una potente tecnica di intelligenza artificiale, nota come deep learning. Le sorprendenti capacità che questa tecnica (apprendimento profondo) ha conferito ai computer negli ultimi anni, dal riconoscimento vocale a livello umano e la classificazione delle immagini alle abilità di base di conversazione, hanno suscitato allarmi circa i progressi che l’AI sta facendo nella direzione di pareggiare o addirittura superare l’intelligenza umana.

Figure importanti come Stephen Hawking ed Elon Musk hanno persino avvertito che l’intelligenza artificiale potrebbe rappresentare una minaccia esistenziale per l’umanità. Musk e altri stanno investendo milioni di dollari nella ricerca dei potenziali pericoli dell’AI, così come di possibili soluzioni. Ma queste dichiarazioni terribili suonano esagerate per molte delle persone che stanno effettivamente sviluppando questa tecnologia. Bengio, professore di informatica all’Università di Montreal, ha messo le cose in prospettiva in un’intervista con il senior editor del MIT Technology Review per l’AI e la robotica, Will Knight.

In questa intervista Bengio sostiene che attualmente molte persone sovrastimano grossolanamente i progressi compiuti dall’Ai. «Ci sono molti, molti anni di piccoli progressi da raggiungere, tra cui cose banali come più dati e più potenza del computer. La gente sottovaluta quanti passi avanti la scienza debba ancora fare. Ed è difficile separare il clamore dalla realtà perché queste grandi cose a occhio nudo sembrano magiche». Eppure guru tecnologici come Musk (l’invenstore di Tesla e di Space Rocket) sostengono che i ricercatori di intelligenza artificiale possano accidentalmente «scatenare il demone».

Bengio respinge questa possibilità, perché non si tratta per lui di aver trovato improvvisamente una ricetta magica. «Le cose sono molto più complicate della semplice storia che alcuni vorrebbero raccontare. I giornalisti a volte vorrebbero raccontare la storia che qualcuno nel suo garage avrà un’idea incredibile, che poi diventerà una svolta tecnologica e diventerà Intelligenza artificiale». Allo stesso modo, sostiene Bengio, «le aziende vogliono raccontare una bella storia: Oh, abbiamo questa tecnologia rivoluzionaria che sta per cambiare il mondo - AI è quasi qui, e noi siamo l’azienda che sta per portarla. Ma non è affatto così che funziona». L’apprendimento automatico, per il docente di Montreal, significa che «il processo di acquisizione delle informazioni attraverso milioni di esempi è lento e meticoloso. Una macchina migliora se stessa, sì, ma molto, molto lentamente, e in modi molto specializzati. E il tipo di algoritmi su cui si sta lavorando non sono affatto come piccoli virus che si auto-programmano. Non è quello che stiamo facendo».

Secondo Bengio, «in questo momento, il modo in cui insegniamo alle macchine a essere intelligenti prevede che dobbiamo dire al computer che cosa è un’immagine, anche a livello di pixel. Per la guida autonoma, gli esseri umani stanno etichettando un numero enorme di immagini di automobili per mostrare quali parti sono pedoni o strade. Non è affatto il modo in cui gli esseri umani apprendono le cose, né quello degli animali. Per ottenerlo, manca qualcosa di grande. Questa è una delle cose principali che stiamo facendo nel mio laboratorio, ma non ci sono applicazioni a breve termine, probabilmente ciò non sarà utile per costruire un prodotto domani».

Lo stesso dicasi per un’altra grande sfida, la comprensione del linguaggio naturale. «Abbiamo fatto progressi abbastanza rapidi negli ultimi anni, ed è molto incoraggiante», ha dichiarato Bengio a Technology Review, «ma non abbiamo ancora raggiunto il livello in cui si possa dire che la macchina ha capito. Questo momento arriverà quando leggeremo un paragrafo e poi faremo una qualsiasi domanda al riguardo, e la macchina risponderà in modo ragionevole, come farebbe un essere umano. Siamo ancora lontani da questo».

Per poter creare una vera intelligenza in una macchina, secondo Bengio, occorrono approcci tradizionali, compresi il ragionamento e la logica: «Abbiamo bisogno di sposare queste cose con il deep learning per muoverci verso l’intelligenza artificiale. Sono una delle poche persone che pensano che le persone che ricercano nel campo dell’apprendimento delle macchine, soprattutto quelle che lavorano nel deep learning, dovrebbero prestare maggiore attenzione alle neuroscienze. I cervelli funzionano e non sappiamo ancora perché, in molti modi. Migliorare tale comprensione ha un grande potenziale per aiutare la ricerca sull’AI e gli esperti di neuroscienze guadagnerebbero molto nel vedere quello che facciamo e cercassero di adattare ciò che osservano del cervello al tipo di concetti che stiamo sviluppando nel machine learning».

Insomma, hanno ragione Musk e Hawking nel lanciare l’allarme su una futura supremazia dei robot? «È certamente una preoccupazione nuova», ha risposto a MIT Technology review Bengio, «per tanti anni l’intelligenza artificiale è stata una delusione. Noi ricercatori lottiamo per rendere le macchine un po’ più intelligenti, ma sono ancora piuttosto stupide, tanto che pensavo che il settore dovesse essere chiamato stupidità artificiale. In realtà le nostre macchine sono stupide e stiamo solo cercando di renderle meno stupide. Succede ora che grazie ai primi progressi, che la gente può vedere con delle demo, ora possiamo dire: caspita, quella macchina può effettivamente dire cose in inglese, può capire il contenuto di un’immagine. Bene, ora colleghiamo queste cose con tutta la fantascienza che è stata prodotta e il risultato è la paura».

Secondo Bengio, invece, la cosa che deve preoccupare di più è l’uso improprio dell’intelligenza artificiale, i cattivi usi militari, la manipolazione delle persone attraverso la pubblicità e l’impatto sociale, ovvero le persone che perderanno il lavoro. «La società deve guardare dentro se stessa e trovare una risposta collettiva, e non lasciare che sia la legge della giungla a risolvere le cose». 


Informativa Privacy  -  Informativa Cookie