Quali canarini avvertiranno che l'intelligenza artificiale vuole distruggere le civiltà?

25/02/2020 16:48
Quali canarini avvertiranno che l'intelligenza artificiale vuole distruggere le civiltà?

Così come gli uccellini gialli che venivano usati nelle miniere di carbone per avvisare del pericolo del grisou, il magazine MIT Technology Review si è chiesto quali possano essere i segnali concreti di una superintelligenza che sta diventando pericolosa. Eccoli

Ci si può svegliare una mattina con la consapevolezza che sia emersa un'intelligenza artificiale superpotente, con conseguenze disastrose? Libri come Superintelligence di Nick Bostrom e Life 3.0 di Max Tegmark, così come articoli più recenti, sostengono che l’insorgere di una superintelligenza maligna sia un rischio esistenziale per l'umanità.
 
Oren Etzioni, amministratore delegato dell’Allen Institute for AI, e professore di informatica all'Università di Washington, ha scritto sul magazine dell’MIT, Technology Review, che sull’argomento si può speculare all'infinito, mentre è meglio porsi una domanda più concreta, empirica: che cosa ci può segnalare che questa super intelligenza sia davvero dietro l'angolo?
 
Insomma, cercare dei simil- canarini , quelli che venivano usati nelle miniere di carbone per segnalare la presenza di grisou, e applicarli al mondo della AI. Se un programma di intelligenza artificiale sviluppa una nuova fondamentale capacità, questo è l'equivalente di un canarino che crolla al suolo: un avvertimento precoce di scoperte di IA all'orizzonte.
 
Il famoso test di Turing potrebbe servire da canarino? Il test, inventato da Alan Turing nel 1950, presuppone che l'intelligenza artificiale a livello umano venga raggiunta quando una persona non è in grado di distinguere la conversazione con un umano da quella con un computer. È un test importante, ma non è un canarino; è, piuttosto, il segno che l'IA a livello umano è già arrivata. Molti informatici credono che se quel momento arriverà, la superintelligenza seguirà rapidamente. Abbiamo bisogno di altre pietre miliari intermedie.
 
Le prestazioni dell'IA in giochi come Go, Poker o Quake 3, sono un canarino? No, secondo Technology Review. La maggior parte della cosiddetta intelligenza artificiale in questi giochi è in realtà un lavoro umano che inquadra il problema e progetta la soluzione. La vittoria di AlphaGo sui campioni del Go umano è stata un merito della squadra umana di talento di DeepMind, non della macchina, che si è limitata a far funzionare l'algoritmo che la gente aveva creato. Questo spiega perché ci vorranno anni di duro lavoro per tradurre il successo dell'IA da una stretta sfida all'altra. Anche AlphaZero, che ha imparato a giocare a Go di livello mondiale in poche ore, non ha sostanzialmente ampliato la sua portata dal 2017. Metodi come l'apprendimento profondo sono generali, ma la loro applicazione di successo a un compito particolare richiede un ampio intervento umano.
 
Più in generale, l'apprendimento automatico è al centro dei successi dell’ IA nell'ultimo decennio. Ma, sostiene Tecnhology review, il termine apprendimento automatico (machine learning) è improprio. Le macchine possiedono solo una piccola parte delle ricche e versatili capacità di apprendimento degli esseri umani. Dire che le macchine imparano è come dire che i piccoli pinguini sanno pescare. La realtà è che i pinguini adulti nuotano, catturano il pesce, lo digeriscono, rigurgitano nel becco e mettono bocconcini in bocca ai loro bambini. Anche l'intelligenza artificiale viene nutrita con il cucchiaio da scienziati e ingegneri umani.
 
In contrasto con il machine learning, l'apprendimento umano mappa una motivazione personale ("Voglio guidare per essere indipendente dai miei genitori") verso un piano di apprendimento strategico ("Prendere lezioni di guida e fare pratica nei fine settimana"). Un umano formula obiettivi di apprendimento specifici ("Migliora nel parcheggio in retromarcia"), raccoglie ed etichetta i dati ("L'angolo questa volta era sbagliato ") e incorpora un feedback esterno e conoscenze di base ("L'istruttore ha spiegato come usare gli specchietti laterali"). Gli esseri umani identificano, inquadrano e modellano i problemi di apprendimento. Nessuna di queste abilità umane è nemmeno lontanamente replicata dalle macchine. Le macchine possono eseguire calcoli statistici sovrumani, ma questo è solo l'ultimo miglio dell’apprendimento.
 
La formulazione automatica dei problemi di apprendimento, quindi, è il primo canarino. Non sembra essere neanche vicino dal cadere al suolo.
 
Le macchine che guidano da sole sono il secondo canarino. Sono più lontane nel futuro di quanto previsto da protagonisti come Elon Musk. L'IA può fallire catastroficamente in situazioni atipiche, come quando una persona su una sedia a rotelle attraversa la strada. Guidare è molto più impegnativo dei precedenti compiti di IA, perché richiede di prendere decisioni in tempo reale, critiche per la vita, basate sia sull'imprevedibile mondo fisico che sull'interazione con i conducenti umani, i pedoni e gli altri. Naturalmente, una volta ridotto il tasso di incidenti, dovremmo utilizzare auto con guida autonoma limitata, ma solo quando si raggiungerà un livello di guida a livello umano si potrà dire che questo canarino si è accasciato.
 
Seconbdo Etzioni, l'arrivo di medici nella forma di IA sono un terzo canarino. L'IA può già analizzare immagini mediche con una precisione sovrumana, ma questo è solo una piccola parte del lavoro di un medico umano. Un medico IA dovrebbe intervistare i pazienti, considerare le complicazioni, consultare altri medici e altro ancora. Si tratta di compiti impegnativi che richiedono la comprensione delle persone, del linguaggio e della medicina. Un medico di questo tipo non dovrebbe ingannare un paziente facendogli credere di essere umano: ecco perché in questo caso il test di Turing non funziona. Ma dovrebbe approssimare le capacità dei medici umani in una vasta gamma di compiti e circostanze impreviste.
 
E anche se il test di Turing in sé non è un buon canarino, versioni limitate del test potrebbero servire come canarini. Le IA esistenti non sono in grado di capire le persone e le loro motivazioni, o anche domande fisiche di base come "Un jumbo jet passerà attraverso una finestra? Possiamo fare un test parziale di Turing conversando per qualche minuto con un'IA come Alexa o Google Home, che espone rapidamente la loro limitata comprensione della lingua e del mondo.
 
Consideriamo, dice Etzioni, un esempio molto semplice basato sugli schemi di Winograd proposti dall'informatico Hector Levesque. Ho detto ad Alexa: "Il mio trofeo non entra nel mio bagaglio a mano perché è troppo grande. Cosa devo fare? La risposta di Alexa era "Non la conosco". Poiché Alexa non sa ragionare sulle dimensioni degli oggetti, non può decidere se "esso" si riferisce al trofeo o al bagaglio a mano. Quando l'intelligenza artificiale non riesce a capire che cosa è troppo grande, se il trofeo o la valigia, è difficile credere che sia pronta a conquistare il mondo. Se Alexa riuscisse ad avere un dialogo sostanziale su un argomento ricco, sarebbe un quarto canarino.
 
Le IA attuali sono degli idioti sapientoni: hanno successo in compiti ristretti, come giocare a Go o categorizzare le immagini della risonanza magnetica, ma mancano della generalità e della versatilità degli esseri umani. Ogni sapiente idiota è costruito manualmente e separatamente, e siamo lontani decenni dalle capacità versatili di un bambino di cinque anni. I canarini che propone Technology Review, al contrario, indicano altri punti nel campo dell'IA.
 
Alcuni teorici, come Bostrom, sostengono che dobbiamo comunque pianificare eventi a bassa probabilità ma di grande portata come se fossero inevitabili. Le conseguenze, dicono, sono così profonde che le nostre stime della loro probabilità non sono importanti. È un'argomentazione sciocca: può essere usata per giustificare praticamente tutto. È una versione moderna dell'argomento del filosofo del XVII secolo, Blaise Pascal, secondo cui vale la pena di agire come se esistesse un Dio cristiano perché altrimenti si rischia un inferno eterno. Ha usato il costo infinito di un errore per sostenere che una determinata linea di condotta è razionale, anche se si basa su una premessa altamente improbabile. Ma argomentazioni basate su costi infiniti possono sostenere convinzioni contraddittorie. Per esempio, si consideri un Dio anticristiano che prometta l'inferno eterno per ogni atto cristiano.  Anche questo è altamente improbabile; da un punto di vista logico, però, è una scommessa tanto ragionevole quanto credere nel Dio della Bibbia. Questa contraddizione mostra un difetto nelle argomentazioni basate su costi infiniti.
 
Il catalogo di segnali di allarme precoce, o canarini, di Etzioni è illustrativo più che esaustivo, ma secondo l'autore mostra quanto siamo lontani dall'IA a livello umano. Se e quando un canarino crolla, ci sarà tutto il tempo prima della comparsa dell'IA a livello umano per progettare robusti interruttori di spegnimento e per identificare le linee rosse che non vogliamo che siano attraversate dall'IA. E affrontare questioni esistenti come il regolare l'impatto dell'IA sull'occupazione o assicurare che il suo uso nelle sentenze penali o nel credit scoring non discrimini alcuni gruppi.
 
Come ha detto Andrew Ng, uno dei più importanti esperti mondiali di IA, "preoccuparsi che l'IA si trasformi in un'entità maligna è un po' come preoccuparsi della sovrappopolazione su Marte". Finché i canarini non cominceranno a cadere, ha perfettamente ragione.
 


Informativa Privacy  -  Informativa Cookie