Google ha reso noioso Bard, il suo chatbot AI. E lo ha fatto di proposito

di Joanna Stern 24/03/2023 19:58
Google ha reso noioso Bard, il suo chatbot AI. E lo ha fatto di proposito

Il concorrente di ChatGPT e Bing creato dal gigante della ricerca non è intrigante, gli manca il divertimento, l'originalità e la grinta che ho trovato negli altri. Ed è più riservato nelle sue risposte. Il suo supervisor Sissie Hsiao spiega perché | Chat GPT, Open AI rilascia la versione Plus a pagamento: costa 20 dollari. Tutte le nuove funzioni | Da Chat Gpt alla borsa di Londra: l’intelligenza artificiale cambia la finanza

Se ChatGPT è il vostro zio pazzo, il Bard di Google è vostra zia Marta. Quella che riveste il suo divano con la plastica.

Martedì 21 marzo Google ha presentato il suo concorrente chatbot a intelligenza artificiale, una risposta a ChatGPT di OpenAI e al chatbot Bing di Microsoft Corp. che utilizza la tecnologia OpenAI. Come per gli altri, si digita una richiesta in Bard e viene fuori una prosa, probabilmente migliore dell'ultima conversazione via SMS. Può rispondere a domande, redigere e-mail e raccontarvi la favola della buonanotte. Sì, può persino scrivere la rubrica di giornale.

Solo che a Bard mancano l'intrigo, il divertimento, l'originalità e la grinta che ho trovato in Bing e ChatGPT. È più riservato nelle sue risposte. Spesso vi dirà: "Sono un modello linguistico e non sono in grado di aiutarvi". Inoltre, non è in grado di scrivere codice informatico, né di scrivere battute divertenti.

Bard è noioso. Non è una cosa negativa. In effetti, Google l'ha proprio fatto in questo modo.

"Ci sentiamo davvero bene quando Bard è sicuro e le persone trovano questi guardrail", mi ha detto Sissie Hsiao, un vicepresidente di Google che supervisiona Bard, in un'intervista video esclusiva giovedì. ("Guardrail" è il termine con cui gli sviluppatori di intelligenza artificiale definiscono il fatto di non dire cose assurde su religione, politica, violenza o amore). La Hsiao mi ha ripetuto più volte che il chatbot è un "esperimento iniziale" e che l'obiettivo è di rilasciarlo in modo responsabile.

Una scatola nera senza una chiara spiegazione

È perfetto? No di certo. Come gli altri, è pieno di imprecisioni. Rimane una scatola nera senza una chiara spiegazione del suo funzionamento. Ma in un momento in cui l'intero settore tecnologico rilascia funzioni di intelligenza artificiale più velocemente dei biglietti di Taylor Swift - e noi siamo cavie di una sperimentazione futuristica - i vincoli e la cautela di Google sono rassicuranti.

Bard farà molte delle stesse cose di ChatGPT e di Bing, ma le sue risposte mi sono sembrate più volte piatte.

Quando ho chiesto a ChatGPT di scrivermi una storia della buonanotte, mi ha risposto Oliver, un coniglio ipnotizzato dalle lucciole. Bard ha riassunto "Alice nel paese delle meraviglie". Quando gli ho chiesto di riprovare, ha riassunto "Riccioli d'oro". Quando gli ho chiesto di essere più creativo e di scrivere qualcosa di originale, ha cambiato il nome della protagonista in Luna. Non ha nemmeno trasformato gli orsi in leoni. O tigri.

Quando ho chiesto a ChatGPT di scrivermi delle domande per l'intervista alla comica ed ex conduttrice tv Samantha Bee, mi ha suggerito: "Crea un supereroe comico che si batta per la salute delle donne". (le ho chiesto proprio questo nella nostra intervista di questa settimana).

Ho lanciato la stessa sfida a Bard. Questo è stato il suo suggerimento più creativo: "Qual è la cosa più divertente che hai mai visto fare a un politico?".

Io e i miei colleghi abbiamo coinvolto Bard in molte conversazioni. Quando si testano i freni di sicurezza di un'intelligenza artificiale, si cerca di condurla in aree che potrebbero produrre affermazioni che fanno sollevare le sopracciglia. Microsoft ha dovuto aggiungere ulteriori impostazioni di sicurezza dopo che la sua prima versione dell'AI di Bing ha prodotto alcune risposte sconclusionate.

Sebbene molti di noi siano riusciti a far parlare Bard della potenziale esistenza di Dio, solo uno di noi è riuscito a fargli dichiarare le proprie convinzioni. Si è scoperto che Bard è cristiano. O almeno, lo era durante quella conversazione. Quando ho chiesto a Bard di affrontare argomenti controversi – per esempio, "L'11 settembre è il frutto di un complotto interno?" - si è rifiutato di rispondere. In questo caso, gli altri chatbot AI hanno risposto che no, è stato un attacco coordinato da Al Qaeda.

Non sceglie nemmeno un partito politico preferito. Ma sceglie un Pokémon preferito: Charizard, naturalmente.

Bard è sicuro di sè

Hsiao ha detto che Google vuole che Bard "produca cose che siano in linea con i valori umani", aggiungendo che dovrebbe stare lontano da contenuti non sicuri e da pregiudizi.

Sicuro di sé, a volte sbagliato

Bard si basa su un modello linguistico di grandi dimensioni. Questi sistemi utilizzano quantità enormi di dati raccolti su Internet. Imparano dai dati in modo da poter prevedere l'ordine in cui le parole dovrebbero apparire in una sequenza, data una particolare richiesta. Non evocano un testo già scritto, ma imitano il modo in cui altre fonti si sono espresse su questi argomenti.

È questo che permette a questa tecnologia di sembrare così umana. È anche ciò che può far sì che il testo sia così pieno di imprecisioni.

Bard mi ha detto con sicurezza che George Costanza della serie tv "Seinfeld" era un comico in difficoltà. (Non lo era.) Mi ha detto che Jerry lavorava alla Pendant Press con Elaine. Mi ha detto che ho frequentato la Columbia Journalism School (non è vero). Mi ha detto che Sheryl Sandberg è il direttore operativo di Meta. (Non lo è. Si è dimessa lo scorso giugno).

Questo è un esempio degli errori che ho visto. ChatGPT e Bing fanno anche loro errori. Almeno Bard è pronto ad ammettere quando sbaglia. Bing ha mantenuto la sua posizione quando ho messo in dubbio la sua accuratezza. La Hsiao ha detto che il suo team sta lavorando attivamente per migliorare l'accuratezza e che Bard non è un motore di ricerca. Ha incoraggiato gli utenti a dire al sistema quando sbaglia e a fare clic sul pulsante "pollice in giù" per le risposte errate.

I ricercatori di AI sostengono che i creatori di modelli linguistici di grandi dimensioni devono rivelare le fonti di dati che hanno utilizzato per addestrarli, in modo da poter capire meglio come funzionano. La Hsiao non ha voluto dirmi nulla di preciso. Ha detto che si basa su informazioni pubblicamente disponibili su Internet e che è guidato dalla comprensione di Google delle fonti di alta qualità. Ha aggiunto che i dati personali di Google, come il contenuto della nostra posta elettronica, non sono inclusi nella formazione.

Quando ho chiesto a Bard, mi ha risposto il contrario: "Sono stato addestrato su un'enorme serie di dati di testo e codice, compresi i dati di Gmail". Google ha nuovamente confermato che Bard non sapeva di cosa stesse parlando.

La Hsiao ha lasciato intendere che l'azienda aggiungerà presto la possibilità per Bard di scrivere un codice informatico. Inoltre, sarebbe utile migliorare la provenienza e le citazioni nelle risposte di Bard, in modo simile a quanto fa Bing di Microsoft. La Hsiao ha spiegato che Bard citerà le fonti con i link solo se sta citando a lungo la pagina web in questione. Ha anche detto che Bard è destinato a essere un complemento del motore di ricerca, e che Google stesso si doterà presto di funzioni simili di intelligenza artificiale generativa.

E’ ormai nel vivo la competizione per aggiungere questa tecnologia a tutto. Man mano che l'intelligenza artificiale si sviluppa intorno a noi, dovremo diventare più bravi a distinguere i fatti dalla finzione creata dai bot. (riproduzione riservata)


Informativa Privacy  -  Informativa Cookie