È umano o no? Nuovi strumenti aiutano a riconoscere testi e foto AI

di Ann-Marie Alcántara  10/01/2023 18:12
È umano o no? Nuovi strumenti aiutano a riconoscere testi e foto AI

Esistono software e suggerimenti che possono aiutare a riconoscere i contenuti di ChatGPT e di altri siti del genere. Ecco come funzionano

Quasi all'improvviso, è diventato popolare l'uso dell'intelligenza artificiale per generare favole della buonanotte, lettere d'amore, saggi di scuola superiore, persino guide per la salute mentale (per non parlare di opere d'arte premiate). Molte persone però non si sentono a proprio agio con i contenuti creati dai bot e possono sentirsi ingannate.

Ricercatori e programmatori si sono impegnati a costruire strumenti per aiutare le persone a capire che cosa è stato partorito dalla mente di un essere umano e cosa invece è stato messo insieme da un bot. Ma in un periodo di rapidi progressi come questo, qualsiasi strumento può avere difficoltà a tenere il passo.

Daniel Morgan, 39 anni, padre di due figli, ha sperimentato alcune volte il bot ChatGPT di OpenAI, scrivendo biglietti di ringraziamento, creando storie della buonanotte e sviluppando materiale di marketing. Morgan, che soffre di dislessia, dice di aver usato ChatGPT per aiutarlo a scrivere i post del blog per la sua società di investimenti e intermediazione immobiliare, Marterra Group. "Ora posso avere idee di contenuto più chiare, darle a qualcuno del nostro team e poi farle personalizzare, senza dovermi preoccupare di sentirmi giù perché sto sbagliando a scrivere o perché la mia grammatica non è corretta", dice.

I bot di OpenAI, tra cui il chatbot ChatGPT in grado di creare contenuti scritti, e il motore artistico Dall-E 2 fanno parte di un'ondata crescente di strumenti in grado di generare lavori realistici e difficili da distinguere da quelli realizzati dagli esseri umani. Altri strumenti di intelligenza artificiale creano video deepfake, che possono produrre filmati di parole e azioni che non sono mai stati ripresi. Mentre Morgan ha detto ad alcuni colleghi che si sta facendo aiutare da ChatGPT, altri potrebbero non essere così chiari. Ecco come cercare di identificare i contenuti generati dall'intelligenza artificiale, per non farsi ingannare da un robot.

Gli investigatori digitali

ChatGPT ha suscitato il timore che gli studenti possano usarlo per scrivere saggi e altri compiti di scrittura, anche se gli insegnanti sono ancora in grado di individuare errori e altre carenze. Il Dipartimento dell'Istruzione di New York, per esempio, ha recentemente vietato l'accesso al prodotto sulle sue reti e sui suoi dispositivi. Anche in altri settori si teme che i lavoratori possano usarlo come scorciatoia per i loro compiti di lavoro.

Edward Tian, uno studente ventiduenne dell'Università di Princeton, ha creato GPTZero all'inizio di questo mese per rispondere alla crescente preoccupazione che le persone non sappiano quando qualcosa è stato scritto dalle macchine. È semplice da usare: Copiate e incollate qualsiasi testo che sospettate sia stato generato con l'aiuto dell'intelligenza artificiale.

GPTZero mostra la probabilità che il testo sia falso o reale. Il software valuta il testo in base a una serie di fattori. Una metrica chiave che utilizza è la tendenza delle persone a variare maggiormente la scelta delle parole e la lunghezza delle frasi, mentre i testi prodotti dall'intelligenza artificiale sono più coerenti.

Tian afferma di non essere contrario all'utilizzo dell'IA per supportare o migliorare il proprio lavoro. "Ma ci sono qualità della scrittura umana, elementi davvero belli e grezzi della prosa scritta, che i computer non possono e non dovrebbero mai cooptare", spiega Tian a proposito del motivo per cui ha costruito GPTZero.

Hugging Face, un'azienda che sviluppa strumenti di apprendimento automatico dell'intelligenza artificiale, ha un sito web simile avviato nel 2019. Inserendo circa 50 parole di testo, si otterrà un risultato in percentuale su quanto sia reale o falso.

Entrambi gli strumenti hanno dei limiti e richiederanno aggiornamenti per stare al passo con i progressi dell'IA. Lo strumento di Hugging Face è addestrato su GPT-2, una versione precedente del motore di testo di OpenAI, e classificherà come reali i testi provenienti dall'attuale motore di testo GPT-3 di OpenAI. GPTZero offre risultati basati su calcoli GPT-2. GPTZero potrebbe non essere altrettanto bravo a individuare i contenuti GPT-3, ma offre comunque una valutazione migliore per stabilire se la scrittura è reale o generata.

Allenamento del cervello

Lo scetticismo è altrettanto importante quanto un metodo di rilevamento, afferma Irene Solaiman, policy director di Hugging Face. Le persone possono cercare segnali come la ripetizione o l'imprecisione per indicare che ciò che stanno leggendo o vedendo è stato generato dall'IA. "A volte, con un modello linguistico, si può capire che sta fraintendendo i dati moderni, che non capisce i tempi", dice la Solaiman.

È possibile allenare i propri occhi e il proprio cervello a individuare i bot, soprattutto per le immagini e i video che utilizzano contenuti generati dall'intelligenza artificiale, compresi i deepfake. Iniziate con un progetto di ricerca chiamato Detect Fakes, co-creato da Matt Groh, un dottorando di 34 anni presso il Media Lab del Massachusetts Institute of Technology. L'esercizio vi chiederà di determinare quali dei 32 esempi di testo, immagini e video sono reali e quali sono stati falsificati dall'intelligenza artificiale.

Il team di Detect Fakes consiglia anche altri modi per individuare un deepfake, come per esempio prestare attenzione al fatto che i movimenti delle labbra di una persona sembrino reali o un po' fuori luogo, segno che c'è qualcosa che non va. Può anche essere utile fare un passo indietro e pensare al motivo per cui esiste un'immagine o un video del genere. "Possono prestare attenzione al contesto, a quanto è probabile che sia così, visto quello che sanno del mondo", dice Groh. "E possono prestare attenzione agli incentivi, a ciò che qualcuno sta dicendo e al motivo per cui qualcuno potrebbe dirlo". Tuttavia, non esiste un modo magico per individuare tutti i deepfakes.

Una battaglia senza fine

Altre aziende e università stanno lavorando a strumenti di rilevamento per immagini e video generati dall'intelligenza artificiale.

Intel ha rilasciato FakeCatcher a novembre. Lo strumento cerca le indicazioni del flusso sanguigno - leggeri cambiamenti di colorazione indicativi di processi biologici tipici - per classificare un video come falso o reale. È ora disponibile per alcune aziende, tra cui organizzazioni giornalistiche e società di social media, afferma Ilke Demir, ricercatrice senior dell'azienda.

Ma i futuri generatori di IA troveranno probabilmente il modo di ingannare i marcatori autentici, come il flusso sanguigno del viso, afferma la dottoressa Demir. Con la proliferazione degli strumenti di IA, il pericolo sarà quello di affidarsi a un unico modello o approccio per la loro individuazione.

Una soluzione migliore è una piattaforma in grado di combinare una serie di risultati diversi per determinare l'autenticità di un contenuto, afferma la Demir. "Sarà più affidabile, perché non si basa su un algoritmo che stiamo cercando di conquistare". (riproduzione riservata)


Informativa Privacy  -  Informativa Cookie