Perché le Big Tech sono così scarse nell’intercettare i contenuti dannosi dei social?

di Mauro Romano 15/05/2023 20:38
Perché le Big Tech sono così scarse nell’intercettare i contenuti dannosi dei social?

Nonostante l'intelligenza artificiale (AI) identifichi la maggior parte dei contenuti da rimuovere, non è in grado di interpretare completamente le sfumature e il contesto. E la sfida è ancor più ardua con l'emergere di AI generativa e grandi modelli linguistici come ChatGPT

Nel corso dell'ultimo decennio, le Big Tech hanno migliorato notevolmente le loro capacità in molteplici aree, come il linguaggio, la predizione e l'analisi dei dati. Tuttavia, sono ancora carenti nell'individuare e rimuovere contenuti dannosi.

A livello legislativo, negli Stati Uniti, l'assenza di una regolamentazione federale rende difficile tenere responsabili finanziariamente le piattaforme per gli abusi online. È quanto pubblica MIT Technology Review, il magazine della prestigiosa università americana, in un articolò di Tate Ryan-Mosley, che sostiene che le aziende tecnologiche citano la complessità dei linguaggi e il contesto culturale come principali ostacoli alla moderazione dei contenuti. Nonostante l'intelligenza artificiale (AI) identifichi la maggior parte dei contenuti da rimuovere, non è in grado di interpretare completamente le sfumature e il contesto, compito che rimane quindi nelle mani dei moderatori umani.

La sfida alla moderazione dei contenuti potrebbe diventare ancor più ardua con l'emergere di AI generativa e grandi modelli linguistici come ChatGPT. Questi possono essere indotti a produrre risultati indesiderati, come discorsi d'odio, ma possono anche migliorare la moderazione automatica dei contenuti.

Tuttavia, per fare ciò, le aziende tecnologiche dovrebbero investire per adattare questi modelli a questo scopo specifico. Nonostante alcuni progressi, la moderazione dei contenuti rimane un problema complesso, data la difficoltà di interpretare il contesto, la scalabilità e la specificità tra le diverse culture.

Hany Farid, professore alla School of Information dell'Università della California, Berkeley, ha una spiegazione più ovvia. «La moderazione dei contenuti non ha tenuto il passo con le minacce perché non è nell'interesse finanziario delle aziende tecnologiche», afferma Farid. «È tutta una questione di avidità. Smettiamola di fingere che si tratti di qualcosa di diverso dal denaro».

Per affrontare i contenuti generati dall'AI, potrebbero essere utilizzati strumenti come il watermarking digitale, firme crittografiche o strumenti automatici per individuare post generati o manipolati dall'AI. L'efficacia di tali strumenti dipenderà dalla volontà e dalla capacità delle aziende tecnologiche di adottarli e svilupparli.

L'Unione Europea ha recentemente proposto un atto che richiede alle aziende di informare gli utenti quando il contenuto è generato da una macchina, segno dell'importanza crescente della trasparenza nell'era dell'AI. Alcune aziende, come Microsoft, hanno iniziato a fare ricerche in questo senso, non ci sono state molte attività degne di nota.

«Sono scettico sul fatto che vedremo miglioramenti nella moderazione dei contenuti, anche se abbiamo visto molti progressi tecnologici che dovrebbero migliorarla», afferma Farid.


Informativa Privacy  -  Informativa Cookie