La battaglia di Facebook contro la disinformazione sembra destinata a durare all’infinito, ma ciò non significa che l’azienda possa averci rinunciato. Al contrario, è solo grazie ad un costante miglioramento dei suoi sistemi automatizzati, che può essere in grado di combattere l’incitamento all’odio e disinformazione. Il CTO Mike Schroepfer ha dettagliato l’ultimo di questi miglioramenti oggi in una serie di post.
Le modifiche riguardano i sistemi ad intelligenza artificiale che il social network utilizza per stroncare sul nascere spam, notizie fuorvianti e insulti razziali, vale a dire prima che chiunque, compresi i moderatori dei contenuti di Facebook, veda questi elementi.
Un miglioramento è nei sistemi di analisi del linguaggio che Facebook utilizza per rilevare cose come l’incitamento all’odio. Questa è un’area, ha spiegato Schroepfer, in cui l’azienda deve essere estremamente attenta. I falsi positivi negli spazi pubblicitari (come quando un post “buono” sembra essere una truffa) sono a basso rischio, ma i falsi positivi che eliminano i post perché vengono scambiati per incitamento all’odio possono essere problemi seri. Quindi è importante essere molto sicuri, quando si prende una decisione. Purtroppo contenuti di incitamento all’odio possono essere talvolta davvero impercettibili. Anche qualcosa che sembra indiscutibilmente razzista può essere invertito o sovvertito da una sola parola. La creazione di sistemi di apprendimento automatico che riflettano la complessità e la varietà del linguaggio è un’attività che richiede quantità crescenti di risorse di elaborazione.
Linformer (“linear” + “trasformer”) è il nuovo strumento creato da Facebook per gestire il crescente costo delle risorse per la scansione di miliardi di post al giorno. I ricercatori dell’azienda stanno anche lavorando ad un problema leggermente meno articolato della comprensione dell’interazione di testo, ovvero immagini e testo nelle immagini. Schermate false di TV e siti web, meme e altre cose che si trovano spesso nei post sono incredibilmente difficili da capire per i computer, ma sono un’enorme fonte di informazioni. Inoltre, una singola parola modificata può invertire completamente il loro significato mentre quasi tutti i dettagli visivi rimangono gli stessi.
Facebook sta migliorando il suo modo di coglierli nella loro infinita varietà, ha detto Schroepfer. È ancora molto difficile, ha affermato, ma la società ha fatto passi da gigante nel segnalare, ad esempio, immagini di disinformazione COVID-19 come notizie false, come ad esempio che le mascherine causano il cancro.
Anche la distribuzione e la manutenzione di questi modelli sono complesse, richiedono un costante lavoro di prototipazione offline, implementazione, test online e aggiunta di feedback. Il Reinforcement Integrity Optimizer adotta un nuovo approccio, monitorando l’efficacia dei nuovi modelli sui contenuti live, trasmettendo costantemente tali informazioni al sistema di formazione piuttosto che, ad esempio, nei rapporti settimanali.
Determinare se Facebook abbia successo non è facile. Da un lato, le statistiche che pubblicano dipingono un quadro roseo di proporzioni crescenti in merito all’eliminazione di post di incitamento all’odio e disinformazione, con milioni di post, immagini violente e contenuti di sfruttamento minorile rimossi, rispetto allo scorso trimestre.
Abbiamo chiesto a Schroepfer come Facebook possa tracciare o decidere in modo accurato quando un post è buono o no.
“La linea di base cambia continuamente, quindi bisognerà considerare tante metriche insieme. La nostra stella polare nel lungo periodo è la prevalenza”, ha spiegato, riferendosi alla frequenza effettiva di utenti che incontrano un determinato tipo di contenuto, piuttosto che se è stato rimosso preventivamente. “Se tolgo migliaia di contenuti che le persone non avrebbero mai visto comunque, fa poca differenza. Se invece elimino l’unico contenuto che stava per diventare virale, è un enorme successo”. Facebook ora include la prevalenza dell’incitamento all’odio nel suo “rapporto sull’applicazione degli standard della comunità” trimestrale e lo definisce come segue:
Prevalence stima la percentuale di volte in cui le persone vedono contenuti in violazione sulla nostra piattaforma. Calcoliamo la prevalenza dell’incitamento all’odio selezionando un campione di contenuti visualizzati su Facebook e quindi etichettando quanto di esso viola le nostre politiche sull’incitamento all’odio. Poiché l’incitamento all’odio dipende dalla lingua e dal contesto culturale, inviamo questi campioni rappresentativi ai revisori in diverse lingue e regioni. Da luglio 2020 a settembre 2020 è stato compreso tra lo 0,10% e lo 0,11%. In altre parole, su 10.000 visualizzazioni di contenuti su Facebook, da 10 a 11 includevano incitamento all’odio.
Se queste statistiche sono esatte, significa che su Facebook, in questo momento, un contenuto online su mille è qualificato come di incitamento all’odio.
Bisogna tuttavia mettere in dubbio anche la completezza di queste stime: i rapporti provenienti da aree devastate dalla guerra come l’Etiopia suggeriscono che sono piene di discorsi di odio che vengono rilevati, segnalati e rimossi in modo inadeguato. E, naturalmente, l’esplosione di contenuti e gruppi di milizie nazionaliste e suprematiste bianche su Facebook è stata ben documentata.
Schroepfer ha sottolineato che il suo ruolo è molto diretto nel lato “implementazione” e che le questioni strettamente politiche sono più o meno fuori dal suo campo. Francamente è un po’ deludente, da parte del CTO di una delle aziende più potenti al mondo che sembra prendere sul serio questi problemi. Ma ci si chiede anche, se lui e le sue squadre non fossero stati così assidui nel perseguire rimedi tecnici come quello spiegato qui, Facebook avrebbe potuto essere completamente ricoperto da odio e falsità, piuttosto che essere semplicemente colpito da questi problemi.
Fonte Fastweb.it