La tecnologia AI cancella autonomamente la propaganda terroristica su Facebook

Facebook si affida all'intelligenza artificiale (AI) nella lotta alla propaganda terroristica. Secondo l'azienda, il 99% dei post legati a gruppi terroristici come lo Stato Islamico (IS) o Al-Qaeda vengono individuati ed eliminati grazie a tecnologie automatizzate prima ancora che vengano segnalati dagli utenti.

fb-is

Il nuovo metodo non dovrebbe funzionare solo per i testi, ma anche per le immagini e i video, come scrive l'agenzia di stampa Pressetext. "I nostri sforzi per combattere i contenuti estremisti sul nostro sito web sono ora molto più sistematici che in passato. Stiamo collaborando con vari partner e utilizzando diverse tecniche internamente", cita Notizie della BBC da una dichiarazione di Facebook. In linea di principio, l'azienda continua a fare affidamento su un mix di revisori umani e software. "Tuttavia, i sistemi automatizzati stanno assumendo sempre più il controllo principale", afferma Facebook.

Secondo il network online, questi utilizzano speciali algoritmi di intelligenza artificiale per individuare il materiale propagandistico indesiderato. "Utilizziamo l'apprendimento automatico basato sul testo, in cui il software viene istruito nel corso del tempo per capire da solo se determinati post possono costituire un problema o meno". Questo funziona in modo simile anche con le immagini e i video. Ogni foto o video ha un'impronta digitale unica che può essere riconosciuta immediatamente una volta classificata come problematica. "Questo permette di eliminare rapidamente il contenuto in questione", sottolinea Facebook.

L'intelligenza artificiale non è ancora priva di errori

Tuttavia, il sistema di IA di Facebook non funziona ancora perfettamente. "Ci vorranno ancora molti anni di sviluppo per perfezionare questo controllo automatico", ammette Monika Bickert, responsabile delle politiche globali di Facebook. Ad esempio, al momento il software si concentra solo su IS e Al-Qaeda. "Abbiamo scelto questi gruppi perché rappresentano la minaccia maggiore a livello globale. Se vogliamo includere anche altri gruppi terroristici, non è così facile perché possono esserci grandi differenze linguistiche e stilistiche nella loro propaganda", spiega Bickert.

In futuro, dovrebbe essere possibile utilizzare la tecnologia AI non solo per monitorare i contenuti del sito, ma anche per analizzare i comportamenti e classificare ciò che si cela dietro i singoli account. "Ma sappiamo che si tratta di un gioco tra gatto e topo. Chi vuole approfittare dell'enorme portata dei siti di social media farà di tutto per aggirare i controlli automatici", conclude l'esperto di Facebook. (pte/hae)

Altri articoli sull'argomento