Vita da social, l’intelligenza artificiale ci salverà dall’hate speech e dal cyberbullismo
Dall’ultimo “Safer Internet Day” emerge come i casi di cyberbullismo ed hate speech siano in costante aumento.
La partita si gioca tutta sul web e sui “social” con 6 adolescenti su 10 connessi, in media, più di 5 ore al giorno e un ragazzo su 5 che si dichiara “sempre connesso”. E sono proprio i social a voler ribadire il loro impegno contro le derive del web che preoccupano, sempre di più, istituzioni, docenti, educatori e famiglie. Facebook, in particolare, ha svelato la sua strategia di contrasto al linguaggio d’odio puntando sull’intelligenza artificiale e sui passi avanti compiuti rispetto alla selezione dei contenuti. L’AI (Artificial Intelligence), infatti, è ora in grado di individuare e rimuovere in maniera automatica fino al 97% di contenuti violenti e contenenti linguaggio d’odio ancor prima della segnalazione degli utenti. Perché sappiamo che quando si tratta di condivisioni sui social e viralità dei post, la velocità è tutto.
Che l’AI meriti l’appellativo di “intelligenza artificiale” lo dimostra il fatto che gli algoritmi messi in capo da Mark Zuckeberg hanno la capacità di imparare ed adattarsi nel tempo. Nel 2017 la performance dell’intelligenza artificiale contro i contenuti d’odio si attestava al 24%, alla fine del 2019 raggiungeva già l’80,5%, sei mesi fa era al 94%, fino ad arrivare alla cifra di oggi del 97%. I dati sono emersi dal Report sull’applicazione degli Standard della community.
Ma l’AI sta imparando sempre di più ad intervenire in maniera selettiva anche contro fenomeni come molestie e cyberbullismo: nel terzo trimestre 2020 la sua efficacia era al 26%, mentre in quello successivo è salita al 49%. Su Instagram, invece, ha dimostrato di essere ancora più efficace, passando (nello stesso periodo preso in esame) dal 55% all’80%. Un lavoro di selezione sempre più mirato e preciso che può funzionare in tante lingue. Facebook ha comunicato di essere riuscita a rimuovere in un intero semestre 49 milioni di contenuti di incitamento all’odio (22,1 nel primo e 26,9 nel secondo).
L’AI, dunque, può essere davvero l’“asso nella manica” dei grandi Social network per ridurre drasticamente (se non eliminare del tutto) i contenuti d’odio dalla “rete”. Ma che fine farà la figura del moderatore? Resta, infatti, il problema del reintegro di questa figura in Facebook & Co. a causa del Covid-19, perciò dal quartier generale di Menlo Park fanno sapere come, al momento, l’attenzione si sia concentrata solo sui contenuti più pericolosi (casi a tema di suicidio ed autolesionismo).
Rimane in piedi il tema della libertà d’espressione e del rischio “censura”, anche rispetto alla possibilità di “zittire” definitivamente la voce di un utente, come è accaduto a Donald Trump (il profilo dell’ex presidente americano è stato eliminato per sempre da Twitter per i suoi post accusati di “incitamento alla violenza” e finiti nel mirino proprio dello stesso social network). Un aiuto arriverà sicuramente dall’Oversight Board, la commissione di sorveglianza esterna voluta da Facebook che ha il compito di valutare le decisioni prese da questo social network, ma anche da Intagram, riguardo la rimozione di contenuti dalle piattaforme. I membri dell’Oversight Board sono 40 (tra loro autorevoli giornalisti e anche un premio Nobel), provengono da tutto il mondo e hanno un mandato triennale ispirato dalle leggi in materia di tutela della libertà di espressione e dei diritti umani. Sarà impossibile, però, accontentare tutti gli utenti, ma l’obiettivo è quello di tracciare una guida che possa avere un impatto più esteso che vada oltre il singolo caso.