Riconoscimento facciale: Clearview AI “entra in guerra” contro la Russia
La tecnologia biometrica come nuova arma militare, tuttavia “a doppio taglio”
La scorsa settimana, Clearview AI, società americana nata nel 2017 e specializzata in software di riconoscimento facciale potenziato dall’intelligenza artificiale, ha messo a disposizione del Ministero della Difesa ucraino il proprio database per facilitare l’identificazione di potenziali soggetti di interesse, la lotta alla disinformazione e l’identificazione delle vittime.
Il database della Società contiene circa due miliardi di immagini estratte dall’equivalente russo di Facebook, VKontacte, da impiegare per molteplici scopi: identificare i morti più velocemente rispetto all’identificazione tramite impronte digitali; identificare i rifugiati e facilitarne il ricongiungimento con i familiari; identificare gli infiltrati russi; e, infine, contrastare la diffusione di fake news sul web circa l’andamento della guerra.
Tuttavia, se da una parte il software di Clearview AI che estrae immagini dai social risulta essere di notevole utilità nel corso del conflitto, come arma da impiegare contro i Russi, dall’altra è soprattutto target di critiche e scetticismo.
Clearview AI, nata solo cinque anni fa, si è già vista bersaglio di numerose critiche a livello mondiale per violazioni della privacy di dati. Tra i Paesi ad aver addirittura multato la Società rientra l’Italia, il cui garante della privacy ha imposto a Clearview AI il pagamento di ben 20 miliardi di euro per aver violato la legislazione Ue sulla privacy dei consumatori, ordinandole inoltre la cancellazione di tutti i dati posseduti circa i cittadini italiani. All’Italia si sono unite anche Regno Unito e Francia, che hanno ordinato alla società anche di interrompere l’elaborazione di tutti i dati degli utenti tra novembre e dicembre.
Clearview AI ricorre infatti ad una tecnologia di riconoscimento basata sul web scraping, una tecnica informatica che tramite software specifici consente l’estrazione di dati – immagini o dati personali – da siti web e fonti online pubbliche quali i social media. Sulla base dei dati biometrici estratti dalle immagini raccolte e di altri dati ad esse correlati (ad esempio, la geolocalizzazione delle foto), l’Intelligenza Artificiale costruisce poi dei profili dall’accuratezza elevata, che tuttavia non convince del tutto gli esperti di IA e di cybersecurity.
Secondo il direttore esecutivo del Surveillance Technology Oversight Project di New York, Albert Fox Cahn, questa tecnologia di riconoscimento facciale presenta un margine di errore notevole, che diventerebbe fatale in caso di impiego in guerra. Alto è infatti il rischio che il software identifichi erroneamente i soggetti considerati “di interesse”, e che dunque gli “amici” vengano scambiati per nemici. “Vedremo una tecnologia benintenzionata ritorcersi contro e danneggiare proprio quelle persone che dovrebbe invece aiutare”, ha affermato Cahn.
L’impiego della tecnica di riconoscimento facciale del web scraping in un contesto di guerra può dunque rivelarsi un’arma a doppio taglio. “Nel momento in cui si introducono questi sistemi e i relativi database in una zona di guerra, non si ha più il controllo su come verranno usati e abusati”, ha dichiarato ancora il direttore esecutivo.
A sostenere la posizione di Albert F. Cahn, è stato anche Pierluigi Paganini, esperto di cybersecurity e intelligence, che all’ANSA ha dichiarato l’apertura di scenari inquietanti per l’impiego del sistema di riconoscimento facciale Clearview AI sul campo militare. Secondo Paganini, “questo tipo di strumento può portare benefici se usato a scopi umanitari come il ricongiungimento agevolato delle famiglie o il riconoscimento più veloce delle vittime, ma comporta rischi se applicato in altre situazioni”. L’imprecisione dei sistemi di intelligenza artificiale e l’indicazione di “falsi positivi”, comportano rischi preoccupanti in caso di applicazioni militari o di sicurezza. “Potrebbero far prendere delle decisioni sbagliate in un terreno di guerra in cui bisogna agire velocemente”.
Dunque, seppur il riconoscimento facciale risulti molto utile in determinati contesti, umanitari e militari, se ne consiglia tuttavia l’impiego limitato ad occasioni prettamente di vita quotidiana: ad esempio, ai fini dello sblocco dello schermo dello smartphone, o dell’ingresso in determinati edifici, per cui l’eventuale identificazione errata di un soggetto non andrebbe ad avere ripercussioni tragiche sulla vita umana, come in un contesto di guerra.