Il ruolo dell’AI nell’individuazione dei deepfake

 Il ruolo dell’AI nell’individuazione dei deepfake

A cura di Andrea Bondi, SVP Digital Identity Solutions, Onfido

Il ruolo dell’AI deepfake

Nel contesto dinamico della sicurezza digitale, una sfida di rilevo che sta emergendo è rappresentata dai deepfake, sofisticate immagini sintetiche in cui le fattezze di un individuo vengono sostituite con quelle di un altro, che stanno diventando sempre più diffusi e convincenti. Il nostro ultimo Identity Fraud Report 2024 evidenzia un incremento impressionante, pari a 31 volte, delle frodi deepfake dal 2022 al 2023. Questo dato assume una connotazione particolarmente inquietante nel contesto della verifica dell’identità, dove l’integrità dell’identificazione personale gioca un ruolo cruciale. Per far fronte a questa crescente minaccia, le aziende stanno sempre più adottando soluzioni basate sull’intelligenza artificiale. Queste soluzioni integrano tecnologie avanzate, come la verifica biometrica, al fine di contrastare le frodi deepfake e assicurare la sicurezza e l’affidabilità dei processi di verifica dell’identità (IDV)

Comprendere la tecnologia deepfake 
La tecnologia deepfake sfrutta l’intelligenza artificiale e gli algoritmi di apprendimento automatico per creare video o registrazioni audio estremamente realistici. Questa avanzata tecnologia è in grado di manipolare i tratti del viso, la voce e i movimenti del corpo, rendendo difficile distinguere tra contenuti autentici e quelli generati artificialmente. Sebbene esistano applicazioni “benevole”, ad esempio nel settore dell’intrattenimento, il potenziale dell’utilizzo malevolo nelle frodi e nei furti di identità costituisce una preoccupazione significativa.

L’aumento dei deepfake nelle frodi e nei furti d’identità                     
L’impiego della tecnologia deepfake nelle attività illecite è in costante aumento. Il nostro ultimo rapporto annuale sulle frodi di identità rivela che un piccolo numero di truffatori è responsabile della maggior parte degli attacchi deepfake. Un singolo individuo può inviare decine o addirittura centinaia di identità deepfake in un breve lasso di tempo. I criminali informatici stanno sempre più spesso utilizzando i deepfake per eludere le misure di sicurezza biometriche, impersonare persone e perpetrare furti di identità. Ciò costituisce una grave minaccia sia per gli individui che per le organizzazioni, poiché le tradizionali modalità di verifica dell’identità potrebbero rivelarsi insufficienti nel rilevare tali sofisticate falsificazioni.

La nostra ricerca mostra che i tassi medi di frode biometrica nel 2023 sono raddoppiati rispetto al 2022. Poiché la biometria è diventata un mezzo di difesa sempre più diffuso, i truffatori iniziano a prenderla di mira con maggiore frequenza. Inoltre, notiamo che gli attacchi basati su video spoof rappresentano ora l’80% delle offensive contro le difese biometriche, confermando che i deepfake costituiscono una minaccia in crescita per i sistemi di verifica dell’identità. In Italia, i truffatori prendono di mira soprattutto i controlli biometrici Selfie, scattando una foto di un volto diverso su uno schermo (60%), ad esempio un’immagine del profilo di un account di social media, invece di utilizzare il proprio volto o una maschera, dato lievemente superiore alla media globale (56,6%). Un’altra tattica sperimentata è quella di scattare una “foto della foto” sul documento e cercare di farla passare per un dato biometrico, invece che per un volto reale (10%).

In ogni caso, la verifica biometrica rimane uno dei metodi più affidabili per rilevare e prevenire i tentativi di frode, registrando un numero di tentativi malevoli tre volte inferiore rispetto all’utilizzo di documenti. Le aziende e i fornitori di servizi di verifica dell’identità dovrebbero sfruttare i più recenti modelli di difesa, tra cui verifiche che incorporano intelligenza artificiale e controlli liveness[1][1], come nel caso di Onfido Motion.

Il ruolo cruciale dell’AI nella lotta alle frodi deepfake 
L’intelligenza artificiale rappresenta l’arma principale nella lotta contro i deepfake, configurando una sorta di “confronto AI contro AI”. È possibile addestrare gli algoritmi di AI a riconoscere le sottili differenze tra immagini o video autentici e quelli sintetici. Modelli sofisticati di AI sono in grado di individuare queste differenze, spesso impercettibili all’occhio umano.

AI e analisi biometrica 
Nell’analisi biometrica, gli algoritmi di AI vengono utilizzati per verificare l’identità di una persona basandosi sulle sue caratteristiche fisiche uniche, come i tratti del viso, la voce o le impronte digitali. Tuttavia, con la proliferazione dei deepfake, è necessario che questi sistemi biometrici diventino più robusti e intelligenti. I sistemi guidati dall’intelligenza artificiale sono in grado di analizzare dettagli minimi delle espressioni facciali, della texture della pelle e persino dei micromovimenti, elementi spesso inconsistenti nei deepfake. Come sottolinea Simon Horswell, Senior Fraud Specialist di Onfido, “solo un’intelligenza artificiale difensiva addestrata sui più recenti vettori di attacco può mantenere il passo con l’evoluzione del panorama delle minacce”.

L’apprendimento automatico per individuare le irregolarità              
L’apprendimento automatico riveste un ruolo cruciale nell’individuazione delle irregolarità nei contenuti digitali, rappresentando un sottoinsieme fondamentale dell’intelligenza artificiale. Grazie all’addestramento su vasti set di dati contenenti sia media reali che falsi, i modelli di apprendimento automatico sono in grado di imparare a distinguere tra i due con elevata precisione. Questo addestramento consente all’intelligenza artificiale di identificare le anomalie tipiche dei deepfake, come i modelli innaturali di battito delle palpebre o i movimenti incoerenti delle labbra.

Tuttavia, affinché i modelli di apprendimento automatico possano riconoscere in modo efficace i messaggi “buoni” e “cattivi” in produzione, è necessario disporre di un ampio numero di campioni di dati.

Secondo Vincent Guillevic, Head of Fraud Lab di Onfido, “per un addestramento efficace, un modello di apprendimento automatico richiede circa 3.000 campioni di frode. Ottenere quantità così ingenti in breve tempo era praticamente impossibile, esponendo le aziende a rischi significativi. Il nostro Fraud Lab consente agli specialisti delle frodi di analizzare i dati in tempo reale per individuare modelli di frode e tendenze emergenti, permettendo di generare fino a 10.000 ID sintetici in soli 30 minuti. Ciò ci consente di addestrare e sottoporre a benchmark i nostri algoritmi in modo rapido ed economico, per fornire la migliore prevenzione delle frodi della categoria.”

Apprendimento e adattamento continui         
Uno dei punti di forza dell’AI nella lotta alle frodi deepfake è la sua capacità di apprendere e adattarsi in modo continuo. Con l’evoluzione della tecnologia deepfake, si evolvono anche gli algoritmi di AI progettati per rilevarli. Questo continuo adattamento è essenziale per mantenere un passo avanti rispetto ai truffatori che utilizzano i deepfake.

Il ruolo dell’AI nelle soluzioni di verifica dell’identità di Onfido         
 
In Onfido, i nostri strumenti di verifica basati sull’intelligenza artificiale sono progettati per rilevare e segnalare potenziali tentativi di deepfake. Combinando la verifica biometrica, il rilevamento delle frodi tramite machine learning e gli aggiornamenti continui degli algoritmi, la Real Identity Platform di Onfido offre una solida protezione contro i rischi associati alla tecnologia deepfake.

Il futuro dell’AI nella verifica dell’identità        
In prospettiva, il ruolo dell’AI nel rilevare e prevenire i deepfake è destinato a diventare ancora più critico. Con il costante avanzare della tecnologia AI, possiamo aspettarci metodi di rilevamento sempre più sofisticati e sfumati. Onfido si impegna costantemente a migliorare le proprie soluzioni basate sull’IA per garantire il massimo livello di sicurezza nella verifica delle identità.

L’importanza di un utilizzo etico dell’AI         
Mentre l’AI progredisce per combattere le frodi, è anche essenziale porre al centro delle attenzioni le considerazioni etiche. Garantire che i sistemi di AI siano trasparenti, responsabili e capaci di mitigare i pregiudizi è fondamentale per mantenere la fiducia del pubblico e assicurare un trattamento giusto ed equo degli individui.

La sfida posta dai deepfake è significativa, ma non insormontabile. Grazie alle tecnologie avanzate di intelligenza artificiale e apprendimento automatico, Onfido consente alle aziende di rilevare e prevenire queste attività fraudolente. Migliorando continuamente le nostre soluzioni di verifica dell’identità basate sull’intelligenza artificiale, Onfido si impegna a proteggere individui e organizzazioni dalle minacce derivanti dai deepfake, garantendo un ambiente digitale sicuro e affidabile.


[1] Il liveness check è una verifica della “vivacità” di una persona che si esegue tramite un sistema in grado di rilevare se una persona davanti alla telecamera è viva e reale.

About Post Author

Potrebbe anche interessarti