La sfida dell’Europa sull’intelligenza artificiale: sfruttare l’IA in sicurezza
È trascorso meno di un anno dal lancio di ChatGPT (il 3 novembre 2022), il celebre bot di OpenAI che ha aperto il “vaso di Pandora” sull’uso di massa dell’intelligenza artificiale per generare contenuti (cartacei, grafici, ecc.). Da allora, l’opinione pubblica continua ad interrogarsi sull’impatto dell’IA sulle nostre vite e sul tipo di equilibrio che occorre instaurare tra uomo e nuove tecnologie. Eppure, l’Unione europea è da anni che affronta la questione. Da quando, nel 2018, la Commissione annunciò l’istituzione di un apposito gruppo di studio sull’IA per elaborare linee guida con un approccio etico. Già nel 2018, infatti, la Commissione europea era consapevole che l’intelligenza artificiale avrebbe potuto “apportare grandi benefici alla nostra società ed economia”, ma era anche al corrente della necessità di “una discussione ampia, aperta e inclusiva su come utilizzare e sviluppare” questa tecnologia “con successo ed in modo eticamente corretto”.
Nel mese di giugno 2019, poi, si è riunita la Prima Assemblea dell’Alleanza europea per l’IA. Mentre ad aprile 2021 è stata presentata una Proposta di regolamento per stabilire “norme armonizzate in materia di IA”, fino ad arrivare al 14 giugno 2023, quando il Parlamento europeo ha approvato la sua posizione negoziale sull’Artificial Intelligence Act (progetto di normativa sull’intelligenza artificiale proposto dalla Commissione europea nell’aprile del 2021). Entro la fine dell’anno dovrebbe essere approvato un regolamento europeo definitivo. Cosa prevede l’Artificial Intelligence Act? Il focus è la promozione di un utilizzo responsabile dei sistemi di intelligenza artificiale per migliorare il benessere dei cittadini. La regolamentazione si basa sulla valutazione dei rischi associati all’uso dell’IA. In particolare, prevede il divieto di utilizzare sistemi di IA che possano comportare intrusioni indesiderate e discriminazioni, con conseguenti rischi inaccettabili per i diritti fondamentali dei cittadini, la loro salute, la loro sicurezza e altre questioni di interesse pubblico. Alcune delle applicazioni a rischio inaccettabile includono la manipolazione dei comportamenti delle persone o dei gruppi vulnerabili, come i giocattoli parlanti per bambini, e il social scoring, ovvero la classificazione delle persone in base al loro comportamento o alle loro caratteristiche.
D’altro canto, la regolamentazione prevede che i sistemi di IA ad alto rischio, come quelli utilizzati in infrastrutture critiche come reti elettriche e ospedali, quelli che influenzano decisioni importanti nella vita dei cittadini come l’occupazione o la valutazione del credito, o quelli che hanno un impatto significativo sull’ambiente, siano regolamentati in modo rigoroso attraverso misure quali la governance dei dati, la valutazione della gestione del rischio, la documentazione tecnica e criteri di trasparenza.
Da parte sua, la regolamentazione considera a basso rischio o rischio minimo le applicazioni di IA utilizzate per scopi come la traduzione, il riconoscimento delle immagini o le previsioni meteorologiche.
Ma, anche in quest’ultimo caso, sono previste tutele: le aziende che sviluppano sistemi con IA generative dovranno fare in modo che sia chiara la differenza, ad esempio, tra immagini e video “reali” e quelli frutto della tecnologia dell’intelligenza artificiale. Costruire un’IA affidabile creerà un ambiente sicuro e rispettoso dell’innovazione per utenti, sviluppatori e installatori, fa sapere la Commissione europea. Certo è che l’Europa è, al momento, uno dei pochi paesi al mondo a stringere i tempi per l’approvazione di norme certe sull’uso etico dell’intelligenza artificiale. E questa è sicuramente una garanzia in più per tutti i suoi cittadini.