Intelligenza artificiale etica: le linee guida europee per il mondo dell’istruzione
L’intelligenza artificiale rischia di avere un impatto rivoluzionario sul mondo dell’istruzione e non è detto che ciò possa avvenire senza traumi. L’Unione Europea è intervenuta sul tema pubblicando gli “Orientamenti etici per gli educatori sull’uso dell’intelligenza artificiale (IA) e dei dati dell’insegnamento e dell’apprendimento”.
“L’intelligenza artificiale – scrive il Commissario europeo per l’innovazione, la ricerca, la cultura, l’istruzione e la gioventù Mariya Gabriel – sta già cambiando le modalità di lavoro di scuole, università ed educatori, e le modalità di apprendimento dei nostri figli. Sta inoltre rendendo i contesti educativi più reattivi aiutando gli insegnanti a rispondere alle necessità specifiche di ciascun discente, e si sta rapidamente convertendo in un elemento fondamentale del tutoraggio personalizzato e della valutazione, mettendo sempre più in luce il potenziale di cui dispone per fornire preziose informazioni sullo sviluppo degli studenti. L’impatto dell’IA sui nostri sistemi di istruzione e formazione è innegabile, e aumenterà ulteriormente in futuro”.
L’elaborazione di orientamenti etici sull’uso dell’IA rientra nel “Piano d’azione per l’istruzione digitale (2021-2027)” che nella “Priorità 1” punta a “Promuovere lo sviluppo di un ecosistema altamente efficiente di istruzione digitale”. L’UE parla di “intelligenza artificiale etica”, indicando uno sviluppo, una diffusione e un utilizzo dell’IA tali da assicurare il rispetto di norme e principi etici e dei valori fondamentali connessi. Negli orientamenti è ben spiegato come l’uso dei sistemi di IA sia potenzialmente in grado di migliorare l’insegnamento, l’apprendimento e la valutazione, di assicurare risultati dell’apprendimento migliori e di aiutare le scuole a operare in maniera più efficiente. Ma è anche altrettanto evidenziato come una progettazione inadeguata o un utilizzo poco attento di tali applicazioni di IA potrebbero però provocare conseguenze dannose. Gli educatori, infatti, devono dare prova di consapevolezza e verificare se i sistemi di IA che utilizzano sono affidabili, equi e sicuri. Devono, inoltre, garantire che la gestione dei dati relativi all’istruzione sia sicura, protegga la riservatezza delle singole persone e sia utilizzata per il bene comune.
Dall’Unione Europea fanno sapere come la legge sull’IA proposta dalla Commissione stabilirà requisiti giuridicamente vincolanti per sistemi di IA considerati ad “alto rischio” in base alle finalità cui sono destinati. I requisiti per una IA affidabile riguardano la gestione del rischio, i dati di addestramento e prova del sistema di IA e la governance dei dati, la consegna della documentazione tecnica, la conservazione delle registrazioni, la trasparenza e la fornitura di informazioni agli utenti, la sorveglianza umana e la robustezza, l’accuratezza e la cybersicurezza. Se, come affermano gli esperti, è solo questione di tempo prima che l’IA entri in maniera strutturata nelle nostre scuole per la gestione della didattica, della governance e dei servizi scolastici, è bene prevedere una serie di azioni di avvicinamento graduale verso il suo utilizzo. Sicuramente occorrerà sensibilizzare la comunità scolastica circa le potenzialità e i rischi di questa nuova tecnologia, mantenere il confronto aperto, collaborare con reti di scuole su questo tema e prevedere dei percorsi di formazione e aggiornamento costanti da parte di tutto il personale. Il viaggio è solo all’inizio e molto dipenderà dalla nostra capacità di essere umani di usare correttamente le nuove tecnologie senza diventarne schiavi. D’altronde ci siamo già passati con internet e i social media e dovremmo aver imparato la lezione. O No?