Intelligenza artificiale, ecco come scoprire i testi realizzati dall’IA generativa
È possibile individuare con certezza se un testo sia stato scritto da un’IA generativa o dalla mano dell’uomo? Una soluzione al problema potrebbe arrivare da Google che ha diffuso ufficialmente uno strumento progettato per rilevare testi generati da intelligenze artificiali. Come per le banconote, il segreto sta nella “filigrana” (watermark) che è in grado di certificare l’origine del contenuto. Google ha diffuso in modo open-source uno specifico tool chiamato SynthID che ha la capacità di comprendere se un contenuto multimediale sia stato generato da un AI. Per quanto riguarda i testi, il software è in grado di svolgere un’analisi approfondita su una specifica sequenza di parole. Il progetto è molto importante anche sotto il profilo etico, perché, ad esempio, potrebbe certificare il lavoro svolto in maniera “originale” da uno scrittore, un giornalista o un copywriter, rispetto ad un contenuto prodotto da un chatbot come ChatGPT o CoPilot, ormai integrati su desktop e sui dispositivi mobili.
“Essere in grado di identificare i contenuti generati dall’IA è fondamentale – si legge sul sito deepminde.google – per promuovere la fiducia nelle informazioni. Sebbene non sia una panacea per affrontare problemi come la disinformazione o l’attribuzione errata, SynthID è una serie di promettenti soluzioni tecniche a questo urgente problema di sicurezza dell’IA. Questo toolkit è attualmente lanciato in versione beta e continua a evolversi. Ora viene integrato in una gamma crescente di prodotti, aiutando a dare potere a persone e organizzazioni per lavorare in modo responsabile con contenuti generati dall’intelligenza artificiale”.
Ma come funziona SynthID? Il tool utilizza una varietà di modelli e algoritmi di deep learning per la filigrana e l’identificazione dei contenuti generati dall’intelligenza artificiale. Incorpora una filigrana digitale direttamente nei contenuti generati dall’IA, senza compromettere il contenuto originale. Può analizzare immagini, audio, testo o video alla ricerca di filigrane digitali, aiutando gli utenti a determinare se il contenuto, o parte di esso, sia stato generato dagli strumenti di intelligenza artificiale. Lo strumento, però, non è ancora perfetto: non è accurato al 100% soprattutto sulle frasi molto brevi, e nelle risposte “secche” a domande (“Qual è la capitale dell’Italia?”) ha difficoltà a capire se il feedback sia arrivato dall’IA o da un umano. La ricerca su SynthID è stata pubblicata a ottobre sulla rivista Nature e resa open-source tramite Google Responsible Generative AI Toolkit.
Nel frattempo, la ricerca sta compiendo passi sempre più rapidi verso la nascita dell’Intelligenza artificiale generale (AGI). OpenAI ha annunciato, infatti, ORION, un modello di intelligenza artificiale 100 volte più potente di GPT-4. Il lancio è previsto tra dicembre 2024 e febbraio 2025. Orion ha ottenuto un finanziamento record di 6,6 miliardi di dollari. Inizialmente sarà disponibile solo per partner selezionati, ma presto il suo uso potrebbe essere esteso andando a rivoluzionare ancora di più le vite di tutti noi.