Ticino
Immagini manipolate, cosa fare contro il deepfake
Redazione
2 mesi fa
In una mozione al Consiglio federale Fabio Regazzi chiede di elaborare una strategia per proteggere soprattutto minori dall’abuso di immagini false. Con Alessandro Trivilini, esperto di sicurezza e tecnologie digitali, cerchiamo di capire quali sono i rischi e quali misure di prevenzione possono essere sviluppate di fronte a queste manipolazioni digitali: “Bisogna distinguere il vero dal verosimile”.

L'intelligenza artificiale sta rivoluzionando molti settori, ma anche generando nuove minacce, come la manipolazione di immagini e video per scopi illeciti. Una problematica sempre più diffusa contro cui il consigliere agli Stati Fabio Regazzi ha deciso di intervenire con una mozione firmata da altri 16 parlamentari. La richiesta al Consiglio federale è quella di elaborare una strategia che permetta di procedere in modo coordinato contro l'abuso di immagini e ricatti che ne conseguono, accordando una particolare attenzione ai bambini. “Le false foto di nudo o i video porno deepfake sono utilizzati per estorcere denaro o vere immagini sessualmente esplicite”, scrive Regazzi nell’atto parlamentare, puntualizzando il fatto che le vittime sono spesso minorenni. “I genitori sono ricattati con video porno deepfake in cui riconoscono i loro figli. Tutte le persone le cui immagini sono liberamente accessibili sono potenziali vittime di sextortion o di frode, come pure i loro familiari”. Ecco perché per il Consigliere agli Stati è necessario adottare una strategia globale, lavorando sulla prevenzione ed elaborando delle misure regolatorie. Per approfondire la tematica, abbiamo interpellato Alessando Trivilini, esperto di sicurezza e tecnologie digitali.

Come produce l’IA immagini false?

“I contenuti prodotti artificialmente con gli algoritmi e con le procedure informatiche associate all’intelligenza artificiale generativa vengono creati raccogliendo una discreta quantità di dati da un certo oggetto, descritto in tutte le sue forme e magari anche nel contesto in cui viene utilizzato. In seguito, queste informazioni vengono riprodotte artificialmente affinché sembrino reali”.

Quanto è difficile distinguere un’immagine reale da un prodotto artificiale?

“Distinguere un contenuto reale da uno riprodotto artificialmente rischia di diventare molto difficile. Ora non si parla più di vero o falso, ma di vero e verosimile. Qual è la differenza? Il contenuto falso generato un anno fa dall’intelligenza artificiale aveva degli errori, come una mano di una persona con sette dita, che potevamo riconoscere a colpo d’occhio. Ora, invece, i nuovi modelli di intelligenza artificiale hanno una memoria a lungo termine in grado di raccogliere i dati delle domande che poniamo. È per questo che prima di ottenere una risposta passa del tempo: i modelli di IA si confrontano con le versioni precedenti per cercare di non commettere gli stessi errori, proponendo così una soluzione il più verosimile possibile a quello che cerca l’utente. È per questo che sarà sempre più difficile distinguere il vero dal verosimile”.

Quali misure di prevenzione tecnologica potrebbero essere sviluppate per ridurre i rischi associati ai deepfake?

“Un’applicazione che genera contenuti artificiali dovrebbe sottostare a un regolamento europeo che impedisce delle pratiche vietate. Ma se un’azienda o un individuo decide di sviluppare un modello di intelligenza artificiale per controllare a sua volta i contenuti di un altro modello, chi lo controlla? Si entra in un vortice senza fine. Per questo l’unico strumento valido è rappresentato dalla consapevolezza e dalla responsabilità dell’utente, che non deve solo affidarsi di un’applicazione, ma porsi delle domande e cercare delle risposte incrociando le fonti. Un percorso che non inizia oggi e finisce domani, ma continuerà per i prossimi vent’anni”.

Quali sono i rischi maggiori per il futuro in relazione alla diffusione di questo fenomeno?

“Il rischio più grande è che il verosimile, laddove non ci sono consapevolezza e responsabilità, superi l’autentico, portandoci a credere a ciò che gli algoritmi saranno in grado di farci vedere e sentire. In una società sempre più digitalizzata, il rischio riguarda la manipolazione e la persuasione di un contenuto multimediale costruito in maniera accurata. Ovvero: un dato costruito accuratamente potrà conviverci che quel contenuto sia vero e non più verosimile. Un rischio che corrono tutti, anche i tecnici e i professionisti”.