Le elezioni affrontano una nuova sfida: l’identificazione delle immagini manipulate dall’intelligenza artificiale

In passato, bastava osservare dettagli come sei dita sulle mani, volti staccati dal corpo o sguardi statici per rilevare facilmente l’intervento dell’IA. Tuttavia, con l’avanzare della tecnologia, tali evidenti imperfezioni stanno scomparendo. Adesso, gli esperti avvertono che fare affidamento solo sull’analisi visiva umana non sarà più efficace.

Annunci

La crescente sofisticazione degli algoritmi di intelligenza artificiale consente di creare immagini che ingannano persino gli occhi più attenti. Dettagli come movimenti naturali, espressioni facciali realistiche e gesti fluidi vengono riprodotti con una precisione impressionante. Ciò solleva preoccupazioni significative sull’integrità delle elezioni, poiché le manipolazioni possono diventare sempre più sottili e difficili da rilevare.

Pertanto, è urgente sviluppare strumenti e metodi più avanzati per identificare e contrastare la manipolazione delle immagini da parte dell’IA. La collaborazione tra esperti di tecnologia, scienziati dei dati e legislatori è essenziale per garantire la trasparenza e l’affidabilità dei processi elettorali. Inoltre, la sensibilizzazione pubblica sui rischi associati alla diffusione di immagini false è fondamentale per rafforzare la resilienza democratica contro la manipolazione digitale.

“Questa finestra si sta chiudendo”, avverte Mike Speirs di Faculty AI, una consulenza con sede a Londra specializzata nello sviluppo di modelli di rilevamento di contenuti sintetici, prodotti o assistiti dall’intelligenza artificiale (IA).

“C’è un costante affinamento dei modelli basato sulla natura quasi avversaria tra chi genera il contenuto e chi lavora per identificarlo”, aggiunge.

La crescente sofisticazione degli algoritmi di IA rende sempre più difficile distinguere tra contenuto sintetico e realtà, richiedendo approcci più avanzati e una collaborazione globale per garantire l’integrità dei processi elettorali e proteggere la democrazia dalle manipolazioni digitali.

I modelli di IA responsabili della generazione di contenuti apprendono dalle imperfezioni identificate dagli utenti e dai metodi di rilevamento. Ciò significa che sia i professionisti umani che i meccanismi sviluppati per rilevare l’uso di IA nell’audio, nelle immagini statiche o in movimento devono tenere il passo con i miglioramenti apportati dai sistemi “avversari” nella creazione di contenuti sintetici per comprendere le nuove imperfezioni e quindi essere in grado di individuarle.

Man mano che i modelli di generazione di contenuti e le tecniche di rilevamento evolvono, le imperfezioni diventano sempre meno evidenti, specialmente per l’occhio umano. Ciò crea un ciclo di adattamento continuo, in cui sia i creatori che i rilevatori di contenuti sintetici stanno costantemente aggiornando e migliorando le proprie tecniche in una corsa agli armamenti digitali. Questa dinamica pone una sfida aggiuntiva per coloro che cercano di mantenere l’integrità delle informazioni e combattere la diffusione di disinformazione su diverse piattaforme online.

La necessità di sorveglianza costante e innovazione continua nel rilevamento di contenuti sintetici è cruciale per garantire l’affidabilità e l’autenticità delle informazioni, specialmente in contesti sensibili come elezioni e decisioni politiche.

“Le forme con cui comprendiamo che il contenuto è sintetico oggi potrebbero non essere valide domani”, dice Carlos Affonso Souza, direttore dell’Istituto di Tecnologia di Rio de Janeiro. Aggiunge che, tuttavia, le applicazioni più popolari ancora lasciano passare mani con più di cinque dita.

Oren Etzioni, professore emerito all’Università di Washington e ricercatore nel campo dell’IA, è categorico: “È una corsa agli armamenti. E siamo arrivati a un punto in cui è estremamente difficile fare questa valutazione senza l’uso di modelli di IA addestrati per questo”.

Tuttavia, l’accesso a strumenti di rilevamento di contenuti sintetici o manipolati è ancora piuttosto limitato, di solito nelle mani di coloro che sono in grado di svilupparli o dei governi. “Se non hai modo di sapere cosa è vero, non sei in una buona posizione”, aggiunge.

Souza, dell’ITS-Rio, sottolinea che una delle sfide cruciali è la costante necessità di addestrare e aggiornare non solo i modelli di rilevamento per riconoscere i contenuti manipolati o prodotti con IA, ma anche educare gli esseri umani esposti a questi contenuti.

“Attualmente siamo male attrezzati, sia in termini di tecnologia che di metodologia, per affrontare questo dibattito”, dice. “Sarà necessario ricorrere agli strumenti dell’educazione digitale, educando e mantenendo la società costantemente aggiornata sull’argomento”.

L’istruzione è fondamentale non solo per aumentare la consapevolezza sulla diffusione di contenuti sintetici, ma anche per abilitare gli individui a identificare e mettere in discussione informazioni dubbie. Inoltre, la creazione di una cultura di responsabilità digitale può aiutare a mitigare i danni causati dalla disinformazione e rafforzare la resilienza della società contro la manipolazione digitale.

Speirs concorda: “È un problema più ampio, che coinvolge tutta la società, e la tecnologia svolge un ruolo cruciale. Quindi, oltre agli investimenti nel rilevamento, è essenziale investire anche nell’educazione mediatica”.

Etzioni esprime un ottimismo generale riguardo all’IA, ma riconosce l’entità del problema, specialmente nel contesto del processo elettorale.

“Le reti sociali ci hanno dato la capacità di condividere informazioni

facilmente. Tuttavia, la capacità di generare contenuti era ancora principalmente nelle mani delle persone. Con l’IA, questo è cambiato, e il costo di produrre contenuti è sceso a zero. Quest’anno sarà cruciale per comprendere il potenziale di ciò nella diffusione della disinformazione”.

Temo l’impatto sull’ecosistema informativo, specialmente con l’uso di deepfake nelle elezioni presidenziali degli Stati Uniti, Etzioni ha creato uno strumento di rilevamento senza scopo di lucro, True Media, che viene offerto gratuitamente ai giornalisti.

I contenuti vengono analizzati dai modelli di IA dell’organizzazione in pochi minuti, e l’utente riceve una stima della probabilità che il contenuto sia sintetico o manipolato.

“In un mondo in cui le persone possono essere facilmente manipolate, è importante che la stampa faccia parte della soluzione”, sottolinea Etzioni. L’accesso a strumenti come True Media non solo abilita i giornalisti a identificare e riportare con precisione sui contenuti manipolati, ma rafforza anche la fiducia del pubblico nei media e nelle informazioni verificate.

La crescente prevalenza di contenuti sintetici e manipolati rappresenta una sfida significativa per l’integrità dell’ecosistema informativo, specialmente durante periodi elettorali cruciali. Riconoscendo questa minaccia, leader come Oren Etzioni hanno preso misure proattive, sviluppando strumenti innovativi di rilevamento, come True Media, per abilitare i giornalisti nell’identificazione della disinformazione.

Queste iniziative sottolineano l’importanza di un approccio collaborativo e multifacetico per combattere la diffusione di contenuti falsi. La tecnologia svolge un ruolo cruciale in questo sforzo, ma l’educazione mediatica e l’impegno dei media sono anche fondamentali.

Affrontando le sfide poste dalla manipolazione digitale, è essenziale continuare a investire in soluzioni innovative e promuovere una cultura di responsabilità e discernimento nella diffusione e nel consumo di informazioni. Solo così potremo proteggere l’integrità dei nostri processi democratici e garantire un ambiente informativo più sicuro e affidabile per tutti.

Giulia Bianchi
Giulia Bianchi

Editrice presso InfoNTC dal 2024.

DISCLAIMER:

In nessun caso vi sarà richiesto di pagare per accedere a qualsiasi prodotto, inclusi carte di credito, prestiti o altre offerte. Se ciò accade, vi preghiamo di contattarci immediatamente. Assicuratevi sempre di leggere i termini e le condizioni del fornitore di servizi che contattate. Generiamo entrate tramite pubblicità e riferimenti per alcuni, ma non tutti, i prodotti presentati su questo sito web. Tutto ciò che viene pubblicato qui si basa su ricerche quantitative e qualitative, e il nostro team si impegna a essere il più equo possibile nel confronto delle opzioni concorrenti.

DIVULGAZIONE DELL'INSERZIONISTA:

Siamo un sito editoriale indipendente, obiettivo e finanziato dalla pubblicità. Per sostenere la nostra capacità di fornire contenuti gratuiti ai nostri utenti, le raccomandazioni che appaiono sul nostro sito possono provenire da aziende da cui riceviamo una compensazione in quanto affiliati. Questa compensazione può influenzare il modo, il luogo e l’ordine in cui le offerte appaiono sul nostro sito. Altri fattori, come i nostri algoritmi proprietari e i dati di prima parte, possono anche influenzare il modo e il luogo in cui i prodotti/offerte sono posizionati. Non elenchiamo sul nostro sito web tutte le offerte finanziarie o di credito attualmente disponibili sul mercato.

NOTA EDITORIALE:

Le opinioni espresse qui sono esclusivamente quelle dell’autore e non rappresentano una banca, un emittente di carte di credito, un hotel, una compagnia aerea o qualsiasi altra entità. Questo contenuto non è stato esaminato, approvato o sostenuto da nessuna delle entità menzionate nel messaggio. Detto ciò, il compenso che riceviamo dai nostri partner affiliati non influenza le raccomandazioni o i consigli forniti dal nostro team di redattori nei nostri articoli, né influisce in alcun modo sul contenuto di questo sito web. Sebbene lavoriamo duramente per fornire informazioni accurate e aggiornate che riteniamo rilevanti per i nostri utenti, non possiamo garantire che tutte le informazioni fornite siano complete e non facciamo dichiarazioni o garanzie riguardo alla loro accuratezza o applicabilità.