Washington: ingegneri informatici e politologi esperti di tecnologia hanno avvertito per anni che l’accesso è economico e potente intelligenza artificiale Presto sarà permesso a chiunque Generazione di immagini, video e audio falsi ma abbastanza realistici da fuorviare gli elettori e potenzialmente distorcere le elezioni.
I fotomontaggi emersi all’epoca erano primitivi, poco convincenti e costosi da creare, soprattutto quando altri strumenti di disinformazione erano così economici e facili da diffondere tramite i social media a portata di mano. La minaccia di Ai profondo E “superfake” sembra sempre essere qualcosa nel futuro.
Non più.
Gli strumenti di intelligenza artificiale generativa all’avanguardia ora riproducono voci umane e creano immagini, video e audio in pochi secondi e a un costo minimo. E se sovrapposti a un potente algoritmo di social media, questi contenuti falsi generati digitalmente si diffondono in tutte le direzioni o a un pubblico altamente mirato, Il che può portare il concetto di “campagna sporca” negli inferi finora sconosciuti.
Le implicazioni di questo per le campagne politiche e Le elezioni del 2024 negli Stati Uniti sono tanto formidabili quanto preoccupantiL’intelligenza artificiale generativa non solo crea istantaneamente e-mail, messaggi o video della campagna, Può anche fuorviare gli elettori, imitare i candidati e minare il processo elettorale con una portata e una velocità senza precedenti.
“Non siamo pronti per quello che verrà”. avverte AJ Nash, vicepresidente dell’intelligence presso la società di sicurezza informatica ZeroFox. “Per me, il vero balzo in avanti è l’avvento di nuove funzionalità audio e video. E quando ciò può essere prodotto su larga scala e distribuito attraverso le reti, l’effetto si moltiplica”.
I tecnologi elencano rapidamente un’intera serie di scenari preoccupanti L’IA generativa può essere utilizzata per creare “media sintetici”, definiti come qualsiasi formato di contenuto digitale creato o modificato utilizzando algoritmi, al fine di confondere gli elettori, screditare un candidato o persino incitare alla violenza.
Ad esempio, bot di messaggi automatici con la voce di un candidato che chiede ai suoi presunti sostenitori di andare a votare nella data sbagliata, registrazioni audio con la voce di un candidato che ammette un crimine o esprime opinioni razziste o riprese video che mostrano un politico che tiene un discorso o un’intervista non hanno dato. Le foto false sono state progettate anche per assomigliare a notizie reali dei media locali, affermando falsamente che un candidato si era ritirato dalla gara.
“E se Elon Musk ti chiamasse personalmente e ti chiedesse di votare per un particolare candidato?” chiede Oren Etzioni, l’ex CEO e fondatore dell’Allen Institute for Artificial Intelligence, che si è dimesso l’anno scorso per lanciare l’AI2 senza scopo di lucro. “Molte persone lo stavano ascoltando, ma non sarebbe stato lui.”
precedente presidente Donald Trump, che si candida alla rielezione nel 2024, ha condiviso vari contenuti generati dall’intelligenza artificiale con i suoi follower sui social media. Il falso video che ha condiviso venerdì sulla sua piattaforma Truth Social, che distorce la reazione dell’ospite Anderson Cooper durante un’intervista della CNN con Trump, è stato creato utilizzando uno strumento di clonazione vocale AI.
Un annuncio pubblicitario distopico pubblicato il mese scorso dal Comitato nazionale repubblicano offre un altro sguardo su questo futuro manipolato digitalmente. L’annuncio è stato pubblicato online dopo che il presidente Joe Biden ha annunciato la sua candidatura per la rielezione e iniziava con una strana immagine leggermente distorta di Biden, accompagnata dalla didascalia “E se fosse rieletto il presidente più debole che abbiamo mai visto?”.
il prossimo, Visualizza una serie di immagini generate dall’intelligenza artificiale: Taiwan sotto attacco, America con vetrine coperte mentre l’economia crolla; Soldati e veicoli militari blindati pattugliano le strade locali mentre criminali tatuati e ondate di immigrati seminano il caos.
Una visione generata dall’intelligenza artificiale del potenziale futuro del nostro Paese se Joe Biden verrà rieletto nel 2024Dice la descrizione dell’annuncio repubblicano.
Il Comitato nazionale repubblicano ha approvato l’uso dell’intelligenza artificiale, ma altre campagne politiche più dannose e nemici stranieri non lo faranno, afferma Petko Stoyanov, chief technology officer globale di Forcepoint, una società di sicurezza informatica con sede ad Austin, in Texas. Stoyanov prevede che i gruppi che cercano di interferire con la democrazia americana useranno l’intelligenza artificiale e i media sintetici come mezzo per minare la fiducia.
“Cosa succede se un gruppo internazionale, un criminale informatico o un governo straniero impersona qualcuno? Qual è l’effetto? Abbiamo qualche appello a questo?”, chiede Stoyanov. “Più disinformazione verrà fatta circolare da fonti internazionali”.
Anche se le elezioni del 2024 sono ancora lontane, La disinformazione politica generata dall’intelligenza artificiale si è diffusa sui social mediadal falso video di Biden che lo mostra mentre tiene un discorso che attacca le persone transgender, alle immagini generate dall’intelligenza artificiale di bambini che presumibilmente imparano a conoscere il satanismo nelle librerie.
Immagini AI che sembrano apparire La foto della fedina penale di Trump ha ingannato anche alcuni utenti dei social network: quando è stato arrestato e processato in un tribunale penale di Manhattan, l’ex presidente non è stato fotografato. Altre immagini generate dall’intelligenza artificiale mostravano Trump che resisteva all’arresto, sebbene il suo creatore si affrettasse a riconoscere la sua origine.
Rep. Yvette Clark, D-NY, ha introdotto la legislazione Costringerà i candidati a taggare gli annunci della campagna generati con l’intelligenza artificiale. Clarke ha anche spinto per una legislazione che richiederebbe che tutte le immagini sintetiche rechino una filigrana per identificarle come tali.
Alcuni stati hanno le proprie proposte per affrontare un problema Deviki.
Clark dice che la sua più grande paura è quella L’IA generativa viene utilizzata prima delle elezioni per creare video o audio che incitano alla violenza e generano scontri tra cittadini.
Non dobbiamo perdere il ritmo della tecnologia. dice Clark. “Dobbiamo installare dei firewall, perché ci vuole una frazione di secondo per ingannare le persone. Le persone sono impegnate con le loro vite e non hanno il tempo di controllare ogni informazione che ricevono. Nella stagione elettorale, l’IA armata può essere molto dirompente .”
Scritto da David Kleiber e Alison Swenson
Tradotto da Jaime Arambide
Autorità Palestinese
“Evangelista dei social media. Studente. Lettore. Piantagrane. Tipico introverso.”