OpenAI interrompe le operazioni di influenza elettorale che utilizzavano ChatGPT

OpenAI interrompe le operazioni di influenza elettorale che utilizzavano ChatGPT

OpenAI ha vietato un gruppo di account ChatGPT collegati a un'operazione di influenza iraniana che producevano contenuti sulle elezioni presidenziali americane, secondo quanto riportato da Blog L’azienda afferma che il processo ha generato articoli e post sui social media generati dall’intelligenza artificiale, anche se non sembra aver raggiunto un vasto pubblico.

Questa non è la prima volta che OpenAI vieta account collegati ad attori statali che utilizzano ChatGPT in modo dannoso. A maggio, l'azienda ha disattivato cinque campagne Usare ChatGPT per manipolare l'opinione pubblica.

Questi incidenti ricordano i tentativi da parte delle agenzie governative di utilizzare piattaforme di social media come Facebook e Twitter per tentare di influenzare i precedenti cicli elettorali. Ora gruppi simili (o forse gli stessi gruppi) stanno utilizzando l’intelligenza artificiale generativa per inondare i canali social di disinformazione. Come le società di social media, OpenAI sembra adottare un approccio swat-and-stick, vietando gli account associati a questi sforzi non appena si presentano.

OpenAI afferma che la sua indagine su questo gruppo di account ha beneficiato di… Rapporto sull'intelligence sulle minacce Microsoft Pubblicato la scorsa settimana, identifica il gruppo (soprannominato Storm-2035) come parte di una più ampia campagna per influenzare le elezioni statunitensi in corso dal 2020.

Microsoft ha affermato che Storm-2035 è una rete iraniana di più siti Web che imitano i notiziari e “coinvolge attivamente gruppi di elettori americani agli estremi opposti dello spettro politico con messaggi polarizzanti su questioni come i candidati presidenziali statunitensi, le lesbiche, i gay, i bisessuali e i transgender”. diritti umani e il conflitto tra Israele e Hamas.” Questo piano, come dimostrato in altre operazioni, non mira necessariamente a promuovere una politica o un’altra, ma piuttosto a seminare disaccordo e conflitto.

READ  Giuliani si costituisce con l'accusa della Georgia

OpenAI ha identificato cinque interfacce per i siti web della campagna Storm-2035, che si presentavano come organi di informazione progressisti e conservatori con nomi di dominio mascherati come “evenpolitics.com”. Il gruppo ha utilizzato ChatGPT per creare diversi articoli di lunga durata, incluso uno in cui si afferma che “X sta monitorando i tweet di Trump”, cosa che la piattaforma di Elon Musk certamente non ha fatto (se non altro, Musk sta incoraggiando l'ex presidente Donald Trump a essere maggiormente coinvolto in X ).

Esempio di un sito di notizie false che pubblica contenuti generati da ChatGPT.
Credito immagine: OpenAI

Sui social media, OpenAI ha identificato dozzine di X account e un account Instagram controllati dall'operazione. La società afferma che ChatGPT è stato utilizzato per riscrivere vari commenti politici, che sono stati poi pubblicati su queste piattaforme. Uno di questi tweet affermava falsamente e in modo confuso che Kamala Harris stava attribuindo “l’aumento dei costi della migrazione” al cambiamento climatico, seguito dall’hashtag “#DumpKamala”.

OpenAI afferma di non aver trovato prove che gli articoli su Storm-2035 siano stati ampiamente condivisi e rileva che la maggior parte dei suoi post sui social media ha ricevuto pochi Mi piace, condivisioni o commenti. Questo è spesso il caso di questi processi, che vengono eseguiti in modo rapido ed economico utilizzando strumenti di intelligenza artificiale come ChatGPT. Ci aspettiamo di vedere più avvisi come questo man mano che le elezioni si avvicinano e i battibecchi online si intensificano.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *