sabato 7 Marzo, 2026

Quando l’intelligenza artificiale cambia le elezioni: la prima “guerra dei bot” social rivela quanto è facile manipolare il voto.

Un esperimento senza precedenti, condotto in Australia, mostra quanto poco serva oggi per alterare un’elezione attraverso i social media. Nel wargame “Capture the Narrative, 108 team universitari hanno creato reti di bot alimentati da intelligenza artificiale per influenzare una simulazione elettorale. Il risultato: le campagne manipolate hanno ribaltato l’esito del voto, spostandolo di quasi due punti percentuali. Tutto con strumenti pubblici, economici e facilmente accessibili.

L’esperimento nasce da un contesto reale. Dopo l’attacco terroristico di Bondi Beach nel dicembre 2025, l’Australia è stata sommersa da deepfake, video manipolati e profili falsi. Un finto video del premier del New South Wales, un’immagine artefatta di un avvocato israeliano e migliaia di messaggi coordinati su X (ex Twitter) hanno dimostrato la portata dell’AI-driven misinformation.

Oggi, secondo i ricercatori, quasi metà dei contenuti online è generata o amplificata da sistemi di intelligenza artificiale. Questi bot, capaci di imitare perfettamente comportamenti umani, creano l’illusione del consenso: fanno apparire vere o popolari opinioni che non lo sono. Il risultato è una confusione generalizzata, alimentata da ciò che gli studiosi chiamano “liar’s dividend” – il dividendo della menzogna – in cui persino i contenuti autentici vengono messi in dubbio.

Per misurare davvero l’impatto della disinformazione, un gruppo di ricercatori australiani ha creato il primo wargame sociale al mondo dedicato alla manipolazione elettorale digitale. Gli studenti, organizzati in squadre, dovevano costruire bot generativi in grado di influenzare la popolazione virtuale di una piattaforma social sviluppata ad hoc.

Le regole erano semplici: far vincere uno dei due candidati fittizi, Victor (progressista) o Marina (conservatrice). In quattro settimane di simulazione, oltre 7 milioni di post sono stati pubblicati, e più del 60% dei contenuti totali proveniva da bot. Alla fine, “Victor” ha prevalso di misura. Ma, eliminando la manipolazione, la candidata rivale ha recuperato e vinto, con un margine di 1,78%.

Questo significa che, con poche risorse e un uso mirato dell’AI generativa, anche una campagna amatoriale è capace di cambiare un risultato elettorale.

Secondo i ricercatori, i team più efficaci hanno usato linguaggio emotivo e polarizzante. Frasi brevi, toni negativi e temi divisivi ottenevano più engagement. Come ha spiegato uno dei finalisti, “abbiamo dovuto essere un po’ più tossici per attirare attenzione”.

Molti gruppi hanno imparato rapidamente a profilare gli “elettori indecisi” e a bersagliarli con contenuti personalizzati, simulando le stesse logiche della propaganda politica reale. Nel giro di pochi giorni, la piattaforma è diventata un ecosistema chiuso, dove bot e umani si rimbalzavano emozioni e notizie manipolate fino a rendere indistinguibile il vero dal falso.

La lezione è chiara: creare disinformazione è oggi più facile che diffondere la verità. E le nuove tecnologie stanno abbassando ulteriormente le barriere d’ingresso. “È spaventosamente semplice generare fake news. Distinguere ciò che è autentico da ciò che è costruito è diventato quasi impossibile”, ha ammesso uno dei partecipanti.

Per questo gli autori del progetto sottolineano la necessità di investire in educazione digitale e pensiero critico, strumenti indispensabili per riconoscere le manipolazioni e difendere il dibattito pubblico.

L’esperimento “Capture the Narrative” dimostra che non servono hacker né budget milionari per minacciare la democrazia online: basta un gruppo di studenti, un’intelligenza artificiale generativa e la voglia di “vincere la narrazione”.

Fonte: The Conversation – “World-first social media wargame reveals how AI bots can swing elections”, pubblicato il 16 gennaio 2026.

Articoli simili

Articoli recenti

Iscriviti alla newsletter