
L’intelligenza artificiale sta accelerando la produzione di contenuti online, ma anche la diffusione di disinformazione.
Secondo il Centro di monitoraggio sviluppato da NewsGuard, sono già 2.089 i siti di notizie generati dall’IA in modo non trasparente, spesso senza supervisione umana e in continua crescita (dato aggiornato al 24 ottobre 2025).
Il fenomeno ha ormai dimensione internazionale.
I siti individuati operano in 16 lingue, tra cui italiano, inglese, francese, spagnolo, tedesco e russo. Si presentano con nomi generici e apparentemente affidabili — come Daily Time Update o Ireland Top News — rendendo difficile per gli utenti distinguere tra informazione reale e contenuti automatizzati.
Dietro l’apparenza giornalistica, però, si tratta spesso di piattaforme che pubblicano articoli scritti interamente o in gran parte da sistemi automatici, senza controllo editoriale.
Questi siti producono grandi volumi di contenuti su temi come politica, tecnologia o intrattenimento.
Il problema non è solo la quantità, ma la qualità: gli articoli possono includere informazioni false o fuorvianti, tra cui:
- notizie inventate o fuori contesto
- falsi decessi di personaggi famosi
- dichiarazioni attribuite erroneamente a leader politici
La capacità dell’IA di generare contenuti plausibili rende queste notizie particolarmente difficili da individuare per il pubblico.
Uno degli elementi più critici riguarda il modello economico.
Molti di questi siti si sostengono attraverso pubblicità programmatica, che distribuisce annunci in modo automatico senza valutare l’affidabilità delle fonti.
Di conseguenza, brand e inserzionisti rischiano di finanziare involontariamente la disinformazione, alimentando la crescita di queste piattaforme.
Senza interventi specifici — come l’esclusione di siti non affidabili dalle liste pubblicitarie — il sistema continua a generare un incentivo economico per la proliferazione di contenuti generati dall’IA.
Il fenomeno non si limita alle cosiddette “content farm”.
NewsGuard segnala anche casi più strutturati, come:
- una rete di 167 siti pseudo-locali legati alla Russia, che diffondono contenuti fuorvianti sulla guerra in Ucraina
- un sito riconducibile al governo cinese che utilizza contenuti generati dall’IA per sostenere teorie complottiste
L’IA diventa così uno strumento non solo per produrre contenuti in massa, ma anche per rafforzare operazioni di propaganda e manipolazione informativa.
Il dato dei 2.089 siti identificati rappresenta solo una parte del fenomeno, che è in rapida espansione.
Per il settore dei media e del marketing digitale, questo scenario apre una questione cruciale: come garantire qualità, affidabilità e trasparenza in un ecosistema sempre più automatizzato.
Il rischio è duplice:
- da un lato, una crescente difficoltà per gli utenti nel distinguere tra informazione e contenuti generati
- dall’altro, un sistema pubblicitario che può finanziare inconsapevolmente la disinformazione
Se questi numeri rappresentano solo una fase iniziale dell’adozione dell’IA generativa, il quadro futuro appare ancora più complesso.
La facilità con cui è possibile creare interi siti di informazione automatizzati, unita alla scalabilità dei modelli AI, potrebbe portare a una proliferazione esponenziale di contenuti non verificati.
In questo scenario, senza regole più stringenti e strumenti di controllo efficaci, il rischio è che la disinformazione diventi strutturale e difficilmente distinguibile dall’informazione legittima.
Un segnale che, più che rassicurare, apre a preoccupazioni crescenti per l’intero ecosistema digitale.
Fonte: NewsGuard – AI Misinformation Monitoring Center, aggiornamento 24 ottobre 2025.



