mercoledì 15 Aprile, 2026

Wikipedia vieta i contenuti scritti dall’AI e ridefinisce il perimetro editoriale.

Wikipedia introduce una linea chiara sull’uso dell’intelligenza artificiale: i contenuti dell’enciclopedia non possono essere generati né riscritti tramite modelli linguistici. La nuova policy chiarisce e rafforza una posizione già esistente, trasformando un’indicazione generica in un divieto esplicito.

La modifica nasce all’interno della comunità di editor e viene approvata con un ampio consenso: 40 voti favorevoli contro 2. Il nuovo testo stabilisce che l’uso di LLM per generare o riscrivere contenuti è proibito, sostituendo una formulazione precedente più vaga.
Wikipedia riafferma così il proprio modello editoriale: contenuti costruiti e verificati da esseri umani. In un contesto in cui l’AI entra nei flussi di produzione, la piattaforma decide di mantenere il controllo diretto sulla scrittura.

Il divieto non esclude completamente l’uso dell’intelligenza artificiale. Gli editor possono utilizzare modelli linguistici per suggerimenti di copyediting sui propri testi, ma con una condizione precisa: l’AI non deve introdurre contenuti propri. La policy evidenzia anche un rischio concreto: i modelli possono modificare il significato del testo o introdurre variazioni non supportate dalle fonti. Per questo, ogni intervento deve essere verificato manualmente. L’AI è ammessa come supporto tecnico, non come autore.

Questa scelta si inserisce in un contesto più ampio. A gennaio 2026, Wikimedia ha annunciato accordi con alcune aziende tecnologiche per consentire l’accesso strutturato ai dati di Wikipedia destinati allo sviluppo dei modelli AI.
Tra i partner coinvolti figurano Amazon, Meta e Perplexity. Wikipedia entra così nella filiera dell’intelligenza artificiale, mantenendo però separato il livello editoriale da quello tecnologico. Si cerca di evitare insomma di innondare il mondo con fake news.

Le due direzioni definiscono una strategia coerente. Da un lato, la piattaforma limita l’uso dell’AI nella scrittura per preservare qualità e affidabilità. Dall’altro, apre i propri dati per contribuire allo sviluppo dei modelli.
Il risultato è un modello chiaro: contenuti umani, utilizzo tecnologico dei dati.

In un momento in cui l’automazione entra sempre più nei processi editoriali, Wikipedia stabilisce un limite operativo preciso. L’intelligenza artificiale può intervenire solo in modo controllato e subordinato alla revisione umana.
Il punto non è escludere l’AI, ma definire dove può operare e dove no. È su questo equilibrio che si costruisce il rapporto tra tecnologia e produzione di contenuti.

Fonti: https://www.ilpost.it/2026/01/16/wikipedia-intelligenza-artificiale-accordi/
https://techcrunch.com/2026/03/26/wikipedia-cracks-down-on-the-use-of-ai-in-article-writing/

Articoli simili

Articoli recenti

Iscriviti alla newsletter