Wikipedia, il simbolo della conoscenza libera e condivisa, sta attraversando la crisi più profonda dei suoi venticinque anni di storia.
Non è un problema di qualità o di reputazione — entrambe restano altissime — ma di visibilità e sostenibilità.
Nel suo ultimo report globale (visibile qui), la Wikimedia Foundation parla chiaro: le visualizzazioni umane su Wikipedia sono calate dell’8% rispetto al 2024.
Un calo che non nasce da disinteresse, ma da un nuovo modo di accedere alle informazioni: senza mai visitare il sito.
Secondo la Wikimedia Foundation, il traffico verso Wikipedia è ormai dominato da bot e crawler che raccolgono dati per alimentare motori di ricerca, chatbot e modelli linguistici di intelligenza artificiale.
Queste tecnologie estraggono conoscenza dai contenuti scritti dai volontari umani, per poi riutilizzarla altrove, spesso senza rimandare alla fonte originale.
L’organizzazione ha spiegato di aver aggiornato i propri sistemi di rilevamento per distinguere meglio il traffico umano da quello automatizzato: dopo la correzione, i dati reali mostrano il declino.
Un dato che fotografa un problema più ampio: l’intelligenza artificiale si nutre di contenuti umani, ma non restituisce valore a chi li crea.

La rivoluzione di AI Overviews e la crisi del traffico
È lo stesso effetto che si sta osservando in tutto il web.
Con Google AI Overviews, la ricerca online sta cambiando natura: non più una lista di link, ma una risposta diretta generata da un modello di AI.
Questo significa che l’utente trova la risposta senza mai uscire da Google, e senza cliccare sulle fonti — esattamente ciò che oggi sta colpendo Wikipedia.
Lo stesso vale per gli altri editori, i siti di informazione e le piattaforme specializzate: il traffico organico si sta erodendo, e con esso il modello economico basato sui referral.
È la fine del sito web come porta d’ingresso alla conoscenza?
Molti analisti lo temono (ne avevo già parlato qui). Come ricordato in diverse discussioni del settore, la domanda di fondo è una sola: perché dovrebbero esistere i siti, se l’AI può generare risposte senza citarli?
Il caso Wikipedia non è isolato, ma un segnale d’allarme per tutti.
Se anche la più grande enciclopedia online del mondo fatica a sostenersi, significa che l’intero ecosistema dell’informazione è in bilico.
Wikipedia continua a essere la base di addestramento per quasi tutti i grandi modelli linguistici (LLM) e rimane una delle fonti più citate nei risultati AI dei motori di ricerca.
Eppure, questo non si traduce più in visite, in nuovi contributi o in donazioni.
Meno visitatori significa meno editor volontari, meno aggiornamenti, meno controllo umano sulla qualità delle informazioni.
Un circolo vizioso che rischia di svuotare la conoscenza stessa da cui l’intelligenza artificiale trae la propria linfa.
Wikipedia non scompare perché è inutile, ma perché viene usata senza essere visitata.
È la stessa logica che minaccia i siti editoriali, i blog, le testate e i portali di informazione: l’AI riassume, sintetizza, sostituisce.
Il risultato è un web sempre più chiuso, dove i motori di ricerca non rimandano più alle fonti, ma diventano essi stessi le fonti.
L’allarme della Wikimedia Foundation è chiaro: se le piattaforme non reindirizzeranno gli utenti verso i contenuti originali, la conoscenza aperta non potrà più sostenersi.
Un futuro post-Google
Wikipedia, come molti editori, sta cercando di adattarsi.
La Wikimedia Foundation ha avviato progetti per rendere più accessibili i contenuti su mobile, migliorare l’esperienza di lettura e coinvolgere le nuove generazioni anche su piattaforme come YouTube, TikTok e Instagram.
Ma il problema resta: se il traffico umano continuerà a calare, il web aperto potrebbe non reggere.
La verità è che non sta morendo solo Wikipedia:
sta morendo l’idea stessa di un Internet fatto di link, citazioni e passaggi di conoscenza.
Un Internet in cui ogni clic generava valore per chi lo meritava.
Oggi l’AI ci offre risposte sempre più rapide, ma ci toglie lentamente la sorgente della conoscenza: le persone che la scrivono.



