
Il nuovo sistema di intelligenza artificiale Gemini Nano Banana Pro, sviluppato da Google, è finito al centro di un caso che riaccende il dibattito sulla sicurezza dei modelli generativi. Secondo quanto riportato da The Verge, il sistema sarebbe riuscito a creare “immagini fotorealistiche di eventi falsi” come teorie del complotto e tragedie storiche, senza che i filtri interni intervenissero a bloccarne la produzione.
Il caso, come spiegano i test citati, riguarda la possibilità di ottenere immagini di “eventi storici manipolati”, con un livello di dettaglio tale da renderle credibili e facilmente condivisibili online. Tra gli esempi indicati, Gemini avrebbe accettato prompt relativi a “un secondo tiratore a Dealey Plaza” o a “un aereo che vola verso le Twin Towers”, generando contenuti fotorealistici e contestualmente coerenti.
Un portavoce di Google non ha rilasciato dichiarazioni ufficiali sulla vicenda, ma l’azienda, nei propri documenti pubblici, afferma di avere come obiettivo “essere massimamente utile agli utenti evitando al contempo qualsiasi output che possa causare danni o offesa nel mondo reale”.
Il problema non riguarda solo l’aspetto tecnico, ma anche il potenziale impatto sociale. Gli esperti segnalano come l’assenza di barriere efficaci possa trasformare l’AI in uno strumento di disinformazione accessibile a tutti, capace di generare in pochi secondi immagini false ma convincenti.
“Il rischio è che queste tecnologie diventino un moltiplicatore di falsità visive, capaci di erodere ulteriormente la fiducia nelle immagini digitali,” spiegano gli analisti del settore.
La facilità di utilizzo della piattaforma, disponibile anche in versione gratuita, amplifica la portata del problema: chiunque può produrre contenuti alterati che sembrano autentici, con potenziali conseguenze su campagne politiche, informazione pubblica e reputazione dei brand.
Il caso Gemini rappresenta un campanello d’allarme per l’intero comparto tecnologico. Senza un sistema di controllo efficace e verificabile, la fiducia nelle immagini e nei contenuti digitali rischia di sgretolarsi.
“Non è solo una falla tecnica,” sottolineano diversi osservatori, “ma un problema di governance dell’intelligenza artificiale: serve un equilibrio reale tra creatività e responsabilità.”
L’episodio riaccende infine il dibattito sulla necessità di una regolamentazione internazionale delle tecnologie generative, che oggi operano in larga parte senza controlli preventivi.
In un contesto dove un’immagine può essere creata con un prompt e sembrare reale, la sfida diventa chiara: proteggere la verità visiva prima che diventi un’altra vittima della generazione automatica.



