Dal 10 ottobre è in vigore la prima legge nazionale sull’AI. E il deepfake diventa reato.
L’intelligenza artificiale non è più soltanto una questione tecnologica. È diventata un tema giuridico, etico e sociale.
Con l’entrata in vigore, il 10 ottobre 2025, della Legge 132/2025, l’Italia diventa il primo Paese dell’Unione Europea a dotarsi di una normativa nazionale sull’intelligenza artificiale, pensata per dare attuazione e integrazione all’AI Act europeo approvato a giugno 2024 (ne parla qui il Sole 24 ore).
La nuova legge stabilisce un quadro organico di principi e regole per garantire che l’AI venga sviluppata e utilizzata in modo trasparente, sicuro e conforme ai diritti fondamentali. È una norma che nasce con un obiettivo chiaro: proteggere le persone dagli abusi e valorizzare un uso etico e responsabile dell’intelligenza artificiale.
Il provvedimento italiano adotta un approccio definito “antropocentrico”: l’AI è uno strumento, non un sostituto dell’uomo.
I principi cardine sono trasparenza, sicurezza, non discriminazione, tutela della privacy e responsabilità umana.
In sanità, nel lavoro, nella pubblica amministrazione e nella giustizia, i sistemi di intelligenza artificiale potranno supportare i professionisti, ma non potranno mai agire in autonomia.
Ogni cittadino dovrà essere informato quando un sistema di AI viene utilizzato in un procedimento che lo riguarda.
L’impianto normativo rafforza la cosiddetta via europea all’AI, che punta a garantire innovazione tecnologica senza sacrificare diritti e valori democratici.
Il deepfake diventa reato
La novità più significativa riguarda il nuovo articolo 612-quater del Codice penale, che introduce il reato di illecita diffusione di contenuti generati o alterati con intelligenza artificiale.
In altre parole, il deepfake diventa un reato a tutti gli effetti.
Chiunque diffonda, o anche solo condivida, immagini, video o voci falsificati con sistemi di AI, senza il consenso della persona rappresentata e idonei a trarre in inganno, rischia da uno a cinque anni di reclusione.
Il reato è perseguibile su querela della persona offesa, salvo i casi che riguardano minori, persone incapaci o pubblici ufficiali.
La norma risponde a un fenomeno in forte crescita: la circolazione di contenuti falsi creati con AI, spesso a danno di donne e minori, usati per finalità diffamatorie o sessuali.
Da oggi, anche la condivisione di un contenuto deepfake può avere conseguenze penali.
La legge introduce inoltre nuove aggravanti per i reati commessi con l’ausilio dell’intelligenza artificiale.
- L’articolo 61 del Codice penale è stato modificato: chi utilizza sistemi di AI come mezzo insidioso o per aggravare un reato sarà punito più severamente.
- L’articolo 294 (attentato contro i diritti politici del cittadino) prevede ora una pena da due a sei anni se l’inganno o la manipolazione avvengono tramite strumenti di AI.
Si tratta di misure che mirano a contrastare le manipolazioni digitali e le interferenze algoritmiche nei processi democratici e nei mercati finanziari.
Copyright e creatività: solo le opere umane sono protette
Un altro capitolo rilevante riguarda il diritto d’autore.
Dal 10 ottobre, solo le opere frutto dell’ingegno umano possono godere della piena tutela giuridica.
Le creazioni realizzate interamente da sistemi di AI saranno protette solo se includono un apporto creativo umano riconoscibile.
La modifica, apparentemente simbolica, risponde alla necessità di difendere il lavoro intellettuale in un contesto in cui la produzione automatica di testi, immagini o video è diventata accessibile a chiunque.
Il provvedimento si inserisce in un quadro globale in rapido mutamento.
Negli Stati Uniti, ad esempio, la California (qui la fonte) ha appena approvato la legge SB 243, la prima a regolamentare gli AI companion chatbot e a introdurre multe fino a 250.000 dollari per chi diffonde deepfake illegali o sfrutta l’intelligenza artificiale a fini dannosi.
Anche in Europa, Francia, Germania e Spagna stanno elaborando norme attuative dell’AI Act.
L’Italia, con questa legge, anticipa i tempi e consolida una posizione di leadership normativa nel continente.
Un tassello del mosaico europeo
L’AI Act europeo fornisce il quadro generale; la Legge 132/2025 ne rappresenta l’attuazione nazionale.
Le autorità competenti saranno l’Agenzia per l’Italia Digitale (AgID) e l’Agenzia per la Cybersicurezza Nazionale (ACN), con compiti distinti di promozione, vigilanza e sanzione.
Il governo ha inoltre previsto un piano di investimenti da un miliardo di euro per sostenere startup e PMI che operano nei settori dell’AI, della cybersicurezza e del calcolo quantistico.
Resta ora da vedere come saranno definiti i decreti attuativi, i criteri per l’acquisizione pubblica di soluzioni AI e le modalità di coordinamento tra le autorità di vigilanza.
La legge italiana sull’intelligenza artificiale non nasce per frenare l’innovazione, ma per governarla.
In un contesto in cui la tecnologia evolve più rapidamente del diritto, il legislatore ha scelto di anticipare i rischi e fissare regole chiare: proteggere i cittadini, tutelare la reputazione e garantire la fiducia pubblica.
Non è solo una legge che punisce gli abusi digitali. È una norma che inaugura una nuova stagione di responsabilità nell’era algoritmica, dove la trasparenza e l’etica diventano la vera infrastruttura del futuro.



