Indietro

Deep fake e AI: la nuova legge italiana che cambia tutto

Di Nicoletta Biglietti 18/10/2025

Non bastano più filtri e algoritmi. Da oggi, creare o diffondere un deep fake è un reato.
La nuova legge sull’intelligenza artificiale –  la L. 132/2025  entrata in virgola il 10 ottobre 2025 – cambia le regole del gioco, alzando un muro contro la manipolazione digitale.

Il nuovo articolo – di cui l’Italia è il primo Stato membro dell’UE ad approvare –  punisce chi pubblica immagini, video o audio falsificati con sistemi di AI, capaci di trarre in inganno e provocare danni reali.
Non si tratta più di un concetto astratto: il danno può riguardare la reputazione, la fiducia o anche la stabilità di mercati e istituzioni.

Il reato è punibile a querela, ma si procede d’ufficio quando il contenuto è collegato ad altri delitti perseguibili automaticamente, o se coinvolge pubblici ufficiali o persone vulnerabili. La legge si preoccupa anche dei danni non patrimoniali: non serve un guadagno economico per configurare l’illecito, “basta” l’effetto negativo sulla vittima.

L’obiettivo è chiaro: proteggere la verità digitale e la dignità delle persone. Secondo l’AI Act, i deep fake sono «contenuti generati o manipolati dall’intelligenza artificiale che assomigliano a persone, oggetti, luoghi o eventi esistenti e che appaiono falsamente autentici».
La normativa colma anche un vuoto del codice penale rispetto ai deep fake porn con vittime maggiorenni, fino ad oggi non punibili. La legge, infatti, introduce un’aggravante comune per rendere più severe le sanzioni quando l’AI viene usata come mezzo insidioso, ad esempio per sorprendere la persona offesa o ostacolare la difesa. 

Oltre a questa, ci sono due aggravanti speciali pensate per il contrasto alla criminalità finanziaria, applicabili ai reati di aggiotaggio e manipolazione del mercato, con pene da due a sette anni. Il Consiglio Superiore della Magistratura sottolinea come l’AI sia ormai uno strumento abituale nelle frodi economiche. Esempi concreti: social bot utilizzati per pump and dump, modelli di simulazione dei mercati che praticano spoofing, algoritmi autoapprendenti che decidono autonomamente l’azione illecita. La legge deve affrontare anche il problema dell’elemento psicologico del reato: quando l’agente è un algoritmo, capire chi è responsabile diventa complesso.

Con questa normativa, il diritto italiano si aggiorna al passo della tecnologia. Non rincorre più la velocità dell’algoritmo: la accompagna, la regola, la controlla. Protegge cittadini, istituzioni e mercati, offrendo strumenti concreti per tutelare la verità digitale.

Non più un tema tecnico o da esperti: riguarda tutti noi.
Ogni volta che scrolliamo feed, condividiamo un contenuto o postiamo online, siamo chiamati a una maggiore consapevolezza.
Il messaggio è chiaro: la verità non si finge più, e chi cerca di ingannare con l’AI ora rischia seriamente.