La Legge 23 settembre 2025, n. 132 si inserisce nel contesto della regolamentazione europea dell’intelligenza artificiale, recependo e declinando a livello nazionale i principi di tutela della dignità umana, della trasparenza, della non discriminazione e della responsabilità. ra le disposizioni di maggiore rilievo vi sono quelle che concernono l’applicazione dell’IA nel mondo del lavoro, sia nella forma subordinata che autonoma, settori nei quali la tecnologia sta trasformando profondamente i rapporti e le modalità operative.
L’obiettivo dichiarato del legislatore è chiaro: accompagnare l’introduzione dell’IA nel tessuto economico-produttivo garantendo il rispetto dei diritti fondamentali e del quadro europeo, in particolare il Regolamento UE 2024/1689 (AI Act), già pienamente operativo.
L’introduzione di questa normativa risponde a esigenze concrete di controllo e governance di sistemi che, per loro natura autonoma e complessa, rischiano di compromettere valori fondamentali del diritto del lavoro, quali:
il diritto alla tutela della persona (privacy, dignità, integrità morale);
il diritto alla corretta informazione e partecipazione del lavoratore;
il principio di responsabilità del datore di lavoro e del committente.
Lavoro dipendente e intelligenza artificiale: i principi degli articoli 11 e 12
L’articolo 11: l’IA nel rapporto di lavoro
L’art. 11 della Legge 132/2025 pone le basi per una regolamentazione dell’uso dell’IA nei rapporti di lavoro subordinato, prevedendo un insieme articolato di principi e vincoli:
L’utilizzo dell’IA deve essere funzionale al miglioramento delle condizioni lavorative, con particolare attenzione alla sicurezza, all’organizzazione e alla produttività;
Il sistema deve garantire affidabilità, trasparenza e rispetto della dignità umana;
Deve essere evitata ogni forma di discriminazione automatizzata, con particolare riguardo ai fattori protetti dall’art. 3 della Costituzione e dalla normativa antidiscriminatoria;
Il lavoratore ha diritto a una informazione chiara e tempestiva sull’utilizzo di sistemi IA che possano incidere sulla sua attività, con un richiamo espresso al d.lgs. 152/1997 in materia di obblighi informativi nei rapporti di lavoro.
Il tratto distintivo della norma risiede nel riconoscere che l’intelligenza artificiale, lungi dal costituire un fattore neutro, può incidere direttamente sulle prerogative individuali del lavoratore: l’organizzazione algoritmica del lavoro, l’automazione dei processi valutativi o disciplinari, la sorveglianza digitale rappresentano ambiti critici in cui l’IA può alterare gli equilibri negoziali e contrattuali.
L’articolo 12: istituzione dell’Osservatorio nazionale
In chiave di governance pubblica, l’art. 12 introduce un ulteriore elemento sistemico: l’Osservatorio sull’adozione dei sistemi di IA nel mondo del lavoro, presso il Ministero del lavoro e delle politiche sociali.
L’Osservatorio ha compiti fondamentali: elaborare strategie nazionali, monitorare l’impatto dell’IA sul mercato del lavoro, proporre misure correttive o incentivanti e promuovere la formazione dei soggetti coinvolti.
È un presidio pubblico di sorveglianza attiva, concepito non solo come centro di studio, ma come strumento operativo per il bilanciamento tra efficienza e tutela.
L’importanza dell’Osservatorio è anche simbolica: il legislatore riconosce che la trasformazione digitale del lavoro è un fenomeno politico e sociale, oltre che tecnologico, e che richiede un intervento pubblico strutturato, non lasciato al solo mercato.
Implicazioni pratiche
I datori di lavoro sono obbligati a garantire la trasparenza algoritmica, ovvero il diritto del lavoratore di conoscere se, come e in quale misura un sistema automatizzato interviene nelle attività lavorative o nelle valutazioni.
È prevista la necessità di una valutazione d’impatto sulla protezione dei dati personali (DPIA), in conformità al GDPR, quando si adottano strumenti IA che trattano dati sensibili o che possono avere ripercussioni sui diritti del lavoratore.
La disciplina potrà incidere sull’utilizzo degli algoritmi di monitoraggio, vietando pratiche invasive o discriminatorie e imponendo limiti rigorosi a tecniche di sorveglianza digitale.
Aspetti pratici e criticità
Sorveglianza e controllo
La legge vieta pratiche di sorveglianza digitale eccessiva o invasive, imponendo limiti precisi al monitoraggio basato su IA che possa ledere la privacy o creare un ambiente di lavoro vessatorio.Decisioni automatizzate
È chiarito che non possono essere adottate decisioni unilaterali basate esclusivamente su IA che incidano su rapporti di lavoro o condizioni contrattuali senza supervisione umana.Trasparenza e formazione
È previsto che i lavoratori ricevano formazione adeguata per comprendere l’uso e l’impatto delle tecnologie IA nella loro attività.
L’intelligenza artificiale e il lavoro autonomo: disciplina e profili giuridici
Nel lavoro autonomo, la legge riconosce all’intelligenza artificiale un ruolo di potenziamento delle capacità decisionali e operative del professionista, senza però limitare la sua autonomia o responsabilità.
Il legislatore stabilisce che l’impiego dell’intelligenza artificiale nelle attività di lavoro subordinato debba essere rigorosamente circoscritto a funzioni strumentali e di supporto, escludendo che l’IA possa assumere un ruolo decisionale autonomo che inciderebbe direttamente sulle condizioni contrattuali o sull’esercizio di prerogative fondamentali del lavoratore.
Principali disposizioni
IA come strumento di supporto
L’IA può essere utilizzata per migliorare l’efficienza e la qualità della prestazione professionale, ad esempio attraverso analisi predittive, automazione di compiti ripetitivi o gestione intelligente delle risorse, senza però assumere funzioni decisionali autonome in modo vincolante.Autonomia e responsabilità del professionista
La norma ribadisce che il lavoratore autonomo mantiene piena responsabilità delle proprie scelte professionali, e che l’adozione di strumenti IA non può determinare un vincolo contrattuale o ridurre la sua libertà di giudizio.Formazione e aggiornamento professionale
La legge promuove programmi di formazione specifici per permettere agli autonomi di acquisire competenze digitali e di gestione consapevole dell’IA, riducendo il rischio di esclusione o di uso improprio.- Evoluzione delle professioni intellettuali: La legge contempla anche la necessità di aggiornare e adeguare le categorie professionali alle nuove tecnologie, riconoscendo la possibilità che l’IA modifichi gli ambiti di competenza e le modalità di svolgimento delle prestazioni, pur sempre nel rispetto dei principi di responsabilità personale.
Nuove tutele e formazione: È prevista una promozione attiva di programmi formativi e di aggiornamento professionale per accompagnare i lavoratori autonomi nell’adozione consapevole e sicura delle tecnologie IA, riducendo i rischi di esclusione e obsolescenza.
Profili di responsabilità e rischi giuridici
Un punto di grande rilievo riguarda le modifiche introdotte dalla legge agli istituti della responsabilità civile e penale:
L’aggiunta di un periodo all’articolo 2637 del codice civile (sulla responsabilità degli amministratori) evidenzia una maggiore attenzione alle condotte illecite realizzate mediante IA, con possibili estensioni alle responsabilità aziendali per danni causati da sistemi automatizzati.
Le modifiche agli articoli 171 e 185 del testo unico delle disposizioni in materia di intermediazione finanziaria sottolineano come l’IA debba essere regolata anche in settori particolarmente sensibili, al fine di evitare frodi, manipolazioni e abusi.
La legge sancisce un regime sanzionatorio rafforzato per chi impiega impropriamente sistemi IA, indicando che la responsabilità penale potrà gravare anche sugli sviluppatori e sui gestori di tali tecnologie, oltre che sugli utilizzatori finali.
Prospettive applicative e sfide future
Contrattazione collettiva e negoziazione sindacale: L’introduzione dell’IA nei luoghi di lavoro richiede un ripensamento delle relazioni industriali, con sindacati chiamati a negoziare regole specifiche per l’uso di tecnologie di automazione e per la protezione dei lavoratori da possibili abusi.
Standard etici e codici di condotta: L’applicazione pratica della legge impone la definizione di linee guida etiche condivise, che accompagnino le imprese nella progettazione e gestione responsabile di sistemi IA.
Giurisprudenza in evoluzione: È prevedibile che i giudici saranno chiamati a interpretare e applicare le nuove norme in casi concreti, soprattutto in materia di discriminazione algoritmica, sorveglianza e licenziamenti automatizzati.
Diritto alla disconnessione e benessere lavorativo: L’IA può influenzare tempi e modi di lavoro, rendendo necessari interventi normativi complementari per garantire il diritto alla disconnessione e prevenire il burnout digitale.
Differenze strutturali tra i due ambiti
Lavoro dipendente (art. 11-12)
L’IA è regolata con principi generali da rispettare, ma non vi è una disciplina “su misura” che stabilisce espressamente fino a che punto l’IA può entrare nei processi decisionali del rapporto di lavoro (oltre i limiti generali).
Si istituisce un ente pubblico (Osservatorio) con funzioni di monitoraggio, strategia e formazione.
Lavoro autonomo / professionale (art. 13)
Viene definita con maggiore precisione la portata dell’IA: essa è ammessa solo come strumento di supporto / strumentale, non può sostituire l’attività intellettuale principale.
Il professionista ha l’obbligo di una informativa chiara al cliente circa l’uso dell’IA.
Profili problematici e interrogativi
Confini tra supporto e decisione autonoma
In ambedue i casi, il confine tra “supporto” e “decisione autonoma” non è definito con dettagli tecnici (es. percentuali, soglie). Sarà compito della regolamentazione e della giurisprudenza delineare i parametri di legittimità.Trasparenza e informazione
Nel lavoro subordinato, l’obbligo informativo è richiamato nell’art. 11, ma la legge non descrive in dettaglio le modalità di comunicazione (quando, come, quale livello di dettaglio). Nell’autonomo l’art. 13 garantisce che l’informazione debba essere “chiara, semplice ed esaustiva”, ma anche qui serve regolamentazione attuativa.Responsabilità
La legge non specifica in modo puntuale come si ripartiscano le responsabilità in caso di errore del sistema IA: chi risponde — il datore / committente, il fornitore tecnologico, il professionista? Questo è un tema che dovrà essere affrontato nei decreti delegati e nella giurisprudenza.Formazione e adeguamento
Il ruolo dell’Osservatorio include la promozione della formazione, ma si pone la questione dell’effettiva copertura e qualità della formazione offerta, specie per professionisti autonomi che operano da soli o in contesti minori.Adeguamento della contrattazione collettiva
Nel lavoro subordinato, l’adozione dell’IA può implicare che le parti sociali (sindacati, associazioni datoriali) debbano negoziare clausole specifiche per disciplinare l’uso nei contratti collettivi (es. limiti all’IA nelle modalità di valutazione, sorveglianza).
Conclusione
La Legge n. 132/2025 rappresenta un tentativo organico di bilanciare il progresso tecnologico con la tutela dei diritti fondamentali nel mondo del lavoro. La sua efficacia sarà però legata a un’applicazione pragmatica e a un continuo confronto tra legislatore, parti sociali, operatori e giuristi.
Resta centrale il principio che l’intelligenza artificiale deve sempre essere uno strumento al servizio della persona, e non un fattore di alienazione o discriminazione, pena la perdita di quei valori di equità e dignità che il diritto del lavoro è chiamato a garantire.