L’utilizzo dell’Intelligenza Artificiale in azienda è in costante crescita e offre opportunità significative per migliorare efficienza, decision making e gestione dei processi. Tuttavia, introdurre soluzioni di IA senza una strategia chiara e senza una piena consapevolezza dei rischi può esporre l’organizzazione a criticità legali, reputazionali e operative.

Per questo motivo, diventa essenziale adottare un approccio strutturato che coniughi innovazione e conformità, valorizzando le potenzialità della tecnologia nel rispetto della normativa in materia di protezione dei dati, trasparenza e tutela dei lavoratori.

Le seguenti tips operative intendono offrire una guida pratica e multidisciplinare per un uso dell’IA aziendale consapevole, etico e conforme, in linea con il GDPR, l’AI Act e le migliori pratiche di governance e controllo umano.

  1. Mappatura dei processi e controllo umano 
  2. Audit e valutazione d’impatto 
  3. Documentazione e trasparenza (registro trattamenti IA, policy e informative) 
  4. Governance e formazione  
  5. Ambiti sensibili e garanzie rafforzate 
  6. Spiegabilità e tracciabilità 
  7. Adeguamento contrattuale con i fornitori 
  8. Monitoraggio e aggiornamento continuo 

Se vuoi ricevere il nostro report via email, Compila il form.

La legge n. 132/2025 – avente l’obiettivo di garantire trasparenza, correttezza e tutela della dignità dei lavoratori, promuovendo un uso etico e responsabile dell’intelligenza artificiale nei luoghi di lavoro – stabilisce che datori di lavoro e committenti, pubblici e privati, devono comunicare per iscritto ai lavoratori e alle rappresentanze sindacali (RSA/RSU) l’impiego di sistemi di intelligenza artificiale nei processi che incidono sulla gestione del rapporto di lavoro.

L’obbligo si applica ogni volta che l’IA viene utilizzata per attività quali, a titolo esemplificativo, assunzione, conferimento di incarichi, assegnazione di mansioni, valutazione delle performance o cessazione del rapporto.

Quando e come adempiere:

  • L’informativa deve essere consegnata prima dell’inizio dell’attività lavorativa o, in ogni caso, prima dell’utilizzo del sistema di IA selezionato dal datore di lavoro per la gestione, anche solo parziale, del rapporto di lavoro.
  • Deve essere redatta in modo trasparente, strutturato e leggibile da dispositivo automatico, come previsto dal D.Lgs. 104/2022 (Decreto Trasparenza).
  • La comunicazione va inviata anche alle rappresentanze sindacali aziendali o, in loro assenza, alle sedi territoriali delle associazioni sindacali.

Cosa può fare l’azienda per essere conforme:

  • Effettuare una mappatura dei sistemi di IA utilizzati nell’ambito della gestione del rapporto di lavoro.
  • Aggiornare informative e policy interne sul trattamento dei dati e sulla gestione del personale.
  • Predisporre un modello di informativa standard da consegnare ai lavoratori e alle rappresentanze sindacali.

*****

I Soci e i collaboratori dello studio Legale De Luca & Partners rimangono a disposizione per tutti gli approfondimenti del caso.

Il Senato della Repubblica, nella seduta di mercoledì 17 settembre 2025, ha approvato definitivamente il disegno di legge recante “disposizioni e deleghe al Governo in materia di intelligenza artificiale”, collegato alla manovra di finanza pubblica.​

Per l’Italia si tratta della prima normativa nazionale in materia di A.I.

Il testo è composto da 28 articoli suddivisi in sei capi che non disciplina direttamente l’uso dell’A.I. ma affida al Governo la responsabilità di adottare decreti attuativi per regolare diversi settori. ​

I punti chiave del nuovo testo di legge ​sono rappresentati da:

  • un approccio antropocentrico: l’A.I. deve essere uno strumento a supporto delle decisioni senza sostituirsi all’intervento umano.
  • un utilizzo corretto, trasparente e responsabile dell’A.I.
  • necessità di garantire i diritti fondamentali, la non discriminazione, la parità dei sessi, la sicurezza, la responsabilità umana, la protezione dei dati personali, la riservatezza, l’accuratezza e la sostenibilità.

Le autorità nazionali competenti sono l’AgID, quale Autorità di notifica e regolamentazione, e l’Agenzia per la Cybersicurezza Nazionale (ACN), per i profili di vigilanza e ispezione.

I settori individuati dal legislatore sono quattro: la sanità, il lavoro, la Pubblica Amministrazione e la giustizia, la scuola e lo sport.​

Le principali novità in tema di lavoro

Articolo 11 – Disposizioni sull’uso dell’intelligenza artificiale in materia di lavoro

  • Si stabilisce che l’intelligenza artificiale viene impiegata per migliorare le condizioni di lavoro, tutelare l’integrità psicofisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività delle persone in conformità al diritto dell’Unione europea.​
  • L’utilizzo dell’A.I. in ambito lavorativo deve essere sicuro, affidabile, trasparente e non può svolgersi in contrasto con la dignità umana né violare la riservatezza dei dati personali. Il datore di lavoro o il committente è tenuto a informare il lavoratore dell’utilizzo dell’intelligenza artificiale nei casi e secondo le modalità previste dalla vigente normativa.
  • Il ricorso all’intelligenza artificiale nell’organizzazione e nella gestione del rapporto di lavoro deve in ogni caso garantisce l’osservanza dei diritti inviolabili del lavoratore senza discriminazioni in funzione del sesso, dell’età, delle origini etniche, del credo religioso, dell’orientamento sessuale, delle opinioni politiche e delle condizioni personali, sociali ed economiche, in conformità al diritto dell’Unione europea.

Articolo 12 – Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro

  • Sarà istituito un Osservatorio ministeriale con il compito di definire una strategia sull’utilizzo dell’intelligenza artificiale in ambito lavorativo, monitorare l’impatto sul mercato del lavoro e identificare i settori lavorativi maggiormente interessati dall’avvento dell’intelligenza artificiale.

Articolo 13 – Disposizioni in materia di professioni intellettuali

  • L’utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali dovrà essere finalizzato al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera.​
  • Per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo.

Altri insights correlati:

L’Intelligenza Artificiale (IA) è ormai una componente concreta nei processi aziendali, trovando applicazione crescente soprattutto nella gestione delle risorse umane. Gli algoritmi promettono efficienza e imparzialità in attività complesse come il recruiting, la valutazione delle performance o l’assegnazione di incarichi. Tuttavia, questa promessa si accompagna a rischi rilevanti. Proprio per la loro potenziale incidenza sui diritti fondamentali, i sistemi di IA impiegati nel contesto lavorativo sono oggi considerati “tecnologie ad alto rischio”, soggette a obblighi stringenti di trasparenza, supervisione umana e valutazione dell’impatto sui lavoratori.

In questo scenario si inseriscono le Linee Guida per l’utilizzo di sistemi di Intelligenza Artificiale nel contesto lavorativo pubblicate recentemente dal Ministero del Lavoro: non una norma vincolante, ma un documento strategico che rappresenta un chiaro indirizzo politico e culturale per il tessuto produttivo italiano, con un’attenzione particolare alle PMI. L’obiettivo è duplice: promuovere un’adozione consapevole dell’IA e assicurare la piena tutela dei diritti dei lavoratori.

Il documento si basa su un messaggio inequivocabile: l’IA non può essere una “scatola nera” che decide in modo opaco e incontestabile. Anche quando la tecnologia è sviluppata da terzi, la responsabilità ultima resta sempre in capo al datore di lavoro. Per le imprese, si tratta di passare da una fase sperimentale a una gestione strutturata, in linea con principi di compliance e sostenibilità.

I quattro pilastri delle linee guida all’utilizzo dell’IA

Il documento ministeriale si articola attorno a quattro direttrici fondamentali, che formalizzano obblighi già rinvenibili nell’attuale quadro normativo e giurisprudenziale, rafforzandone l’applicazione in chiave preventiva.

1. Supervisione umana obbligatoria

Le decisioni che influiscono sulla posizione giuridica del lavoratore – assunzioni, promozioni, valutazioni, provvedimenti disciplinari o licenziamenti – non possono essere lasciate alla sola valutazione algoritmica. È necessario un controllo umano effettivo, consapevole e tracciabile da parte di una figura competente e legittimata. Questa figura deve essere in grado di comprendere, validare o anche disattendere le indicazioni della macchina, assumendosi piena responsabilità della decisione finale.

2. Obbligo di trasparenza algoritmica

Le aziende devono informare in modo chiaro e accessibile i lavoratori sull’impiego dell’IA nei processi che li riguardano. Non è sufficiente una comunicazione generica: occorre spiegare quali dati sono trattati (CV, performance, test attitudinali), quali logiche e criteri l’algoritmo utilizza e quale impatto abbia sulla decisione finale. Il principio guida è la “intelligibilità”: il sistema dev’essere spiegabile, comprensibile e contestabile.

3. Valutazione d’impatto e mitigazione del rischio

Coerentemente con l’AI Act europeo, l’utilizzo dell’IA in ambito HR è qualificato come attività ad alto rischio. Ne deriva un obbligo per il datore di lavoro di effettuare, prima della messa in esercizio, una valutazione d’impatto che tenga conto dei possibili effetti discriminatori, della tutela della privacy e della qualità dei dati utilizzati. Le Linee Guida sollecitano anche l’introduzione di audit periodici e controlli sistematici sul funzionamento degli algoritmi.

4. Mappatura e accountability

L’impresa deve sapere quali sistemi di IA sta utilizzando, doveper quali finalità e chi ne è responsabile. La responsabilità non è delegabile al fornitore della tecnologia: è l’organizzazione a dover garantire un uso corretto ed etico dei sistemi, attraverso una governance interna adeguata. La mappatura dei sistemi e la definizione dei ruoli interni rappresentano un requisito essenziale per il rispetto del principio di accountability.

Continua a leggere la versione integrale pubblicata su Econopoly de Il Sole 24 Ore.

“L’utilizzo di sistemi di Intelligenza Artificiale per processi decisionali aziendali che riguardano i lavoratori – come selezione, assegnazione di compiti, valutazioni di performance o provvedimenti disciplinari – è ammesso solo in presenza di garanzie adeguate. È quanto stabilito dalle Linee Guida per l’implementazione dell’IA nel mondo del lavoro, pubblicate dal Ministero del Lavoro a giugno 2025.” 

Cosa può fare l’azienda per essere compliant alle Linee Guida? 

  • Effettuare una mappatura completa dei sistemi IA utilizzati in azienda, specificando obiettivi, dati trattati, ambiti di applicazione e soggetti responsabili. 
  • Garantire supervisione umana obbligatoria: ogni decisione che incide sulla posizione giuridica del lavoratore (assunzione, licenziamento) deve essere verificabile e validata da un soggetto umano competente. 
  • Assicurare trasparenza algoritmica: i lavoratori devono essere informati, con linguaggio chiaro, sul funzionamento del sistema IA, i criteri utilizzati e la possibilità di contestazione. 
  • Predisporre una valutazione d’impatto (DPIA) e una valutazione del legittimo interesse, per identificare e mitigare i rischi di discriminazione, bias, errori o violazioni della privacy. 
  • Aggiornare la documentazione interna (informative privacy, policy interne, registro dei trattamenti, lettere di autorizzazione), con riferimento esplicito all’uso di IA. 
  • Verificare i contratti con i fornitori IT: deve essere chiaro chi sviluppa, controlla e manutenere il sistema, e quali sono i limiti di responsabilità. 

Una gestione inadeguata dei sistemi IA espone l’azienda non solo a rischi di violazione della normativa privacy (GDPR), ma anche a possibili sanzioni e contenziosi per violazione dei diritti dei lavoratori, con riferimento all’art. 4 dello Statuto dei Lavoratori e ai principi di non discriminazione, nonché agli obblighi informativi previsti dal D.Lgs. 104/2022 (cd. Decreto Trasparenza).