Intelligence artificielle et travail : les lignes directrices du Ministère entre innovation et protection des droits (Econopoly de Il Sole 24 Ore, 27 août 2025 – Martina De Angeli, Alesia Hima)
L’Intelligence Artificielle (IA) est désormais une composante concrète des processus d’entreprise, trouvant une application croissante notamment dans la gestion des ressources humaines. Les algorithmes promettent efficacité et impartialité dans des activités complexes telles que le recrutement, l’évaluation des performances ou l’attribution des missions. Toutefois, cette promesse s’accompagne de risques importants. En raison précisément de leur incidence potentielle sur les droits fondamentaux, les systèmes d’IA utilisés dans le contexte du travail sont aujourd’hui considérés comme des “technologies à haut risque”, soumises à des obligations strictes de transparence, de supervision humaine et d’évaluation de l’impact sur les travailleurs.
C’est dans ce contexte que s’insèrent les “Lignes directrices pour l’utilisation des systèmes d’Intelligence Artificielle dans le contexte du travail” publiées récemment par le Ministère du Travail : il ne s’agit pas d’une norme contraignante, mais d’un document stratégique qui représente une orientation politique et culturelle claire pour le tissu productif italien, avec une attention particulière portée aux PME. L’objectif est double : promouvoir une adoption consciente de l’IA et assurer la pleine protection des droits des travailleurs.
Le document repose sur un message sans équivoque : l’IA ne peut pas être une “boîte noire” qui décide de manière opaque et incontestable. Même lorsque la technologie est développée par des tiers, la responsabilité finale incombe toujours à l’employeur. Pour les entreprises, il s’agit de passer d’une phase expérimentale à une gestion structurée, conforme aux principes de conformité et de durabilité.
Les quatre piliers des lignes directrices relatives à l’utilisation de l’IA
Le document ministériel s’articule autour de quatre axes fondamentaux, qui formalisent des obligations déjà présentes dans le cadre normatif et jurisprudentiel actuel, tout en en renforçant l’application dans une perspective préventive.
1. Supervision humaine obligatoire
Les décisions qui influencent la position juridique du travailleur – embauches, promotions, évaluations, mesures disciplinaires ou licenciements – ne peuvent pas être laissées à la seule appréciation algorithmique. Un contrôle humain effectif, conscient et traçable est nécessaire, exercé par une personne compétente et habilitée. Cette personne doit être en mesure de comprendre, valider ou même contester les indications de la machine, en assumant l’entière responsabilité de la décision finale.
2. Obligation de transparence algorithmique
Les entreprises doivent informer de manière claire et accessible les travailleurs de l’utilisation de l’IA dans les processus qui les concernent. Une communication générique ne suffit pas : il faut expliquer quelles données sont traitées (CV, performances, tests d’aptitude), quelles logiques et quels critères l’algorithme utilise et quel impact cela a sur la décision finale. Le principe directeur est « l’intelligibilité » : le système doit être explicable, compréhensible et contestable.
3. Évaluation d’impact et atténuation du risque
Conformément à l’AI Act européen, l’utilisation de l’IA dans le domaine des ressources humaines est qualifiée d’activité à haut risque. Il en découle une obligation pour l’employeur d’effectuer, avant la mise en service, une évaluation d’impact tenant compte des effets discriminatoires potentiels, de la protection de la vie privée et de la qualité des données utilisées. Les Lignes directrices encouragent également l’introduction d’audits périodiques et de contrôles systématiques sur le fonctionnement des algorithmes.
4. Cartographie et accountability
L’entreprise doit savoir quels systèmes d’IA elle utilise, où, à quelles fins et qui en est responsable. La responsabilité ne peut pas être déléguée au fournisseur de la technologie : c’est à l’organisation de garantir une utilisation correcte et éthique des systèmes, à travers une gouvernance interne appropriée. La cartographie des systèmes et la définition des rôles internes représentent une exigence essentielle au respect du principe d’accountability.
Con la sentenza n. 4087 del 4 novembre 2025, la Corte di Cassazione - Sezione Lavoro - ha confermato la legittimità del licenziamento per giusta causa irrogato ad un lavoratore che aveva sottratto prodotti aziendali, soffermandosi sul…
Con la sentenza n. 28367 del 27 ottobre 2025, la Corte di Cassazione - Sezione Lavoro - ha confermato la legittimità del licenziamento per giusta causa intimato a…
Par l’ordonnance n° 27253 du 12 octobre 2025, la Cour de cassation italienne (Section du travail) a réaffirmé que la rémunération due aux travailleurs pendant la période de…
Il Senato della Repubblica, nella seduta di mercoledì 17 settembre 2025, ha approvato definitivamente il disegno di legge recante “disposizioni e deleghe al Governo in materia di intelligenza…
Par l’ordonnance n° 24922 du 9 septembre 2025, la Cour de cassation italienne s’est de nouveau prononcée sur la délicate question de l’abus du congé parental, prévu par…
Les contrôles doivent toujours s’effectuer dans le plein respect de la vie privée et de la dignité du salarié. Le recours aux agences d’investigation constitue un outil potentiellement…