L’intelligence artificielle en entreprise comporte des risques liés à la sécurité des données et à la protection du savoir-faire.
Les organisations ont besoin de politiques adéquates pour garantir une utilisation éthique et conforme à la réglementation.

Lorsqu’un salarié a recours à des systèmes d’intelligence artificielle – souvent générative – pour accomplir ses tâches professionnelles, il peut, de manière plus ou moins consciente, partager avec des tiers externes, et donc non autorisés, le savoir-faire de l’entreprise ainsi que des informations personnelles.

Intelligence artificielle en entreprise : définition et diffusion

Il convient tout d’abord de préciser que l’intelligence artificielle générative est un type de technologie qui apprend à partir de contenus existants afin d’en créer de nouveaux, en fonction des demandes spécifiques de son interlocuteur (humain).

Ces dernières années, l’I.A. générative a fait son entrée dans la vie quotidienne, et le monde du travail n’y a pas échappé. Il est en effet de plus en plus fréquent que les travailleurs utilisent ces technologies pour accomplir leurs tâches et, ce faisant, introduisent dans les systèmes des informations d’entreprise – parfois sensibles –, du savoir-faire ou encore des données personnelles, y compris particulières.
Souvent, les entreprises ne sont pas informées ou conscientes de ces pratiques et risquent ainsi d’être exposées à des menaces importantes – y compris en matière de cybersécurité – sans même s’en rendre compte.

Les risques de l’intelligence artificielle en entreprise, expliqués par l’I.A.

Dans le but de répondre à cette question, nous avons choisi d’interroger l’une des parties directement concernées.
Voici, sous forme de points, les principaux red flags liés à l’adoption de l’I.A. générative qu’elle-même nous a signalés.

Selon l’I.A., autoriser les employés à utiliser ces technologies pourrait entraîner pour une entreprise :

  • des problématiques liées à la gouvernance et à la gestion de la sécurité informatique ;
  • des violations des règles en matière de protection des données personnelles ;
  • la commission de comportements discriminatoires découlant des préjugés (bias) présents dans les données avec lesquelles elle a été entraînée ;
  • une dépendance excessive des travailleurs à l’intelligence artificielle qui, dans les cas les plus graves, pourrait entraîner un affaiblissement des capacités décisionnelles et critiques propres à l’être humain.

À ces éléments, il faut évidemment ajouter le risque de divulgation du savoir-faire de l’entreprise et donc de diffusion d’informations sensibles pour celle-ci.

Protéger l’entreprise à l’ère de l’intelligence artificielle

Ces brèves considérations amènent naturellement à se demander comment une entreprise peut se protéger contre tous les risques liés à un usage généralisé, diffus et non contrôlé de l’I.A. générative par ses employés.

Dans un contexte qui peut susciter craintes et scepticisme, la solution ne saurait consister à interdire l’utilisation de ces technologies qui, au contraire, constituent de plus en plus un atout pour rester compétitif et contribuent tant au développement de l’entreprise qu’à la croissance de ses ressources humaines.

Il devient donc essentiel d’apprendre à en faire un usage éthique et conscient.

Lignes directrices pour l’intelligence artificielle en entreprise

Il est primordial de ne pas autoriser les employés à recourir à l’I.A. sans en réglementer l’usage en interne, et de leur fournir des formations spécifiques, des lignes directrices et des bonnes pratiques.
Investir dans la formation, dans des systèmes de sécurité solides et dans des politiques de gestion du changement est une nécessité essentielle pour garantir que l’adoption de l’I.A. apporte de réels bénéfices sans compromettre la sécurité, l’intégrité ou la culture de l’entreprise.

Poursuivez la lecture de la version intégrale publiée sur Agenda Digitale.

Les données sont devenues le nouveau pétrole et leur rôle est susceptible de s’accroître encore à mesure que le numérique devient plus central dans nos vies. Avec des conséquences non négligeables sur la vie privée, comme le souligne Vittorio De Luca, fondateur du cabinet d’avocats De Luca & Partners. «  Le législateur européen est intervenu de manière significative dans ce domaine au cours des dernières années, mais au niveau des entreprises, le tableau reste diversifié entre les réalités qui ont mis en œuvre et structuré de véritables modèles internes de conformité et qui, au fil du temps, ont réussi à changer la culture et la sensibilité de tous ceux qui composent l’organisation, et les autres qui continuent à considérer la protection des données comme un coût commercial plutôt que comme un investissement », souligne-t-il.

Les règlementations en matière de protection des données et de droit du travail sont désormais étroitement liées, et pas seulement en ce qui concerne le traitement des données relatives aux ressources humaines.« De plus en plus souvent, nous aidons les entreprises à traiter correctement les demandes d’accès aux documents et aux dossiers personnels qui sont – légitimement – présentées par des travailleurs dans le cadre de procédures disciplinaires engagées à leur encontre », souligne-t-il également. Avec les risques liés à une mauvaise gestion de ces demandes « Outre les conséquences sur le plan du droit du travail, une personne concernée (dans ce cas, l’employé) a toujours la possibilité d’émettre un signalement auprès de l’autorité chargée de la protection des données », explique M. De Luca.

Lire la version intégrale publiée dans La Repubblica.

Autres informations connexes :

Dans un contexte où la technologie progresse rapidement, l’intelligence artificielle (également connue sous l’acronyme anglais A.I.) révolutionne le paysage du travail mondial, agissant comme le moteur de profonds changements et ouvrant des horizons jusqu’alors totalement inconnus.  

Le monde du droit est donc appelé, une fois de plus, à réglementer de nouveaux scénarios qui ne répondent pas aux paradigmes juridiques traditionnels connus à ce jour. La première étape à cet égard vient de l’Union européenne. En effet, sur le site internet du Parlement européen, on peut lire que « dans le cadre de sa stratégie numérique, l’UE souhaite réglementer l’intelligence artificielle (IA) afin de garantir de meilleures conditions de développement et d’’utilisation de cette technologie innovante ». Ainsi, le 9 décembre 2023, la Commission, le Conseil et le Parlement sont parvenus à un accord politique sur le contenu de ce que l’on appelle « Loi sur l’IA », proposé par la Commission en 2021, que les techniciens sont aujourd’hui en train de traduire par une proposition de texte définitive. 

La priorité du législateur européen est de s’assurer que les systèmes d’IA utilisés sont sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement.  

Il existe donc une prise de conscience, même au niveau réglementaire, du fait que l’IA (i) est le moteur d’un changement qui soulève des questions éthiques, sociales et juridiques concernant son utilisation et les conséquences connexes et (ii) représente l’un des défis les plus importants et les plus complexes auxquels les entreprises sont confrontées.  

C’est précisément sur ce dernier point qu’il semble donc approprié que les organisations se préparent à faire face à la profonde transformation qui se produit, plus ou moins silencieusement, dans le monde du travail. 

Automatisation des activités répétitives, fiabilité de la mesure des performances et contrôle des besoins en personnel : l’IA est-elle un talent dont on doit chanter les louanges ? 

L’utilisation d’une technologie qui collecte des informations de manière autonome, les traite, en tire des conclusions ou prend des décisions, contribue à la rapidité avec laquelle les performances peuvent être réalisées ; améliore l’efficacité opérationnelle et réduit les erreurs dans les activités de routine ; a un impact sur les besoins en personnel d’une organisation commerciale ou, encore, a une incidence sur la mesure des performances d’une ressource humaine. 

Si, d’une part, cela représente une excellente opportunité de rendre les processus d’entreprise plus rapides, plus fiables et moins chers, d’autre part, plusieurs problèmes se profilent. Parmi de tels problèmes, pour ce qui nous concerne ici, nous souhaitons souligner (i) les biais et (ii) le risque d’un contrôle intensif de la part de l’employeur.  

La technologie, bien qu’artificiellement intelligente, est programmée par des êtres humains et, en tant que telle, peut donc être affectée par les préjugés de ses programmeurs, reflétant et amplifiant les erreurs présentes dans les informations traitées.  

Telle que nous la connaissons aujourd’hui, en effet, l’IA générative est programmée pour apprendre et (s’auto-)entraîner afin de s’améliorer au fil du temps, et cela également sur la base des informations qui lui sont transmises. Le risque de réplication des biais est donc très élevé. 

En outre, l’IA fournit et traite une quantité inimaginable de données et est également capable (directement ou indirectement) de permettre un contrôle à distance intensif des employés.  

Cela dit, dans le système juridique italien, le contrôle à distance est réglementé en détail et autorisé uniquement selon des modalités et en présence de conditions strictes prévues par la loi, y compris le plein respect des dispositions relatives à la protection des données. Cette question joue un rôle fondamental évident en matière d’IA. 

Continuez à lire la version complète publiée sur AIDP.