0% ont trouvé ce document utile (0 vote)
44 vues42 pages

IA et RSE : Enjeux et définitions clés

Le document traite de l'intelligence artificielle (IA) et de la responsabilité sociétale des entreprises (RSE), en soulignant les enjeux éthiques, sociaux et politiques liés à son développement. Il définit l'IA, son évolution historique, et les régulations nécessaires pour garantir une utilisation éthique et responsable, tout en mettant en avant l'importance des données et de la transparence. Enfin, il évoque les principes internationaux et européens qui encadrent l'IA pour assurer son bénéfice à l'humanité.

Transféré par

arnaud.roland84
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
44 vues42 pages

IA et RSE : Enjeux et définitions clés

Le document traite de l'intelligence artificielle (IA) et de la responsabilité sociétale des entreprises (RSE), en soulignant les enjeux éthiques, sociaux et politiques liés à son développement. Il définit l'IA, son évolution historique, et les régulations nécessaires pour garantir une utilisation éthique et responsable, tout en mettant en avant l'importance des données et de la transparence. Enfin, il évoque les principes internationaux et européens qui encadrent l'IA pour assurer son bénéfice à l'humanité.

Transféré par

arnaud.roland84
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

Intelligence artificielle, Entreprise responsable et éthique numérique :

Chapitre 1. Définition de l’IA et la RSE :

I. Les enjeux de l’IA :

Les programmes d'intelligence artificielle actuels ne suivent pas la logique ou l'illogique de


l'intelligence humaine. L'homme accède à la connaissance du monde par le biais d'un
assemblage de perceptions diverses mêlant l'observation, l'impression, l'intuition, l'expérience.

De plus, l'action de penser chez l'homme ne se réduit pas à une logique binaire de type
booléenne combinant des zéros et des uns, quelle que soit la sophistication des programmes
informatiques. Ils sont tous fondés sur ce principe. Cependant, il y a des évolutions qui sont
destinées à durer et à transformer profondément notre monde. L'intelligence artificielle en est
une.

On ne peut plus penser l'IA comme une simple annexe à nos vies. Elle en fait déjà assurément
partie. C'est pourquoi elle questionne sur les possibilités qu'elle offre, les changements qu'elle
véhicule et les enjeux sociaux, politiques et éthiques qui en émergent, ce qui sera l'objet de
notre cours. Lié à la montée en puissance des ordinateurs et de leur puissance de calcul, l'IA
constitue l'une des technologies stratégiques du vingt et unième siècle, apportant des
évolutions positives à l'économie et favorisant l'innovation, la productivité, la compétitivité et
le bien-être.

Les investissements dans le domaine de l'IA atteignent des sommes colossales à travers le
monde, entraînant les États dans une course technologique qui révèle l'importance
géostratégique prise par l'IA. Les pays leaders pèseront dans la captation de la valeur alors
que les autres devront veiller à maintenir leur indépendance et leur souveraineté.

II. Définition de l’IA

Selon l'un de ses créateurs, Marvin Lee Minsky, l'IA est une science qui consiste à faire
effectuer aux machines ce que l'homme ferait moyennant une certaine intelligence. Il l'a
définie comme la construction de programmes informatiques qui s'adonnent à des tâches qui

1
sont pour l'instant accomplies de façon plus satisfaisante par des êtres humains, car elles
demandent des processus mentaux de haut niveau. Telle que l'apprentissage perceptuel,
l'organisation de la mémoire et le raisonnement critique, notant que la norme ISO 2382-28
définit de son côté l’IA comme la capacité d'une unité fonctionnelle à exécuter des fonctions
généralement associées à l'intelligence humaine, telles que le raisonnement et l'apprentissage.
Autrement dit, l'IA fait apparaître 4 catégories, les systèmes qui pensent comme les humains,
les systèmes qui agissent comme les humains, les systèmes qui pensent de manière
rationnelle, les systèmes qui agissent de manière rationnelle. Le développement de l'IA a été
rendu possible en grande partie grâce au cloud, au Big data et à la puissance de calcul qui est
des ordinateurs. Elle n'aurait jamais vu le jour sans les disciplines qui lui sont souvent
associées et qui en ont permis l'émergence: la philosophie, les mathématiques, la psychologie,
l'informatique et la linguistique.

Plus récemment, le règlement européen du 13 juin 2024 établissant des règles harmonisées
concernant l'intelligence artificielle, dit règlement sur l'intelligence artificielle définie à
l'article 3, paragraphe un le système d’IA « comme un système automatisé qui est conçu pour
fonctionner à différents niveaux d'autonomie et peut faire preuve d'une capacité d'adaptation
après son déploiement et qui pour des objectifs explicites où implicites déduits à partir des
entrées qu'il reçoit la manière de générer des sorties telles que des prédictions du contenu des
recommandations ou des décisions qui peuvent influencer les environnements physiques ou
virtuelles ».

Celui-ci fait une distinction modèle d’IA à usage général, qui est « entraîné à l'aide d'un grand
nombre de données utilisant l'auto supervision à grande échelle, qui présente une généralité
significative et est capable d'exécuter de manière compétente un large éventail de tâches
distinctes, indépendamment de la manière dont le modèle est mis sur le marché et qui peut
être intégré dans une variété de systèmes ou d'applications en aval, à l'exception des modèles
dia utilisés pour des activités de recherche de développement ou de prototypage avant leur
mise sur le marché ». Les principales caractéristiques fonctionnelles d'un modèle d'usage
général sont sa capacité d'exécuter à un large éventail de tâches distinctes. Ces modèles sont
également entraînés avec de grandes quantités de données au moyen de diverses méthodes
comme l'apprentissage auto supervisé, non supervisé ou par renforcement. Le principal
exemple de modèles d’IA à usage général est les grands modèles d’IA génératifs comme les
grands modèles de langage tels que ceux proposés par les sociétés Mistral AI ou open AI, ils
2
permettent que la production flexible de contenu telle que du texte, de l'audio, des images ou
de la vidéo, qui peuvent aisément s'adapter à un large éventail de tâches distinctes. Le
règlement sur l'intelligence artificielle prévoit que lorsqu'un modèle dit à usage général est
intégré dans un système dia ou en fait partie, ce système devrait être considéré comme un
modèle dit à usage général lorsqu'en raison de cette intégration. Ce système a la capacité de
répondre à divers usages.

Il convient tout d'abord de rappeler que l'intelligence artificielle porte en elle de nombreuses
perspectives enthousiasmantes, notamment en matière de reconnaissance d'images, par
exemple dans le domaine médical, d'aide à la décision, de reconnaissance biométrique ou
encore de recherche documentaire. Notre conception de l'intelligence artificielle est empreinte
de nombreuses représentations fictionnelles d'intelligence fantasmée, souvent représentées à
tort sous des traits: Terminator I, robot, Big Brother, et cetera. Ces représentations influencent
nettement notre représentation de l'interaction homme ia. Or, ces représentations ne doivent
pas nous amener à minimiser l'existence de risques réels, notamment liés aux données, à la vie
privée des individus, à l'éthique ou au risque de reproduction des biais humains par les
algorithmes.

III. Histoire de l’IA

Schématiquement, il y a 4 grandes périodes de l’IA. La première, 1960-2010 est constituée


par des programmes traditionnels fonctionnant via des algorithmes programmés
manuellement. La 2e, commencée vers 2012 et dans laquelle nous évoluons encore,
correspond à l'ère de l'apprentissage profond Deep learning, lequel est plus affaire d'auto
éducation que de programmation, d’où le pouvoir conféré aux GAFAM détenteurs
d'immenses bases de données. La performance de l'IA dans l'analyse des radiographies
dépasse d'ores et déjà la capacité d'analyse humaine professionnelle d'un radiologue. La 3e
période devrait débuter à partir de 2030 et coïnciderait avec une ia capable notamment de
transversalité. Avec cette 3e génération, ce sont les médecins généralistes qui seront à leur
tour concurrencés. Avec la 4e période, nous quittons une ia faible pour pénétrer dans une ia
forte, c'est-à-dire un système capable de comportement réellement intelligent, de conscience
de soi, d'émotions et de compréhension de ses raisonnements. En même temps, l'IA ne pourra
donner l'intégralité de ses possibilités que si l'homme accepte qu'elle pense autrement que lui.

3
Comme toutes les innovations technologiques, l’IA peut prendre des orientations très
diverses. C'est pourquoi il est primordial que les principes éthiques soient posés en amont des
travaux scientifiques afin de les guider. En effet, notre civilisation a pris un tournant, à nous
de l'accompagner et de le vivre au mieux afin de gérer d'éventuels conflits, oppositions,
synergie, complémentarité, mais aussi coévolution. Maîtriser l'IA est une formidable
opportunité, mais encore faut-il que techniquement, les systèmes d'IA restent sous contrôle de
supervision humaine, respectent les grandes règles sur les données personnelles, s'appuie sur
des algorithmes sécurisés, soit transparents, traçables, accessibles au plus grand nombre et
non discriminant. La dimension éthique de l'IA n'est pas un accessoire de luxe ou une option.
La confiance dans l'IA est essentielle car les consommateurs ne feront confiance à des
systèmes d'ia qu'avec la certitude que leurs droits seront respectés et protégés. Remarquons
que la valeur créée par l'IA provient des données nécessaires à l'apprentissage, bien plus que
de l'algorithme dont les développements se font de manière ouverte en open source. C'est
pourquoi les entreprises doivent prendre conscience de leur importance stratégique des
données qu'elles détiennent et organiser leur gestion de bout en bout.
Rappelons que l'éthique n'est pas la loi, ni la morale le droit. Le jour où nous basculons dans
une ia forte, un certain nombre de questions nouvelles se poseront, dont celle de savoir si
celle-ci ne souhaitera pas nous éliminer. Faut-il craindre une ère malveillante ? Peu de
chercheurs le pensent, cela reste du domaine de la science-fiction. Cependant, des ia distinctes
et spécifiques vont se développer et coexister et probable alors qu'elles communiqueront entre
elles et interagiront à court terme. Le risque majeur demeure dans cette connexion autonome
et non contrôlable de diverses IA entre elles. Certes, ne dramatisons pas, mais il est clair que
nous ne pouvons pas dissimuler cette possibilité.

IA et porteurs d'enjeux, le droit et son corollaire, la responsabilité, relèvent du champ de


l'action humaine auquel l'intelligence artificielle est par nature exclue. Cela est certain lorsque
le droit et la responsabilité sont causés par le contrat. En effet, seul un humain a la capacité de
contracter, de donner un consentement libre et éclairé. De même, la responsabilité civile du
fait d'une personne est, selon la loi, le prolongement de l'action humaine. Les choses, les
animaux, les propriétés et dans une moindre mesure les enfants et les préposés nous traversent
le champ du droit et de la responsabilité, car l'humain est celui qui fixe les règles, c'est
l'individu lui seul qui est responsable et doit répondre de ses décisions. Il semble en effet
essentiel d’appréhender l'intelligence artificielle en ce qu'elle a de singulier: interactivité,

4
apprentissage, polyvalence et autonomie. L'enjeu est de préserver le caractère universel de la
loi tout en favorisant l'éclosion d'une ia dans un espace juridiquement sécurisé.

IV. Les sources de régulation de l’IA :

Du point de vue des sources, il en existe une multitude.

1. Sources internationales

Il y a d'abord les 23 principes d'asilomar, fait par le future of Life Institute, association
située près de Boston, qui a pour qui s'est fixée pour mission de catalyser et d’appuyer la
recherche et les initiatives visant à sauvegarder la vie, à développer des visions optimistes du
futur. Ces principes sont les suivants: objectifs de recherche (créer une ia bénéfique pour
l'homme) investissement (le financement de l'IA doit prendre en compte l'éthique), relation
entre les scientifiques et les juridictions (dialogue entre les chercheurs et décideurs de
l'éthique), culture ou esprit de recherche (coopération, confiance et transparence dans la
recherche sur l’IA) prévention, sécurité, transparence, en cas de dommages (pour remonter à
la source du dommage) Transparence judiciaire (pour l'ia dans le domaine judiciaire),
responsabilité (des concepteurs et constructeurs en cas de dommages), concordance de valeur
(conformité de l'IA aux valeurs humaines), données personnelles et liberté, vie privée,
bénéfices partagés, prospérité partagée contre l'humain, anti renversement, courses aux IA
d'armement, alertes sur les capacités, important ces risques et auto développement, et bien
commun.

Ensuite, il y a la déclaration de Montréal pour une intelligence artificielle responsable. Cette


déclaration a été rédigée sous les auspices de l'université de Montréal, à la suite du forum sur
le développement socialement responsable de l'IA, tenu en novembre 2017. Voici ces
principes: principes de bien-être, principe d'autonomie, principe de protection de l'intimité de
la vie privée, principe de solidarité, principe de participation démocratique, principe d'équité,
principe d'inclusion de la diversité, principe de prudence, principe de responsabilité, principe
de développement durable.

Les principes dit IEEE: le principe de sécurité de bienfaisance, le principe d'autonomie et de


contrôle humain, l'encadrement des armes autonomes.
5
Principes proposés par le partenariat sur l’IA, 2018 par l'organisation rassemblant de
multiples parties prenantes, notamment IBM, Google, Microsoft, Facebook, Amazon et
Apple. Elle comporte également des membres qui ne sont pas issus du secteur marchand.
Parmi les principes qu'elles proposent, on retrouve le principe de bienfaisance, le principe de
non malfaisance, le principe d’explicabilité.

Les Sept grands principes, publiés en juin 2018 par Google. Ces principes préconisent que
l'intelligence artificielle doivent bénéficier à la société, éviter de créer et de renforcer des biais
injuste, être conçu et testé pour la sécurité, pouvoir rendre des comptes, incorporer des
principes de respect de la vie privée, se maintenir au haut standard de l'excellence
scientifique, être mis à disposition des autres pour des usages en accord avec ses principes.

Les recommandations de l’UNESCO sur l’éthique de l’IA, adopté le 23 novembre 2021. Cette
recommandation est destinée à être un instrument normatif développé selon une approche
globale fondée sur le droit international et centrée sur la dignité humaine et les droits de
l'homme, ainsi que sur l'égalité des genres, la justice sociale et économique et le
développement, le bien-être physique et mental, la diversité, l'interdépendance, l'inclusion et
la protection de l'environnement et des écosystèmes et est destiné à donner une orientation
responsable aux technologies de l'IA.

2. Sources européennes :

Il y a les lignes directrices pour une intelligence artificielle digne de confiance ont été
élaborées par un groupe d'experts missionnés par la commission européenne européenne.
Celles-ci comprend 7 points considérés comme essentiels, facteurs humains et contrôle
humain, préserver l'autonomie décisionnelle de la personne, robustesse et sécurité, fiabilité
des algorithmes et de tout système d’IA, respect de la vie privée et gouvernance des données,
contrôle par la personne du processus de recueil et d'usage des données, transparence,
diversité, non-discrimination et équité, bien-être sociétal et environnemental, évaluation d'une
technologie d’IA. Au regard du bien commun et des enjeux environnementaux, responsabilité
et responsabilité des personnes humaines en cas de dommages causés par le système d'IA.

6
Cadres pour les aspects éthiques de l'intelligence artificielle, de la robotique et des
technologies connexes du 20 octobre 2020. Cette résolution du Parlement européen met
l'accent sur la dignité humaine, l'autonomie et l'autodétermination des individus, l'équité,
l'inclusion et la transparence, l'élimination des biais des discriminations, y compris en ce qui
concerne les groupes minoritaires, le respect des principes de limitation des externalités
négatives des technologies utilisées et d'exploitabilité des technologies ou encore la garantie
de l'emploi des technologies au service de l'utilisateur sans le remplacer ou décider à sa place.

Enfin, il y a une série de résolution sectorielle, avis d'initiative sur les retombées de
l'intelligence artificielle pour le marché unique numérique, la production, la consommation,
l'emploi et la société; principe éthique issu de la déclaration sur l'intelligence artificielle, la
robotique et les systèmes autonomes; la déclaration sur l'éthique et la protection des données
dans le secteur de l'intelligence artificielle.

3. Les sources nationales :

Rapport sur les enjeux éthiques des algorithmes et de l'intelligence artificielle du 15 décembre
2017. Rendue par la commission nationale de l'informatique des libertés, il propose deux
principe: la loyauté (que l'algorithme dit ce qu'il fait et fasse ce qu'il dit) et la vigilance. A
cette fin, elle formule plusieurs recommandations visant notamment à promouvoir des outils
numériques favorisant l'autonomie des utilisateurs et à renforcer la vigilance éthique dans les
entreprises. Il est aussi proposé de créer une plateforme nationale d'audit des algorithmes pour
vérifier leur conformité aux principes de loyauté et à la loi.
Rapport pour une intelligence artificielle maîtrisée, utile et démystifiée. Rédigée par l'Office
parlementaire d'évaluation des choix scientifiques et technologiques, saisi par la commission
des affaires économiques du Sénat et adoptée le 29 mars 2007. Recommandant de mettre
l'intelligence artificielle au service de l'homme et des valeurs humanistes, il préconise de
favoriser des algorithmes et des robots sûrs, transparents et justes, et prévoir une charte de
l'intelligence artificielle et de la robotique.

Chapitre 2 : La notion de RSE

Originellement, l'entreprise n'était pas perçue comme un acteur devant intégrer des
préoccupations autres que financières au sein de son activité. Effectivement, l'économiste
7
américain Milton Friedman définissait défendait la théorie des shareholders. Celui-ci
considérait que l'entreprise devait être centrée sur l'actionnaire. L'entreprise devait donc se
concentrer sur la sphère économique. Le droit des sociétés, dont les paradigmes ont été
principalement établis au dix-neuvième siècle, servait cette ambition. Depuis, les économistes
ont repensé les fonctions de l'entreprise. À titre d'exemple, Edward Freeman est partisan d'une
approche centrée sur les stalkeholders. Le dirigeant de l'entreprise ne doit pas uniquement
servir les intérêts des actionnaires, mais également tenir compte de l'ensemble des parties
prenantes, autrement dit les personnes concernées par les décisions de l'entreprise. La mise en
œuvre de la RSE remonte à l'initiative de quelques industriels dans les années 1930 qui, par
volonté éthique, ont souhaité ajouter à leurs objectifs initiaux de profit le bien de la société,
l'équité et le bonheur de leurs employés. Ainsi, cette philosophie était définie comme une
nouvelle forme de gestion des entreprises qui intégrait les intérêts de la société dans un
dialogue entre les différents acteurs du monde social. Plus largement, ce mouvement aspirait à
une vision de l'entreprise servant l'intérêt commun. Cette pensée a été approfondie par
Howard Bowen en 1953. Celui-ci est aujourd'hui considéré comme le livre fondateur de la
RSE, traduit de l'acronyme anglais CSR. Dans cette même logique, John Elkington préconise
dans son ouvrage la prise en compte des considérations économiques, sociales,
environnementales au sein des activités de l'entreprise. Ces éléments ont constitué les
premiers piliers de la RSE.

La RSE été définie par le Livre vert de la Commission européenne comme l'intégration
volontaire par les entreprises des préoccupations sociales et environnementales.

Du point de vue des sources, le concept de RSE propose un socle commun ayant pour
vocation d'inspirer, de guider les entreprises souhaitant s'engager dans une démarche RSE. En
pratique, différents textes internationaux ont tenté de structurer le contenu de la RSE: la
déclaration tripartite de l'OIT, la norme ISO 26000, les principes directeurs des Nations unies
relatifs aux entreprises et aux droits de l'homme, les principes directeurs de l'OCDE, le pacte
des Nations unies et les objectifs de développement durable. Ces principes internationaux ne
sont pas contraignants, limitant ainsi leur influence sur l'activité des entreprises. Ce principe
demeure une première étape, un outil de réflexion n'excluant pas une approche locale plus
contraignante.

8
Aujourd'hui, la RSE est un phénomène complexe. Celle-ci n'est plus circonscrite à de la soft
law. En témoigne la définition de la RSE adoptée par l'Union européenne en 2011. Celle-ci
considère aujourd'hui la RSE comme la responsabilité des entreprises vis-à-vis des effets
qu'elles exercent sur la société. Actuellement, les principes de soft Law tend à se durcir pour
évoluer vers plus de hard Law. La RSE n'est plus envisagée comme une initiative strictement
volontaire. Celle-ci est le fruit d'interactions entre les normes non contraignantes et normes
contraignantes. Elle est gouvernée par des mécanismes de co régulation englobant des
situations dans lesquelles différentes normes ou d'autres mécanismes publics ou privés
s'agencent se complètent. En témoigne par exemple, les principes de l'article 1833 du code
civil adopté par la loi pacte, où toute société doit être gérée dans son intérêt social, en prenant
en compte les enjeux sociaux et environnementaux de son activité. Dans cette même logique,
il est important de recenser l'influence de l'obligation de reporting qui ambitionne d'informer
les parties prenantes sur la manière dont les entreprises prennent en compte les conséquences
sociales et environnementales de leurs activités. L'obligation de reporting permet de rendre
public les décisions d'entreprise relatives à sa politique de durabilité. Cette obligation de
divulguer des informations est un facteur permettant d'inciter les entreprises à faire évoluer
leur activité vers des pratiques plus durables. Ces informations sont de nature à influencer les
investisseurs. Ces derniers peuvent notamment préférer investir vers des entreprises plus
durables, plus respectueuses de l'environnement. En pratique, cette obligation de reporting se
matérialise par un ensemble détaillé de données au sein du rapport de gestion. Nous pouvons
notamment parler de l’influence de la directive 2022/2464 sur la publication des informations
en matière de durabilité des entreprises. Concernant les mesures de hard Law, on peut aussi
parler du devoir de vigilance visant à identifier et prévenir les risques de dommages sociaux et
environnementaux. Ce devoir de vigilance repose pleinement sur la théorie du risque : si
l’entreprise est en mesure d’appréhender le risque à titre préventif, celle-ci a donc le pouvoir
d’y remédier. Ce devoir de vigilance a fait l’objet d’un premier texte en droit français avec
l’article L. 225-102-4 du Code de commerce, puis l’objet d’une directive 2024/1760 du 13
juin 2024.

L’objet de ce cours est donc finalement de voir l’impact de l’IA sur l’activité des entreprises
et ses potentielles interactions avec la RSE et le monde du travail.

9
V. Les quatres niveaux de risques définis par l’IA :

Le risque minimal n'est pas réglementé en matière d'ia (par exemple les jeux vidéos et les
filtres antispam), mais cela pourrait évoluer avec l'IA Générative.

Il y a ensuite les systèmes d’IA à risque limités, par exemple les chats bots et les Deep fake.

Les fournisseurs de systèmes d’IA à risque limité, ont des obligations de transparence
spécifique pour veiller à ce que les utilisateurs soient informés à ce que le contenu généré par
l'IA soit identifiable. En outre, les textes générés par l’IA publiés dans le but d'informer le
public sur des questions d'intérêt public doivent être étiquetés comme étant générés
artificiellement. Enfin, le règlement sur intelligence artificielle autorise la libre utilisation de
l'IA à risque minimal.

Ensuite, il y a les systèmes d’IA à haut risque sont soumis à un régime de conformité,
notamment les infrastructures critiques, (par exemple les transports), l'éducation (par exemple
l'attribution d'un parcours universitaire), les composantes de sécurité des produits. (Par
exemple, il y a la chirurgie assistée par robot) l'emploi (par exemple un logiciel de tri des CV
pour les procédures de recrutement), les services publics et privés essentiels, (par exemple une
notation de crédit pour obtenir un prêt), et les services répressifs susceptibles d'interférer avec
les droits fondamentaux des personnes (par exemple l'évaluation de la fiabilité des éléments
de preuve).

Enfin, les IA inacceptables sont interdites, par exemple les systèmes de notation sociale, IA
manipulatrice, les systèmes de catégorisation biométrique, l'identification biométrique à
distance.

Concernant les IA à usage général, sur l'IA prévoit plusieurs niveaux d'obligation avec des
mesures de transparence et de documentation minimale selon l'article 53: une évaluation
approfondie, la mise en place de mesures d'atténuation des risques systémiques que certains
de ces modèles pourraient comporter, (par exemple, une utilisation à mauvais escient pour
lancer des cyberattaques ou encore la propagation de biais préjudiciables sur l'appartenance
ethnique, voir le considérant 110 du règlement IA).

10
Chapitre 3 : L’impact de l’IA dans le monde du travail

I. IA et emploi

Plus que d'autres matières dans de l'ordre juridique, le droit du travail entretient de
longue date avec la technique et ses progrès des rapports étroits et complexes. L’histoire du
droit du travail a ainsi accompagné, celle des révolutions industrielles et des machines à
vapeur, électrique ou informatique. Les évolutions technologiques ont bouleversé les
conditions de travail des hommes Les machines, en réduisant le besoin de force musculaire,
ont rendu possible l'exploitation du travail des femmes et des enfants. Le développement du
droit du travail a servi dans tous les pays industriels, à borner l’asservissement de l’être
humain a ses nouveaux outils.

Alors, la perspective d'une IA forte suscite des peurs et des angoisses. Qu'il s'agisse de
scanner des CV ou d'augmenter un salaire lié à peu par sa puissance d'analyse constitue un
véritable outil d'aide à la gestion des ressources humaines. Or, c'est justement lorsqu'elle
assiste les entreprises dans la prise de décision que l'IA crée les risques les plus élevés. En
effet, en excluant un candidat d'un processus de recrutement ou en déterminant le montant
d'une prime. L'IA prend des décisions susceptibles d'avoir des conséquences juridiques
importantes tant sur les individus que sur les entreprises utilisatrices.

L'IA n'est évidemment pas restée hors des murs de l'entreprise (et d'une certaine
manière, l'existence d'un code du travail numérique par l'usage que peuvent en faire différents
acteurs de l'entreprise l’inotroduit). Elle est même un agent de transformation accélérée. Il en
est attendu des avantages concurrentiels pour les entreprises et l'économie européenne, même
si beaucoup d'entre elles restent encore à l'écart. Dirigeants et salariés semblent porter sur le
phénomène des regards différents. Alors que plus de 70% des managers et des dirigeants
considèrent l’IA positivement pour eux-mêmes et leur travail et que plus de 75% considèrent
qu'il s'agit d'une bonne chose pour leur entreprise, ces pourcentages ne sont respectivement
que de 41 et de 46% pour les salariés, dont 1/3 ne se prononcent pas sur les ces questions.

L'IA va intervenir à 3 niveaux d'entreprise, l'interaction entre l'homme et la machine,


l'augmentation des capacités de l'humain avec la mise à disposition d'assistants digitaux, le
11
déploiement de processus intelligent doué d’actionnabilité. Pour d'autres, l’usage de l’IA
particulièrement l'usage d'outils Big data et X, répond généralement à plusieurs objectifs
comme l'amélioration de l'expérience client, l'optimisation des processus et de la performance
opérationnelle, le renforcement ou la diversification du business model. Ce sont des pratiques
qui participent de l'apparition d'un modèle de connected Factory, intelligente et connectée,
caractérisée par les l'émergence d’un data driver manufacturing, un environnement industriel
au sein duquel l'administration du personnel de l'appareillage se trouve de plus en plus
soumise à des équations algorithmiques visant la plus haute optimisation et flexibilité,
agencement appelée à terme à adosser toute action humaine à un système d'exploitation mu
par l'habileté hyperactive et inflexible de l'intelligence artificielle distribuant toute opération
au cas par cas et en temps réel suivant les circonstances présentes et anticipées.

De ce mouvement d'automatisation de l'entreprise qui ne ferait que poursuivre le


mouvement d'automatisation et de rationalisation de la production entamée depuis la
révolution industrielle, il ne faut pas être surpris. L'entreprise est un espace social ultra normé,
lancé dans une quête permanente d'efficacité maximale et d'absence de défaillance. La science
de la force de travail n'est pas une préoccupation récente. L'ouverture infinie du réel suppose
l'incertitude persistante. S'il existe un domaine qui tient ce champ des possibles et anxiétés
induits comme un vecteur d'insécurité et de risque permanent, c'est celui des activités
professionnelles, quelles qu'elles soient. C'est la raison pour laquelle, plus que partout ailleurs,
le monde professionnel est régi par des lois, des règles, des normes, des certifications. Le
monde du travail, surtout qu'ils disposent de moyens financiers, n'a jamais cessé de mettre en
œuvre des procédés techniques visant à sécuriser ses décisions, à faire en sorte qu'elles soient.
Et mieux garantis. Or l'IA, en effaçant le facteur humain et l'incertitude des imperfections que
son intervention charrie, semble promettre l'un et l'autre.

Le travail humain qui s'effectue dans l'entreprise à son profit est également obligé de
changements à venir. L'antienne est reconnue, la moitié des emplois sera ainsi 7 d'être
profondément transformés d'ici 2030. L’IA annoncerait la fin des tâches ingrates, répétitives,
pénibles, au compte professionnel de prévention serait déjà presque une pièce de musée. Mais
l'IA serait également arme de destruction massive d'emplois. Nous devons sans doute
reconsidérer nos préjugés. Les avocats, les médecins, les enseignants et travailleurs
intellectuels seront bientôt, eux aussi, partiellement remplacés par des algorithmes. Et le
nombre dont nous aurons besoin pour effectuer les mêmes tâches diminuera. L'un des enjeux
12
économiques majeurs liés à l'intelligence artificielle tient à ses effets potentiels sur l'emploi.
Par exemple, 15% des emplois français sont susceptibles de faire l'objet d'une automatisation.
En novembre 2021 était lancé un programme pluriannuel de 5 ans, laborIA au sein de l'INRA,
financé par le ministère du Travail et en partie à la participation de la France au partenariat
mondial pour l'IA, qui vise à explorer les conséquences potentielles de l'IA sur l'avenir du
travail en raison de l'automatisation d'une série de tâches.

Mais ce qui interroge le plus, c’est l’utilisation de l’IA au service de la gestion du personnel.

II. IA et gestion du personnel

A. Impact de l’IA dans le recrutement

Appliqué au recrutement, l'IA répond à 3 besoins majeurs : optimiser les offres d’emploi
postées par les entreprises, scanner les candidature, évaluer les candidatures.

D'une part, l'IA peut servir à optimiser les offres d'emploi postées par les entreprises. En
s'entraînant sur la base de l'ensemble des annonces publiées, l'IA est capable d'adapter le
langage de l'offre d'emploi au profil recherché. Ce faisant, l'IA permet aux recruteurs
d'économiser le temps de rédaction de l'annonce et par là même, de se concentrer sur les
tâches qui ne pourront pas être déléguées à l'IA.

C'est toutefois lorsqu'elles scannent les candidatures que l'IA crée le plus de risques pour les
entreprises. En effet, lorsque l'IA a été entraînée sur un jeu de données qui n'a pas été
suffisamment éprouvé ou qu'elle présente, de par sa propagation même, des biais
algorithmiques, elle est susceptible d'exclure des candidats pourtant qualifiés sur la base de
critères discriminants. À titre d'exemple, le scanner de candidature d'Amazon a
automatiquement écarté les femmes des postes à responsabilité. Les investigations menées par
Reuters ont montré que la discrimination mise en œuvre par l'IA reflète en réalité les
discriminations qui préexistaient au sein de l'entreprise. En entrant sur la base d'un jeu de
données privilégiant les candidatures masculines, l'IA a elle même appris à sélectionner
prioritairement de tels profils. Enfin, si la CNIL précise que la sélection d'une candidature ne
peut être exclusivement fondée sur un traitement informatisé. Rien d'interdit, en principe, que
les candidats soient présélectionnés sur la seule base d'une liste établie seulement par l'IA. Or,
13
le droit français prohibe expressément les discriminations, quelles qu'elles soient, y compris
lorsqu'elles interviennent lors du processus de recrutement. Le recours à l'IA dans le cadre de
la sélection de la présélection des candidatures doit être strictement encadré. À défaut, les
entreprises pourront engager leurs responsabilités. Enfin, l'IA peut être utilisé pour évaluer les
candidatures dans le cadre des entretiens ou des tests auxquels ils seraient soumis au cours du
processus de recrutement. Dans ces cas, l'IA peut notamment analyser les réponses données
par le candidat concerné à des questions présélectionnées par le recrutement afin d'évaluer sa
compatibilité avec l'offre d'emploi ou encore son potentiel à atteindre les objectifs inhérents
au poste. Convoité. Là encore, l'issue du processus de recrutement va soumis au potentiel
biais qui aurait été implémenté volontairement ou non au sein même de l’IA.

B. Impact de l’IA dans l’exécution du contrat de travail :

Dans certaines hypothèses, l’IA peut être utilisées par les entreprises pour donner des
directives à leurs salariés. C'est le cas par exemple des bracelets mis en place par Amazon
pour optimiser l'exécution des tâches au sein de ces entreprises. Afin de limiter le temps
perdu, les bracelets attachés aux poignets des salariés d'Amazon vibre lorsque les
mouvements sont jugés par l'IA comme n'étant pas les plus efficaces pour atteindre l'objectif
poursuivi.

Lorsque l'IA incarne le pouvoir direction, elle est aussi susceptible d'influer sur la
qualification du contrat. Par exemple pour la société Uber, qui a vu sa relation avec les
chauffeurs indépendants requalifié en contrat de travail à durée déterminée.

C'est toutefois dans le cadre de l'aide à la décision que l'IA est le plus souvent utilisée. En
développant de puissants algorithmes d'analyse des données, il est désormais possible de
calculer assez facilement les performances des salariés. Et sur cette base, de prendre des
décisions concernant un changement de poste ou une augmentation de salaire. Dans cette
hypothèse, l'IA pose de problèmes principaux.

D'une part, il est nécessaire de s'assurer qu'elle s'entraîne sur des données exactes et
non discriminatoires. À défaut, l'entreprise encourt un risque élevé de non-conformité aux
dispositions du code de travail et d'engagement de sa responsabilité.

14
D’autre part, l’IA doit pouvoir être paramétrée de manière granulaire pour permettre
un traitement personnalisé pour chaque salarié en fonction de son poste. En effet, l'algorithme
ne doit pas permettre d'évaluer de la même façon l'ensemble des salariés, alors même qu'ils
n'occupent pas les mêmes fonctions ni le même niveau de responsabilité. Dans cette
hypothèse, le recours à l’IA implique donc de définir au préalable des KPI permettant
d'évaluer les salariés de manière personnalisée, si tant est que leurs performances puissent
effectivement être mesurées de manière pertinente par l'outil.

Chapitre 4: Le salarié et droits fondamentaux

Deux grands droits fondamentaux du salarié se confrontent à l’IA : la liberté et la dignité.

I. La liberté

L'horizon d'une gestion du personnel par l’IA est pour la liberté de l'homme au travail lourd
de menaces, mais de liberté exactement parle t-on ? C'est qu'à priori la gestion des ressources
humaines est une mise en mouvement du pouvoir de direction des personnes, les salariés
n'ayant guère d'espace au-delà ou en deçà du champ d'intervention de leurs représentants élus
ou syndicaux, pour discuter les décisions individuelles qui les concernent.

Le destin du travailleur subordonné et en large partie déterminé,régit par un autre, quelques.


Appel au volontariat (généralement pour quitter l'entreprise plus que pour y faire carrière).
Quelques droits subjectifs, (par exemple des droits de refus, qui se présentent parfois sous la
forme de l'obligation fondée sur la loi ou la règle de pacta sus servanda d'un accord
individuel), leur attribue à la marge une capacité plus ou moins réelle d'influer sur leur sort.
La liberté individuelle peut également faire barrage à la mise en œuvre de certaines décisions
patronales ou à tout le moins leur imposer une sérieuse justification sous cet aspect.

La possible délégation de la décision patronale à une IA ne modifie en rien les contours de la


subordination imposée aux salariés, sa capacité d'y résister en certains cas et pour certaines
raisons. C'est en réalité sous d'autres angles que le manager digital menace les libertés du
travailleur.

15
D'abord en le soumettant à un système de contrôle permanent. C'est ce que c'est que
l'IA est un système gourmand en donné. Il n'est jamais rassasié. Il faut donc, pour le nourrir,
mettre en place un réseau de capteurs permettant de collecter partout, toujours la donnée. L'ia
conduit inéluctablement dans son insatiable boulimie de data, nouvel Or noir du capitalisme
numérique. L’IA a transformé l'entreprise en mouchard permanent, en installant partout,
même sur le salarié, ou du moins sous sa peau avec les puces RFID, des capteurs en voyant en
temps réel des informations sur les salariés et leur activité.

Le lien de subordination juridique s'évapore ainsi dans sa mise en transparence, rien ne


saurait être caché à l'employeur, même si ce qui est révélé donne une image vaporeuse du
salarié, puisque c'est uniquement à travers un flux de données, la liberté s'accommode mal
d'une surveillance de tous les instants. L'entreprise devient prison où le salarié n'a d'autres
choix que de tomber malade, en s'épuisent à dissimuler l'œil numérique qui l'épie ce qu'il veut
garder secret ou céder sans résistance la somme considérable d'informations dont il se repaît.
La protection assurée par le RGPD et la loi du 16 janvier 1970 concernant État, paraît bien
relatif. Il n'est jusqu'aux données de santé, pourtant qualifiées de sensibles qui ne peuvent être
collectées par l'employeur sous la seule réserve, bien fragile au contexte de subordination, que
le salarié y consente.

Liberté d’expression. Réduit en flux d'informations et donc détaché de lui-même, le salarié


risque dans le même temps d'être privé de parole, celle par laquelle il peut toujours contester
la décision qui lui cause Tourment. Car semblable parole suppose qquelqu'un capable de
l'entendre. On nous dira qu'en nombre de cas, cette liberté de parole, de critiques de la
décision prise, quand bien même fut allumage, n'est pas assurée, que nulle procédure de
contestation n'a été mis en place dans l'entreprise pour lui assurer pertinent support. Et que
souvent, celui qui est en mesure de recevoir cette parole ne le fait d'une oreille distraite sans
lui accorder véritable attention. Peut-être. Il n'empêche, faillible, la décision humaine est
toujours au moins potentiellement contestable par celui qui s'en estime victime. Elle ouvre
toujours un espace de discussion et autorise le salarié à se penser sujet, agissant en ce qu'il a
toujours la possibilité d'essayer de l'infléchir en déterminant librement. Jusqu'à quel point et
de quelle manière il souhaite contester à des décisions prises. Or, on ne discute pas avec une
machine. On peut le faire, il est vrai, avec l'humain dont elle sert les intérêts, mais qu'elle
pourrait bien être utilisée d'une telle discussion si l'on considère que la décision algorithme en
produite. Et la vérité, la vérité ne se conteste pas. Chacun est sommé en silence de s'y plier.
16
Or, l'IA est faussement présenté comme producteur de vérité. Pour parler comme Éric Sardin,
il ne s'agit plus de gouverner le réel, mais de gouverner à partir du réel. L'IA faisant une
gouvernance algorithmique qui désigne un certain type de rationalité anormal, native ou
apolitique, reposant sur la récolte, l'agrégation et l'analyse automatisée de données en quantité
massive de manière à modéliser.

Remarquez que l'essor de l'IA, en faisant reculer la liberté du travailleur, pourrait également
avoir des conséquences négatives sur l'activité même de l'entreprise. Même s'il y a, il faut le
redire, peut aussi incontestablement avoir des effets bénéfiques sur certains process. En effet,
comme il a été souligné, l'emprise des algorithmes sur la pratique pourrait délier moralement
le travailleur de son activité : un effacement du travailleur devant l'Autorité machinique
l'efficacité, voire la supériorité de la machine, peut générer des conduites de retrait par des
phénomènes d'excès de confiance, de mécontentement, se satisfaire d'une solution jugée
correcte mais non optimale au nom de l'efficience ou de stigmatisation de l'erreur humaine qui
entraînerait une aversion à l'égard de la prise de risque.

II. La dignité

L’IA ne risque-t-elle point de faire de l'homme au travail un homme artificiel, un homme sans
humanité ? Si la question n'est pas le seul fait de formuler laisse à tout le moins entrevoir,
dans l'esprit de celui qui entend la prendre au sérieux, un destin funeste pour les sociétés
humaines. L'avènement de l'IA est un saut dans l'inconnu. Ce saut conduit inéluctablement à
se demander s'il n'est pas, s'il n'est point, chute de l'humanité dans le néant. Il est vrai que
cette crainte est presque consubstantielle au développement de l'informatique. Dans son
article premier déjà, la loi du 6 janvier 1978, à l'informatique, aux fichiers et libertés,
soulignait que l'informatique ne doit pas porter atteinte à l'identité humaine. Mais le danger
qui guette aujourd'hui semble d'une toute autre nature, d'une ampleur sans précédent, le
problème auquel nous sommes dès lors. Confrontés est de savoir comment exister en tant
qu'être humain, individuellement, socialement, collectivement, dans un monde régi en bonne
part par des algorithmes.

L'inquiétude chez les juristes est réelle. Ainsi, pour Grégoire Loiseau, l’IA amplifie le risque
d'atteinte à des droits essentiels, spécialement au respect de la dignité humaine. Son propos
fait écho à bien d'autres dans ce risque, l'OIT fait elle-même l'ombrageuse messagère.
17
L'exercice de la gestion, de la surveillance et du contrôle algorithmique au moyen de capteurs,
d'accessoires connectés et d'autres formes de surveillance doit être réglementée pour protéger
la dignité des travailleurs. Le travail n'est pas une marchandise. Les travailleurs ne sont pas
des robots. Dans une résolution du 12 février 2019 sur une politique industrielle européenne
globale sur l'intelligence artificielle et robotique, le Parlement européen souligne encore, les
évolutions dans le domaine de l'IA devraient être conçues de façon à préserver la dignité de
l'autonomie et l'autodétermination des individus et d'ajouter que si elle favorise le progrès au
bénéfice de la société et de l'environnement, la recherche en matière dia et les activités
connexes doit être menées conformément aux principes de précaution et aux droits
fondamentaux, Toutes les personnes participant au développement, à l'application, à la
diffusion, à l'utilisation de l'intelligence artificielle devraient apprécier alors juste valeur et
respecter la dignité humaine ainsi que l'autodétermination et le bien-être physique comme
psychologique des individus et de la société dans son ensemble. Mille façons de dire que l'IA
peut pour ses valeurs fondamentales constituent une sourde menace. Aussi, les normes
européennes en matière d'IA doivent se fonder sur des principes d'éthique numériques, de
dignité humaine.

Soulignons d'abord qui n'est pas inconcevable que l'IA puisse contribuer positivement
à la protection de promotion de l'humanité du travailleur. Il a ainsi été justement remarqué que
l'IA peut permettre de réhumaniser le travailleur grâce au développement de la
complémentarité homme et à en trouver ici une variation sur le thème de l'homme augmenté,
desentravé des limites physiques et mentales de sa condition naturelle. L'automatisation des
tâches et des métiers peut constituer une chance historique. Ça permet de développer des
capacités proprement humaines. Le proprement humain se définirait par ce que l'IA ne sait
pas faire, innover, avoir de l'imagination, prendre des risques contrôlés, entreprendre toutes
ces capacités qui, dans une certaine mesure, sont le symbole de notre humanité. On croisa
l'idée ancienne, toujours soutenue par les courants marxistes ou socialistes, selon laquelle
l'automatisation des tâches peut conduire à une libéralisation, libération des travailleurs et à
une baisse de la pénibilité de leur travail. Mais il est aussi certain que dans ce processus
d'automatisation. Dont l'intelligence artificielle n'est que la continuation, peut surtout être
facteur d'appauvrissement des tâches, des métiers, des savoir-faire et des compétences.
L'introduction de l'IA pourrait ouvrir un nouveau chapitre du projet taylorien d'augmentation
de l'organisation par destruction, appauvrissement du travailleur humain réduit en miettes, le
travail de l'homme perdrait toute dignité, le travailleur avec lui.
18
Le danger réside d'abord dans la structure même de l'IA. Pour fonctionner, l’IA a
actuellement besoin d'une masse très importante de données, le Big data. Ces données sont la
condition même de son apprentissage, qu'il soit supervisé ou non. Évidemment, leurs collectes
posent des difficultés juridiques particulières tels que la manière dont l'algorithme va les
traiter, les faire parler pour élaborer par exemple les prédictions tout autant. Reste que cette
quête infinie de données conduit plus fondamentalement à ne saisir le salarié que sous les
traits de son alter-ego numérique est une donnée inférée d'une profusion de données à l'état
brut, la personne humaine disparaît alors que derrière ces traces. La personne n'est n'est plus
saisi que comme une suite binaire de 0.

Mais est-ce là une véritable chose nouvelle ? On pourra priori en douter. C'est ce que
dans l'entreprise, la gestion des hommes s'est toujours faite sur la base d'informations
personnelles ou professionnelles les concernant, collectées au moment de l'embauche ou en
cours de contrat. L’IA ce ferait elle pas au final que creuser le même sillon ? Question de
point de vue. Cette prison d'un nouveau genre place le salarié sous surveillance permanente,
ce qui évidemment en soi, fait déjà graves problèmes et suppose à tout le moins la mise en
mouvement des garanties attachées à la protection de ses libertés individuelles, de sa santé
mentale. Par ailleurs, cette surveillance permanente s'inscrit dans un autre horizon. Celui d'un
nouvel âge de la concurrence. Nous supposons plus seulement les entreprises ou des individus
entre eux, mais mettant tout corps organique et bien matériel vis-à-vis de tous les autres afin
de pouvoir tirer meilleur avantage, chacun étant affecté d'une sorte de score et travaillant bon
gré mal gré, consciemment ou inconsciemment, le faire progresser à la capitaliser.

Mais surveiller le salarié, c'est-à-dire s'assurer qu'il n'adopte pas de comportement


déviant ou vérifier qu'il n'adopte certains pour son propre bien-être, n'est point le seul objet ou
le seul effet des mécaniques de traçage continu de son activité dans l'entreprise. Sur le poste
de travail, non ou en dehors, la collecte de data ne s'arrête pas aux portes de l'entreprise et
trouve avec les réseaux sociaux, source continue d'alimentation. Les données ainsi collectées
sont encore utilisées par le dispositif d’IA pour orienter toute la vie professionnelle du salarié,
proposition de mutation, de promotion, de formation. Ce dernier n'est plus si saisie que
comme le rouage, une machinerie complexe, un simple robot dont ils font ça dure à tout
moment. La fiabilité, l'usure et la capacité à correctement fonctionner, c'est-à-dire à remplir au
moindre coût les tâches qui lui sont assignées.
19
Chapitre 5: L’employeur et l’IA

La dignité de l’employeur rejoint celle du salarié. Car si un salarié ne serait réduit à un flux de
données, l'homme fluide, un homme flou, si son image numérique ne saurait être déterminée à
elle seule son destin, la gestion de sa carrière ou ses conditions de travail ne serait pas plus
être abandonnée à la machine, sauf à le traiter comme simple pièce. Un engrenage infernal. Il
ne saurait être poupée de chiffon, agité par quelques fils tirés par un marionnettiste de
silicone. Gérer le salarié comme une personne humaine suppose que la politique de gestion du
personnel par l’employeur soit elle-même proprement humaines, qu'elle reste in fine entre les
mains de l'homme. Mais lorsque l'employeur, en quête d'efficacité accrue, consent à transférer
son pouvoir de décision algorithmique, il ne transforme pas seulement son salarié en chose
mathématique, il renonce à sa propre faculté de jugement et accepte lui aussi d'être l'esclave
de la machine, se défaisant purement et simplement de sa qualité d'homme. Alors l'exigence
de dignité s'oppose à ce que l'homme devienne simple produit de son produit.

I. La décision patronale : un acte initialement humain

L'employeur est amené à prendre des décisions qui mettent en mots et en acte son pouvoir de
direction des personnes. Comme il a été justement souligné, la décision constitue la principale
manifestation de volonté du pouvoir, entendu comme la faculté d'imposer sa volonté à autrui.

Acte de pouvoir, la décision est aussi appréhendée par l'ordre juridique comme un processus.
Dans cette hypothèse, le droit paraît pleinement en phase avec les autres champs de la
connaissance qui ont depuis longtemps abandonné l'idée que la décision est un acte simple,
20
enfermé dans une sorte d'instantanéité, pour considérer que l'acte décisoire n'est en fait que le
terme d'un cheminement plus ou moins long et complexe, et à ce processus, l'ordre juridique
attache des règles de procédure destinées à lui assurer. Pour le dire vite, le droit du travail est
à ainsi soumis la décision patronale à une triple exigence de rationalisation la décision
patronale doit reposer sur des raisons d'agir, l'employeur doit consulter les élus, les salariés,
l’administration du travail et aux juges, et selon les cas, qu'il doit avoir pris le temps de
maturer la décision, en respectant certains délais de réflexion.

II. La décision patronale : une décision algorithmique

La décision humaine peut toujours être affectée d'un vice, biais cognitif, erreur de penser ou
de raisonnement, manque d'informations ou de renseignements erronés, excès d'optimisme
etc... Dans le monde de l'entreprise, l'erreur a souvent un coût, parfois considérable, et
l'employeur de tout temps, a tenté d'en réduire au maximum le nombre, en multipliant les
contrôles, les sanctions et les procédures. Jusqu'à ne plus laisser la moindre marge d'initiative
à certains de ses salariés, normalisant chacun de leurs gestes, les soumettant à un inextricable
écheveau d'instruction et de consignes. L'entreprise est ainsi, comme nous l'avons déjà dit, un
espace social ultra normé. Pour un horizon idéal, un fonctionnement à tous les niveaux, 0
défaut.

Il n'est donc pas surprenant que dans les représentations managériales, la machine soit
considérée comme une ressource plus prévisible que l'humain. C'est pourquoi les machines
devraient être préférées aux gens à chaque fois que c'est possible selon l’association nationale
des managers aux États-Unis dans les années 50. Bien évidemment, l'essor de l'IA s'inscrit
dans le cadre de ces représentations classiques.

En réduisant le facteur humain. L'IA met fin à l'incertitude, à l'ensemble des imperfections
que l'intervention de l'homme charrie inévitablement et invariablement. 6 domaines
d'application principaux pour l'intelligence artificielle en gestion du personnel ont pu être
identifiés, la prévision des départs, la recherche de candidats, la planification des effectifs, la
gestion du climat social, la gestion des candidatures et les services automatisés aux salariés.

21
Le respect de la dignité de la personne humaine s'oppose fermement à ce que la décision
patronale prenne voix et visage de l'algorithme. Par ailleurs, sans s’en remettre à un dispositif
d’IA pour prendre des décisions à sa place, n’est-ce point se rendre esclave de la machine en
se soumettant volontairement à une nouvelle forme de normativité venue de l'extérieur ?
Propos excessifs diront certains dans la mesure où l'employeur conserve toujours la possibilité
de revenir en arrière, de contredire la machine de s'en passer. Mais cette faculté n'est-elle pas
qu'une simple illusion une fois sous l'emprise de la machine ? Comment l'employeur, va-t-il
reprendre le contrôle ? Pourquoi voudrait-il d'ailleurs, après avoir investi de lourdes sommes
dans l'acquisition d'un logiciel intelligent, se passer d'un dispositif qui, en le déchargeant du
choix, lui, sur un certain confort et un réel gain d'efficacité ? Pourquoi vouloir réintroduire de
la faisabilité de l'homme lorsque l'IA permet enfin de la dépasser ? Quoi qu'il en soit, s'il est
uniquement soumis aux causes, le comportement de l'homme rejoindrait celui de l'animal,
alors que l'humanité de l'homme peut se caractérise par la place de plus en plus grande
accordée aux raisons prendre une décision, c'est logiquement exprimé en même temps la
raison pour laquelle elle est prise. Les raisons impliquent l'intentionnalité.

La gestion algorithmique du personnel produit sur le pouvoir patronal un effet paradoxal.


D'un côté, il le renforce en lui donnant assise incontestable plus que taillée dans le bois le plus
dur, le plus pur de la vérité. En effet, en se parlant des vertus de l'objectivité et de
l'infaillibilité, l'algorithme semble repousser loin l'ensemble des vices attachés à la décision
humaine, préjugés, émotions, préférence, irrationalité et qui souvent la rendent si contestable.
De l’autre côté, elle est négation même du pouvoir de l'employeur qui, en s'abandonnant à
l'algorithme, organise son suicide. On dira certes que le pouvoir délégué de l'IA est encore
entre les mains du délégant, mais l'artifice ne saurait convaincre. Cette délégation est
abandon, résignation dès lors que l'employeur ne peut exercer sur l'activité de son délégataire
numérique aucun véritable contrôle. On le voit, l'IA renforce le pouvoir patronal tout en
contribuant à le dissoudre.

Ces tests en Europe ne semblent pas avoir gagné tous les esprits. Dans sa résolution du 12
février 2019 relative à la politique industrielle sur l'IA et la robotique, le Parlement européen
insiste avec force sur la nécessité de préserver le principe selon lequel l'humain contrôle la
machine dans un esprit voisin. Le Comité économique et social européen, dans un rapport
rendu public le 5 octobre 2018, souligne pour sa part la nécessité de conserver l'humain aux
commandes, car il n'est pas éthiquement acceptable qu'un être humain soit contraint par l'IA
22
ou qu'il soit considéré comme un exécutant de la machine qui lui dicterait les tâches à
accomplir.

Chapitre 6 : L’apport des textes dans la régulation de l’IA dans le monde du travail

Le principe du respect de la dignité de la personne humaine constitue sans doute l'arme


dogmatique la plus puissante entre les mains du juriste. Ne serait-elle assez pour faire obstacle
à déshumanisation du monde ? On ne peut que l'espérer. À tout le moins, on peut y voir un
véritable fondement des garanties citées par les articles 22 du RGPD et 47 de la loi du 6
janvier 1978, substantiellement réformée. Par l'ordonnance du 12 décembre 2018, il n'est pas
possible cependant sans grand danger de l’y réduire. Aujourd’hui l’IA Act prévoit aussi que
dans son article 2 :

« Le présent règlement n’empêche pas l’Union ou les États membres de maintenir ou


d’introduire des dispositions législatives, réglementaires ou administratives plus favorables
aux travailleurs quant à la protection de leurs droits en ce qui concerne l’utilisation de
systèmes d’IA par les employeurs, ou d’encourager ou de permettre l’application de
conventions collectives plus favorables aux travailleurs »

Le salarié devrait être à tout le moins informé, sous une forme individuelle ou collective,
préalablement à leur mise en œuvre des méthodes et techniques d'évaluation professionnelle
mises en œuvre à son égard selon l'article 1222- 3 du code du travail, par ailleurs, à
l'application de l'article 35 du règlement UE 2016/679 du 27 avril 2016 relative à la protection
des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre
circulation des données l'actine a adopté sur la base des lignes directrices définies par le
comité européen de la protection des données une liste type des opérations de traitement pour
lesquelles l'analyse d'impact est requise.

Nombre de ces opérations qui ont une étude d'impact peuvent concerner les salariés de
traitement établissant des profils de personnes physiques à des fins de gestion des ressources
humaines, traitement ayant pour finalité de surveiller de manière constante de l'activité des
employés concernés, traitement ayant pour finalité la gestion des alertes et des signalements

23
en matière sociale et sanitaire, traitement ayant pour finalité la gestion des alertes et des
signalements en matière professionnelle, traitement impliquant le profilage des personnes
pouvant aboutir. alors exclusion du bénéfice d'un contrat ou la suspension voire la rupture de
celui-ci traitement de profilage faisant appel à des données provenant de sources externes
traitement portant sur des données génétiques de personnes dates vulnérables patients
employés enfants et cetera.

La RGPD et la LIL tâche également la décision algorithmique au-delà de celles relatives au


traitement des données, un ensemble de garanties dont la teneur exacte est encore sujette à
discussion. A tout le moins, ne fait aucun doute que ces garanties trouvent à s'appliquer aux
décisions de gestion du personnel dès lors qu'elles produisent des effets juridiques à l'égard
d'une personne ou l'affectant de manière significative pour reprendre la formulation de la LIL,
et qu'elles sont exclusivement fondées sur un traitement automatisé (l'adverbe est celui dont
use le RGPD, l'article 45 de la LIL ayant fait le choix d'une formulation un peu différente).
Les garanties qui s'attachent à la décision patronale de gestion sous l'infusion d’IA sont les
mêmes que celles qui s'appliquent à d'autres catégories de décisions algorithmiques.

Elles doivent permettre à l'homme de garder la main. Ainsi, le règlement européen de la


loi nationale s'inscrive dans cette tendance à imposer un droit à l'explication initiale ou sur
accès, ou encore une explicabilité des décisions algorithmiques, voire des traitements ou du
fonctionnement des algorithmes en général. Le salarié ou ses représentants ne doivent pas être
enfermés dans le labyrinthe sans issue d'une Black Box auquel même les ingénieurs de
Facebook doivent eux-mêmes faire face. Par ailleurs, un droit de critique de recours devrait
être offert aux travailleurs. Maintenant, faut-il aller plus loin, exiger la consécration d'un droit
à la vérification de l'algorithme et de la manière dont il traite les données, qu'il alimente un
droit, un droit à la supervision ou d'un droit à la fiabilité ?

Aujourd’hui, le règlement de l’IA Act évoque différents éléments dans le considérant 57

Considérant 57 :
« Les systèmes d’IA utilisés pour des questions liées à l’emploi, à la gestion de la main-
d’œuvre et à l’accès à l’emploi indépendant, en particulier pour le recrutement et la sélection
de personnes, pour la prise de décisions affectant les conditions des relations
professionnelles, ainsi que la promotion et la résiliation des relations professionnelles
24
contractuelles, pour l’attribution de tâches fondée sur le comportement individuel, les traits
de personnalité ou les caractéristiques personnelles et pour le suivi ou l’évaluation des
personnes dans le cadre de relations professionnelles contractuelles, devraient également
être classés comme étant à haut risque car ces systèmes peuvent avoir une incidence
considérable sur les perspectives de carrière et les moyens de subsistance de ces personnes
ainsi que sur les droits des travailleurs. Les relations professionnelles contractuelles en
question devraient concerner également, de manière significative, celles qui lient les
employés et les personnes qui fournissent des services sur des plateformes telles que celles
visées dans le programme de travail de la Commission pour 2021. Tout au long du processus
de recrutement et lors de l’évaluation, de la promotion ou du maintien des personnes dans
des relations professionnelles contractuelles, les systèmes d’IA peuvent perpétuer des
schémas historiques de discrimination, par exemple à l’égard des femmes, de certains
groupes d’âge et des personnes handicapées, ou de certaines personnes en raison de leur
origine raciale ou ethnique ou de leur orientation sexuelle. Les systèmes d’IA utilisés pour
surveiller les performances et le comportement de ces personnes peuvent aussi porter atteinte
à leurs droits fondamentaux à la protection des données et à la vie privée »

Plus précisément, l’annexe III prévoient que sont considérées comme « des IA à haut-risque
en matière d’emploi, gestion de la main d’œuvre et accès à un emploi indépendant ;
« a) systèmes d'IA destinés à être utilisés pour le recrutement ou la sélection de personnes
physiques, en particulier pour publier des offres d'emploi ciblées, analyser et filtrer les
candidatures et évaluer les candidats;
b) systèmes d'IA destinés à être utilisés pour prendre des décisions influant sur les
conditions des relations professionnelles, la promotion ou le licenciement dans le cadre de
relations professionnelles contractuelles, pour attribuer des tâches sur la base du
comportement individuel, de traits de personnalité ou de caractéristiques personnelles ou
pour suivre et évaluer les performances et le comportement de personnes dans le cadre de
telles relations »

Les IA à haut risque sont soumises à des obligations strictes avant de pouvoir être mise sur le
marché :
- L'article 9 du règlement prévoit la mise en place de système adéquat d'évaluation et
d'atténuation des risques.

25
- L'article 10 prévoit la qualité élevée des données alimentant le système pour la
formation, la validation et les tests.
- L'article 11 et 12 prévoit une documentation détaillée pour journaliser activité, évaluer
sa conformité
- L'article 13 prévoit une information claire, transparente et adéquate de la part du
déployeur aux utilisateurs.
- L'article 14 prévoit des mesures de surveillance et de supervision humaine. Et
d'atteindre,
- L’article 15 prévoit et d'atteindre un niveau approprié de précision et robustesse et de
cyber sécurité

Certaines de ces obligations ont surprises et détaillées dans le règlement (Article 16 et


suivants…), de manière spécifique pour les fournisseurs, les déployeurs, les importateurs et
les distributeurs.

En matière d’emploi, l’article 26 sur les IA à haut risque prévoit :

« Avant de mettre en service ou d’utiliser un système d’IA à haut risque sur le lieu de travail,
les déployeurs qui sont des employeurs informent les représentants des travailleurs et les
travailleurs concernés qu’ils seront soumis à l’utilisation du système d’IA à haut risque. Ces
informations sont fournies, le cas échéant, conformément aux règles et procédures prévues
par le droit de l’Union et le droit national et aux pratiques en matière d’information des
travailleurs et de leurs représentants. »

Cette obligation s’inscrit dans le sillage du considérant 92 :

« Le présent règlement est sans préjudice de l’obligation qu’ont les employeurs d’informer
ou d’informer et de consulter les travailleurs ou leurs représentants en vertu du droit et des
pratiques nationales ou de l’Union, y compris la directive 2002/14/CE du Parlement
européen et du Conseil sur les décisions de mise en service ou d’utilisation de systèmes d’IA.
Il reste nécessaire de veiller à ce que les travailleurs et leurs représentants soient informés du
déploiement prévu de systèmes d’IA à haut risque sur le lieu de travail lorsque les conditions
de cette obligation d’information ou d’information et de consultation figurant dans d’autres
instruments juridiques ne sont pas remplies. En outre, ce droit à l’information est accessoire
et nécessaire à l’objectif de protection des droits fondamentaux qui sous-tend le présent
26
règlement. Par conséquent, il convient de prévoir une obligation d’information à cet effet
dans le présent règlement, sans porter atteinte aux droits existants des travailleurs »

En résumé, le fournisseur devra évaluer la conformité de ces systèmes, gérer les risques à une
surveillance accrue, lutter pour corriger les biais et enfin, rédiger un document. Technique
conforme aux exigences.

En principe, il existe des exceptions : une personnes a le droit de ne pas faire l'objet
d'une décision fondée sur un traitement automatisé, y compris le profilage produisant ;
des effets juridiques la concernant oùul'affectant de manière significative de façon
similaire. (Article 22 du RGPD, voir aussi l'article 27 de la loi du 6 janvier 1978). A cette
proclamation européenne d'un droit subjectif, manière de faire qui n'a qu'une portée
symbolique au rhétorique, le droit français va préférer la formulation d'une règle d'interdiction
objective, c'est à dire dans tous les cas qu'en principe la décision patronale de gestion ne peut
que partiellement reposer sur un une, un dispositif algorithmique. C'est le cas lorsque le
dispositif est utilisé comme une simple aide à la décision. C'est à priori le cas lorsqu'une
personne compétente est intervenue dans la décision et que son intervention a une influence
réelle sur le résultat. le Conseil constitutionnel ne dit rien de bien différent.

L’article 14, 4. de l’IA Act s’inscrit dans ses perspectives en prévoyant :

« Aux fins de la mise en œuvre des dispositions des paragraphes 1, 2 et 3, le système d’IA à
haut risque est fourni au déployeur de telle manière que les personnes physiques chargées
d’effectuer un contrôle humain, dans la mesure où cela est approprié et proportionné, ont la
possibilité:

1. a) de comprendre correctement les capacités et les limites pertinentes du système


d’IA à haut risque et d’être en mesure de surveiller correctement son fonctionnement,
y compris en vue de détecter et de traiter les anomalies, les dysfonctionnements et les
performances inattendues;
2. b) d’avoir conscience d’une éventuelle tendance à se fier automatiquement ou
excessivement aux sorties produites par un système d’IA à haut risque (biais
d’automatisation), en particulier pour les systèmes d’IA à haut risque utilisés pour

27
fournir des informations ou des recommandations concernant les décisions à prendre
par des personnes physiques;
3. c) d’interpréter correctement les sorties du système d’IA à haut risque, compte tenu
par exemple des outils et méthodes d’interprétation disponibles »

L'interdiction d'une décision exclusivement algorithmique consacrée par l'article 45 de la


LIL connaissent des exceptions. Le droit français se faisant ici le miroir du règlement
européen qui décalque en modifiant cependant la formulation deux des conditions de licéité
du traitement des données à caractère personnel. Parmi elles, l'échappatoire du consentement
explicite de la personne concernée laisse dans l'espace des relations couvertes par le droit du
travail et dominé par le pouvoir patronal un brin circonspect et inquiet de cette légitime
inquiétude. Les lignes directrices sur le consentement au sens du règlement RGPD, adopté le
4 mai 2020 par le Comité européen de la protection des données, tiennent compte en précisant
qu’un déséquilibre des rapports de force peut avoir lieu dans le cadre des relations de travail.
Au vu de la dépendance résultant de la relation employeur employé, il est peu probable que la
personne concernée soit en mesure de refuser de donner son consentement à son employeur
concernant le traitement de ses données sans craindre ou encourir des conséquences négatives
suite à ce refus. Aussi, le RGPD considère-t-il problématique que les employeurs traitent les
données à caractère personnel de leurs employés actuels où potentiels en se fondant sur leur
consentement dès lors qu'il est peu probable que celui-ci soit donné librement pour la majorité
de ces traitements de données au travail.

C'est donc sur l'autre exception visée par le RGPD que la décision patronale prendra appui. La
décision devra « être nécessaire à la conclusion à l'exécution d'un contrat entre la personne
concernée, un responsable de traitement ». Enoncé qui lui aussi porteur de nombreuses
incertitudes. Sans doute, comme le soulignait la CNIL (dans le champ d'application de l'article
6 du RGPD) ne suffira-t-il pas que le traitement de données soit mentionné dans des clauses
contractuelles pu dans des conditions générales d'utilisation. Elle ajoute que le recours au
contrat pour fonder légalement un traitement est soumis à 3 conditions, il existe une relation
contractuelle où précontractuelle entre l'organisme et la personne concernée (on admet
cependant que le traitement peut être fondé lorsqu'il existe une simple éventualité qu'un
contrat soit conclu) ; Le contrat doit être valide au regard du droit applicable ; et le traitement
en cause doit être objectivement nécessaire à l'exécution du contrat. Cela signifie, selon la

28
Commission « qu’il doit uniquement permettre à l'organisme d'exécuter le contrat spécifique
conclu à la personne, c'est-à-dire de fournir le produit ou le service souhaité par celle-ci et ne
doit pas viser un autre objectif permettant, par exemple, la poursuite d'intérêts distincts ou
exclusifs du responsable de traitement. L'organisme doit en outre s'assurer qu'il n'existe pas de
moyens moins intrusifs d'exécuter ce contrat que de mettre en œuvre le traitement envisagé ».
Transposé au contrat de travail, la formule ne permet guère de dégager avec l'assurance. Les
types de décisions algorithmiques, qui est autre chose qu'un simple traitement de données
pouvant entrer dans le cadre d'exceptions. L'interprétation assez stricte de l'exigence de
nécessité peut par ailleurs conduire à soutenir que l'espace laissé à des ces décisions paraît en
l’état fort réduit si tant est qu'il ne se réduisent pas à rien.

Enfin et surtout, l’article 5 de l’IA Act prévoit une interdiction concernant « déduction des
émotions sur le lieu de travail ou dans les établissements d'enseignement, sauf pour des
raisons médicales ou de sécurité. On considère que ce système d’IA présente un risque
inacceptable. Donc, le règlement sur intelligence artificielle interdit un ensemble de pratiques
contraires aux valeurs de l'Union européenne et aux droits fondamentaux sauf sous couvert
d’exception stricte.

Synthèse : les bonnes pratiques de l’IA dans le monde du


travail
1. Compréhension et Déploiement de l’IA
Évaluation des besoins

 Identifier les processus ou domaines où l'IA peut apporter une valeur ajoutée
(automatisation, analyse prédictive, optimisation des ressources).
 Effectuer une analyse coût-bénéfice avant le déploiement.

Choix des technologies

 Utiliser des outils d’IA adaptés à l’organisation et conformes aux normes du secteur.
 Privilégier des solutions évolutives et intégrables aux systèmes existants.

2. Éthique et Responsabilité
Transparence

29
 Communiquer clairement sur les usages de l’IA auprès des employés et des parties
prenantes.
 Éviter l’opacité des algorithmes en documentant leur fonctionnement.

Équité

 Identifier et réduire les biais dans les modèles d'IA pour éviter les discriminations.
 Tester régulièrement les systèmes pour s'assurer qu’ils traitent tous les utilisateurs
équitablement.

Responsabilité

 Désigner des responsables pour superviser l'utilisation et les décisions de l’IA.


 Mettre en place des mécanismes de suivi pour détecter et corriger les erreurs.

3. Intégration avec les Ressources Humaines


Formation et sensibilisation

 Former les employés sur les bases de l’IA et sur son impact sur leurs tâches.
 Sensibiliser les équipes aux risques éthiques et juridiques liés à l’IA.

Accompagnement du changement

 Assurer un soutien pour les employés dont les tâches sont modifiées par l’IA.
 Proposer des plans de reconversion pour les métiers impactés par l’automatisation.

4. Sécurité et Confidentialité
Protection des données

 Respecter les réglementations locales et internationales (RGPD, HIPAA, etc.).


 Mettre en place des protocoles de sécurisation des données utilisées par l’IA.

Prévention des cybermenaces

 Effectuer des audits réguliers pour détecter les vulnérabilités.


 Mettre en place des systèmes de chiffrement et des contrôles d'accès robustes.

5. Performance et Évaluation
Mesure de l’efficacité

 Définir des indicateurs de performance clairs pour évaluer l’impact de l’IA.


 Réaliser des analyses régulières pour optimiser les algorithmes.

Maintenance continue

30
 Actualiser les modèles d’IA avec des données récentes pour maintenir leur pertinence.
 Tester la robustesse des systèmes dans divers scénarios.

6. Collaboration Homme-Machine
Positionnement de l'IA comme un outil

 Veiller à ce que l’IA ne remplace pas l’humain dans des tâches nécessitant du
jugement critique ou de l’empathie.
 Utiliser l’IA pour compléter les compétences humaines, et non les supplanter.

Création d’une culture de collaboration

 Encourager les employés à adopter l’IA comme un partenaire pour augmenter leur
productivité.
 Faciliter des échanges réguliers entre les équipes techniques et opérationnelles pour
aligner les besoins.

7. Respect des Réglementations et Normes


Conformité légale

 S'assurer que l’IA respecte les lois en vigueur dans les pays d’opération.
 Collaborer avec des experts juridiques pour anticiper les évolutions réglementaires.

Normes industrielles

 S’appuyer sur des cadres de référence établis, comme ceux proposés par l'ISO ou des
organismes spécialisés dans l’IA.

31
IA et environnement :

2. Les mutations de la RSE. - Auparavant, le volet environnemental de la RSE était lui aussi
limité à des principes de droit soupleNote 8 . En pratique, l'entreprise pouvait librement mettre en
œuvre des mesures ayant trait à la gestion des ressources naturelles, à l'anticipation des
risques environnementaux pour lutter contre le réchauffement climatique, et à la production
de technologies vertesNote 9 . Aujourd'hui, la RSE tend de plus en plus à se durcir par des
mesures de hard law. En témoignent la transposition récente de la directive CSRD Note 10 en
droit françaisNote 11 et la directive sur le devoir de vigilanceNote 12 imposant à certaines sociétés
de veiller aux conséquences possibles de leurs activités sur l'environnement Note 13 . Ces mesures
renforcent donc très nettement les exigences environnementales imposées aux entreprises. Le
développement de l'IA ne peut donc plus ignorer de telles considérations, eu égard à l'urgence
que représente le réchauffement climatique.

32
3. - L'IA : une opportunité pour la RSE à développer. - La contribution de l'IA à une RSE
en mutation est pertinente à deux titres. Tout d'abord, l'IA peut aider les entreprises créatrices
d'IA à contribuer à leurs propres objectifs de RSE en développant des systèmes plus propres à
l'image de la production de technologies vertes. Ensuite,le développement de systèmes d'IA
plus respectueux de l'environnement peut aider les entreprises utilisatrices à accomplir leurs
propres objectifs de RSE. Si le droit de l'IA offre une véritable opportunité aux entreprises
créatrices et utilisatrices d'accomplir leurs ambitions environnementales (1), il demeure que ce
potentiel est encore insuffisamment approfondi (2).

1. Le droit de l'IA : une réelle opportunité pour les


entreprises dans leur démarche RSE

4. - Une opportunité progressive. - L'opportunité que représente le droit de l'IA pour les
ambitions de la RSE est clairement reconnue par deux objectifs complémentaires auxquels
sont soumis les systèmes d'IA. Leurs créateurs doivent s'évertuer à limiter les impacts
environnementaux négatifs (A) afin de développer des IA contribuant à la protection de
l'environnement (B).

A. - Le développement d'un droit empêchant la création de


systèmes irrespectueux de l'environnement

5. - Des IA à l'origine de pollution numérique. - De prime abord, les systèmes d'IA peuvent
contribuer à une plus grande pollution numérique. Celle-ci combine deux dimensions
spécifiques. Tout d'abord, la première source de ce phénomène est matérielle, physique,
regroupant les pollutions causées par le matériel physique telles que les infrastructures, la
fabrication des équipements digitaux impliquant la consommation de ressources non
renouvelables et la création de déchets Note 14
. La pollution peut aussi être causée par les
opérations liées au fonctionnement de l'internet telles que le stockage et l'envoi d'un mail, les
Note 15
clouds ou le streaming . Néanmoins, quid du rôle de l'IA dans cette pollution
numérique ? Son développement a eu pour conséquence une augmentation du volume de
données stockées et échangées ainsi qu'un remplacement des vieux équipements en vue
d'améliorer les performances. À titre d'exemple, l'IA utilise des graphic processing unit
impliquant une grande utilisation de silicone et une plus grande consommation d'énergie

33
confirmant ainsi une augmentation de la pollution digitale du fait de l'IA Note 16
. Ainsi, le
développement de l'IA n'est pas toujours neutre à l'égard de l'environnement, impliquant dès
lors un changement des pratiquesNote 17 afin de permettre aux entreprises créant ou utilisant des
IA d'accomplir leurs objectifs de RSE.
6. - L'insuffisance des textes régulant l'IA. - Originellement, les textes de soft law régulant
l'IA défendaient une certaine éthique. Celle-ci a pour fonction de guider ses acteurs vers un
cercle vertueux prenant en compte à la fois l'individu et la société tout entière Note 18 . L'objectif
étant d'apaiser les craintes autour de l'intelligence artificielle et de la rendre plus socialement
acceptable. En pratique, ces textes soutenaient que ces IA devaient être non-malfaisantes Note 19 .
Ce concept, directement issu de l'éthique biomédicale, prône que l'IA ne doit pas nuire à la
société. Or, un système d'IA engendrant de la pollution numérique nuit sans aucun doute au
bien commun. Néanmoins, ces textes reconnaissaient les méfaits environnementaux de l'IA
sans apporter de solutions précises en vue d'endiguer le phénomène. En témoigne, la
déclaration de MontréalNote 20 pour une IA responsable : celle-ci indique dans son principe 10
que l'IA doit minimiser les émissions de gaz à effet de serre tout en générant un minimum de
déchets et d'impacts sur les écosystèmes. Dans cette même veine, la recommandation de
l'Unesco sur l'éthique de l'IANote 21 préconise aux principes 25 et 43 une procédure d'évaluation
des risques et l'adoption de mesures visant à empêcher leur réalisation ainsi que la mise en
œuvre de mécanismes de surveillance. Quant aux textes européens, ces derniers soulignent
unanimement l'importance du verdissement de la chaîne d'approvisionnement Note 22 . Dans cette
même logique, d'autres rapports mettent en évidence l'importance de prendre en considération
l'impact environnemental du système IA tout au long du cycle de vie du produit Note 23 . Ces
imprécisions empêchaient les développeurs de mettre en œuvre une véritable réduction de la
pollution numérique causée par leur IA. De fait, ces derniers n'accompliront pas leurs
objectifs de RSE en adoptant une production plus verte et ne permettront pas à leurs
entreprises utilisatrices de réaliser leurs ambitions de RSE.
7. - Le développement d'une véritable obligation à l'égard des IA à finalité générale. -
L'Artificial Intelligence Act tente de pallier les carences des précédents textes. Si la première
proposition adoptée fut plus timide, les amendements du parlement permettent une nouvelle
fois de placer la limitation de la pollution numérique au cœur de la régulation de l'IA.
L'article 28, ter, met à la charge des fournisseurs d'un système d'IA à finalité générale Note 24 une
obligation de démontrer que « l'identification des risques, la réduction et l'atténuation des
risques raisonnablement prévisibles pour (...) l'environnement (...) sont effectuées, au moyen
de méthodes appropriées ». En outre, ces fournisseurs doivent concevoir et développer des
34
systèmes d'IA s'appuyant sur des normes applicables pour réduire la consommation d'énergie,
l'utilisation des ressources et des déchets. Enfin, ces systèmes d'IA sont conçus avec des
fonctionnalités permettant de mesurer et d'enregistrer la consommation d'énergie et de
ressources. De surcroît, l'article 82, ter, prévoit la mise en œuvre ultérieure de lignes
directrices concernant l'application de l'obligation incombant aux fournisseurs d'un système
d'IA à finalité générale en matière de protection de l'environnement. Ces mesures auront donc
le mérite de mieux guider les développeurs dans la création d'IA moins polluantes. Ces
dernières permettront donc aux entreprises créatrices et utilisatrices d'IA d'accomplir plus
aisément leurs objectifs de RSE.
8. - La mise en œuvre de régimes trop complexes au sein de l'Artificial Intelligence Act. -
Néanmoins, le texte amendé par le Parlement européen présente certaines difficultés en
instaurant différents régimes et obligations à l'encontre de certains types d'IA. Celui-ci
distingue en effet les IA à finalité générale, les IA à haut risque et les IA incluses au sein du
bac à sable réglementaireNote 25 . Ces deux derniers types d'IA sont notamment soumis à des
formalités de contrôle plus exigeantes quant aux risques environnementaux encourus. Ainsi,
le règlement instaure une certaine complexité rendant plus difficile son application aux
différentes IA. Plus encore, la notion d'IA à haut risque reste limitée à certaines hypothèses
très restrictives prévues par le point 2 de l'annexe III. Pourtant, ces IA à haut risque sont
soumises à des obligations pertinentes telles que la communication d'une notice mentionnant
les risques environnementaux d'un système d'IA et la mise en œuvre d'un système de gestion
des risques. Cette dernière obligation fait écho aux mesures liées au devoir de vigilance
semblable aux articles 6 et 7 de la directive sur le devoir de vigilance prévoyant le
recensement des risques environnementaux et la mise en œuvre de mesures appropriées afin
de les limiter. Certes, l'Artificial Intelligence Act demeure un premier jalon contraignant à
saluer. Celui-ci pourrait toutefois se durcir à l'avenir en prévoyant notamment la mise en
œuvre de véritables systèmes de gestion des risques environnementaux. Il permettrait
d'instaurer un véritable devoir de vigilance applicable à l'ensemble des développeurs de
systèmes IA : ces derniers n'étant pas nécessairement soumis à la directive sur le devoir de
vigilance. Ainsi, les IA seraient plus performantes du point de vue environnemental, les
entreprises créatrices accompliraient leurs objectifs de RSE et permettraient plus aux
entreprises utilisatrices d'achever leurs ambitions. Ces systèmes d'IA pourraient même se
révéler bénéfiques pour l'environnement.

35
B. - Un droit encourageant la création de systèmes
respectueux de l'environnement

9. - Reconnaissance du potentiel environnemental de l'IA. - Résumer l'IA à une source de


pollution numérique est un constat incomplet : celle-ci peut aussi offrir des opportunités en
vue de protéger l'environnement. À l'origine, les possibilités proposées par l'IA afin de
satisfaire les objectifs environnementaux de la RSE étaient directement explicitées à l'appui
de la proposition de règlement du Parlement européen et du Conseil sur les principes éthiques
relatifs au développement, au déploiement et à l'utilisation de l'IA, de la robotique et des
technologies connexes. Précisément, le point 55 préconisait l'adoption de lignes directrices à
l'attention des développeurs pour évaluer la réalisation des objectifs de responsabilité sociale.
Les autres textes ne visent pas à proprement parler le volet environnemental de la RSE. Ces
derniers envisageaient plutôt le potentiel environnemental des systèmes d'IA comme en
témoigne le principe 10 de la Déclaration de Montréal pour une IA responsable, ainsi que les
principes 17 et 42 de la recommandation de l'Unesco sur l'éthique de l'IA. En droit européen,
le livre blanc sur l'IANote 26 , « les lignes directrices en matière d'éthique pour une IA digne de
confiance » mettaient en valeur les avantages de l'IA dans la protection de l'environnement.
Ces mesures répondaient directement au principe éthique de bienfaisance Note 27 faisant écho au
principe de non-malfaisance. Précisément, l'IA doit contribuer à la recherche du bien
commun. Or, il est indéniable que la protection de l'environnement concourt à cet objectif. Si
l'ensemble de ces textes confirmaient le potentiel que représente l'IA pour la protection de
l'environnement, ces textes étaient dépourvus d'application contraignante. Ainsi, leur portée
était limitée : les développeurs étaient libres de créer des IA protectrices de l'environnement
ou des IA contribuant à une plus grande pollution. Ainsi, les entreprises créatrices d'IA ne
contribuaient pas toujours à l'accomplissement des ambitions environnementales
caractéristiques de la RSE.
10. - L'admission claire par l' Artificial Intelligence Act. - La véritable reconnaissance des
opportunités que représente l'IA dans les objectifs de RSE des créateurs et des utilisateurs
réside dans les amendements adoptés par le Parlement européen dans le cadre de l'Artificial
Intelligence Act. Si la proposition initiale restait timide, la proposition amendée reconnaît une
grande place à la protection de l'environnement comme le souhaitait la doctrine Note 28 . Dès le
premier considérant, il est admis que le règlement entend garantir un niveau élevé de
protection de l'environnement. L'article 1er, alinéa 1er, soutient cette même logique. Surtout,

36
l'article 4 bis prévoit que les opérateurs mettent tout en œuvre pour développer et utiliser des
systèmes d'IA conformes aux valeurs sur lesquelles l'Union est fondée tels que le bien-être
social et environnemental. Enfin, l'article 54 bis préconise de promouvoir la recherche et le
développement d'IA bénéfiques à l'environnement. Ainsi, les développeurs sont invités à créer
des systèmes d'IA respectueux de l'environnement. Par le développement de systèmes plus
écologiques, ces entreprises créatrices pourront accomplir des objectifs environnementaux
caractéristiques de la RSE à l'image de la production de technologies vertes. En outre, ces
systèmes d'IA respectueux de l'environnement pourront aider les entreprises utilisatrices à
accomplir leurs objectifs de RSE.
11. - Un droit conforté par la pratique de l'IA. - Cette affirmation est confirmée par
l'utilisation des systèmes IA. De nombreux programmes de RSE visant à lutter contre le
réchauffement climatique bénéficient du recours à des algorithmes Note 29 afin d'optimiser et de
contrôler l'organisation et les processus mis en place au nom de la RSE Note 30
. À titre
d'exemple, la société Microsoft propose un modèle d'analyse permettant d'évaluer les
démarches écoresponsables des entreprises. D'autres systèmes d'IA permettent aux entreprises
d'accomplir concrètement leurs objectifs environnementaux de RSE en matière de gestion des
ressources, des énergies et d'anticipation des risques.
12. - Exemples. - Concernant la gestion de l'eau, la société Emagin a développé une IA
capable d'analyser les données collectées par les sources d'eau en utilisant des capteurs. Grâce
à celle-ci, il est possible de prédire la consommation d'eau tout en fournissant des
recommandations afin d'en optimiser la consommation et d'en réduire le gaspillage Note 31
.
Quant à la consommation d'énergie, la société Energiency a créé une plateforme d'IA
analysant la performance énergétique qui pourrait permettre aux clients d'un tel logiciel
d'économiser jusqu'à 20 % sur leur facture énergétique Note 32
. Enfin, certaines innovations
aident les entreprises à mieux anticiper les risques. Ainsi, la société ORBITAL INSIGHT a
mis en œuvre un service d'analyse des données permettant aux agriculteurs de déterminer le
meilleur moment pour effectuer leur récolte et le meilleur moment pour vendre leurs
produitsNote 33 .

Les données environnementales étudiées par l'IA permettent donc aux entreprises utilisatrices
d'optimiser leurs mesures de lutte contre le réchauffement climatique

37
2. Le droit de l'IA : un potentiel encore insuffisamment
approfondi dans la démarche RSE

13. - Un double défi à relever. - Le droit de l'IA pourrait maximiser son potentiel afin d'aider
les entreprises créatrices et utilisatrices à accomplir leurs objectifs de RSE. Pour ce faire,
celle-ci doit se nourrir d'un meilleur partage des données environnementales (A) et mieux
responsabiliser les développeurs en cas de préjudices environnementaux causés par les IA (B).

A. - Un meilleur partage des données environnementales

14. - Le rôle essentiel de la donnée environnementale. - La rareté des données


environnementales est clairement soulignéeNote 34 . À l'exception de l'imagerie satellitaire et des
données météorologiques, les données environnementales sont peu disponibles. Pourtant ces
dernières sont un préalable essentielNote 35 : sans celles-ci, l'IA est inopérante. Les données sont
la matière brute sur laquelle travaille l'IA en vue d'apporter ses analyses. Les données
environnementales étudiées par l'IA permettent donc aux entreprises utilisatrices d'optimiser
leurs mesures de lutte contre le réchauffement climatique et d'analyser leurs manquements à
leurs engagements RSENote 36
. Ainsi, le partage de ces données est essentiel en vue de
développer des IA plus respectueuses de l'environnement et d'aider les entreprises à accomplir
leurs objectifs de RSE. Certes, certaines initiatives européennes encouragent le partage
volontaireNote 37 des données. Eu égard à l'urgence que représentent le changement climatique
et le durcissement des règles de RSE, il importe de créer des dispositions encourageant la
collecte et le partage des données environnementales.
15. - Un accès aux informations environnementales inadapté à l'IA. - L'accès à
l'information environnementale a été encouragé par la convention d'Aarhus en 2002. Le droit
Note 38
de l'Union européenne lui a emboîté le pas par l'adoption de la directive 2003/04/CE .
Selon l'article 2, les « informations environnementales » ont été définies au sens large comme
comprenant « l'état des éléments de l'environnement » et « les facteurs, tels que les
substances, l'énergie, le bruit, les rayonnements ou les déchets, y compris les déchets
radioactifs, les émissions, les déversements et autres rejets dans l'environnement, qui
affectent ou sont susceptibles d'affecter les éléments de l'environnement ». L'article 3 précise
que les États membres veillent à ce que les informations environnementales soient mises à la
disposition du public. Il s'agit là d'un bon moyen de garantir la diffusion des données

38
environnementales. Toutefois, ce texte prévoit trop d'exceptions au partage des informations :
l'article 4 exclut la divulgation d'un grand nombre d'informations sous couvert de
confidentialité.
16. - Un encouragement lent au partage des données environnementales. - Au cours des 5
dernières années, la protection des données a fait l'objet d'une attention particulière de la part
Note 39
de l'Union européenne. Le texte le plus connu est le règlement 2016/679 dit « RGPD ».
Celui-ci n'aborde pas le sujet des données environnementales. Le règlement 2018/1807 Note 40 ,
adopté 2 ans plus tard par l'Union européenne, traite du cadre de la libre circulation des
données à caractère non personnel. Il soutient la libre circulation des données au sein de
l'Union européenne. Malheureusement, ce règlement n'inclut pas de dispositions spécifiques
Note
pour la collecte et la distribution des données environnementales. La directive 2019/1024
41
est le premier texte traitant de ce type de données. En effet, son article 2 définit la notion
« d'ensemble de données à forte valeur » comme l'ensemble des documents dont la
réutilisation est associée à d'importantes retombées positives au niveau de l'environnement.
L'article 14 prévoit la libre réutilisation de ces données à forte valeur et leur disponibilité dans
un format lisible. Cependant, la directive 2019/1024 ne concerne que les données incluses
dans des documents détenus par des organismes du secteur public ou provenant d'entreprises
publiques, ce qui exclut son application aux données environnementales appartenant à des
entités privées. Ainsi, il est à déplorer que les dispositions favorisant le partage de données
environnementales restent limitées. Concernant l'Artificial Intelligence Act, l'article 54
propose dans le cadre du bac à sable réglementaire de traiter des données personnelles à des
fins de développement et de test de certains systèmes d'IA lorsque ces derniers visent à
assurer un niveau élevé de protection de l'environnement. Néanmoins, cet article semble se
limiter aux données personnelles récoltées dans le cadre du bac à sable réglementaire. Quant
Note 42
au Data Act , celui-ci ne propose pas d'articles traitant de la circulation des données
environnementales.
17. - Vers la création de données d'intérêt général. - Le Data Act propose toutefois un
considérant permettant de plaider pour une circulation des données environnementales.
Précisément, le considérant 64 rappelle qu'en cas de situation d'urgence résultant de
catastrophes naturelles, y compris celles aggravées par le changement climatique et la
dégradation de l'environnement, l'intérêt public résultant de l'utilisation de ces données
l'emportera sur l'intérêt de leurs détenteurs. Ainsi, certains auteurs plaident pour la création
d'une notion de données d'intérêt général pouvant faire l'objet d'un régime juridique d'open
Note 43
data . Ces données publiques ou privées seraient considérées comme des biens
39
communs, justifiant d'annihiler des droits particuliers pour les mettre à la disposition de tous.
Il incombe donc de plaider pour l'adoption d'un règlement spécifiquement dédié aux données
d'intérêt général telles que les données environnementales tout en sensibilisant le public à
l'importance de ces données environnementales. Un meilleur accès à ces données permettra de
développer des systèmes d'IA plus performants à accomplir des objectifs de RSE, tant pour
les entreprises créatrices qu'utilisatrices.

Les amendements du parlement permettent une nouvelle fois de placer la limitation de la


pollution numérique au cœur de la régulation de l'IA

B. - Une plus grande responsabilisation des développeurs


d'IA

18. - Le silence de l' Artificial Intelligence Act . - Quid de l'hypothèse où un système d'IA
cause un dommage à l'environnement ? Dans ce contexte précis, les créateurs de l'IA n'ont pas
accompli leurs objectifs de RSE en produisant une technologie polluante, et les utilisateurs de
ces systèmes ne peuvent pas réaliser leurs propres ambitions. L'Artificial Intelligence Act reste
muet sur la question. Celui-ci se contente de prévoir à l'article 67 que les autorités de contrôle
invitent les opérateurs des systèmes d'IA à ce que ces derniers ne présentent plus de risques
pour l'environnement. Ainsi, ce texte ne prévoit pas de sanctions en cas de dommages
environnementaux. Celui-ci laisse cette hypothèse au droit des États membres.
19. - Un droit français peu adapté à la réparation des dommages environnementaux
causés par une IA. - Le droit français autorise la réparation des dommages
environnementaux causés à la nature (C. civ., art. 1247) tandis que la responsabilité civile
environnementale demeure ancrée dans le paysage juridique français Note 44 . Néanmoins, cette
responsabilité civile environnementale ne prend pas en compte les dommages
environnementaux causés par une IA. En droit français, la responsabilité civile appliquée à
l'IA fait l'objet de controverses doctrinales. Tantôt certains estiment qu'il n'y a pas lieu de
mettre en œuvre un régime spécifiqueNote 45
tantôt d'autres réclament l'adaptation de la
responsabilité civileNote 46 . Il est vrai que la responsabilité civile ne permet pas toujours de
réparer un dommage causé par une IA. Dans l'hypothèse d'un dommage environnemental
causé par une IA, celui-ci n'est pas forcément causé par la négligence ou l'imprudence du
développeur de l'IA, mais par l'IA elle-mêmeNote 47 . Concernant la responsabilité du fait des
choses prévues à l'article 1242 du Code civil, l'aléa entourant l'évolution des systèmes d'IA et
40
son comportement rend la notion de contrôle et de direction de la chose hypothétique Note 48 .
Quant à la responsabilité du fait des produits défectueux directement imputable aux
producteurs du produit (C. civ., art. 1245), celle-ci implique toutefois de prouver que le
produit présente un défaut au regard de sécurité à laquelle on peut légitimement s'attendre (C.
civ., art. 1245-3). Cependant, ce défaut de sécurité ne saurait pas être déduit de la seule
dangerosité du produit : il faut alors prouver que cette dangerosité est anormale ou
excessiveNote 49 . Le développeur d'une IA serait uniquement responsable si celle-ci présente
une dangerosité anormale ou excessive pour l'environnement, excluant ainsi certaines IA
polluantes de ce régime de responsabilité. Une telle possibilité serait contraire à l'idée de RSE,
défendant une responsabilisation des entreprises vis-à-vis de ses effets sur l'environnement.
20. - Une responsabilité civile ouverte aux évolutions. - Cette inadaptation des mécanismes
de responsabilité civile n'est pas dépourvue d'explications. Les responsabilités pour faute ou
du fait des choses sont apparues au cours du XIXe siècle tandis que la responsabilité du fait
des produits défectueux est apparue à la fin du XXe siècle. Ces régimes sont adaptés à des
personnes physiques ou des choses inanimées dans un univers matériel Note 50 alors que l'IA est
immatérielle, autonome et évolutive. Néanmoins, la responsabilité civile peut s'adapter :
originellement, celle-ci se contentait de réparer les dommages causés par une faute. Celle-ci
s'est élargieNote 51 afin de réparer plus de dommages comme en témoigne la création du régime
de responsabilité du fait des choses ou des produits défectueux. La responsabilité civile peut
donc évoluer vers une meilleure réparation des dommages environnementaux causés par une
IA.
21. - La nécessaire mise en œuvre d'un régime européen de responsabilité applicable aux
IA en vue de réparer les préjudices environnementaux. - En droit européen, l'article 2 de
la résolution du parlement contenant des recommandations à la commission sur un régime de
responsabilité civile pour l'intelligence artificielle semble exclure de son champ d'application
les dommages causés à l'environnement Note 52
. Ce même article renvoie à des régulations
spéciales encadrant la responsabilité environnementale. En droit européen, cette notion est
Note 53
encadrée par la directive 2004/35/CE . Toutefois celle-ci s'applique uniquement à
certaines entreprises et activités professionnelles spécifiques telles que les installations
classées. Le seul régime de responsabilité applicable à tous (et non limité aux professionnels)
est circonscrit à la protection des espaces et de l'habitat. La modification de cette directive par
le règlement du 5 juin 2019 sur l'alignement des obligations en matière de communication
d'informations dans le domaine de la législation liée à l'environnement, ne modifie pas le
régime de responsabilité prévue dans la directive de 2004 Note 54 . Récemment, la proposition de
41
directive européenne établie le 28 septembre 2022 Note 55 relative à l'adaptation des règles en
matière de responsabilité civile extracontractuelle au domaine de l'intelligence artificielle ne
semble pas prendre en compte les dommages causés à l'environnement. Ainsi, il existe un
vide juridique en matière de dommages environnementaux causés par une IA, il conviendrait
donc de prévoir l'hypothèse particulière des dommages environnementaux au sein d'un futur
règlement adaptant la responsabilité civile aux spécificités de l'IA. L'adoption d'un texte
européen est cruciale afin d'obtenir un régime de responsabilité civile environnementale
harmonisée au sein des différents États commercialisant les mêmes systèmes d'IA.
22. - Conclusion. - L'évolution du droit de l'IA peut incontestablement contribuer à
développer une meilleure démarche RSE tant auprès des créateurs que des entreprises
utilisatrices. Néanmoins, ce potentiel peut encore être approfondi par des réglementations
européennes favorisant la responsabilité des développeurs d'IA et par des mesures facilitant la
circulation des données environnementales.

42

Vous aimerez peut-être aussi