0% ont trouvé ce document utile (0 vote)
58 vues331 pages

2le Guide de L'intelligence Arti - Salis-Madinier, Franca

Le document aborde l'importance de l'intelligence artificielle (IA) dans le monde moderne, soulignant la nécessité pour les entreprises de former et d'impliquer leurs employés dans son utilisation. Il met en avant les opportunités et les risques associés à l'IA, ainsi que l'importance d'un cadre éthique et de confiance pour protéger les droits des individus. Enfin, il appelle à un dialogue sur l'IA pour garantir qu'elle serve d'outil d'émancipation plutôt que d'asservissement.

Transféré par

Arnaud
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
58 vues331 pages

2le Guide de L'intelligence Arti - Salis-Madinier, Franca

Le document aborde l'importance de l'intelligence artificielle (IA) dans le monde moderne, soulignant la nécessité pour les entreprises de former et d'impliquer leurs employés dans son utilisation. Il met en avant les opportunités et les risques associés à l'IA, ainsi que l'importance d'un cadre éthique et de confiance pour protéger les droits des individus. Enfin, il appelle à un dialogue sur l'IA pour garantir qu'elle serve d'outil d'émancipation plutôt que d'asservissement.

Transféré par

Arnaud
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

Préface

Nous avons vécu la révolution numérique avec la présence des ordinateurs,

d’Internet et des smartphones. Aujourd’hui, il est nécessaire de comprendre

et de se former à l’univers et aux usages de l’intelligence artificielle (IA),

car cette évolution technologique est partout, invisible, rapide, diverse et

disruptive pour les modèles économiques des entreprises et les métiers.

La question n’est plus d’être pour ou contre l’IA, la question est de savoir

si les entreprises sont capables de co-construire avec les partenaires sociaux

des stratégies intégrant l’IA comme facteur d’innovation pour les clients

et facteur d’enrichissement du travail pour les salariés. En d’autres termes,

comment les organisations vont- elles former et impliquer les salariés pour

qu’ils comprennent les opportunités, les risques, les biais et le cadre de

confiance ? L’objectif recherché est de tirer profit de la reconnaissance

faciale, de la reconnaissance de texte, des processus automatisés avec l’IA,

mais également que l’homme exerce régulièrement son doute technolo-

gique, son esprit critique pour remettre en cause, par exemple, un GPS

qui le fait tourner en rond ou intuiter les fausses informations.

Cet ouvrage est à la fois un baromètre et une boussole. Il permet de cartographier les évolutions internationales au sujet des
usages mais
aussi

de l’éthique dans le domaine de l’IA. Il fait un tour d’horizon très complet

du sujet en intégrant les différentes dimensions sociétales, politiques, cultu-

relles, économiques et sociales. Il présente également des propositions

concrètes pour que chaque salarié, consommateur, acheteur ou citoyen

puisse être protégé au niveau de ses datas et de ses libertés individuelles

et collectives. Intégrant de nombreux exemples, des témoignages et des

analyses, il permettra au lecteur d’avoir une vision illustrative et actionnable


de l’usage et des enjeux de l’IA dans le monde post- Covid-19. Il explique

pourquoi il est nécessaire que l’homme garde le pouvoir de décision face à

l’IA aussi bien au niveau individuel qu’organisationnel. Ainsi, pour engager

le débat, il nous semble nécessaire d’amorcer cinq sujets développés dans

l’ouvrage.

2 Le guide de l’intelligence artificielle au travail

Qu’est- ce Que l’intelligence artificielle ?

L’intelligence artificielle, ou IA, est un ensemble de briques technologiques

qui permettent à des machines de réaliser des tâches. Si on prend l’angle des

usages, il est possible de distinguer cinq domaines : la parole et le langage,


la reconnaissance visuelle, la robotique et l’automatisation des processus, et

l’optimisation des connaissances à travers l’analyse, les alertes et la prévision.

PourQuoi former les salariés à l’intelligence artificielle ?

Quel que soit le métier exercé, l’IA aura un impact. Aussi, une nouvelle

responsabilité sociétale s’impose à l’entreprise : acculturer, former et faire

participer les salariés à l’évolution de leur métier avec l’IA. Par exemple,

il s’agira aussi bien de faire prendre conscience des risques de l’IA liés

aux biais de data ou aux cyberattaques, qui peuvent piller des données de

l’entreprise, que d’expliquer comment un processus automatisé avec de

l’IA peut gérer des entrées d’e-mails et les répartir aux bons interlocuteurs

afin de dégager du temps d’analyse et de traitement de dossiers complexes

pour le collaborateur. La formation à l’IA commence par l’apprentissage


du vocabulaire, puis par la montée en compétences sur les comportements
à avoir quand on est un expert métier pour travailler sur un projet IA. Ainsi, réfléchir, collectivement, au sein d’une organisation,
avec les
parte-

naires sociaux, à la transformation des métiers avec l’IA, c’est réfléchir aux

tâches qui pourront être réalisées par l’IA, celles où elle pourra assister

l’homme et celles que l’on ne pourra faire que grâce à elle.

Quel est le rôle des Partenaires sociaux ?

Cette acculturation et cette formation à l’IA doivent être pensées de façon

holistique, à destination des clients, des collaborateurs et des partenaires

sociaux. Au sein de l’observatoire du futur du travail et du manage-

ment, le Learning Lab Human Change du Cnam, nous avons rédigé


en Préface 3
collaboration avec Malakoff Humanis et avec la participation de la secré-
taire nationale de la CFDT Cadres, en 2021, un livre blanc sur la place

et le rôle des partenaires sociaux français sur la thématique de l’IA dans

l’industrie. Quatre préconisations ont été proposées : former les partenaires

sociaux à une culture IA et à la data visualisation, partager les processus

de récolte des datas avec les partenaires sociaux, cocréer et communiquer

avec les partenaires sociaux la stratégie IA de l’entreprise, co- construire

avec les partenaires sociaux un cadre de confiance.

Quels sont les oPPortunités

et les risQues de l’intelligence artificielle ?

Nombreux sont les secteurs d’activité qui innovent avec de l’IA (la méde-

cine, l’industrie, les services, les RH, etc.). Les opportunités sont liées aux

nouveaux usages porteurs de progrès, mais les dérives et les dangers sont

également nombreux : l’impossible explicabilité de certains algorithmes,


l’IA au service du contrôle, de la délation, des fausses informations, des

attaques, de la manipulation, etc. Aussi, un cadre de confiance au niveau

de l’entreprise, des États et du monde libre s’avère indispensable afin de

réguler les dérives et d’optimiser les progrès.

en Quoi une éthiQue de l’intelligence artificielle est- elle nécessaire ?

Avoir des valeurs pour prendre des décisions constitue le socle pour instaurer des axes éthiques. En complément des initiatives
internatio- nales et au niveau des États, on peut citer l’Unesco1 qui a créé le
premier

instrument normatif majeur sur l’éthique de l’IA autour de quatre axes : la

proportionnalité, la surveillance et la détermination humaines, la gestion

1. Unesco, « L’Unesco franchit une étape majeure vers le premier instrument normatif mondial sur l’éthique de l’intelligence
artificielle », 17 septembre 2020.

4 Le guide de l’intelligence artificielle au travail


de l’environnement et l’égalité des genres. Aussi, chaque entreprise doit

se poser la question de la nécessité et du contenu d’une action top- down

comme une charte, un label, une certification ou bottom-up comme l’ex-

plicitation de ses meilleures pratiques au sujet de la prise de décision, de la

formation, du déploiement et du contrôle de l’IA dans son organisation.

Ainsi, la thématique de l’IA est un sujet stratégique pour les partenaires


sociaux qui accompagnent l’évolution, l’innovation et la disruption des entreprises. Ce sujet doit être posé en mettant l’humain,
le salarié, sa
quête

de sens et son équilibre au cœur des réflexions. En quoi l’IA permettra-

t-elle de rendre le travail moins pénible, moins stressant et plus intéressant

et formateur pour l’homme ? Tel est tout l’enjeu de cet ouvrage.

Cécile Dejoux
Professeure des universités au Cnam, affiliée à l’ESCP Europe, conférencière, directrice du Learning Lab Human Change, Cnam

Introduction

à Quand un débat sur l’utilisation de l’intelligence artificielle ?

La Covid-19 a accéléré la transformation de la société vers plus de digital

sans guère de débat démocratique. Elle a fourni une occasion d’introduire

des modes d’achat pratiquement à 100 % numériques dans le commerce ou

de nouvelles formes d’intelligence artificielle (IA) dans les grands groupes


industriels comme EDF, Total ou Airbus. Elle a permis aux banques, assurances et services publics, de relier discrètement leurs
chatbots à
des

e-mails, des foires aux questions, ou des rappels à date inconnue au lieu

de les rediriger vers des conseillers dont le nombre s’était amenuisé.


Elle

a « encouragé » les magasins à créer des caisses automatiques à scannettes


plutôt que de garder des caissiers. Elle a constitué une opportunité pour

tous les réseaux de télécommunications saturés de textos, d’e-mails ou

de vidéos, de se sécuriser, grâce à des algorithmes plutôt qu’avec l’aide

d’ingénieurs et de techniciens.

Dans l’entreprise, la Covid-19 a été à l’origine d’une explosion des systèmes

de contrôle et de télétravail, organisation qui devrait perdurer. Bref, elle

a donné à la technologie la possibilité d’imprimer un tournant radical à

nos liens sociaux et à nos vies, sans véritable anticipation, ni discussion.

Comme évoqué par Cécile Dejoux dans la préface, si l’on définit l’IA au regard de ses usages, elle est une technologie numérique
qui peut accomplir des tâches cognitives humaines dans les domaines de la
parole

et du langage, de la reconnaissance visuelle, de la robotique et de l’au-

tomatisation des processus et des connaissances à travers l’analyse, les

recommandations et la prévision. Pourtant, l’utilisation de l’IA, compte

tenu des caractéristiques spécifiques de cette technologie – l’opacité, la

complexité, la dépendance à l’égard des données, le comportement auto-

nome –, peut porter atteinte à un certain nombre de droits fondamentaux

des personnes. La CFDT Cadres estime qu’une prise de conscience


est 6 Le guide de l’intelligence artificielle au travail

nécessaire et qu’un dialogue doit s’engager sur ces sujets aux conséquences

lourdes sur nos existences. En particulier, elle réclame un dialogue interne


et externe aux lieux de travail sur l’introduction de l’intelligence artifi- cielle, afin que cette technologie soit pour tout citoyen et
travailleur
un

moyen d’émancipation et non un outil d’asservissement.

PourQuoi un guide sur l’intelligence artificielle ?


Un guide sur l’intelligence artificielle est bel et bien du ressort d’un

syndicat, car l’IA regroupe des technologies que les travailleurs côtoient au

quotidien. C’est l’intelligence artificielle qui aide au recrutement, propose

un parcours de formation, traduit automatiquement des textes, classe des

e-mails, sélectionne des jurisprudences et aide à la décision… C’est elle


qui nous répond au téléphone. C’est encore elle qui calcule le niveau de pesticides dans un champ, évalue nos possibilités
d’emprunt. Dans
le
domaine médical, elle peut sauver nos vies. Au cœur de technologies comme la robotique, la reconnaissance faciale ou vocale, la
connexion des

objets, elle vient assister, suppléer, voire dépasser efficacement un certain

nombre de facultés cognitives humaines à la fois sur le plan technique

mais aussi économique. Elle intervient dans les processus de production

du secteur de l’automobile, dans l’assistance à des opérateurs humains

dans le pilotage d’installations à risques, ou dans l’intermédiation de la


distribution ou des services à la personne.

D’autre part, l’IA crée des attentes par rapport aux droits des salariés dans la gestion des ressources humaines et des droits des
citoyens
dans les

domaines de la justice, des services financiers, des transports, de l’agri-

culture, des soins de santé et des services publics.

Ces nouveaux droits sont opposables aux systèmes d’IA : le droit de ne

pas être l’objet d’une décision prise exclusivement par un algorithme (par
exemple, la décision de ne pas être recruté ou celle de se voir refuser un crédit bancaire), le droit à l’oubli, le droit à l’explicabilité
des déci- sions prises par la machine… À la base de l’intelligence artificielle,
c’est

l’algorithme. Celui- ci se nourrit d’immenses quantités des données.


Introduction 7
La qualité de ces données détermine ses résultats. Si les données sont
biaisées, l’algorithme reproduit, en les amplifiant, des discriminations.
Les systèmes sont extrêmement complexes : un des derniers modèles d’IA

de Google contient 175 milliards de paramètres, c’est dire si l’humain est

incapable d’expliciter son fonctionnement, de le rendre transparent ou

de le tracer !

C’est pour faire face à cette complexité et à cette opacité des systèmes
d’intelligence artificielle, pour en éviter les errances, pour créer une confiance bénéfique aux citoyens, que l’Europe, premier
continent
dans

le monde, propose une régulation de l’intelligence artificielle. La France,

présidant l’Union européenne à partir du 1er janvier 2022, peut l’appuyer.

Le propos de ce guide consiste, d’une part, à développer et à élargir les

connaissances sur l’intelligence artificielle, ses impacts dans le monde du


travail et plus largement sur la société afin de contribuer à un débat éclairé

et équilibré, qui évite les écueils des scénarios catastrophe ou d’une rela-

tivisation à outrance ; d’autre part, à fournir la possibilité d’agir à travers

des droits individuels et collectifs, sur cette technologie.


Partie I

Le contexte international et les enjeux

de l’intelligence artificielle

Si l’intelligence artificielle est source d’espoir de nouveaux gains de productivité dans les entreprises et de réduction des tâches
pénibles ou fastidieuses, d’opportunités dans les domaines
médical,

de l’agriculture ou des transports, elle fait aussi planer des risques

d’intensification du travail et de contrôle des personnes. Il est nécessaire qu’elle soit sérieusement encadrée sur le plan sociétal
pour protéger les droits humains.
1

Un marché qui explose

Les économistes s’accordent sur une explosion mondiale du marché de

l’intelligence artificielle dans les années à venir.

En cinq ans, le marché mondial de l’intelligence artificielle a été multi- plié par dix1. Peu avant la pandémie, une enquête intitulée
« Win
with

empathy », menée par Mercer en mars 2020 auprès de plus de 7 300 respon-

sables des ressources humaines du monde entier, a révélé que la proportion


des DRH qui affirmaient utiliser l’analyse prédictive pour identifier les employés qui allaient partir, était passée de 10 % en 2016 à
39 %
en 2020.

Cette explosion du marché de l’intelligence artificielle est liée aux


espérances de gains de productivité. Selon les conclusions du rapport

d’Accenture2, la productivité du travail pourrait augmenter de près de 40 %

avec l’intelligence artificielle dans certains pays développés, d’ici 2035. En

France, les analystes s’attendent à une inflation des gains de productivité

de 20 % au cours des quinze prochaines années.

Données 2021 trading platforms.


Accenture et Frontier Economics, « Industry Spotlights. How AI Boosts Industry Spotlights Industry Profits And Innovation »,2017,
[Link]/_acnmedia/

Accenture/next- gen-5/insight- ai- industry- growth/pdf/Accenture- AI- Industry-

Growth- Industry- [Link]#zoom=50

12 Le contexte international et les enjeux de l’intelligence artificielle

La plupart des études soulignent qu’avec le concours d’un réseau de

communication unifié, vraisemblablement grâce à celui de la 5G, grâce


à l’universalisation de l’accès aux technologies, l’intelligence artificielle renforcera son influence sur nos sociétés. Les
confinements liés au
coro-
navirus ont d’ores et déjà donné un coup d’accélérateur en ce sens.

Les gains de productivité escomptés par les entreprises proviennent de

nombreux domaines. En 2021, Malakoff- Humanis a souligné dans son

enquête « Intelligence artificielle et capital humain » qu’une majorité de


dirigeants estimaient que l’intelligence artificielle améliorerait la rapi- dité et la fiabilité de la prise de décision, l’organisation et la
manière
de

travailler et le pilotage de l’entreprise. Ces chefs d’entreprise évoquaient

également pour le travail des collaborateurs une réduction des risques

d’erreur, une montée en compétences, une réduction des tâches dange-

reuses, une amélioration de l’intérêt des tâches et de la valeur ajoutée du

travail, de nouvelles opportunités en termes de parcours professionnels,

une amélioration du bien- être et de la qualité de vie au travail des salariés.


2

Une compétition internationale très rude

Les principaux moteurs des développements de l’intelligence artificielle


proviennent de géants de la technologie comme Google, Alphabet, Microsoft, Amazon, Intel, Facebook, Apple ou encore Baidu et
Tencent

de l’autre côté du globe. Le principe « the biggest takes the all » (traduisez « le plus gros remporte toute la mise ») implique que
ces sociétés bénéficient

d’un positionnement, d’atouts technologiques ainsi que de fonds impor-


tants pour développer leurs propres technologies ou pour acquérir ou nouer des partenariats avec de jeunes pousses.
Néanmoins,
l’intelligence artificielle n’est pas seulement réservée aux grandes
entreprises technolo-

giques américaines et chinoises. Aujourd’hui, en raison de facteurs comme

l’open source, le cloud ou la collaboration et la disponibilité des fonds,


de plus en plus de start-up en France ou ailleurs, se créent sur des tech-nologies liées à l’intelligence artificielle.

Ces efforts sont déployés dans un contexte où la France et, au- delà, l’Europe, tentent de rattraper leur retard vis- à-vis de leurs
concurrents

asiatiques et américains, qui ont récolté des quantités astronomiques de

données, depuis plus d’une décennie, via les géants Amazon, Google et

autres Facebook ou Huawei et qui investissent massivement. Certes, les investissements européens dans le domaine de
l’intelligence artificielle

sont nettement inférieurs à ceux d’autres puissances mondiales.


Selon une

étude de la Banque européenne d’investissement (BEI), les États-


Unis et

la Chine représentent à eux deux plus de 80 % des 25 milliards


d’euros 14 Le contexte international et les enjeux de l’intelligence artificielle

d’investissements annuels en actions dans l’IA et dans les technologies

blockchain, tandis que les 27 pays européens ne représentent que 7


% de

ce montant mondial. La BEI estime que le déficit d’investissement total


dans l’IA et les technologies blockchain dans l’Union européenne est d’environ 5 à 10 milliards d’euros par an.

Toutefois, grâce aux programmes Digital Europe et Horizon Europe, la Commission européenne prévoit d’investir 1 milliard
d’euros par an
dans

l’IA et de mobiliser des investissements supplémentaires du secteur privé

et des États membres pour atteindre 20 milliards d’euros d’investissement

par an au cours de cette décennie.


3

Les enjeux des données

Les algorithmes ont besoin d’immenses quantités de données pour faire

de l’analyse prédictive (dans la maintenance), pour produire des classe-


ments ou de l’aide à la décision. L’intelligence artificielle exploitera un nombre croissant de données à l’avenir. Cette exigence des
données
entre

en conflit avec le principe de la protection des données personnelles et

l’utilisation que l’on en fait. Ainsi, en Chine, sous prétexte de préserver

la sécurité des citoyens et de rendre les villes sûres, une surveillance des

citoyens dans leurs moindres activités a abouti à un système de notation

sociale, dans lequel l’individu est catalogué bon ou mauvais citoyen, et


peut perdre ses droits élémentaires, comme l’accès à des services publics.

le Pillage des données Personnelles

Le 6 juin 2013, le Guardian et le Washington Post ont révélé le programme


Prism permettant à la NSA de surveiller les internautes par des portes dissimulées dans les logiciels des principales entreprises
informatiques

américaines3.

Benjamin Ferran, « Prism : Apple, Microsoft et Facebook se confessent timide- ment », Le Figaro, 17 juin 2013.

16 Le contexte international et les enjeux de l’intelligence artificielle

Le 28 septembre 2013, grâce au lanceur d’alerte Edward Snowden, le


New

York Times a écrit que, depuis 2010, la NSA avait réalisé des profilages

de citoyens du monde entier, y compris américains. Il a affirmé que les


analystes de la NSA pouvaient générer des profils détaillés de personnes,

de leurs activités sociales, de leurs préférences religieuses ou politiques. Il

a indiqué que chaque profil pouvait être enrichi de 96 types de données :

numéros de téléphone, adresses e-mail ou adresses IP… issues de données

bancaires, d’assurances, de services de géolocalisation, de réseaux sociaux,

de factures, d’informations de voyage ou de listes électorales4. De plus,

il a signalé que les connexions entre chaque personne et ses contacts pouvaient être visualisées sous forme de cartes5.

Il a précisé que ces données provenaient de multiples bases de données


de la NSA, dont la base de métadonnées téléphoniques Mainway (700 millions de métadonnées collectées quotidiennement
début 2011,
plus 1,1 milliard chaque jour liées aux appels des téléphones mobiles depuis août 2011), mais aussi de sources publiques comme
Google
ou

divers sites de vente.


Le 28 septembre 2013, le Guardian a dévoilé que la NSA sauvegardait chaque jour les métadonnées sur l’historique des pages
web, le détail
des connexions, les e-mails et même des mots de passe, de millions de
personnes, dans sa base de données Marina6. Entre autres, le lanceur d’alerte Edward Snowden a révélé que 70,3 millions de
conversations avaient été aspirées en un mois chez les Français par la NSA7. Des enquêtes de médias européens ont indiqué
récemment que les États-
Unis

avaient espionné des responsables politiques en Europe, dont la chance-

lière allemande Angela Merkel, de 2012 à 2014, avec l’aide des services

James Risen et Laura Poitras, « N.S.A. Gathers Data on Social Connections of


U.S. Citizens », New York Times, 28 septembre 2013. 5. « Documents on N.S.A. Efforts to Diagram Social Networks of U.S. Citizens
», New York Times, 28 septembre 2013.

James Risen et Laura Poitras, op. cit.

Jacques Follorou et Glenn Greenwald, « Comment la NSA espionne la France »,


Le Monde, 21 octobre 2013.

Les enjeux des données 17


de renseignement danois8. Elles font écho au fait que le 26 octobre 2013,

le magazine Der Spiegel avait déjà indiqué que le téléphone portable de

la chancelière allemande Angela Merkel avait été espionné depuis 20029.

Par ailleurs, il y a quelques années, le scandale de l’entreprise britannique

Cambridge Analytica, qui a aspiré les données d’« amis » américains et


européens sur Facebook à des fins politiques, a été le symbole d’une Europe numérique inquiète de l’exploitation et de la
territorialité de
ses

données. Cette inquiétude a fait suite au fait qu’en mars 2018, le


New

York Times et le Guardian ont révélé que des informations sur 87 millions
d’utilisateurs de Facebook avaient été vendues à des politiciens pour cibler leurs efforts de campagne. L’un des lanceurs d’alerte,
Christopher

Wylie, directeur de recherche de la firme Cambridge Analytica a, depuis,


estimé que cette exploitation des données personnelles avait joué « un rôle

crucial » dans le Brexit, bien que la firme ait assuré en 2015 avoir détruit

ces données. Les documents fournis au comité judiciaire du Sénat des


États- Unis l’attestent. Toujours selon Christopher Wylie, début 2014, en deux à trois mois, Donald Trump avait disposé de 50 à 60
millions
de

profils individuels, ce qui lui avait permis de mieux orienter sa campagne,

de choisir les meilleurs donateurs et de maximiser son plan de déplace-

ments pour gagner les élections10.

Le 5 octobre 2021, preuves à la main, la lanceuse d’alerte Frances Haugen,


ex-employée de Facebook, dénonce, devant les sénateurs américains, les manquements de l’entreprise en matière de lutte
contre la haine
et la

désinformation, tout comme les effets néfastes sur les adolescents utili-

sant Instagram. Elle demande à la chambre du Sénat une intervention


du gouvernement pour réguler l’usage des algorithmes de classement des

contenus.

Martin Untersinger et Damien Leloup, « Comment des dirigeants européens,


dont Angela Merkel, ont été espionnés par la NSA depuis le Danemark », Le Monde, 30 mai 2021.

Jacob Appelbaum, Nikolaus Blome, Hubert Gude et al., « Embassy Espionage: The NSA’s Secret Spy Hub in Berlin », Der Spiegel,
26 octobre 2013. 10. Arjun Kharpal, « Facebook and Cambridge Analytica whistleblower: Donald Trump’s election made me speak
out », CNBC, 27 mars 2018.

18 Le contexte international et les enjeux de l’intelligence artificielle

Durant l’été 2021, le logiciel Pegasus défraye la chronique. Ce logiciel a utilisé la technologie numérique et l’IA pour pirater des
données de

divers chefs d’État, dont le président de la République en France, d’op-posants politiques et de journalistes. Développé par une
société israélienne

du nom de NSO Group, il permet de surveiller les communications de smartphones Android ou iOS. Il peut lire les messages,
écouter les

conversations et les appels, les enregistrer… Bref, il permet de prendre possession des téléphones portables qu’il cible comme s’il
en était le

propriétaire et comme s’il les avait en direct. Il n’est certainement pas le


seul sur le marché et son utilisation obscure menace nos démocraties et notre vie privée.

Encore une fois, l’usage non encadré de l’intelligence artificielle peut avoir

des conséquences qui nous rendent vulnérables au contrôle et susceptibles de subir des cyberattaques ou des piratages.
L’utilisation de ces logiciels

espions, fréquente et surtout dangereuse, dans les pays gouvernés par des régimes autoritaires, n’est pas sans poser des
problèmes de fond qui doivent

trouver une réponse à la hauteur des enjeux posés.

La concurrence est rude. Dans l’industrie, un million d’e-mails ont été capturés illégalement dans les messageries d’Alstom par les
États-
Unis

pour permettre, par une sorte d’opération de chantage d’État, en colla-

boration avec le « Department of Justice » américain, à General Electric de prendre à la France un actif fondamental en matière
d’énergie et de

défense, concernant la partie « turbines ». Le Piège américain11


raconte les coulisses de cette affaire d’État.

Dans ce secteur, les pays européens, au premier rang desquels la France,


tentent néanmoins de garder la main. Les grands acteurs industriels français et européens ont accumulé de la data dans des
domaines très variés comme

l’automobile, l’énergie, le nucléaire ou encore l’aérospatial. À elles seules, les voitures récoltent de plus en plus d’informations
sur leurs conducteurs.
McKinsey valorise ces dernières à 750 millions de dollars d’ici 203012. Dans la défense, Thales et Atos viennent de fonder une
société
commune,

11. Frédéric Pierucci et Matthieu Aron, Le Piège américain, JC Lattès, 2019. 12. McKinsey, « Monetizing car data: New service
business opportunities to create new customer benefits », septembre 2016.

Les enjeux des données 19

Athea, qui développera une plateforme dédiée à ce domaine pour le renseignement et la sécurité intérieure.

combien valent nos données ?

En Europe, les données personnelles sont considérées comme une propriété intrinsèque de la personne (droit de la personne).
Aux
États-
Unis, elles sont vues plutôt sous l’angle de la propriété matérielle et

personnelle, et à ce titre, elles peuvent faire l’objet d’un dédommagement

(droit de la propriété). Depuis dix ans, on entend dire que ces données

ont une valeur marchande, mais quel est leur prix ? Pour répondre à cette

question, il faut préciser deux sujets.

De quelles données parle- t-on ?

Les entreprises disposent de très nombreuses catégories de données.


La

plupart d’entre elles concernent surtout des données personnelles (propres

à un salarié, à un prospect, à un client, à un partenaire) de nature privée.


Les principales réglementations ou lois dans le monde ont classé ces données par catégories, des données personnelles aux
données
publiques,

des données sensibles ou non sensibles, en passant par les données communicables au public ou les données confidentielles. Nos
données

personnelles constituent une marchandise qui s’achète et se revend au


plus offrant. Elles représentent beaucoup d’argent pour les courtiers en

données, les spécialistes de la compilation des profils d’utilisateurs.


À côté

de cela, il existe les rois de la donnée personnelle, les GAFAM (Google,

Apple, Facebook, Amazon et Microsoft), dont la capitalisation boursière

est près de trois fois supérieure à celle des entreprises du CAC 40.

L’exploitation de ces données prodigue un pouvoir sur nos vies, nos goûts, nos orientations et sur l’utilisation de notre temps de «
cerveau disponible » :
Google est probablement celui qui en sait le plus sur nous tous. Il est

au courant de nos recherches de textes, de photos, de dessins ou


de 20 Le contexte international et les enjeux de l’intelligence artificielle

vidéos. Il connaît les sites que nous consultons, grâce à Chrome. Il trace nos déplacements au travers des applications Android,
Google
Maps ou Waze, peut analyser nos e-mails, via Gmail, notre agenda ou
nos documents de travail grâce à Google Docs. Il peut aussi connaître

la texture de notre voix via Google Assistant. La Commission nationale

de l’informatique et des libertés (Cnil) a établi que le géant ne respec-

tait pas certains des principes clés du droit européen sur les données

personnelles, notamment parce qu’il n’informait pas correctement les

utilisateurs de l’usage qui était fait de leurs données personnelles.


Il

a été condamné en France à 50 millions d’euros d’amende en 2020.


Facebook connaît aussi nos goûts et nos sujets de discussion, nos opinions politiques, nos relations et amis. Il peut aussi savoir où
nous

nous trouvons en vacances, si nous diffusons des photos (Instagram

ou Facebook).

Amazon suit intimement nos sujets de préoccupation via nos achats et

nos livres. Il scrute nos contenus préférés via Prime Video. Avec son

assistant personnel Alexa, Amazon complète l’ensemble.


Une montre ou une enceinte connectée, une télévision numérique enre-gistrent notre environnement géographique, nos
données de santé, nos

propos, pour nous proposer de la publicité ciblée.

Comment les valorise- t-on ?

Même s’il est plus aisé de vendre des données personnelles de prospects et clients qui peuvent être directement étudiées et
utilisées pour des

raisons commerciales, tout ensemble de données peut être vendu.


Aucun

consensus n’existe sur la valorisation des données.

Le Règlement européen sur la protection des données (RGPD) a ouvert la voie à la vente pour chaque internaute européen de ses
propres données

personnelles. Mais en pratique, vendre ses données est un casse- tête.

L’achat ou la revente de données se font sur le « dark web », où l’on peut acheter aussi bien les coordonnées d’une carte
bancaire que celles d’un

compte LinkedIn ou Twitter. Le 10 juin 2021, Le Figaro et Le Parisien


ont révélé l’existence d’une annonce de vente d’une base de données
Les enjeux des données 21

provenant du site pole- [Link], postée sur un forum spécialisé, pour

environ 840 euros. Dans l’annonce, le hacker affirmait posséder le nom, l’âge, le numéro de téléphone, le nom des anciens
employeurs, l’adresse

e-mail de 1,2 million d’entrées. Cette annonce a été contestée par Pôle

emploi : « Les premiers éléments dont nous disposons laissent à penser

que cette fuite concernerait dix fois moins de personnes qu’envisagé


»,

a indiqué l’organisme. Une enquête a été ouverte par ce dernier, dès le

jour suivant.

Et la bataille des données continue aujourd’hui. Le quotidien néerlandais

De Volkskrant a révélé au premier trimestre 2021 un rapport interne de

Capgemini réalisé en 2010, indiquant que Huawei avait pu écouter les lignes mobiles de l’opérateur néerlandais KPN, dont celle
du Premier
ministre. Huawei et ZTE, les leaders chinois des télécommunications,

font l’objet depuis 2012 de commissions d’enquêtes parlementaires aux

États- Unis centrées sur les risques que leurs équipements pourraient faire

courir à la sécurité nationale.

Jusqu’à présent, la majeure partie des données, notamment celles person-


nelles des citoyens, transitaient via les GAFAM, sous le contrôle des États- Unis. Toutes les grandes sociétés du numérique
américaines
transfé-

raient leurs données vers les États- Unis, grâce aux accords des utilisateurs,
concernant les conditions générales d’utilisation d’un service. Elles y voyaient une base légale suffisante pour faire passer ces
données
Outre-

Atlantique. Jusqu’à ce que la prise de conscience progresse sur la richesse

que pouvait représenter leur exploitation et que l’Europe s’oppose à cette

pratique. Tout ne transite plus aujourd’hui par les États- Unis.


Une initiative franco- allemande a vu le jour. Une sorte d’« Airbus du

cloud » qui n’a pas pour vocation de créer un concurrent capable de riva-

liser avec Amazon, Microsoft, Google ou Alibaba, comme le constructeur


d’avions adversaire de Boeing. L’initiative est plutôt une coopération d’acteurs européens existants et un label promouvant « les
principes
d’ou-
verture, d’interopérabilité, de transparence et de confiance », un peu à l’image du RGPD pour le respect de la vie privée.
Concrètement, Gaia-X sera une structure à but non lucratif installée en Belgique. Ses 22 premiers membres sont des grandes
entreprises françaises et
allemandes, 22 Le contexte international et les enjeux de l’intelligence artificielle

soit fournisseurs de solutions d’hébergement et de logiciels, soit clientes

de ces services : Orange, Deutsche Telekom, Bosch, Siemens, Atos, OVHcloud, Scaleway13, BMW…

Le standard exigera aussi de la « transparence », notamment sur un point

crucial : la soumission à des lois extraterritoriales comme le Cloud Act, qui


permet à la justice des États- Unis de perquisitionner des données partout

dans le monde si elles sont hébergées par une entreprise américaine.

Ces conditions visent à favoriser les prestataires européens. Mais les géants
américains pourront probablement les remplir et figurer dans le cata- logue d’offres Gaia-X. D’ailleurs, Amazon participe aux
discussions sur le label. Tout comme Google. « Nous apportons notre expertise sur
les

standards de sécurité et de confidentialité des données les plus élevés, qui


fonctionnent dans tout type d’environnement cloud et qui mettent le contrôle des données directement entre les mains des
clients », se
réjouit

le groupe qui, à l’instar d’Amazon, dit laisser le choix à ses clients en cas

de requête extraterritoriale.

Le fonctionnement de l’IA

peut avoir un impact sur les droits de l’Homme

Le fonctionnement de l’intelligence artificielle peut avoir un impact sur


les droits de l’Homme, sur la démocratie et l’État de droit. Il comporte des zones d’ombre soulignées par la Cour européenne des
droits de l’homme. Cette dernière a affirmé qu’il pouvait menacer le respect de la dignité humaine, de la liberté de l’individu, de
l’égalité, de la non- discrimination ainsi que de la solidarité, des droits sociaux et économiques.
D’ailleurs, dans beaucoup de pays s’est développée une réflexion sur la protection des valeurs démocratiques face à l’intelligence
artificielle. Alors que le débat sur les GAFAM montait crescendo en Europe, l’OCDE, qui rassemble 50 pays, a pris l’initiative
d’héberger le secrétariat d’un nouveau Partenariat mondial sur l’intelligence artificielle (PMIA), pour encourager une utilisation
responsable de l’intelligence artificielle, dans

13. Filiale cloud d’Iliad, fondée par Xavier Niel, actionnaire à titre individuel du
Monde.

Les enjeux des données 23

le respect des droits de l’Homme. Elle s’était inspirée des préconisa- tions européennes pour émettre des recommandations qui
ont fourni le premier standard international et intergouvernemental des politiques d’intelligence artificielle ratifiées par ces 50
gouvernements.
Que faire si les droits de l’Homme, la démocratie et l’État de droit ne nous protégeaient pas suffisamment ?
En raison du caractère invasif de certaines applications ou utilisations de l’intelligence artificielle, il pourrait y avoir à l’avenir
des situations dans lesquelles notre cadre actuel des droits de l’Homme, de démo- cratie et d’État de droit ne nous
protégerait plus de manière adéquate. Nous devrions peut- être faire une pause pour réfléchir et trouver la réponse
appropriée à ce que l’on pourrait considérer comme la « ques-
tion zéro » : voulons- nous autoriser un système d’intelligence artificielle ou une utilisation particulière de l’Intelligence
artificielle et si oui, dans quelles conditions ?
La réponse à cette question devrait nous obliger à examiner le système ou l’utilisation de l’intelligence artificielle sous tous
les angles, dans tous les lieux (que cela soit dans les lieux de travail, dans l’administration, ou dans l’espace public) ce qui
pourrait déboucher sur plusieurs « solutions » :
un système d’intelligence artificielle ou une utilisation particulière

pourraient être soumis à un moratoire ou à des restrictions (« lignes rouges


») ou encore tout simplement interdits (temporairement ou indéfiniment) ;

de nouveaux droits de l’Homme pourraient être introduits comme

garanties contre les « nouveaux » effets négatifs de l’intelligence artificielle ;


les droits de l’Homme existants pourraient être adaptés pour

permettre un développement et une utilisation responsables de l’in-telligence artificielle ;

un système ou un usage particulier de l’intelligence artificielle pour- raient être soumis à un contrôle démocratique spécifique ;
les propriétaires privés de systèmes d’intelligence artificielle puis-

sants seraient tenus d’aligner leurs structures de développement et de gouvernance de l’intelligence artificielle sur les intérêts
des personnes concernées par ces systèmes (comme les travailleurs, les consommateurs, les clients, les citoyens, les décideurs
politiques).

24 Le contexte international et les enjeux de l’intelligence artificielle

le lieu d’hébergement des données dans le collimateur euroPéen

Le lieu d’hébergement des données manipulées par l’intelligence artifi-cielle est dans le collimateur de Bruxelles. Le 16 juillet
2020, le bouclier

de protection des données Union européenne/États- Unis, dit « Privacy Shield » (« bouclier de données »), qui permettait le
transfert de données personnelles des habitants de l’Union européenne vers les États- Unis en conformité avec le RGPD, a été
invalidé par la Cour de Justice de

l’Union européenne. La Cour a réclamé « un haut niveau de garanties


» pour ces fameuses clauses de conditions générales, que nous
remplissons souvent en cliquant sur « accepter » sans les lire réellement. Dans son arrêt dit « Schrems II », la Cour a rendu
illégaux les transferts de données

avec les États- Unis, semant la perplexité dans de nombreuses entreprises européennes travaillant avec des pays tiers, car les Cnil
peuvent suspendre ou mettre fin à ces transferts de leur propre initiative ou suite à la plainte d’un citoyen. De son côté,
l’association None Of Your Business (NOYB),

domiciliée à Vienne, a choisi, au mois d’août 2020, de privilégier une interprétation « radicale » de cet arrêt Schrems II en
considérant que le simple fait de travailler avec un acteur économique américain était, en soi, un non- respect de ce texte. Elle a
déposé une plainte
à l’encontre de

101 entreprises européennes travaillant avec Google et Facebook


pour faire cesser toute relation d’affaires des entreprises européennes avec les entreprises américaines parce qu’elles continuent
à utiliser Google Analytics et Facebook Connect sur leurs sites web – transférant ainsi des
données personnelles à Google et Facebook aux États- Unis. En mai 2021, la Haute Cour de Justice d’Irlande a autorisé la
Commission

irlandaise pour la protection des données (DPC), à reprendre une enquête qui pourrait aboutir à une interdiction des transferts
de données de Facebook en Europe vers les États- Unis. Cette décision est d’autant plus intéressante que l’Irlande tire un profit
certain de son régime de taxation des sociétés qui

amène nombre de sociétés américaines à avoir leur siège européen en Irlande.


Puis le mois suivant, le juge européen a décidé qu’une autorité nationale

pouvait porter une suspicion de violation du RGPD devant une juridiction d’un État membre, même si cette autorité n’était pas
chef de file.

Les enjeux des données 25

En France, le débat public a rebondi sur l’hébergement des données


En France, le débat européen s’est incarné dans une controverse sur le lieu d’hébergement des données de santé dans
l’Hexagone, compte tenu du fait qu’il existe une plateforme de données de santé, hébergée chez Microsoft, alimentée depuis fin
2019 par les médecins, mais aussi par les pharmacies, les laboratoires d’analyses ou encore les cardiologues. La mise en place de
cette base de données à des fins de recherche médicale a été accélérée par un décret adopté au cœur du premier confinement,
le 21 avril 2020. Ces données de santé sont censées être « pseudo- anonymisées » dans leur hébergement. Mais la Cnil doit
trancher sur leur stockage en Europe, de même que sur la création de plateformes locales intra- européennes.
4

Les dessous de l’algorithme : les biais

En janvier 2021, le Conseil de l’Europe de Strasbourg, dans le cadre de la convention 108 sur la protection des données, a adressé
des
lignes

directrices aux gouvernements, aux législateurs et aux entreprises des

47 pays qui constituent son organisation, en leur proposant d’interdire

l’utilisation de la reconnaissance faciale « dans le seul but de déterminer la

couleur de la peau, les croyances religieuses ou autres, le sexe, l’origine

raciale ou ethnique, l’âge, la santé ou le statut social d’une personne


». Il

a également demandé l’interdiction des technologies capables d’identifier

des émotions ou de détecter des traits de personnalité, des sentiments,


un état de santé mentale ou un niveau d’engagement des travailleurs. Il a

réclamé des règles strictes pour éviter que l’intelligence artificielle ait un

impact important sur notre vie privée et que des données de reconnais-

sance faciale ne soient divulguées. Il a estimé que certaines applications

de reconnaissance faciale, qui liaient la reconnaissance d’un signe d’ac-

ceptation, par exemple à l’embauche de personnel, à l’accès à l’assurance,

à l’éducation, étaient très préoccupantes, tant au niveau individuel que

sociétal, et qu’elles devaient être interdites.


Les dessous de l’algorithme : les biais 27
un besoin accru de comPrendre les décisions Prises Par l’intelligence artificielle
Parallèlement, de plus en plus d’utilisateurs mondiaux ont voulu comprendre comment étaient prises les décisions basées sur
l’intelligence artificielle. Ils ont revendiqué la transparence des systèmes, après que

l’étude des « biais algorithmiques » avait surtout été dominée par des voix et des cas anglo- saxons. En matière de justice, de
recrutement, de crédit, de reconnaissance faciale, les polémiques les plus tonitruantes, venues des États- Unis, ont ruisselé sur le
monde entier.

La suspension de l’algorithme de recrutement d’Amazon en 2015 a permis de vulgariser la manière dont les biais issus des
données pouvaient advenir

en matière d’intelligence artificielle. Entraîné sur des centaines de milliers de CV adressés à Amazon durant dix ans, l’algorithme
de recrutement d’Amazon avait attribué des notes de 1 à 5 étoiles aux candidats à l’em-bauche, mais il s’était révélé incapable de
sélectionner les meilleurs CV et les

profils de femmes qualifiées. Son choix se portait plutôt vers des candidats hommes sous- qualifiés et défavorisait les CV
contenant les mots « women », y compris « women’s chess club captain ». La
qualité des données d’entraînement de cet algorithme avait donc été mise en cause, avec un fort retentissement.

Combattre les biais : le cas Amazon

En 2018, Amazon a donc mis fin à un projet de recrutement sur Internet à cause des biais de celui- ci. L’intelligence artificielle de
recrutement d’Amazon favorisait les hommes par rapport aux femmes, car elle était formée à partir de profils d’employés
d’Amazon qui avaient réussi et
qui se trouvaient être des hommes. Le système n’avait pas simplement éliminé les femmes, il avait examiné les caractéristiques
des employés qui réussissaient, à travers leurs formulations et phrasés typiques, et avait éliminé les CV qui ne présentaient pas
ces caractéristiques. Le problème de ces systèmes réside dans le fait que, même s’ils excellent
à identifier des modèles, par exemple des phrases typiques utilisées par les employés qui réussissent, ils ne comprennent pas la
signification de ces phrases, et sont incapables de comprendre le sens de la réussite,
ou même de saisir ce qu’est un employé. Ils ne peuvent que fournir une étiquette à un modèle spécifique.
28 Le contexte international et les enjeux de l’intelligence artificielle
Plus récemment, aux États- Unis, trois seniors américains de centres d’ap-

pels ont pointé un biais d’intelligence artificielle de recrutement qui avait

abouti à les discriminer du fait de leur âge. Ils ont porté plainte contre

Facebook, Cox Communications, Amazon, T Mobile… sur le conseil du syndicat de salariés Communications Workers of America
(CWA).

Enfin, dernièrement, une équipe d’informaticiens de l’université améri-

caine de Northeastern à Boston (Massachusetts) a accepté la demande de


la société Pymetrics de vérifier un algorithme d’embauche derrière un test de douze jeux sur les attributs sociaux, cognitifs et
émotionnels
des

candidats au recrutement.

L’algorithme IBM : une vision étroite du monde dans la représentation de la diversité des visages
L’ensemble de données « Diversity in Faces » (DiF) d’IBM a été créé en réponse aux critiques qui avaient montré que les logiciels
de reconnais- sance faciale de la société ne reconnaissaient souvent tout simplement
pas les visages des personnes à la peau plus foncée. IBM a promis publi- quement d’améliorer ses ensembles de données de
reconnaissance faciale pour les rendre plus « représentatifs » et a publié l’ensemble
des données DiF en conséquence. Mais même après toutes ces tenta- tives d’élargissement des modes de classification des
personnes, l’ensemble DiF repose toujours sur une classification binaire pour le
sexe : les personnes ne peuvent être étiquetées que comme « homme » ou « femme ». Atteindre la parité entre les différentes
catégories n’est pas la même chose que d’atteindre la diversité ou l’équité, et la construction
et l’analyse des données d’IBM perpétuent un ensemble de classifications nuisibles dans une vision étroite du monde.

code de l’algorithme et droit de ProPriété intellectuelle

Mais l’analyse des biais suppose la liberté d’accès aux algorithmes.


Or, les

autorités judiciaires américaines sont réticentes à accorder cette dernière

sans mesurer auparavant tous les intérêts privés, dont la protection de


la propriété intellectuelle. Tout comme les entreprises qui refusent de
Les dessous de l’algorithme : les biais 29

dévoiler le code de l’algorithme considéré comme si celui- ci était un secret industriel à protéger.

Pour les syndicats, il est nécessaire de contourner l’écueil qu’oppose l’en-

treprise à l’exigence de transparence des algorithmes au nom du droit

de propriété intellectuelle et du secret des affaires. Les syndicats doivent


exiger, lorsqu’une IA est introduite dans les lieux de travail et impacte la vie des travailleurs (concernant la décision d’un
recrutement ou
d’une

promotion ou de l’accès à la formation), que le système soit en mesure

d’expliquer sa décision et si tel n’est pas le cas, qu’il soit audité et réponde

aux exigences du respect des droits fondamentaux.

Si cela n’est pas possible, son utilisation doit être interdite.


Italie : les syndicats font condamner devant le tribunal de Bologne l’algorithme utilisé
par Deliveroo pour entrave au droit de grève

Dans un jugement du 31 décembre 2020, la section travail du tribunal de Bologne, saisie par trois syndicats affiliés à la CGIL, a
estimé que l’al- gorithme utilisé jusqu’en novembre 2020 par la plateforme de livraison
de repas Deliveroo n’était pas neutre. Selon ce jugement, le système de réservation par les riders des tranches horaires de travail
qui donnait la priorité aux livreurs les mieux notés, était « aveugle », puisqu’il ne tenait pas compte des motivations d’absence,
pénalisant en particulier ceux qui adhéraient à une grève. Deliveroo a été condamné à verser aux syndicats 50 000 euros (mais
pas à changer l’algorithme).

Enfin, parallèlement, un travail d’élaboration de « normes fondamen- tales » des algorithmes et des systèmes a débuté au niveau
international

(ISO) sur des aspects de l’intelligence artificielle qui nécessitent un voca-


bulaire commun, ainsi que des classifications. Finalement, ces normes internationales doivent permettre aux professionnels de
parler le
même
langage que les personnes engagées dans la réglementation ou que les

experts techniques et de s’assurer que les systèmes d’intelligence artificielle

respectent des standards.

Partie II

Régulation de l’intelligence artificielle : l’Europe moteur entre la Chine


et les États- Unis

L’Union européenne vise une intelligence artificielle de qualité et « éthique » qui respecte ses valeurs fondamentales
et les droits humains. À ce titre, elle joue un rôle moteur sur la scène mondiale. Elle a été la première au monde
à établir un cadre juridique global pour le développement, le déploiement et l’utilisation responsable et éthique
de l’intelligence artificielle. Exiger une « éthique » de l’intelligence

artificielle signifie questionner les systèmes d’IA sur le respect des droits fondamentaux européens : le respect de la vie
privée,
celui du droit à la dignité, du droit à l’égalité, du droit à ne pas subir de discriminations…
5

L’humain aux commandes

L’Europe ne veut ni laisser de puissantes entreprises technologiques comme les GAFAM livrées à elles- mêmes comme aux États-
Unis, ni suivre l’exemple de la Chine, qui exploite l’intelligence artificielle pour créer un État de surveillance et de notation sociale.
Au lieu de cela, elle souhaite une approche « centrée sur l’humain » qui stimule la
tech-
nologie tout en l’empêchant d’attenter à la vie privée de ses citoyens. Dès 2018, un groupe d’experts, qui a associé des membres
du
Comité
économique et social européen (CESE), au sein de la Commission européenne, a demandé que les organismes publics des pays
européens

respectent sept exigences pour que l’intelligence artificielle devienne

« digne de confiance ». La Commission européenne a plaidé en faveur de


contrôles stricts de Bruxelles dans la mesure où l’intelligence artificielle
pouvait devenir dangereuse dans certains domaines. En février 2020, elle a lancé une consultation sur un livre blanc, «
Intelligence
artificielle :

une approche européenne axée sur l’excellence et la confiance », dans

lequel elle a prôné une approche axée sur la régulation et l’investis- sement. Elle y a fait la promotion de l’intelligence artificielle
tout
en soulignant les risques associés. Dans des domaines tels la santé, les

transports, la police et la justice, où certains usages de l’intelligence arti-

ficielle sont jugés « à haut risque », elle a prévu que les systèmes devront
« être transparents, traçables et garantir un contrôle humain ». Parmi les usages de l’IA, elle a distingué ceux qui ont des « effets
juridiques
» 34 Régulation de l’intelligence artificielle : l’Europe moteur entre la Chine et les États- Unis

(comme lors de procédures de recrutement) de ceux qui présentent des

« dangers mortels » comme les armes et de ceux qui peuvent générer


« des dégâts et blessures ». Son livre blanc prévoit une étude des usages

au « cas par cas ».


6

Les sept exigences européennes pour une intelligence artificielle digne de confiance
une ia contrôlée Par l’humain

Selon la Commission européenne, les systèmes d’IA devraient être des

vecteurs de sociétés équitables, au service des droits fondamentaux, sans

restreindre ou dévoyer l’autonomie humaine. L’humain doit garder la main sur les décisions.

une ia robuste et sécurisante


La Commission européenne indique qu’une intelligence artificielle

digne de confiance nécessite des algorithmes suffisamment sûrs, fiables et

robustes pour gérer les erreurs ou les incohérences au long du cycle de vie

des systèmes d’IA. En Finlande, une attaque au ransomware (« rançongiciel »

en français) a frappé la base de données de la société finlandaise Vastaamo,

qui gérait 25 centres de psychothérapie. Elle a abouti à la fuite de données

médicales de plus de 4 000 patients. Elle a fait la une des journaux en

Finlande, après que les hackers ont publié sur le « dark web » les premiers

milliers de données médicales de patients.

36 Régulation de l’intelligence artificielle : l’Europe moteur entre la Chine et les États- Unis

une ia Qui resPecte la vie Privée

et dont les citoyens maîtrisent les données


Selon la Commission européenne, les citoyens doivent avoir la maîtrise

totale de leurs données personnelles et être sûrs que celles- ci ne seront


pas utilisées contre eux de façon préjudiciable ou discriminatoire. Le règlement général sur la protection des données (RGPD) doit
pouvoir les protéger d’une utilisation dévoyée de leurs données mais ce texte
ne
s’applique qu’aux données à caractère personnel, et non aux données agrégées « anonymes », qui sont généralement utilisées
pour
l’apprentissage des modèles.

une ia transParente

La traçabilité et l’explicabilité des systèmes d’IA doivent être assurées tout au long du cycle de vie des systèmes, depuis leur
conception
jusqu’à

leur développement, en passant par toute la durée de leur utilisation.


La

transparence est mesurable. Ses différents niveaux d’échelle de mesure


peuvent permettre, par exemple, une certification, une labellisation des

systèmes. Ils peuvent conduire au déploiement de systèmes d’intelligence

artificielle dans des contextes « à haut risque ».

une ia non discriminante, éQuitable

La Commission européenne indique que les systèmes d’intelligence artifi-

cielle devraient prendre en compte tout l’éventail des capacités, aptitudes


et besoins humains. Le secteur de la recherche sur l’IA est caractérisé par un manque de diversité (une prédominance des
hommes blancs,
par

exemple) et de nombreux chercheurs ont montré que les préjugés dans

les systèmes d’intelligence artificielle reflètent des modèles historiques de

discrimination. L’utilisation des systèmes d’intelligence artificielle pour la

classification, la détection et la prédiction de l’origine ethnique et du sexe Les sept exigences européennes pour une intelligence
artificielle digne de confiance37
doit être réévaluée de toute urgence. Les systèmes qui utilisent l’apparence

physique comme un substitut de la personnalité ou des états intérieurs


sont profondément suspects, y compris les outils d’IA qui prétendent prédire la « criminalité » sur la base des caractéristiques
faciales ou
évaluer

les compétences des travailleurs par le biais de « micro- expressions


».

une ia aPPortant un bien- être sociétal et environnemental

Les systèmes d’intelligence artificielle devraient être utilisés pour soutenir

des évolutions sociales positives, et renforcer la durabilité et la responsa-

bilité écologiques. Selon l’étude du Parlement européen de mars 2020,

« The Ethics of artificial intelligence: issues and initiatives » : « Les États et les

organisations doivent s’assurer que l’intelligence artificielle soit largement


appliquée et rendue accessible dans les domaines à forte valeur sociale, tels

que la pauvreté, la maladie ou l’énergie propre […]. La grande question

qui se pose autour de l’intelligence artificielle est celle des inégalités, qui

n’est normalement pas incluse dans le débat sur l’éthique de l’intelligence

artificielle. »

une ia Qui a des comPtes à rendre

La Commission européenne préconise la mise en place de mécanismes

pour garantir une responsabilité à l’égard des systèmes d’intelligence artifi-

cielle et de leurs résultats. Elle recommande de désigner qui rend compte

et qui est responsable de possibles dysfonctionnements.


38 Régulation de l’intelligence artificielle : l’Europe moteur entre la Chine et les États- Unis

Systèmes discriminants1

L’IA est- elle un miroir de notre société ? Une étude intitulée « Genre, appartenance ethnique et pouvoir dans l’IA » de l’Institut
AI Now de l’uni- versité de New York datant de 2019 établit un problème persistant de discrimination fondée sur le genre et
l’appartenance ethnique (parmi d’autres attributs et formes d’identité) des systèmes d’intelligence arti- ficielle. Selon cette étude,
les technologies de reconnaissance d’images catégorisent mal les visages des noirs et les algorithmes utilisés par la justice dans le
système pénal sont discriminatoires à l’égard des accusés noirs.
Les chatbots adoptent facilement un langage raciste et misogyne lors- qu’ils sont formés au discours en ligne et le système de
reconnaissance faciale d’Uber ne fonctionne pas pour les conducteurs trans. Dans la plupart des cas, ces préjugés reflètent et
reproduisent les structures d’inégalité existantes dans la société.

Sources : J. Angwin, J. Larson, S. Mattu et L. Kirchner, « Machine Bias »,


ProPublica, 23 mai 2016 ; J. Vincent, « Twitter taught Microsoft’s AI chatbot to be a
racist asshole in less than a day », The Verge, 24 mars 2014 ; S. Melendez, « Uber driver troubles raise concerns about
transgender face recognition », Fast Company, 9 août 2018.
7

Une charte éthique européenne pour l’utilisation de l’intelligence artificielle dans la sphère judiciaire
Une charte éthique européenne d’utilisation de l’intelligence artificielle

dans les systèmes judiciaires et leur environnement a été adoptée en 2018 au sein du Conseil de l’Europe par la Commission
européenne pour

l’efficacité de la justice.

L’utilisation de tels outils et services dans les systèmes judiciaires a vocation

à améliorer l’efficacité et la qualité de la justice, et mérite d’être encou-ragée. Elle doit toutefois se mettre en pratique de
manière responsable,
dans le respect des droits fondamentaux des individus énoncés par la Convention européenne des droits de l’homme et par la
Convention

pour la protection des données à caractère personnel, ainsi que des autres principes fondamentaux énoncés ci- après, qui
devraient orienter la défi-

nition de politiques publiques de la justice en ce domaine.

La charte met en avant cinq principes :


le respect des droits fondamentaux : assurer une conception et une mise en œuvre des outils et des services d’intelligence
artificielle
qui

soient compatibles avec les droits fondamentaux ;

la non- discrimination : prévenir spécifiquement la création ou le renfor-

cement de discriminations entre individus ou groupes d’individus ;

40 Régulation de l’intelligence artificielle : l’Europe moteur entre la Chine et les États- Unis

la qualité et la sécurité : en ce qui concerne le traitement des décisions

juridictionnelles et des données judiciaires, utiliser des sources certifiées

et des données intangibles avec des modèles conçus d’une manière multidisciplinaire, dans un environnement technologique
sécurisé ;
la transparence, la neutralité et l’intégrité intellectuelle : rendre acces-

sibles et compréhensibles les méthodologies de traitement des données,

autoriser les audits externes ;

la maîtrise par l’utilisateur : bannir une approche prescriptive et permettre à l’usager d’être un acteur éclairé et maître de ses
choix.
8

Vers une régulation

de l’intelligence artificielle « à haut risque


»

À la suite de la consultation des citoyens, syndicats, entreprises et ONG,

la Commission européenne a présenté, le 21 avril 2021, une « Proposition de règlement du Parlement européen et du Conseil
établissant des règles
harmonisées concernant l’intelligence artificielle ». Elle considère que l’intelligence artificielle, par son opacité, sa complexité, sa
dépendance à l’égard des données, son comportement autonome,
peut porter atteinte

à un certain nombre de droits consacrés par la charte des droits fonda-

mentaux de l’Union européenne.


Le texte de la Commission européenne a l’avantage de constituer un bon cadre juridique pour l’intelligence artificielle. Une fois
adopté par

le Parlement européen et par les États, il s’appliquera directement aux

États membres, sans transposition. Avec l’actuelle proposition législative,

la Commission européenne a délivré un message clair : les droits fonda-mentaux et les valeurs européennes doivent être au cœur
de l’approche

européenne de l’intelligence artificielle. Le « tout est permis » n’est plus la

norme, et les règles établies à l’échelle de l’UE auront certainement des répercussions dans le monde entier.

Ce texte encadrera les systèmes d’intelligence artificielle classés « à haut

risque », qui ne pourront être autorisés dans l’Union européenne que si

leur conformité par rapport aux normes européennes a été évaluée.

42 Régulation de l’intelligence artificielle : l’Europe moteur entre la Chine et les États- Unis

Dans le monde du travail, les intelligences artificielles « à haut risque


», qui nécessitent un encadrement, sont recensées dans l’annexe III du projet

de règlement européen :
les intelligences artificielles pour le recrutement ou la sélection de

personnes physiques, notamment pour la publication de postes vacants,

la présélection ou le filtrage des candidatures, l’évaluation des candidats

au cours d’entretiens ou de tests ;

les intelligences artificielles prenant des décisions sur la promotion et

les licenciements liés au travail, sur la répartition des tâches et le suivi

et l’évaluation des performances et du comportement des personnes

dans ces relations ;


les intelligences artificielles déterminant l’accès à la formation professionnelle ou évaluant les étudiants dans les établissements
d’en-

seignement et de formation professionnelle.

Ces systèmes d’intelligence artificielle peuvent avoir une incidence sensible sur les perspectives de carrière et les moyens de
subsistance
futurs de ces personnes. La Commission précise que lorsque ces systèmes sont

« mal conçus et utilisés », ils peuvent perpétuer des schémas de discrimi-


nation, par exemple à l’égard des femmes, de certains groupes d’âge, des

personnes handicapées ou des personnes de certaines origines raciales ou ethniques ou de certaines orientations sexuelles. De
plus, ceux utilisés

pour surveiller les performances et le comportement de ces personnes

peuvent avoir présenté un impact sur les droits à la protection des données

et à la vie privée.

Pour contrebalancer ces risques, les systèmes devront employer des données

de très bonne qualité. Ils devront comporter une documentation détaillée

de la conformité avec la réglementation existante, être transparents, tout à fait exacts et sécurisés. Le fait qu’une intelligence
artificielle soit classée

« à haut risque » entraîne une obligation de transparence et de supervision

humaine de ses « utilisateurs ». Des personnes physiques devront surveiller

ce type d’intelligence artificielle pendant son utilisation, à l’aide d’outils d’interface hommes- machines pour prévenir ou réduire
au minimum les
risques en santé, en sécurité ou les menaces sur les droits fondamentaux

qui peuvent apparaître. Les fournisseurs d’intelligence artificielle «


à haut Vers une régulation de l’intelligence artificielle « à haut risque » 43

risque » devront pratiquer une auto- certification de conformité avant de

mettre leurs produits sur le marché ou en service.

Les salariés seront informés en cas de détection des émotions ou de reconnaissance faciale.

Selon le projet de ce règlement, l’utilisateur qui a recours à un système

de reconnaissance des émotions ou de catégorisation biométrique doit

informer les « personnes physiques » et les salariés concernés.


9

Une régulation, pour quand ?

Alors que les évolutions dans le domaine de l’IA sont très rapides, les nouvelles normes européennes de l’intelligence artificielle
n’entreront pas en vigueur rapidement. Elles feront l’objet d’un examen
approfondi
des députés européens à partir de 2022 – il est probable que le texte d’application ne sera pas publié avant 2025. Le degré
d’autorégulation du

dispositif européen sera déterminant à cet égard. Les autorités nationales

procéderont à des vérifications et à des inspections, tandis que certains

fournisseurs d’intelligence artificielle qui espèrent déployer leurs produits

dans le cadre du recrutement des employés ou du contrôle des migra-

tions seront autorisés à respecter les normes européennes par le biais


d’auto évaluations. L’exigence d’autoévaluation plaira à l’industrie techno-
logique, alors qu’elle a d’ores et déjà suscité l’inquiétude des députés européens, des militants et des universitaires, qui estiment
qu’elle
n’est

pas suffisante pour protéger les citoyens, car elle remet l’appréciation de

la conformité des systèmes d’intelligence artificielle entre les mains des

fournisseurs. Le bras de fer entre les deux parties déterminera la facilité

ou la difficulté de se conformer aux règles.


10

Des références au monde du travail insuffisantes


Hormis les questions sur la reconnaissance faciale ou l’interprétation des

émotions, les garanties de transparence ne bénéficient qu’aux « utilisa-


teurs », les travailleurs en sont exclus. Seul un article du projet de ce règlement prévoit un droit global à la transparence. Mais
dans le
reste

des documents publiés par la Commission européenne, la référence aux

travailleurs et aux représentants du personnel fait cruellement défaut.


Ce

projet de texte admet de facto un large panel d’outils de surveillance des

salariés sans s’interroger ni sur leur bien- fondé ni sur leur compatibilité
avec les valeurs européennes. Le dialogue social aura un rôle important

à jouer pour étendre ces garanties d’information et de transparence vis-

à-vis des travailleurs.


11

Le travail des partenaires sociaux européens et l’intervention


de la CFDT Cadres à Bruxelles

Parallèlement aux initiatives de la Commission européenne et aux débats


européens, la CFDT a participé à la négociation d’un premier accord sur le numérique qui a été signé en juin 2020 entre les
syndicats et
les

représentants des employeurs européens. Lors de cette négociation, elle a

représenté les syndicats français au sein de la Confédération européenne

des syndicats (CES).


Cet accord a été intitulé « European social partners framework agree-

ment on digitalisation » (ce qui se traduit par « Accord de méthode entre

partenaires sociaux européens concernant la digitalisation »). Le texte

explore les opportunités du numérique concernant les salariés, mais aussi

les travailleurs des plateformes. Il indique qu’il s’agit « d’anticiper le chan-

gement et de fournir les compétences nécessaires aux travailleurs et aux

entreprises pour réussir à l’ère numérique ». Il ne produit pas une pluie

de nouveaux droits, tant les législations et les producteurs de normes sont

différents d’un pays à l’autre. Mais il engage un « processus de partenariat

et de dialogue » pour explorer les possibilités et les risques du numérique,

les questions de compétences et de sécurisation de l’emploi, les modalités

de connexion et de déconnexion, celles du contrôle de l’intelligence Le


travail des partenaires sociaux européens et l’intervention de la CFDT Cadres à Bruxelles 47
artificielle et de la protection des données. Ce texte constitue un appel et

un soutien à la négociation sur l’impact du développement du numérique

auprès des partenaires sociaux de chaque État membre.

Ses signataires sont, d’un côté, la Confédération européenne des syndi-


cats (CES), de l’autre, BusinessEurope (le Medef européen), le Centre européen des employeurs et entreprises fournissant des
services
publics

(CEEP) et SME United (représentant des PME). Cet accord rappelle que

le numérique « s’accompagne de défis et de risques pour les travailleurs et

les entreprises, car certaines tâches vont disparaître et beaucoup d’autres

vont changer » et il se structure autour de quatre grands enjeux :

les compétences numériques et la sécurisation de l’emploi ;

le droit à la déconnexion ;

l’intelligence artificielle centrée sur l’homme ;

le respect de la dignité humaine et la question de la surveillance.


Ces différents thèmes sont traités en fonction de l’organisation du travail

(comment les tâches sont distribuées), du contenu du travail (l’influence

de la technologie et de la numérisation), des compétences nécessaires,

des conditions de travail (sécurité et santé physique et mentale) et des

relations entre les travailleurs.

À Bruxelles, depuis 2017, compte tenu de l’ampleur du sujet, la CFDT Cadres a très vite décidé de se pencher sur l’intelligence
artificielle au niveau européen, considérant qu’il s’agissait de l’échelon le plus
pertinent.
Elle s’est positionnée comme référence dans ce domaine à Bruxelles. Elle a répondu aux consultations sur une législation
spécifique en
faveur

d’une régulation de l’intelligence artificielle. Elle a été rapporteur auprès

du Comité économique et social européen de deux avis2 sur l’IA, qui ont

été adoptés par les syndicats, par les employeurs, par les ONG et asso-
ciations, composantes et voix de la société civile européenne organisée

dans ce comité.

INT/845 : « Intelligence artificielle/impacts sur le travail » et INT/887 : « L’intelligence artificielle axée sur le facteur humain ».

Partie III

Le contexte, le débat et les enjeux

en France

En France, le débat a rebondi sur les lieux d’hébergement des données (surtout celles concernant la santé), sur le rôle
des lanceurs d’alerte et sur le contrôle à distance des travailleurs pendant le confinement. Le projet des parlementaires d’une
taxation de Google, Amazon, Facebook et Apple s’est vu repris dans un impôt minimum mondial
qui reste à mettre en musique.
12

La nécessité d’un dialogue social et sociétal


Technologie fortement perturbatrice s’il en est, aux profonds impacts sur

nos vies, l’utilisation de l’IA nécessite d’être appréhendée, questionnée et

débattue largement dans les lieux de travail et dans la société.

Dans les lieux de travail, des législations françaises et européennes prévoient que l’introduction de nouvelles technologies donne
lieu à
une

information- consultation des représentants des travailleurs. Le dialogue

social est le moyen qui permet d’interroger la finalité et le fonctionnement


des systèmes d’intelligence artificielle utilisés dans les ressources humaines,
de limiter les dérives d’un contrôle et d’une surveillance illimités des travailleurs, d’éviter les atteintes à leur vie privée ainsi que
les
pratiques

discriminatoires ou l’utilisation abusive des données personnelles et du

profilage.

Une formation accessible sur l’IA ainsi que des débats citoyens sur son introduction et ses finalités contribuent sans doute à
améliorer la conscience des enjeux et à protéger nos vies et nos démocraties.
13

Une taxe GAFA pour accompagner les mutations numériques


En Europe comme en France, la question de la taxation de GAFA a été

objet de débats depuis plusieurs années. Cette taxe était considérée par un

grand nombre d’acteurs, dont les syndicats, comme une juste contribution

des Big tech (Google, Amazon, Facebook et Apple) aux profits réalisés

par ces entreprises en Europe et qui échappaient largement à l’impôt sur

les sociétés. La taxe pouvait contribuer à assurer une transition numérique

juste en l’affectant à des fonds européens pour accompagner les salariés

touchés par les restructurations numériques.


En France, l’idée d’une taxe sur les services des GAFA avait à l’ori- gine pris la forme d’un projet de loi de contribution sur les
entreprises du numérique qui pratiquaient la publicité ciblée en ligne, la vente de
données personnelles à des fins publicitaires ou étaient des plateformes

d’intermédiation.

Ciblée principalement sur des firmes américaines, cette taxe a d’abord été

sévèrement critiquée par l’administration Trump qui a menacé de taxer à

son tour les importations américaines de vins français en rétorsion, avant

que Washington annonce, avec Joe Biden, qu’il voulait un impôt mondial

sur les sociétés d’au moins 15 %.

Une taxe GAFA pour accompagner les mutations numériques 53


Quatre étapes vers la taxation des GAFA

2018 : la France à l’avant- garde


En 2018, la Commission européenne propose une taxe européenne sur le chiffre d’affaires des GAFA. Cette mesure, soutenue
par la France, rencontre l’hostilité de plusieurs pays européens dont l’Allemagne et l’Irlande. Face au manque de consensus,
la discussion est délocalisée au niveau international, où plus de 130 pays sont convoqués pour discuter d’une réforme de la
fiscalité des multinationales et en particulier des géants du numérique, sous l’égide de l’OCDE. La France annonce son
intention de mettre en place unilatéralement une taxation temporaire des GAFA en attendant la solution internationale.
2019 : suspension de la taxe GAFA par la France

En 2019, sous la pression des États- Unis menaçant l’Hexagone de mesures de rétorsion commerciale, la France suspend la
mise en œuvre de la taxe GAFA nationale afin de donner une chance aux négociations internationales.
2020 : réintroduction de la taxe en France

Face à l’échec des négociations internationales, la France a remis une taxation unilatérale des GAFA depuis décembre 2020
dans un contexte de fronde face aux géants du numérique qui surfent sur la crise pour réaliser des bénéfices exceptionnels.
Un groupe de députés de la Commission des finances, porté par Guillaume Peltier (LR), a proposé
le 18 novembre 2020, de créer un « prélèvement sur les bénéfices supplé- mentaires des GAFA pour soutenir nos commerces
de proximité et nos librairies ». Une telle mesure, proposée par la Commission européenne, devrait être étendue en Europe,
mais de nombreux pays y sont opposés. 2021 : une taxe des GAFA, dissimulée derrière un impôt mondial
Les ministres des Finances du G7 ont annoncé en juin 2021 un accord sur un impôt mondial minimum impliquant une
meilleure répartition des recettes fiscales provenant des multinationales, particulièrement les
géants du numérique. 130 pays, dont la Chine et l’Inde, se sont accordés pour appliquer un taux d’impôt minimal mondial sur
les sociétés d’au moins 15 %. Les entreprises du numérique seraient taxées en partie là où elles font leurs ventes, et non pas
comme aujourd’hui, là où elles souhaitent installer leur siège, justement dans les paradis fiscaux. Neuf pays ont rejeté
l’accord, dont trois pays européens : l’Irlande, l’Estonie
et la Hongrie.
14

Les dispositifs de contrôle

de l’intelligence artificielle en France

une loi Qui Protège les lanceurs d’alerte

La France a jusqu’au 17 décembre 2021, pour le secteur public et les entreprises de plus de 249 travailleurs pour le secteur privé,
pour
trans-
poser la directive UE 2019/1937 du 23 octobre 2019 sur la protection des personnes qui signalent des violations du droit de
l’Union. Cette directive permet aux lanceurs d’alerte de passer par une autorité
externe

pour dénoncer les faits, alors qu’en France, ces derniers doivent saisir, sauf

danger grave et imminent, d’abord leur hiérarchie interne. Elle conforte


aussi le droit de tout travailleur, dans sa procédure d’alerte, à être défendu par un représentant du personnel ou un syndicat.

Si la loi Sapin II a représenté une législation pionnière en France, à l’ori-


gine d’un réel progrès en matière de protection des lanceurs d’alerte, des syndicats et des associations de défense des droits ont
pu relever
des carences responsables d’incertitudes et d’insécurité juridique :
une procé-

dure de signalement complexe, peu protectrice, voire dissuasive par sa

longueur et ses coûts, lorsqu’elle adopte une tournure judiciaire.

Pour l’essentiel, la loi Sapin II a défini qu’« un lanceur d’alerte est une personne physique qui révèle ou signale, de manière
désintéressée et de

bonne foi, un crime ou un délit, une violation grave et manifeste d’un


Les dispositifs de contrôle de l’intelligence artificielle en France 55
engagement international régulièrement ratifié ou approuvé par la France, d’un acte unilatéral d’une organisation internationale
pris sur le fondement
d’un tel engagement, de la loi ou du règlement, ou une menace ou un
préjudice grave pour l’intérêt général, dont elle a eu personnellement connaissance ». Par exemple, un travailleur peut alerter
immédiatement
l’employeur s’il estime, de bonne foi, que les produits ou procédés de fabrication utilisés ou mis en œuvre par l’établissement
font peser un
risque

grave sur la santé publique ou l’environnement. L’alerte est consignée par écrit dans des conditions déterminées par la loi.
L’employeur informe le

lanceur d’alerte de la suite qu’il réserve à celle- ci. Aucun salarié ne peut

être sanctionné, licencié ou faire l’objet d’une mesure discriminatoire pour avoir témoigné des agissements définis aux articles L.
1132-1 et

1132-2 ou pour les avoir relatés.

Le texte européen, dans ses considérants, reconnaît notamment aux lanceurs d’alerte un rôle utile en ce qui concerne la sécurité
des
produits

mis sur le marché européen. Il considère que les entreprises qui participent à la chaîne de fabrication et de distribution sont la
principale source de

collecte d’éléments de preuve, ce qui rend les signalements des lanceurs

d’alerte très opportuns. En fait, ceux- ci sont beaucoup plus proches


de la source d’éventuelles pratiques déloyales et illicites de fabrication, d’importation ou de distribution de produits dangereux.
Cela justifie

l’introduction de la protection des lanceurs d’alerte en relation avec les

exigences de sécurité applicables à la fois aux produits et dans le domaine de la protection de la vie privée, et les données à
caractère personnel.

une instance indéPendante Pour juger :

un disPositif toujours en attente

Dans son rapport « Donner un sens à l’intelligence artificielle1 », Cédric

Villani, député alors en mission parlementaire, proposait « une instance

pour émettre des avis sur l’éthique de l’intelligence artificielle, donner des

Cédric Villani, Donner un sens à l’intelligence artificielle : Pour une stratégie nationale et européenne, mars 2018.

56 Le contexte, le débat et les enjeux en France


jugements en toute indépendance, qui puisse être saisie par le gouverne-

ment comme par les citoyens, et qui nous dise ce qui est acceptable ou non

acceptable ». Une suggestion restée sans suite. « Dans un monde marqué

par les inégalités, l’intelligence artificielle ne doit pas conduire à renforcer

les phénomènes d’exclusion et la concentration de la valeur, affirme- t-il.

Plutôt que de fragiliser nos trajectoires individuelles et nos systèmes de soli-

darités, l’intelligence artificielle doit prioritairement nous aider à activer nos

droits fondamentaux, augmenter le lien social et renforcer les solidarités.

La mixité doit être également au cœur des priorités. Il doit être possible

d’ouvrir les boîtes noires des algorithmes, mais également de réfléchir en

amont aux enjeux éthiques que les algorithmes d’intelligence artificielle

peuvent soulever. » Concernant le transfert de données hors de l’Union

européenne, il recommande que la France et l’Europe conservent « une


position ferme ». Cette instance reste toujours pertinente. Il serait grand

temps qu’elle voie le jour et que les syndicats puissent aussi la saisir.

Former les citoyens : quatre autorités créent un « kit pédagogique du citoyen numérique »
La Cnil, le CSA, le Défenseur des droits et l’Hadopi ont lancé un « kit pédagogique du citoyen numérique », accessible en ligne, qui
rassemble des documents éducatifs, des conseils juridiques et des guides pratiques adressés à des internautes (parents et
enfants) ainsi qu’à des éducateurs et formateurs. Celui- ci comprend quatre grandes thématiques : les droits sur Internet ; la
protection de la vie privée ; le respect de la création ; l’utilisation raisonnée et citoyenne des écrans. Il détaille ces institutions
dans un communiqué commun. Des thèmes qui englobent des questions très concrètes : quel recours en cas de
cyberharcèlement ? Peut- on faire supprimer une vidéo publiée sans son consentement ? Pourquoi faut- il rémunérer les
créateurs ? Quel rôle les médias jouent- ils dans l’égalité entre les hommes et les femmes ?
Le Conservatoire national des arts et métiers (Cnam) a de son côté produit un MOOC (cours en ligne ouvert), « L’Intelligence
artificielle pour
tous », qui aborde les notions de base de l’IA et ses domaines d’applica- tion. Il traite aussi de la question des nouveaux modèles
économiques
et les nouveaux rapports au travail, ainsi que le sujet des compétences en IA du collaborateur.
Les dispositifs de contrôle de l’intelligence artificielle en France 57
des recours auPrès de la commission nationale de l’informatiQue et des libertés (cnil)
« Comment garder la main ? » est la synthèse d’un débat public animé par

la Commission nationale de l’informatique et de libertés dans le cadre de

la réflexion éthique, confiée par la loi « pour une République numérique »


en 2017. Un thème révélateur des préoccupations de la Commission. Dans un mémoire transmis au Conseil d’État, le 8 octobre
2020, la
Cnil a

demandé l’arrêt du stockage des données de santé chez Microsoft ou chez

toute autre société soumise « au droit étasunien ». Depuis septembre 2020,


deux recours ont été transmis au Conseil d’État contre le Health Data Hub

de Microsoft par un collectif de 18 personnalités et organisations, dont le

Conseil national du logiciel libre, le Syndicat national des journalistes et

l’Association française des hémophiles.

Le rôle du délégué

à la protection des données

Le règlement général sur la protection des données a établi la mise en place chez les autorités et organismes publics, ainsi que les
organismes dont les activités de base consistent en un suivi systématique à grande échelle de personnes ou en un traitement à
grande échelle de catégo- ries particulières de données à caractère personnel, d’un délégué à la protection des données (DPD). Le
DPD doit communiquer ses coordon- nées à l’autorité de contrôle compétente pour publication. Ces exigences visent à garantir
que les personnes concernées (tant à l’intérieur qu’à l’extérieur de l’organisme) et les autorités de contrôle puissent aisément et
directement prendre contact avec le DPD sans devoir s’adresser à un autre service de l’organisme. La confidentialité est
également un aspect
important : les employés pourraient, par exemple, hésiter à se plaindre auprès du DPD si la confidentialité de leurs
communications n’était pas garantie. Le DPD est soumis au secret professionnel ou à une obligation de confidentialité en ce qui
concerne l’exercice de ses missions, confor- mément au droit de l’Union ou au droit des États membres (article 38 du RGPD,
paragraphe 5).
58 Le contexte, le débat et les enjeux en France

Le RGPD européen a donné lieu à une transposition en une loi en France. Cette loi est une des pièces maîtresses de la protection
des données personnelles. Elle est à l’origine de la création de la Cnil. Elle
concerne la gestion de données sensibles (données de santé, données

biométriques), le traitement des données répondant à des missions d’in-

térêt public (pour la protection sociale, la santé publique ou la recherche)

ou encore à des situations particulières (sort des données après la mort,

âge de consentement pour un mineur pour l’offre directe de services de

la société de l’information, numéro de Sécurité sociale, données relatives


aux condamnations pénales et aux infractions) et tous les droits liés aux
données (droit de rectification, droit à l’oubli, droit à la limitation du traitement, obligation de notification en ce qui concerne la
rectification

ou l’effacement de données à caractère personnel, limitation du traite-

ment des données, droit à la portabilité des données, droit d’opposition

face à la prise de décision individuelle prise par un algorithme de façon

automatisée).

des audits Pour les algorithmes

Différents organismes auditent les algorithmes. La certification des systèmes d’intelligence artificielle ou leur validation est une
tâche
tita-
nesque. Depuis 2016, le gouvernement français a confié à l’institut de recherche Inria la charge du développement de la
plateforme
Transalgo

dont l’objet est d’évaluer la transparence des algorithmes, de recenser


et de définir des normes de transparence. Transalgo doit vérifier que

les systèmes d’IA sont conçus de manière qu’ils n’excluent ni ne désa-

vantagent personne dans le domaine des droits humains et sociaux.


Des

dérapages peuvent se produire parce que le machine learning est piloté

par des hommes blancs, issus souvent du même milieu. Transalgo doit

encoder l’égalité et anticiper les possibles biais, pour que les stéréotypes

disparaissent des algorithmes.

De son côté, l’Afnor a lancé une commission de normalisation « miroir


»

pour relayer ses travaux et défendre les positions des acteurs de l’Hexagone Les dispositifs de contrôle de l’intelligence artificielle
en France 59
dans les projets de textes. Cette nouvelle structure a comme projet de
développer des normes volontaires nationales, susceptibles d’être portées
par la suite au niveau international ou européen. Enfin, la Cnil recom-
mande de former à l’éthique tous les maillons de la « chaîne algorithmique »
(concepteurs, professionnels, citoyens).
15

Le combat entre sécurité et respect des libertés fondamentales :


la reconnaissance faciale de masse

Au niveau européen, quelle que soit la version du projet de loi adoptée

par le Parlement européen, il est probable que le texte donne lieu à une

épreuve de force avec le Conseil de l’Europe. Notamment, les exceptions

prévues pour les forces de l’ordre sont susceptibles de plaire aux pays

soucieux de sécurité (la France, la Suède ou l’Allemagne intègrent déjà

certains systèmes d’intelligence artificielle comme la reconnaissance faciale


dans leur dispositif de sécurité). En France, certains parlementaires ont

été séduits par une surveillance aéroportée des manifestations avant que
le Conseil constitutionnel français ne s’y oppose. D’autres élus ont été conquis par les dispositifs de surveillance de masse
destinés aux
services

de renseignements, contenus dans le projet de loi « relatif à la prévention

d’actes de terrorisme et au renseignement ». D’ores et déjà, même si ces

systèmes sont déployés pour combattre le terrorisme, la Cour européenne

a considéré que ces utilisations n’étaient pas suffisamment encadrées par

des garanties. Le 25 mai 2021, la Cour européenne des droits de l’homme


a condamné le Royaume- Uni et la Suède pour des abus commis sur l’inter ception des données, ce qui ne va pas sans souligner
les
risques pour

nos sociétés démocratiques.

Le combat entre sécurité et respect des libertés fondamentales… 61


Un groupe d’ONG en Europe attaque Clearview,
spécialiste de la reconnaissance faciale
La start-up Clearview AI, éditrice d’un logiciel de reconnaissance faciale, a fait plusieurs fois l’objet de critiques de la part des
ONG. En mai 2021, elle a été attaquée par les ONG Privacy International, Hermes Center of Transparency and Digital Human
Rights, Homo Digitalis et Noyb qui ont déposé des recours devant les Cnil française, italienne, autrichienne, grecque et
britannique. Ces ONG estiment que l’entreprise viole le RGPD.
16

La position des employeurs de l’industrie

La Fabrique de l’industrie, laboratoire d’idées soutenu par l’UIMM et France industrie, ausculte les attentes et besoins des acteurs
en
matière

de liberté, de sécurité et de dignité.

Vis- à-vis de l’Internet des objets (objets, robots sur lesquels on greffe de
l’IA), les employeurs de l’UIMM sollicités par la Fabrique de l’industrie sont ambivalents. D’un côté, ils espèrent de nombreux
bénéfices :
traça-

bilité des produits en matière environnementale face au consommateur

de plus en plus exigeant, meilleure connaissance des clients finaux, gains


de productivité immenses, fin des tâches dangereuses… De l’autre, ils redoutent des dérives à l’égard des travailleurs. Ils
entrevoient
notam-
ment une baisse des qualifications, une perte des savoir- faire spécifiques,

d’autant que les expertises seront remplacées par des compétences géné-

riques et que des travailleurs polyvalents devront exclusivement piloter

des machines connectées. Dans la transmission des savoirs, ils savent que

les salariés expérimentés seront remplacés par des tutoriels qui permettront

une embauche rapide pour former de jeunes intérimaires peu qualifiés.

Ces employeurs soulignent l’importance de la transformation des métiers

et de l’accompagnement des travailleurs. Ils estiment que ces derniers

doivent être informés de la finalité des projets et accompagnés dans les

évolutions pour réussir l’intégration des outils numériques. Pour l’instant,

seules quelques entreprises associent les représentants du personnel


en La position des employeurs de l’industrie 63
amont des projets impliquant les relations hommes- machines pour tenir

compte du travail réel accompli au quotidien (et pas de celui prescrit) et

éviter les déconvenues d’une évolution mal comprise ou maîtrisée.

Les employeurs se posent la question de l’accroissement de l’intérêt du

travail au vu de la perte de maîtrise des gestes manuels remplacés par des

consignes sur écran d’une tablette reliée à chaque station de montage. Ils

y voient un risque dans la perte d’autonomie et des compétences, ainsi

que la surveillance généralisée et illimitée au travail que cette technologie

rend possible. En même temps, ils reconnaissent que cette technologie

permet de libérer les humains des tâches le plus pénibles et de prévenir

les accidents de travail.


17

Mettre l’intelligence artificielle au service de l’environnement


Le Sénat a de son côté adopté une proposition de loi transpartisane le

12 janvier 2021. Elle vise à limiter l’impact du numérique sur la planète :


sanctionner l’obsolescence logicielle, rendre obligatoire l’écoconcep- tion des sites web, limiter le renouvellement des terminaux
numériques

comme les téléphones et ordinateurs, sont parmi les propositions de ce

texte inédit qui répond à une réelle urgence ; si rien n’est fait, d’ici 2040,

le secteur numérique sera plus polluant que le transport aérien.


L’Europe, de son côté, a pour objectif de réduire les émissions de gaz à

effet de serre d’au moins 55 % d’ici à 2030 et d’atteindre zéro émission


de gaz à effet de serre (la neutralité climatique) d’ici à 2050. Le déve- loppement et l’adoption généralisée de solutions d’IA
respectueuses
du

climat et de l’environnement ont un fort potentiel pour aider à atteindre

ces objectifs ambitieux.

Dans ses conclusions, le Conseil Environnement en Europe, où siègent

14 ministres de l’Environnement des États membres, a souligné l’impor-

tance de se concentrer sur les impacts négatifs potentiels directs et indirects

de l’IA sur l’environnement, et appelle la Commission à développer des

indicateurs et des normes sur l’impact négatif de la numérisation. Si l’IA

a un fort potentiel pour faciliter la réalisation des objectifs de l’UE en


Mettre l’intelligence artificielle au service de l’environnement 65
matière de climat et d’environnement, la technologie elle- même a une

empreinte environnementale significative, notamment en termes de consommation d’énergie.

En mars 2021, 24 États membres, avec la Norvège et l’Islande, ont signé

une déclaration visant à accélérer l’utilisation de technologies numériques

vertes au profit de l’environnement, en encourageant le développement

et l’utilisation d’algorithmes économes en énergie.


18

Le Conseil national du numérique

Dans son rapport intitulé « Anticiper les impacts économiques et sociaux

de l’intelligence numérique », le Conseil national du numérique propose

en mars 2017 de penser la complémentarité homme- machine à travers

ces questions :

La tâche nécessite- t-elle des capacités cognitives verticales (orientées

sur une tâche très spécifique) ou horizontales ?

L’automatisation de cette tâche est- elle acceptable socialement ?

Cette tâche nécessite- t-elle le recours à une intelligence émotionnelle ?

Cette tâche nécessite- t-elle une intervention manuelle complexe ?

La technologie est- elle suffisamment avancée pour que cette tâche soit automatisée ?
Il demande une concertation sur les conséquences économiques et sociales

de l’IA.
19

Le Conservatoire national des arts et métiers (Cnam) : vérifier ce que peut faire l’intelligence artificielle
Le Cnam a créé une chaire sur le « Learning Lab Human Change », dont
la titulaire est Cécile Dejoux. Pour Cécile Dejoux, aussi professeure de gestion au Cnam, « il devient indispensable de comprendre
ce que
peut

faire l’intelligence artificielle, mais aussi ce qu’elle ne peut pas faire.


Cela

permet de déployer des solutions au bon niveau, de déléguer des tâches


sans pour autant laisser à l’intelligence artificielle un rôle décisionnel, mais

surtout de développer de nouvelles compétences, centrées sur les spécifi-

cités de l’intelligence humaine ». Au cœur de ses recommandations, celle

de ne pas confier l’intelligence artificielle à des seuls experts et former les

DRH à son utilisation est une exigence comme celle du dialogue social,

élément indispensable pour une acceptation de l’intelligence artificielle

au travail.
20

Le Défenseur des droits : recruter sans discriminer


Face à la prolifération des logiciels et des sites internet de recrutement, le

Défenseur des droits a publié un guide, destiné aux professionnels comme

aux candidats, énumérant des principes comme le droit à la vie privée


(Code du travail), l’interdiction de discriminer (Code pénal), la protec- tion des données personnelles (RGPD). Il rappelle au
passage que
seuls

trois métiers peuvent être expressément réservés à des femmes ou à des

hommes : mannequin, modèle et comédien, et que les filtres permettant

de trier des candidats en raison de leur sexe ne sont donc pas autorisés
en dehors de ces exceptions. Il recommande de prévoir des systèmes limitant la recherche, le tri, la sélection des candidats sur
des critères discriminatoires.
Partie IV

Les exigences de la CFDT Cadres

En 2018, la CFDT Cadres mettait en avant un certain nombre de recommandations lors de l’introduction de l’intelligence
artificielle, parmi lesquelles un rôle actif
et éclairé des cadres et des managers, au centre des transitions.

Leur marge de manœuvre sur les décisions doit être assurée.

Le dialogue social et professionnel autour de ces questions est nécessaire.


21

Organiser le dialogue social

en amont des choix et de l’utilisation des technologies


L’outil informatique doit être placé au service d’un projet humain efficace

et non l’inverse. Il est toujours navrant pour le client de se voir expliquer

par son interlocuteur qu’il voudrait bien vous rendre service, mais qu’il en

est empêché par l’ordinateur… ou que l’ordinateur a un contrôle illimité

sur le salarié, cela dissimulant les exigences de ceux qui ont contribué

à sa mise en place. La CFDT Cadres met en garde contre l’utilisation


de l’IA à l’origine de changements trop réguliers dans l’organisation du

travail, de surcharges cognitives, d’une perte d’autonomie au travail, d’une

perte de sens au travail ou d’un cyberharcèlement. Par conséquent, elle

réclame que les partenaires sociaux soient consultés régulièrement dans


ce domaine lors de l’introduction de l’intelligence artificielle et que la santé des travailleurs soit protégée. Elle souligne que les
choix des
techno-

logies et leur utilisation sont entourés d’intérêts contradictoires et que les

travailleurs ont leur mot à dire.


22

Former les équipes syndicales et les travailleurs à l’intelligence


artificielle

La formation des équipes syndicales et des travailleurs aux enjeux de l’intelligence artificielle est d’autant plus nécessaire que
l’intelligence artificielle entre souvent dans les entreprises ou les administrations
sans
discussion. Ce silence sur son introduction laisse les représentants du personnel sur la défensive. Ils se sentent désarmés,
redoutent de ne
pas

avoir les clefs pour discuter d’autant plus qu’ils voient des risques pour
l’emploi. Leur sentiment de légitimité est faible face à leur direction (dont la responsabilité vis- à-vis de l’intelligence artificielle
doit être renforcée) ou à des experts, ne leur donnant pas la confiance
suffisante
qui leur permettrait de réellement s’impliquer. Par ailleurs, la lisibilité du dispositif juridique actuel permettant l’intervention des
représen-
tants du personnel sur cet enjeu est insuffisante. Ces freins provoquent

donc une faible implication des instances représentatives du personnel

sur l’intelligence artificielle, dans une période où les attentes des salariés
qu’ils représentent évoluent significativement en matière de réévalua- tion du sens du progrès, de protection de l’emploi et de
contrôle des données. Cela met en évidence un besoin de formation et de
sensibili-

sation des équipes et des salariés à l’intelligence artificielle. Aujourd’hui,


seuls 44 % des salariés se déclarent prêts à travailler avec une intelli- gence artificielle, tandis que 20 % d’entre eux s’estiment
suffisamment Former les équipes syndicales et les travailleurs à l’intelligence artificielle
73

accompagnés sur le sujet, indique une enquête « Intelligence artifi- cielle et capital humain : quels défis pour les entreprises ? »
menée par Malakoff Médéric et le Boston Consulting Group (BCG) en
mars 2018.
23

Évaluer et négocier les évolutions des emplois et leurs conséquences


Une étude du Forum économique mondial1 estime que la part globale

du « travail » en nombre d’heures réalisées par les machines va progressive-

ment augmenter pour atteindre 52 % (48 % seront réalisés par l’humain),

alors qu’aujourd’hui la répartition est de 71 % pour l’humain et de 29


%

pour les machines. L’impact sur l’emploi est ainsi avéré, seule l’ampleur

fait encore débat.

Les économistes divergent sur l’impact relatif de l’intelligence artifi- cielle et de la robotique sur l’emploi des travailleurs. Selon
une étude
du
28 mars 2018 de France Stratégie, organisme de réflexion placé auprès du

Premier ministre, il est difficile de quantifier l’effet des robots, de l’IA et

des capteurs sur la main- d’œuvre, car nous ne sommes qu’au début d’une

révolution technologique. France Stratégie a interrogé 1 896 experts sur

l’impact des technologies émergentes ; 48 % d’entre eux ont estimé que

les robots et les agents numériques déplaceraient un nombre important de

cols bleus et de cols blancs, beaucoup craignant que cela entraîne une forte

augmentation des inégalités de revenus, un grand nombre de personnes

inemployables et de ruptures dans l’ordre social. Toutefois, l’autre moitié

World economic forum, « The futur of jobs report, Centre for the new economy

and society »,2018,[Link]/docs/WEF_Future_of_Jobs_2018.pdf


Évaluer et négocier les évolutions des emplois et leurs conséquences 75
des experts ayant répondu à cette enquête (52 %) s’attend à ce que la
technologie ne déplace pas plus d’emplois qu’elle n’en crée d’ici 2025.

Ces experts estiment que, même si de nombreux emplois, actuellement

occupés par des êtres humains, seront en grande partie repris par des robots
ou des agents numériques, l’ingéniosité humaine créera de nouveaux emplois, de nouvelles industries et de nouvelles façons de
gagner sa
vie.

Par ailleurs, d’autres études indiquent que l’impact de l’intelligence artifi-

cielle sur l’emploi différera selon les secteurs économiques, selon le degré

d’innovation dans les entreprises et selon le niveau de qualification des

travailleurs.

Ce qui veut dire que pour les syndicats et les représentants de travail-

leurs, il est crucial de négocier l’anticipation et l’accompagnement de la

transformation des emplois et des activités, la mise en place de formations

pour doter les travailleurs de bonnes compétences et éviter de laisser sur


le bord de la route les personnes moins qualifiées, les plus vulnérables, les

jeunes, les femmes, et les personnes porteuses de handicap.


24

Favoriser la mixité

dans les filières numériques

La diversité et la mixité dans les filières numériques sont cruciales pour

contribuer à façonner la vision du monde et ses enjeux, et à amoindrir

les risques de biais des algorithmes dans le domaine des discriminations.


Or, la question de la pénurie des femmes dans les filières numériques reste un problème majeur. À mesure que le numérique et,
demain,
l’IA

deviennent prépondérants dans nos vies, la situation est alarmante dans

ces filières tant les femmes sont peu représentées. En 2021, en Europe,

seulement 18 % des femmes travaillent dans le secteur IT. La Commission


européenne propose qu’elles soient 10 millions d’ici 2030 (« Objectifs

numériques 2030 »). En France, un plan pour décliner un objectif si ambi-

tieux et la mobilisation de tous les acteurs dans une action coordonnée et

d’ampleur seront nécessaires. Le dialogue social à tous les niveaux pourra

y contribuer.
25

Évaluer l’intelligence artificielle à l’aune de la qualité et de la santé au travail


Certains travailleurs peuvent voir l’intelligence artificielle comme une

menace pour leurs méthodes de travail ou comme un risque de remise

en cause de leur place dans l’organisation ou encore comme un défi vis- à-vis de leurs collègues plus technophiles. Tandis que
d’autres travailleurs

peuvent se sentir plus productifs, plus puissants avec l’intelligence artifi-

cielle. Bref, l’intelligence artificielle peut être la source pour certains de problèmes psychiques.

Le choix d’un contrôle illimité, par exemple, peut menacer le droit à des

conditions de travail justes, préservant la santé et la sécurité, la dignité sur


le lieu de travail ainsi que le droit d’organisation des travailleurs. Si les travailleurs sont constamment surveillés par leurs
employeurs, comment

peuvent- ils se syndiquer et s’organiser collectivement ? Le droit à l’éga-

lité des chances et à un traitement sans discrimination fondée sur le sexe en matière d’emploi et d’évolution professionnelle peut
sortir fragilisé,

lorsque des systèmes véhiculent des préjugés à travers leurs données ou

du fait de leurs concepteurs.

L’intelligence artificielle, si elle est mal ou pas accompagnée, peut être une source de nouvelles formes de risques psychosociaux
basés sur des paramé-

trages de logiciels, liés à l’emploi. Les finalités et l’impact de l’IA sur la qualité

de travail doivent être centraux dans le dialogue social et professionnel.


26

S’assurer que l’humain reste aux commandes : surveillance, recrutement,


biais et discriminations

le contrôle des salariés en télétravail :

des techniQues très Puissantes doivent relever d’un choix managérial

La Covid-19 a été un grand accélérateur de l’utilisation massive des tech-


nologies numériques et d’une généralisation du télétravail. La CFDT Cadres constate que des moyens de contrôle intrusifs et
puissants sur le

travail ont été mis en place sans que cela ait fait l’objet d’une concertation

collective, et parfois même à l’insu des directions.

En 2020, le score d’intention Aberdeen d’achat d’outils de surveillance à

distance des salariés (ISG Research) aux États- Unis est passé de 1 à plus

de 53 en huit semaines dans 2 000 grandes entreprises, après le début du

premier confinement. La CFDT Cadres a par exemple été alertée du cas d’un centre français d’appels à dimension internationale,
qui avait implanté

un logiciel permettant la surveillance en temps réel et en permanence de

l’écran du télévendeur par le superviseur. Cette surveillance est interdite

par la Cnil depuis novembre 2020. Pour ce qui est de la surveillance


S’assurer que l’humain reste aux commandes… 79
des corps, elle a aussi été informée d’un logiciel utilisé pour faire respecter
la distanciation sociale dans les entrepôts d’Amazon. Ce logiciel a été appréhendé comme une pratique déshumanisante, puis
retiré. Parmi les choix de management qui se dissimulent derrière l’IA, il peut être
tentant d’utiliser parfois les systèmes d’IA de surveillance et de traçage

des travailleurs, qui permettent de répartir les tâches sans intervention


humaine, d’évaluer et de prévoir le potentiel et les performances des personnes dans les situations d’embauche et de
licenciement. Des
logiciels

de contrôle comme Doctor, Sneek, Vericlock, Desktime, ActivTrack, Hubstaff, Clevercontrol, Teramind… fleurissent et permettent
plus de
« tracking » sur le travail et sa mesure.

La fonctionnalité de ces programmes s’est élargie : géolocalisation, enregis-

treur de frappe du clavier, temps passé en ligne sur des sites « productifs »

ou « non productifs », durée de connexion sur les serveurs de l’entreprise,

nombre de courriels envoyés, identité des destinataires sont au menu.


D’autres logiciels opèrent des captures d’écran des ordinateurs toutes les

cinq ou dix minutes, ou révèlent un « comportement digital », pour déceler

d’éventuelles anomalies. Ce comportement, ramené à grande échelle par

l’intelligence artificielle, peut permettre d’opérer un contrôle beaucoup

plus large. Ainsi, le contrôle des heures de connexion et de déconnexion

ainsi que les scores de productivité se sont intensifiés depuis les confine-

ments de 2020 et 2021.

L’utilisation de ces outils doit être discutée avec les managers, dont la responsabilité, la marge de manœuvre et le pouvoir de
décision
peuvent
se trouver fortement limités par cette utilisation. Et bien évidemment, comme la Cnil le souligne, la communauté de travailleurs
et leurs
repré-

sentants doivent être informés et consultés sur cette utilisation.


80 Les exigences de la CFDT Cadres

Passer d’une culture du contrôle et du Présentéisme à une culture des résultats et


de la confiance

La Cnil considère que si elles veulent garder la confiance de leurs salariés,

les entreprises courent de grands risques à surveiller ces derniers au moyen

de logiciels, présentés souvent comme des outils anodins de gestion admi-

nistrative ou d’aide à la productivité. Ces logiciels servent, en théorie, à

rationaliser l’activité de l’entreprise, notamment en rendant visibles les

déséquilibres internes des charges de travail et l’état d’avancement des

projets. Ils assurent pour l’employeur un filtrage, afin que les salariés ne

puissent pas naviguer en ligne sur certains sites internet ou une sécurité

afin qu’ils ne puissent pas extraire des données ou informations sensibles.


Mais la plupart de ces logiciels de traçage de l’activité sont invisibles pour

les salariés qui sont sujets à une surveillance de plus en plus intrusive, ce

qui pose logiquement la question de leur légalité.

Pendant la Covid-19 et le télétravail « contraint », un engouement pour les dispositifs


de contrôle de la productivité

Lors de la crise de la pandémie de la Covid-19, après le premier déconfi- nement, les employeurs des entreprises testées ont
montré un intérêt 500 fois supérieur pour les dispositifs qui mesurent la productivité des salariés, une augmentation inédite qui
soulève quelques inquiétudes sur l’avenir managérial2. En France, cette pression a été si intense que la
Cnil a dû publier une « question- réponse » sur le contrôle de l’activité des salariés. La Cnil fait état d’une augmentation des
plaintes transmises
dans le domaine de la surveillance des travailleurs en 2020.

Ce document souligne que les systèmes de collecte et de traitement permanent de données, qui permettent d’identifier et de
surveiller à distance l’activité des télétravailleurs, doivent faire l’objet d’une déclara- tion préalable auprès d’elle. Dans le cas où
les formalités déclaratives ne
sont pas remplies, le dispositif de surveillance ou de contrôle est illicite.

Kevin Balckwell, « Employees, Pandemics and Productivity: Support (Don’t) Surveil Your Remote Workforce », ISG, 2020.

S’assurer que l’humain reste aux commandes… 81


l’utilisation de l’intelligence artificielle dans les recrutements

Utiliser l’intelligence artificielle dans les recrutements est un choix de management très tentant, car la fonction est chronophage
et
l’analyse

des milliers de CV, notamment dans les grandes entreprises, fastidieuse.

Certains entretiens en vidéo peuvent être destinés à aider au recrutement


(Easyrecrue, Agent virtuel Vera, Smart Ranking, Hirevue…), avec un retour immédiat sur le vocabulaire employé ou les
expressions
faciales du

candidat. Ils peuvent mobiliser trois types d’intelligence artificielle pour

attribuer une note au candidat : la richesse du vocabulaire du candidat


(les mots utilisés sont- ils courants ou appartiennent- ils à un langage plus

châtié), la « prosodie » – soit les variations dans le rythme, le ton et l’in-

tensité de la voix – et enfin, les expressions. Mais l’analyse des facteurs

de l’intelligence artificielle ne présume pas forcément de la compétence

du candidat. Cette utilisation et ses résultats ne s’appuient pas sur des

fondements scientifiques et devraient être interdits.

« Lorsque des personnes interagissent avec un système d’IA ou que leurs

émotions ou caractéristiques sont reconnues par des moyens automatisés,

elles doivent en être informées3. »

« Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence
artificielle », 21 avril 2021.
27

Obtenir la transparence des paramètres décisionnels de l’intelligence artificielle


Compte tenu des caractéristiques spécifiques de cette technologie (par

exemple l’opacité, la complexité, la dépendance à l’égard des données, le

comportement autonome), l’utilisation de l’IA peut porter atteinte à un

certain nombre de droits fondamentaux consacrés dans la charte euro-

péenne. Toutes les décisions basées sur des algorithmes et qui impactent
les travailleurs devraient être explicables, interprétables, concises, compré-

hensibles, accessibles et conformes au RGPD. À ce titre, les algorithmes

utilisés par les systèmes d’IA doivent, en préalable, être audités par des

organismes indépendants.
28

Associer les syndicats

à la gouvernance des données

C’est pour cette raison que la CFDT Cadres demande que les représen-

tants des salariés soient associés à la gouvernance des données et aient un

droit de regard sur la qualité des données utilisées par l’IA. Des négo-

ciations sur la collecte des données des salariés sont essentielles lorsque

l’intelligence artificielle est mise en œuvre sur un lieu de travail.

Les données personnelles des travailleurs ne doivent pas être utilisées par

les employeurs sans coordination ni coopération des services de santé


au travail. À cet égard, rappelons l’article 88 du RGPD sur « le traite-

ment des données dans le cadre des relations de travail » qui encourage la
négociation de conventions ou d’accords collectifs sur la protection de la dignité humaine, des intérêts légitimes et des droits
fondamentaux
des

personnes concernées. Cet article accorde une attention particulière à la

transparence du traitement et au transfert de données à caractère personnel

au sein d’un groupe d’entreprises, ainsi qu’aux systèmes de contrôle sur

le lieu de travail.

Il est important de rester acteur de ces évolutions et d’interpeller les directions sur les lieux de travail.

Il faut avoir à l’esprit que l’introduction de l’intelligence artificielle peut

souvent se cacher derrière un outil numérique déjà utilisé, auquel elle


84 Les exigences de la CFDT Cadres
est « ajoutée ». Son arrivée « incognito » dans l’entreprise ne permet pas de

savoir si l’intelligence artificielle a un impact sur les droits de l’homme, sur

les conditions de travail, sur l’accès à l’emploi ou sur l’évolution profes-

sionnelle. Les mesures de conformité, de responsabilité et de réparation

doivent donc commencer par une obligation de transparence.

En tant qu’acteur syndical et en tant que manager, la première question à

poser est donc : mon entreprise/administration utilise- t-elle des systèmes

d’intelligence artificielle ?

Huit questions pour évaluer en amont l’intelligence artificielle sur le lieu de travail
Mon entreprise/administration utilise- t-elle des systèmes d’IA ?

Qui est le commanditaire d’un système d’IA et avec quelle finalité l’introduit- il ? Si ce système a été acheté, quel est le sous-
traitant qui l’a conçu et qui l’a acquis, au sein de l’entreprise et à partir de quels critères ?
À qui le système est- il utile et à combien de personnes ?

À qui peut- il causer des dommages et vis- à-vis de qui comporte- t-il des inconvénients ?
Qui est exclu de l’IA et quelle est l’ampleur de la perte des droits sociaux et sociétaux générée par son utilisation ?
Comment la décision d’introduire le système a- t-elle été prise, et à qui a- t-on demandé l’avis et selon quelle procédure ?
Qui est le propriétaire des données, qui a des droits d’accès ou d’utilisation ?
Les utilisateurs et les employés sont- ils impliqués dans la conception de l’IA ?
Partie V

Les apports des branches professionnelles


sur la transformation des métiers

Les représentants du personnel peuvent, au sein des branches professionnelles, négocier des accords sur l’utilisation de
l’intelligence artificielle, car l’IA peut avoir un impact
sur des domaines de négociation relevant de leur compétence.
29

La métallurgie :

réfléchissons aux prochaines négociations sur l’industrie 4.0


La Fédération de la métallurgie CFDT a remporté un appel d’offres
de la DGEFP sur l’industrie 4.0 du futur concernant une démarche de concertation sociale rendant les salariés acteurs du
changement. Le
projet

consiste à simuler les changements dans des entreprises tests avant qu’ils

n’arrivent et à constater comment ceux- ci s’adaptent aux nouvelles orga-

nisations du travail pour choisir les organisations les plus favorables aux

travailleurs de même qu’à l’entreprise. Ce projet doit déboucher sur des


thèmes de négociation syndicats- employeurs quant à l’introduction des

technologies 4.0.
30

Le commerce :

identifions ce qui est déjà à l’œuvre

Afin d’accompagner les mutations économiques, treize branches de l’Opcommerce ont signé un Engagement de développement
de l’em- ploi et des compétences (Edec) avec le ministère du Travail sur
l’impact
du numérique dans le commerce et la distribution. L’Edec aborde par conséquent l’impact du digital cognitif ou intelligence
artificielle sur
les

métiers et les compétences requises. Cette étude vise à mesurer l’impact

de l’IA sur l’ensemble des métiers et des compétences, de la relation client

aux fonctions support et au niveau organisationnel. Elle identifie et analyse


les actions d’ores et déjà mises en œuvre ou en cours d’expérimentation

pour s’adapter à ce nouveau paradigme afin de capitaliser sur les bonnes

pratiques. Il s’agit d’une étude qualitative et prospective menée sur le terrain et avec le concours d’observateurs du secteur.
31

L’assurance : recensons les métiers impactés


par l’intelligence artificielle

L’Observatoire des métiers de l’assurance a reçu les représentants d’IBM

en 2017 à propos du logiciel d’IA Watson dans les métiers de la souscrip-

tion. Il a aussi reçu publiquement un représentant de l’ACPR, autorité de

contrôle prudentiel et de résolution, auteur d’un document sur l’intelli-

gence artificielle, enjeu pour le secteur financier, intitulé « Les algorithmes

à l’épreuve de l’éthique ». En octobre 2020, l’Observatoire a publié une


étude sur « Les métiers de la gestion et de la maîtrise du risque au temps

du digital ». Il en ressort que pour rester compétitives et innovantes, les

assurances doivent s’appuyer sur des personnels « hybrides » capables de

créer des passerelles entre différents champs d’expertise. Ce phénomène


d’hybridation semble s’être fortement accéléré avec l’essor des inno- vations numériques et technologiques. Les emplois de pur
traitement administratif de l’information disparaissent. Partout et à tous les
niveaux,

un nombre croissant de postes intègre des rôles transverses.


À l’intérieur

des métiers, les spécialités se font plus nombreuses. Désormais, le travail

de tous est orienté par la conception/résolution de problèmes. La valeur

ajoutée de chacun tient davantage à la prise en charge du complexe.


Avec

l’intensification des interactions, les différences culturelles entre


métiers 90 Les apports des branches professionnelles sur la transformation des métiers

s’atténuent et laissent place à une certaine convergence des identités


professionnelles. L’un des intervenants de ce rapport propose que « les

lacs de données » (data lakes) des organismes d’assurance éthiquement

responsables puissent être confiés à un tiers de confiance en s’assurant

de l’anonymisation des données.


32

La banque :

gérons les emplois et les compétences

L’Observatoire des métiers de la banque a pris la décision, par son comité

de pilotage paritaire, de publier une étude sur l’impact de l’intelligence

artificielle sur les métiers et compétences en décembre 2017. Cette étude

s’inscrit dans la continuité des travaux menés au cours de l’année 2016 :


« La banque à l’horizon 2020-2025 : emploi et compétences, quelles orientations ? » L’étude soulève l’interrogation suivante :
que signifie
le

pivotement d’une culture d’entreprise tournée vers le savoir à une culture

d’entreprise tournée vers la supervision ? Quelle est la bonne organisation ?


Elle signale que les outils à base d’IA sont généralement développés par des

tiers sous la forme de briques adaptables dans des systèmes déjà existants.

La tendance observée consiste à transférer à la machine des connaissances

bancaires dans 26 métiers repères. La machine devient progressivement

experte, posant de fait des questions sur la place du collaborateur bancaire

et sur les compétences utiles demain pour exercer un métier. Les outils IA

retenus pour cette analyse sont l’assistant personnel, le chatbot, l’analyseur

d’e-mails, la reconnaissance optique (pouvant inclure la robotisation de

processus), les systèmes experts de compatibilité. L’une des recomman-

dations de l’étude est de mesurer le temps libéré par ces systèmes.

Selon l’Observatoire des métiers de la banque, huit grandes tendances vont

considérablement impacter le secteur bancaire jusqu’en 2025 : le


digital, 92 Les apports des branches professionnelles sur la transformation des métiers
la blockchain, l’intelligence artificielle, l’automatisation des processus, les changements réglementaires, les nouvelles attentes
des collaborateurs, les transformations des modes de travail et de consommation.

Peu de métiers vont disparaître, la plupart vont se transformer, avec un renforcement de la spécialisation pour répondre aux
nouvelles exigences du secteur (montée en compétences généralisée). Certains métiers, comme

ceux de la data et de la gestion de projet, vont apparaître ou prendre une importance capitale dans les entreprises du secteur.

Les changements demanderont une redéfinition des passerelles de mobi-lité et un accompagnement des collaborateurs dans les
transformations. Les collaborateurs devront, avec l’aide des ressources humaines, devenir acteurs de leurs parcours de carrière.
Les RH auront un rôle capital dans

la montée en compétences des collaborateurs.

Les compétences comportementales vont devenir particulièrement impor-

tantes pour renforcer l’employabilité des collaborateurs et fluidifier la mobilité. Sept compétences seront particulièrement
nécessaires : s’adapter au changement, apprendre à apprendre, travailler de façon communau-taire, communiquer/avoir de
l’impact, s’orienter vers le client, résoudre

les problèmes et développer ses compétences…

Une excellente maîtrise des compétences techniques restera un prérequis


nécessaire à l’exercice des professions bancaires.

JPMorgan Chase et ses conseillers clients robots Lors de son arrivée en Grande Bretagne, la première banque américaine JP
Morgan a acquis une petite start-up, Nutmeg, spécialisée dans la gestion de fortunes. Ses robots conseillaient 140 000 clients,
alors qu’elle n’employait que 150 salariés. Lorsque la banque HSBC est arrivée en France en 2005, elle avait acquis le Crédit
commercial de France, à un prix et des coûts humains beaucoup plus élevés. Aujourd’hui, il suffit d’acheter une fin- tech en ligne
pour entrer sur le marché bancaire. Reste que l’acquisition de clients reste difficile, car les robots sont certes de bons conseillers,
mais ils ne sont pas de bons commerciaux. Et puis il

faut quand même des employés en bout de chaîne pour résoudre les cas complexes et pour rassurer les clients. De plus, le risque
de cybercrimi- nalité est potentiellement explosif.
33

Les métiers de l’ingénierie, du numérique et du conseil


En novembre 2019, une étude de l’Observatoire des métiers du numérique, de l’ingénierie, du conseil et de l’événement (OPIIEC),
« Formations et compétences sur l’Intelligence Artificielle en France
»,

conclut à 7 500 créations nettes d’emploi dans la branche d’ici cinq ans.

Cette analyse dresse un état des lieux des besoins en recrutement, des

compétences recherchées, mais aussi de l’offre de formation disponible

en France.
34

La Poste

La branche numérique du Groupe La Poste fait état de 120 ingénieurs,

docteurs et data scientists spécialisés dans :

la computer vision qui reconnaît et détecte des objets dans les documents,

qu’il s’agisse d’adresses, de plaques d’immatriculation, d’interprétation

d’images ;

le machine learning qui prédit des situations de comportements, détecte

des fraudes et optimise le transport de colis ;

le traitement du langage naturel (NLP) avec des agents conversation-

nels, aussi appelés chatbots ; grâce à l’interprétation de texte dans des

documents, il permet aussi de traiter automatiquement certains e- mails.


Partie VI

Les textes qui permettent de négocier l’intelligence artificielle


Il existe d’abord des dispositions du Code du travail

qui permettent aux partenaires sociaux de négocier des accords. Les lanceurs d’alerte peuvent aussi agir et les syndicats
peuvent les soutenir. Il existe tout un arsenal juridique pour interpeller une entreprise sur l’introduction interne de
technologies
d’intelligence artificielle. Cet arsenal peut être mobilisé au niveau

d’un conseil d’administration, d’un CSE, de ses commissions ou d’une branche professionnelle. Lorsqu’elles sont saisies,
des administrations publiques ou indépendantes comme l’inspection

du Travail, la Cnil ou le Défenseur des droits peuvent également

apporter leur contribution à cette interpellation. Les sujets


de négociation pouvant servir de vecteur au dialogue social relèvent

le plus souvent de la sécurité et de la santé des travailleurs, de la gestion prévisionnelle des emplois et des compétences
(GPEC) ou de la transformation des emplois.
Ce sont des sujets invoqués couramment dans les négociations

annuelles ou périodiques.
35

Au conseil d’administration

Les représentants du comité social et économique (CSE) au conseil d’ad-

ministration peuvent demander un avis motivé sur l’IA aux membres du

CA.

La loi du 22 mai 2019, dite loi « Pacte », a prévu la faculté de mettre en


place un conseil d’administration (CA) pour définir une stratégie dans les sociétés anonymes (SA) et les sociétés par actions
simplifiées
(SAS).

Si l’intelligence artificielle fait partie de cette stratégie, les représentants

du CSE bénéficient d’une voix consultative au conseil d’administration,

dans les entreprises d’au moins 50 salariés. Ils peuvent assister à toutes les
réunions du conseil d’administration, pour faire passer les recommanda-

tions et les vœux du CSE. Le conseil d’administration doit répondre à ces

vœux par un avis motivé. Dans les sociétés d’au moins 50 salariés, le CSE

est également représenté aux assemblées générales de la société. Ses repré-

sentants sont entendus, à leur demande, lors de toutes les délibérations

requérant l’unanimité des associés (article L. 2312-77 du Code du travail).

Si l’intelligence artificielle n’est pas évoquée en conseil d’administration,

que son introduction est passée sous silence, comme il arrive souvent,

d’autres voies d’intervention sont possibles, notamment par l’intermédiaire

du CSE, de la branche ou des instances administratives.

98 Les textes qui permettent de négocier l’intelligence artificielle

demander la création d’un comité d’éthiQue


Un comité d’éthique peut mesurer et définir les limites qu’il faut donner
aux machines. C’est ainsi qu’en juin 2020, CNP Assurances a créé un comité d’éthique de l’intelligence artificielle. La compagnie
s’est dotée d’une gouvernance dédiée et a nommé un responsable « éthique de
l’IA ».

Ce comité a été placé sous la responsabilité du secrétariat général et de

la direction financière.

Poser des Questions sur l’intelligence artificielle

Le conseil d’administration a l’obligation de désigner des administrateurs

représentant les salariés dans les sociétés non cotées dont le groupe emploie

au moins 1 000 salariés en France ou 5 000 en France et à l’étranger, et ces

administrateurs salariés devront être au moins deux, si le conseil a plus de

huit membres. Ces administrateurs salariés peuvent poser des questions sur

l’intelligence artificielle, si celle- ci fait partie de la stratégie de l’entreprise.


se former à l’intelligence artificielle

Les administrateurs élus par les salariés ou désignés doivent bénéfi- cier d’une formation dont la durée ne peut être inférieure à
40 heures (article L. 225-30-2 du Code de commerce). Pour les « grandes entre- prises » et pour les sociétés cotées, un fragment
de la formation
devra

s’effectuer au sein même de l’entreprise. Cette mesure doit permettre aux

administrateurs élus par les salariés ou désignés d’apprendre les enjeux de

l’IA, sous l’angle du conseil d’administration.


36

Dans la branche professionnelle

En matière de négociation de branche, deux références existent : le Code

du travail et le RGPD.

des thèmes de négociation aPPlicables

à l’intelligence artificielle dans le code du travail

Livre II : La négociation collective – Les conventions et accords collectifs de travail

… Titre IV : Domaines et périodicité de la négociation obligatoire

…… Chapitre Ier : Négociation de branche et professionnelle


Égalité professionnelle entre les femmes et les hommes

mesures de rattrapage des inégalités – conciliation

entre la vie professionnelle et la vie personnelle des salariés

conditions de travail – GPEC – effets de l’exposition aux facteurs de risques professionnels énumérés
à l’article L. 4161-1

……… Section 3 : Dispositions supplétives

………… Sous- section 3 : Négociation triennale 100


Les textes qui permettent de négocier l’intelligence artificielle

la réPartition des thèmes de négociation selon l ’article l. 2241-1

Les organisations liées par une convention de branche ou, à défaut, par des

accords professionnels se réunissent, au moins une fois tous les quatre ans,

pour les thèmes mentionnés aux 1° à 5° et au moins une fois tous les cinq ans pour les thèmes mentionnés aux 6° et 7°, pour
négocier :
1° Sur les salaires ;

2° Sur les mesures tendant à assurer l’égalité professionnelle entre les


femmes et les hommes et sur les mesures de rattrapage tendant à remédier aux inégalités constatées ainsi que sur la mise à
disposition

d’outils aux entreprises pour prévenir et agir contre le harcèlement sexuel et les agissements sexistes ;
2 bis° Sur les mesures destinées à faciliter la conciliation entre la vie professionnelle et la vie personnelle des salariés proches
aidants ;
3° Sur les conditions de travail, la gestion prévisionnelle des emplois et

des compétences, et sur la prise en compte des effets de l’exposition

aux facteurs de risques professionnels énumérés à l’article L. 4161- 1 ;

4° Sur les mesures tendant à l’insertion professionnelle et au maintien

dans l’emploi des travailleurs handicapés ;

5° Sur les priorités, les objectifs et les moyens de la formation profession-

nelle des salariés ;


6° Sur l’examen de la nécessité de réviser les classifications, en prenant

en compte l’objectif d’égalité professionnelle entre les femmes et les

hommes, et de mixité des emplois ;


7° Sur l’institution d’un ou plusieurs plans d’épargne interentreprises ou plans d’épargne pour la retraite collectifs
interentreprises
lorsqu’il

n’existe aucun accord conclu à ce niveau en la matière.


Dans la branche professionnelle 101

Exemple : la formation professionnelle

Accord du 5 février 2020 relatif à la formation professionnelle (convention collective nationale de la Banque du 10
janvier 2000. Étendue par arrêté du 17 novembre 2004 JORF 11 décembre 2004) : Article 2 Priorités de la branche et
publics prioritaires.
Les parties signataires rappellent l’importance de la formation profes- sionnelle tant pour les entreprises que pour les
salariés qui les composent. Ils déterminent les axes prioritaires de formation suivants au niveau de la branche :
permettre de maintenir les compétences des salariés face aux évolutions économiques, technologiques et
d’organisa-
tion par une anticipation, un accompagnement et une adaptation face aux changements, notamment l’intelligence
artificielle, les relations clients
via le digital, la blockchain.

l’aide du règlement général euroPéen sur la Protection des données (rgPd)


Le texte du règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes
physiques

à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données (RGPD) est publié sur le site de
la Cnil et sur le site de l’Union européenne.

Le RGPD est applicable depuis le 25 mai 2018 (article 99.2) dans tous les pays de l’Union européenne. Il s’applique à toutes les
entreprises
(y compris leurs CSE), les administrations et les associations qui traitent des données à caractère personnel. Ce règlement prévoit
dans ses articles 5, 40

et 88 des thèmes sur la licéité du traitement des données, sur la protection, la collecte, la qualité des données, les codes de
conduite, thèmes suscep-tibles d’être repris dans les négociations de branches sur l’IA. Depuis le

1er juin 2019, les dispositions du RGPD ont été retranscrites dans la loi du 6 janvier 1978 dite « informatique et libertés ».

C’est le RGPD qui a été invoqué en novembre 2020, lorsque quatre anciens chauffeurs britanniques et un chauffeur portugais ont
accusé
102 Les textes qui permettent de négocier l’intelligence artificielle

l’application américaine Uber de les avoir « licenciés » en utilisant un

algorithme sans leur avoir donné le droit de se défendre ou d’en savoir


plus, comme l’exige pourtant l’article 22 de l’European Union’s (EU) General Data Protection Regulation (GDPR) (règlement
général sur la
protection des données). Leur plainte a été déposée devant un tribunal

d’Amsterdam où la plateforme a son siège international.

Rebondir sur l’article 40 du RGPD : les codes de conduite

Les États membres, les autorités de contrôle, le comité et la Commission

encouragent l’élaboration de codes de conduite destinés à contribuer à la bonne application du présent règlement, compte tenu
de la spécificité

des différents secteurs de traitement et des besoins spécifiques des micro, petites et moyennes entreprises.

Les associations et autres organismes représentant des catégories de respon-

sables du traitement ou de sous- traitants peuvent élaborer des codes de conduite, les modifier ou les proroger, aux fins de
préciser les modalités

d’application du présent règlement, telles que :

le traitement loyal et transparent ;


les intérêts légitimes poursuivis par les responsables du traitement dans

des contextes spécifiques ;

la collecte des données à caractère personnel ;

la pseudonymisation des données à caractère personnel ;

les informations communiquées au public et aux personnes concernées ;

l’exercice des droits des personnes concernées ;

les informations communiquées aux enfants et la protection dont béné-

ficient les enfants, et la manière d’obtenir le consentement des titulaires

de la responsabilité parentale à l’égard de l’enfant ;

les mesures et les procédures visées aux articles 24 et 25, et les mesures

visant à assurer la sécurité du traitement visées à l’article 32 ;


la notification aux autorités de contrôle des violations de données à caractère personnel et la communication de ces violations
aux
personnes concernées ;
Dans la branche professionnelle 103
le transfert de données à caractère personnel vers des pays tiers ou à des

organisations internationales ;

les procédures extrajudiciaires et autres procédures de règlement des

litiges permettant de résoudre les litiges entre les responsables du trai-

tement et les personnes concernées en ce qui concerne le traitement,

sans préjudice des droits des personnes concernées au titre des articles 77

et 79.

Se fonder sur l’article 88 du RGPD : la protection des personnes

Les États membres peuvent prévoir, par la loi ou au moyen de conven-tions collectives, des règles plus spécifiques pour assurer la
protection des droits et libertés en ce qui concerne le traitement des données à carac-

tère personnel des employés dans le cadre des relations de travail, aux fins, notamment, du recrutement, de l’exécution du
contrat de travail,

y compris le respect des obligations fixées par la loi ou par des conven-tions collectives, de la gestion, de la planification et de
l’organisation du travail, de l’égalité et de la diversité sur le lieu de travail, de la santé et de

la sécurité au travail, de la protection des biens appartenant à l’employeur ou au client, aux fins de l’exercice et de la jouissance
des droits et des

avantages liés à l’emploi, individuellement ou collectivement, ainsi qu’aux fins de la résiliation de la relation de travail.

Ces règles comprennent des mesures appropriées et spécifiques pour protéger la dignité humaine, les intérêts légitimes et les
droits fondamen-

taux des personnes concernées, en accordant une attention particulière à la transparence du traitement, au transfert de données
à caractère personnel

au sein d’un groupe d’entreprises ainsi qu’aux systèmes de contrôle sur le lieu de travail.

Chaque État membre notifie à la Commission les dispositions légales qu’il adopte en vertu du paragraphe 1 au plus tard le 25 mai
2018 et, sans

tarder, toute modification ultérieure les concernant.

L’accord européen entre les partenaires sociaux de juin 2020 rappelle cet

article et son intérêt pour enclencher la négociation collective.


37

Dans l’entreprise

Il est possible de faire entrer l’IA dans les thèmes de négociation ordinaires

prévus par le Code du travail et le Code civil.

le recours au code civil

Le Code civil prend en considération les enjeux sociaux et environne- mentaux de l’entreprise.

L’article 1833 du Code civil a été modifié pour consacrer la notion juris-

prudentielle d’intérêt social et pour affirmer la nécessité pour les sociétés

de prendre en considération les enjeux sociaux et environnementaux


inhérents à leur activité.

Tout dirigeant sera ainsi amené à s’interroger sur ces enjeux à l’occasion

de ses décisions de gestion.


Dans l’entreprise 105

le recours au code du travail

Faire appel au CSE

Le fonctionnement du CSE

Livre III : Les institutions représentatives du personnel

… Titre Ier : Comité social et économique

…… Chapitre V : Fonctionnement

……… Section 3 : Dispositions particulières des entreprises d’au moins cinquante salariés

………… Sous- section 6 : Commissions

…………… Paragraphe 3 : Dispositions supplétives


L’article L. 2145-1 pour se former à l’IA au CSE

Les salariés appelés à exercer des fonctions de membres du CSE ou des

fonctions syndicales peuvent bénéficier du congé de formation écono- mique, numérique et sociale, et syndicale prévu à l’article
L. 2145-5.

L’article L. 2145-5 du Code du travail prévoit : « Tout salarié qui souhaite

participer à des stages ou sessions de formation économique et sociale, de

formation syndicale organisés soit par des centres rattachés aux organi-

sations syndicales mentionnées au 3° de l’article L. 2135-12, soit par des

instituts spécialisés, a droit, sur sa demande, à un ou plusieurs congés. »

Créer une commission dédiée à l’IA au sein du CSE

La section syndicale et/ou les élus du CSE peuvent demander à créer une
commission au sein du CSE relative à l’intelligence artificielle. En effet,

il est possible par voie d’accord collectif d’entreprise de créer une telle

commission (article L. 2315-45 du Code du travail1).

Un accord d’entreprise conclu dans les conditions prévues au premier alinéa de l’article L. 2232-12 peut prévoir la création de
commissions supplémentaires pour l’examen de problèmes particuliers. Le cas échéant, l’employeur peut adjoindre à
106 Les textes qui permettent de négocier l’intelligence artificielle

Celle- ci pourrait notamment avoir pour objet :

de contrôler que les données personnelles et leurs traitements par des

algorithmes plus ou moins sophistiqués respectent le RGPD et la loi informatique et libertés ;


que l’intelligence artificielle ne génère pas de risques particuliers (par

exemple, des biais discriminatoires) sur la santé ou les conditions de

travail des salariés.

Le CSE pourrait dès lors se baser sur le travail de l’Agence européenne


sur les risques émergents en la matière2 : « Les approches et les normes

techniques actuelles visant à protéger les employés contre les risques du

travail avec des robots collaboratifs, devront être revues dans la perspective

de ces évolutions. » C’est ainsi qu’en 2019, un accord à la Caisse natio-

nale d’assurance maladie a conclu la création d’une commission paritaire,

chargée de préparer les délibérations du comité économique et social central (CESC) sur les données.

La délégation du personnel au CSE (article L. 2312-5 du Code du travail)

La délégation du personnel au comité social et économique (CSE) a pour mission de présenter à l’employeur les réclamations
individuelles
ou

collectives relatives aux salaires, à l’application du Code du travail et des

autres dispositions légales concernant notamment la protection sociale,


les conventions et accords applicables dans l’entreprise. Elle contribue à promouvoir la santé, la sécurité et l’amélioration des
conditions de
travail dans l’entreprise et réalise des enquêtes en matière d’accidents du

travail ou de maladies professionnelles ou à caractère professionnel.


Elle

exerce le droit d’alerte dans les conditions prévues aux articles L. 2312-59,

L. 2312-60 et L. 4133-2.

ces commissions avec voix consultative des experts et des techniciens appartenant à l’entreprise et choisis en dehors du comité.
Les dispositions de l’article L. 2315-3 relatives au secret professionnel et à l’obligation de discrétion leur sont applicables. Les
rapports des commissions sont soumis à la délibération du comité.

[Link]/fr/emerging-risks Dans l’entreprise 107

Dans une entreprise en société anonyme (SA), lorsque les membres de la

délégation du personnel du comité social et économique (CSE) présentent

des réclamations auxquelles il ne pourrait être donné suite qu’après déli-

bération du conseil d’administration, ils sont reçus par celui- ci, sur leur
demande, en présence du directeur ou de son représentant ayant connais-

sance des réclamations présentées.

Les membres de la délégation du personnel du comité peuvent saisir l’inspection du Travail de toutes les plaintes et observations
relatives
à l’ap-

plication des dispositions légales dont elle est chargée d’assurer le contrôle.

Info- consultation et expertise sur l’intelligence artificielle

au CSE (article L. 2312-8 du Code du travail)

Le comité social et économique (CSE) a pour mission d’assurer une expression collective des salariés permettant la prise en
compte
permanente

de leurs intérêts dans les décisions relatives à la gestion et à l’évolution

économique et financière de l’entreprise, à l’organisation du travail, à la

formation professionnelle et aux techniques de production…


Le comité est informé et consulté sur les questions intéressant l’organi-

sation, la gestion et la marche générale de l’entreprise, notamment sur :

1° Les mesures de nature à affecter le volume ou la structure des effectifs ;

2° La modification de son organisation économique ou juridique ;

3° Les conditions d’emploi, de travail, notamment la durée du travail et

la formation professionnelle ;

4° L’introduction de nouvelles technologies, tout aménagement impor-

tant modifiant les conditions de santé et de sécurité ou les conditions

de travail ;

5° Les mesures prises en vue de faciliter la mise, la remise ou le maintien

au travail des accidentés du travail, des invalides de guerre, des invalides

civils, des personnes atteintes de maladies chroniques évolutives et des

travailleurs handicapés, notamment sur l’aménagement des postes de

travail.
108 Les textes qui permettent de négocier l’intelligence artificielle

Le comité social et économique mis en place dans les entreprises d’au

moins 50 salariés exerce également les attributions prévues à la section 2.

Depuis les ordonnances Macron, l’introduction de nouvelles technolo- gies permettrait aux élus des CSE de désigner un expert
afin
d’exercer

leur mission de prévention, cela, sans que l’on soit obligé de se poser la

question de leurs éventuelles répercussions sur les conditions de travail.

Le CSE peut ainsi faire appel à un expert habilité (L. 2315-94) en cas

« d’introduction de nouvelles technologies ou de projet important modi-

fiant les conditions de santé et de sécurité ou les conditions de travail


»

(articles R. 2315-51 et R. 2315-52 pour les modalités d’habilitation de l’expert).


Le coût de l’expertise est pris en charge à 80 % par l’employeur et à 20 %

par le CSE (art. L. 2315-80, 2o du Code du travail).

Toutefois, l’employeur devra malgré tout prendre en charge à 100 % le

coût de l’expertise si le budget de fonctionnement du CSE est insuffisant

et qu’il n’y a pas eu transfert d’excédent annuel du budget de fonction-

nement vers le budget destiné aux activités sociales et culturelles au cours

des trois années précédentes (art. L. 2315-80, 3o du Code du travail).

De même, la prise en charge des expertises décidées en cas d’existence d’un

risque grave (pouvant être issu d’une nouvelle technologie) est prise en

charge à 100 % par l’employeur (art. L. 2315-80, 1o du Code du travail).

Télétravail : quels sont vos droits

face aux dispositifs de contrôle à distance ?


Pour être valable, tout dispositif de contrôle des salariés doit respecter les libertés et droits fondamentaux (article L. 1121-1
du Code du travail), au premier rang desquels se trouve la vie privée (arrêt Nikon cour de cassation, chambre sociale, du 2
octobre 2001, 99-42.942). Le respect des prescriptions du règlement général sur la protection des données (RGPD), lorsque le
dispositif touche à des données personnelles, est incontournable. De plus, le comité social et économique (CSE) doit être
informé et consulté préalablement, afin d’appréhender en amont le
dispositif de contrôle et ses conséquences. Le contrôle doit être justifié, Dans l’entreprise

109

proportionné (accord national interprofessionnel relatif au télétravail du

19 juillet 2005) et loyal. En effet, l’employeur est également soumis à une obligation de loyauté envers ses salariés.
En principe donc, l’employeur ne peut surveiller constamment ses salariés (sauf dans des cas exceptionnels dûment
justifiés au regard
de la nature de la tâche). Il ne peut en tout état de cause, selon la Cnil, procéder :
à la surveillance constante au moyen de dispositifs vidéo (tels qu’une

webcam) ou audio. Il peut s’agir, par exemple, de la demande faite par un employeur à un employé de se mettre en
visioconférence tout au long de son
temps de travail pour s’assurer de sa présence derrière son écran. Un tel système qui place les salariés sous surveillance
permanente est excessif : il ne peut donc être mis en œuvre, qu’il s’agisse de poursuivre un objectif de sécurité ou un objectif de
surveil-lance du temps de travail. Des moyens alternatifs moins intrusifs existent pour ce faire ;

au partage permanent de l’écran et/ou l’utilisation de « keyloggers »

(logiciels qui permettent d’enregistrer l’ensemble des frappes au clavier effectuées par une personne sur un ordinateur). De tels
procédés sont particulièrement invasifs et s’analysent en une surveil-lance permanente et disproportionnée des activités des
employés ;

à l’obligation pour le salarié d’effectuer très régulièrement des actions

pour démontrer sa présence derrière son écran comme cliquer toutes les x
minutes sur une application ou prendre des photos à intervalles réguliers.

De plus, le Code du travail prévoit une obligation de transparence de la part de l’employeur concernant l’usage des données
personnelles :
« Aucune information concernant personnellement un salarié ne peut être collectée par un dispositif qui n’a pas été porté
préalablement à sa connaissance » (art. L. 1222-4 du Code du travail).
Sur le sujet, voir aussi le guide du télétravail de la CFDT Cadres3.

[Link]/sites/default/files/2021-04/Guide%20CFDT%20Cadres%20

-%20Guide%20N%C3%A9gocier%20le%20t%C3%A9l%C3%[Link] 110
Les textes qui permettent de négocier l’intelligence artificielle
Faire appel à la base de données économiques et sociales

(BDES)

Réclamer des informations pour la BDES (article L. 2312-36 du Code du travail)

En l’absence d’accord prévu à l’article L. 2312-21, une base de données

économiques et sociales, mise régulièrement à jour, rassemble un ensemble

d’informations que l’employeur met à disposition du comité social et économique (CSE).

Cette base de données est accessible en permanence aux membres de la


délégation du personnel du comité social et économique ainsi qu’aux membres de la délégation du personnel du comité social et
économique

central d’entreprise (CCSE) et aux délégués syndicaux (DS).

Les informations contenues dans cette base de données portent sur les
thèmes suivants :

1° Investissements : investissement social (emploi, évolution et répartition

des contrats précaires, des stages et des emplois à temps partiel, forma-

tion professionnelle, évolution professionnelle et conditions de travail),

investissement matériel et immatériel et, pour les sociétés mention-


nées aux I et II de l’article L. 225-102-1 du Code du commerce, les informations en matière environnementale présentées en
application

du III du même article ;

7° Flux financiers à destination de l’entreprise, notamment aides publiques

et crédits d’impôts ; 8° Sous- traitance ;


9° Le cas échéant, transferts commerciaux et financiers entre les entités

du groupe.

Ces informations portent sur les deux années précédentes et l’année en cours, et intègrent des perspectives sur les trois années
suivantes.
Le contenu de ces informations ainsi que les modalités de fonctionnement

de la base sont déterminés par un décret en Conseil d’État, le contenu

pouvant varier selon que l’effectif de l’entreprise est inférieur ou au moins

égal à 300 salariés.

Dans l’entreprise 111

Les membres de la délégation du personnel du comité social et écono-

mique, du comité social et économique central d’entreprise et les délégués

syndicaux sont tenus à une obligation de discrétion à l’égard des informa-

tions contenues dans la base de données revêtant un caractère confidentiel

et présentées comme telles par l’employeur.

À noter, un employeur ne peut arguer que la BDES comporte des données

personnelles pour refuser de transmettre certains documents. Selon le


référentiel de la Cnil, sont destinataires de données RH « les instances

représentatives du personnel, pour les données strictement nécessaires à

leurs missions dans les conditions fixées par les textes applicables4 ».

Lancer une alerte

À la suite de la loi Blandin 2013 santé et environnement, voire aussi de


la loi Sapin II de décembre 2016, le Code du travail a prévu un droit d’alerte éthique, dans des cas précis et une protection du
lanceur
d’alerte.

Pour que la protection du lanceur d’alerte s’applique, il faut que ces actes

soient constitutifs d’un délit ou d’un crime, d’une violation de la loi ou d’une menace ou un préjudice grave pour l’intérêt général.

L’article L. 4133-1 du Code du travail sur le domaine d’action des lanceurs d’alerte

Le travailleur alerte immédiatement l’employeur s’il estime, de bonne


foi, que les produits ou procédés de fabrication utilisés ou mis en œuvre

par l’établissement font peser un risque grave sur la santé publique ou

l’environnement. L’alerte est consignée par écrit dans des conditions déterminées par voie réglementaire. L’employeur informe
le lanceur d’alerte de la suite qu’il réserve à celle- ci.

[Link]/sites/default/files/atoms/files/referentiel_grh_novembre_2019_0.pdf
112 Les textes qui permettent de négocier l’intelligence artificielle

Les articles L. 1132-3 et L. 1132-3-3 du Code du travail sur la protection du lanceur d’alerte

Aucun salarié ne peut être sanctionné, licencié ou faire l’objet d’une mesure discriminatoire pour avoir témoigné des agissements
définis
aux
articles L. 1132-1, L. 1132-2 et L. 1132-3-3 ou pour les avoir relatés. Le salarié aurait donc le statut et la protection de lanceur
d’alerte s’il témoigne par exemple sur les biais ou les effets discriminatoires
résultant d’algorithmes.
Informer et signaler au délégué à la protection des données (DPO) l’alerte si elle porte sur une intelligence artificielle et/ou sur
une violation du droit à la protection des données

Pour toute problématique ayant trait à une IA ou aux données person-

nelles des travailleurs, un salarié, via un syndicat ou directement, peut


contacter le délégué à la protection des données. En tant que « chef d’orchestre » de la conformité en matière de protection des
données
au

sein de l’organisme qui l’a désigné, il est chargé de répondre à l’ensemble

de ces questions et le cas échéant, de les résoudre avec le responsable du

traitement (qui s’avère souvent l’employeur).

Les travailleurs des plateformes

Le droit à créer un syndicat pour négocier

Le gouvernement français a adopté, le 21 avril 2021, une ordonnance no 2021-484 qui met en place une forme de représentation
collective
des travailleurs des plateformes, mais uniquement pour les travailleurs

définis à l’article L. 7341-1 du Code du travail, c’est- à-dire les chauffeurs

de voiture et les livreurs « au moyen d’un véhicule à deux ou trois roues,

motorisé ou non ». Ce texte prévoit l’organisation d’une élection des représentants des travailleurs des plateformes en 2022.

En attendant que ces travailleurs aient droit à une négociation collective,

le projet d’ordonnance présenté en mars 2021 prévoit une obligation de

négociation au moins une fois par cycle électoral de deux ans. Le contenu Dans l’entreprise

113

de cette négociation est laissé au libre choix des représentants, parmi sept

thèmes dont celui des conditions d’exercice de l’activité ou des modalités

de détermination du revenu des travailleurs.

Le droit à la représentation collective


La loi no 2016-1088 du 8 août 2016 dite « loi El Khomri » place le travail-

leur des plateformes du côté du travailleur indépendant, même si la donne

pourrait changer avec les préconisations issues du rapport Frouin, tout

en lui reconnaissant des droits collectifs très similaires à ceux des salariés.
Le droit d’association, par exemple, est un droit de l’homme ; que le travailleur soit indépendant ou non, il dispose de ce droit.
C’est ainsi
que

des travailleurs de plateformes ont créé des syndicats. Il leur reste à ouvrir

les portes de la négociation collective. Les travailleurs indépendants ont

désormais un droit de négocier protégé par le droit européen.

À cet égard, la CFDT a créé en 2020 une association pour défendre collectivement les droits des indépendants : Union
Indépendants5.

Le rapport Frouin suggère aujourd’hui de salarier les travailleurs des plate-


formes, via un portage salarial ou une coopérative d’activité et d’emploi,

et d’organiser une élection nationale pour permettre aux travailleurs d’être

représentés.

Europe : de nombreux tribunaux statuent sur les plateformes


En Europe, de nombreuses décisions, parfois divergentes, s’appliquent au secteur des plateformes numériques.
En Italie, la justice a donné trois mois aux plateformes pour requalifier les contrats des livreurs.
En Espagne, après que la Cour suprême a requalifié en septembre 2020 les livreurs à vélo comme des salariés, le gouvernement a
annoncé, après accord syndicats- patronat, un décret sur la reconnaissance du statut de salarié aux livreurs.

[Link] 114
Les textes qui permettent de négocier l’intelligence artificielle

Au Royaume- Uni, Uber, sous la pression des juges, a annoncé le

16 mars 2021 que l’entreprise allait donner à ses 70 000 chauffeurs


britanniques un statut pour percevoir un salaire minimum. Ce statut est intermédiaire entre celui d’indépendant et celui de
salarié.
En France, durant les premiers mois de l’année 2021, les cours d’appel de Paris et de Lyon ont refusé plusieurs demandes de
travailleurs indé- pendants en plateformes digitales concernant la requalification de leur contrat en contrat de travail.
Notamment, un livreur de Deliveroo avait demandé la requalification de son contrat en application des arrêts de la chambre
sociale de la Cour de cassation de novembre 2018 (Cass. Soc., 28 novembre 2018 no 17-20.079, Take eat easy) et de mars
2020 (Cass.
Soc., 4 mars 2020 no 19-13.316, Uber).

Celui- ci avait soulevé que les conditions tant contractuelles que d’exé- cution de la relation étaient caractéristiques d’un lien
de subordination permanent. Mais la cour d’appel a écarté tout lien de subordination, arguant que le livreur avait :
une liberté de choix des jours ou des créneaux de livraison ;

la possibilité de réaliser ou non des prestations selon ses propres convenances ;


la possibilité de collaborer avec d’autres plateformes ;

la faculté de sous- traiter des prestations de livraison, etc.

Cette décision ne va pas à l’encontre de l’ordonnance de la CJUE du


22 avril 2020 (aff. no C-692/19). La CJUE, avait rejeté la requalification en s’appuyant sur les critères suivants :
la liberté de choisir quand et où travailler ;

la liberté de choisir l’amplitude horaire de travail ;

la liberté de mettre fin à son partenariat à sa convenance ;

la liberté de refuser une course ;

la liberté de travailler avec une plateforme concurrente ;

la liberté de sous- traiter son activité…

Le droit à la négociation collective

À la suite d’une affaire portée par la Confédération irlandaise des syndicats,

le Comité européen des droits sociaux (CEDS), comité d’experts qui


Dans l’entreprise 115

veille sur la Charte sociale européenne, a conclu, dans une décision du

12 décembre 2018, que les travailleurs indépendants bénéficiaient d’un

droit à la négociation collective. Mais les décisions du comité n’ont pas


de caractère contraignant, ce qui amoindrit considérablement l’efficacité

de ce contrôle.

Plateformes : une charte de la responsabilité sociale, homologable par la direction générale du Travail
Le 23 octobre 2020 est parue la troisième version d’un décret prévu par la loi d’orientation sur les mobilités, adoptée fin 2019,
qui organise les relations entre services et travailleurs. Ce texte précise que les plate- formes peuvent se doter d’une « charte de
responsabilité sociale ». C’est la « première étape pour réguler les relations entre les plateformes et
les travailleurs », a commenté le ministère du Travail. Cette charte devra être déposée auprès de la direction générale du Travail
(DGT), au minis- tère, qui pourra l’homologuer. Pour son homologation, la société devra fournir les documents attestant « du
résultat de la consultation préalable des travailleurs sur le contenu de la charte, du nombre de travailleurs consultés, du nombre
de travailleurs qui se sont exprimés ; des moda- lités d’organisation de la consultation ». La DGT vérifiera la conformité du
contenu de la charte.
Attention, une charte de responsabilité sociale entre les plateformes
et les travailleurs ne vaut pas présomption de non- salariat pour ces derniers (Cons. const., 20 déc. 2019, no 2019-794).

Rester vigilant sur l’intelligence artificielle des sous- traitants

La loi no 2017-399 du 27 mars 2017 relative au devoir de vigilance des

sociétés mères et des entreprises donneuses d’ordre concerne en plus des

sociétés françaises qui emploient au moins 5 000 salariés en leur sein ou

dans les filiales situées en France, les sociétés françaises qui emploient au

moins 10 000 salariés dans le monde. Le siège de la société doit être situé

en France, mais ses filiales détenues directement ou indirectement peuvent

être établies dans un pays tiers. Ainsi, une société française qui emploie

11 000 salariés dans le monde, dont 2 000 en France, sera couverte


par la loi. 116 Les textes qui permettent de négocier l’intelligence artificielle
Ces sociétés doivent établir, publier et mettre en œuvre un plan de vigi-

lance pour prévenir les risques graves envers les droits humains et la liberté

fondamentale, la santé et la sécurité des personnes, et l’environnement,

qui résultent de leurs activités ainsi que celles de leurs filiales, sous- traitants

et fournisseurs, en France comme à l’étranger.

Ainsi des sociétés mères ou donneuses d’ordre qui auraient recours à de

la sous- traitance au moyen du micro- travail (effectuer une recherche

sur le Web, retranscrire une phrase, légender une photo, répondre à un

questionnaire sur un ordinateur ou un smartphone, rapportant quelques

centimes d’euros) pourraient dans certains cas constituer des atteintes

graves aux droits humains, aux libertés fondamentales ou à la santé et

sécurité des personnes.


Si de tels manquements sont constatés, et après mise en demeure, « toute

personne justifiant d’un intérêt à agir » peut alors saisir le juge pour lui

demander d’enjoindre l’entreprise de respecter ses obligations, le cas échéant sous astreinte.

le recours au code du commerce

L’arrêt Uber Elite, rendu par la CJUE le 20 décembre 2017 sur le terrain

du droit commercial, indique que les coursiers de cette entreprise étaient

dépendants de la plateforme, et que celle- ci était donc bien une entreprise

de transport. Il ne reste plus qu’un pas pour en déduire que cette dépen-

dance donne à la négociation collective d’accords collectifs de travail par

des organisations syndicales propres ou partagées une nature et un objet


qui l’excluent du champ d’application de l’article 101 TFUE, qui régit les règles communes sur la concurrence, la fiscalité et le
rapprochement
des législations.
Dans l’entreprise 117

le recours au cadrage de l’ue

Demander l’information/consultation des travailleurs via la directive 2002/14/CE

La directive 2002/14/CE établit un cadre général sur l’information et la consultation des travailleurs dans la Communauté
européenne. Elle fixe des normes procédurales minimales pour la protection des droits
des

travailleurs à être informés et consultés au sujet de la situation économique

et de l’emploi touchant leur lieu de travail. Sont ainsi visés par ce cadre :

les entreprises employant dans un État membre au moins 50 travailleurs ;

les établissements employant dans un État membre au moins 20 travail-

leurs. La directive prévoit :

l’information sur l’évolution récente et l’évolution probable des


activités ;
l’information et la consultation sur la situation, la structure et l’évolution probable de l’emploi au sein de l’entreprise ou de
l’établissement, ainsi que sur les éventuelles mesures
d’anticipation

envisagées, notamment en cas de menace sur l’emploi ;

l’information et la consultation sur les décisions susceptibles d’entraîner

des modifications importantes dans l’organisation du travail ou dans les


contrats de travail, y compris celles visées par la directive 98/59/CE relative aux licenciements collectifs et la directive 2001/23/CE
relative

au maintien des droits des travailleurs en cas de transfert d’entreprises,

d’établissements ou de parties d’entreprises ou d’établissements. Les


États membres peuvent confier aux partenaires sociaux au niveau approprié, y compris au niveau de l’entreprise ou de
l’établissement, le

soin de définir librement et à tout moment par voie d’accord négocié

les modalités d’information et de consultation des travailleurs.


118 Les textes qui permettent de négocier l’intelligence artificielle

Vérifier le respect de la norme ISO santé au travail et robots

La norme ISO/TS 15066:2016 créée par l’Organisation internationale de normalisation sur les robots collaboratifs s’adresse aux
fabricants,
aux

intégrateurs et aux utilisateurs, et elle fournit des lignes directrices pour

la conception et l’organisation de l’espace de travail, et la réduction des

risques auxquels les personnes peuvent être exposées. Les travailleurs

doivent être formés à utiliser l’IA et à la robotique, à travailler avec elles


et, en particulier, à pouvoir les arrêter en cas d’urgence (principe de l’emergency brake). C’est ce que rappelle dans son article
4.1.4 l’avis
du

Comité social et économique européen « Renforcer la confiance dans l’intelligence artificielle axée sur le facteur humain6 ».
Vérifier le maintien des droits en cas de transfert d’entreprise

La directive 2001/23/CE du Conseil concernant le maintien des droits des

travailleurs en cas de transferts d’entreprises, d’établissements, de parties

d’entreprises ou de parties d’établissements (consolidant les directives du


Conseil 77/187/CEE et 98/50/CE) prévoit que les représentants des travailleurs doivent être informés des raisons du transfert et
de ses
consé-

quences ; elle contient également des dispositions essentielles concernant

le maintien des contrats de travail et des droits des travailleurs en cas de

transfert.

Le règlement 4064/89, modifié par le règlement 1310/97 et le règle- ment 447/98 (en cas de fusion concentration d’entreprises)
exigent l’approbation des autorités de concurrence de la Commission
européenne

dans les cas de concentrations de dimension communautaire. Il permet


également aux représentants reconnus des travailleurs dans les entreprises

concernées, s’ils en font la demande, d’être consultés par la Commission

lors de son évaluation.

NDE : avis rapporté par Franca Salis-Madinier.

Dans l’entreprise 119

les Questions au comité d’entrePrise euroPéen

Demander des informations sur la santé/sécurité au travail

La directive 2009/38/CE du Parlement européen et du Conseil du

6 mai 2009 concerne l’institution d’un comité d’entreprise européen ou

d’une procédure dans les entreprises et les groupes d’entreprises de dimen-

sion communautaire en vue d’informer et de consulter les travailleurs.

Au niveau européen, la directive 89/391/CEE du 12 juin 1989 aspire,


selon son propre intitulé, à « la mise en œuvre de mesures visant à promou-

voir l’amélioration de la sécurité et de la santé des travailleurs au travail ».


Son noyau dur est la prévention. Cette directive s’applique à tous les secteurs d’activité privés ou publics : les activités
industrielles, de
services,

mais aussi éducatives, administratives, de loisirs, etc. mais pas dans la

« fonction publique » lorsque des « particularités inhérentes à certaines acti-

vités spécifiques […] s’opposent » à son application, et cela « de manière


contraignante ». À l’heure actuelle, les travailleurs indépendants sont écartés de son application car la définition du travailleur au
sein de
cette

directive est trop restrictive (voir l’article 3, a de la directive) et ne permet

pas d’englober les travailleurs indépendants.

L’article 5 de cette directive du 12 juin 1989 vise une protection de la santé qui se rapporte à « tous les aspects liés au travail ». La
France
considère
dans sa loi de transposition du 31 décembre 1991 qu’il s’agit de prévenir

les risques professionnels. L’article L. 4121-1 du Code du travail dispose

que « l’employeur prend les mesures nécessaires pour assurer la sécurité

et protéger la santé mentale et physique des travailleurs ». Cette direc-

tive prévoit d’informer sur l’existence des risques pour assurer une prise
de conscience de ceux-ci par le travailleur. Dans son article 6, elle fait entrer dans le cadre des responsabilités de l’employeur tant
les
activités de

prévention des risques professionnels que d’information et de formation

sur ces risques.

120 Les textes qui permettent de négocier l’intelligence artificielle

Le recours au prochain règlement

sur les systèmes d’intelligence artificielle

Le 21 avril 2021, la Commission européenne a publié sa proposition de


règlement établissant des règles harmonisées sur l’IA. Prenant en compte

trois catégories de systèmes algorithmiques (les systèmes auto- apprenants,

les systèmes logiques et les systèmes statistiques : art. 3,1 du présent règle-

ment), le projet de règlement propose de les réguler selon une approche

fondée sur les risques. Ce projet de régulation est soumis à l’approbation

du Parlement européen et des gouvernements des 27 pays membres.

D’abord, plusieurs pratiques pourraient être interdites, dont notamment

(art. 5 § 1) :

l’exploitation de la vulnérabilité d’un groupe de personnes en vue de

fausser le comportement de l’une de ces personnes et de causer un

dommage ;

des systèmes d’intelligence artificielle de notation sociale mis sur le marché.


Ensuite, plusieurs intelligences artificielles utilisées au travail pourraient

être considérées automatiquement à haut risque et faire l’objet de protec-

tions pour les travailleurs. Cela concerne notamment (art. 6 § 2) :

l’identification biométrique et la catégorisation des personnes physiques ;


l’intelligence artificielle utilisée pour l’accès à l’éducation et l’accès à l’emploi ;
l’intelligence artificielle utilisée dans la gestion des salariés et l’accès au travail indépendant.

Dans ces hypothèses, un certain nombre d’obligations supplémentaires

pèseraient sur « l’utilisateur » employeur, dont celles (art. 29) :

d’exercer un contrôle sur les données d’entrée, de veiller à leur pertinence ;


d’utiliser l’IA conformément aux instructions d’utilisation ;

de suspendre l’utilisation de l’IA en cas de doute sur sa conformité.


Dans l’entreprise 121

Si un employeur utilise des systèmes d’intelligence artificielle prohibés


ou ne respecte pas ces obligations lorsque ceux- ci sont considérés à haut
risque, les représentants du personnel pourraient l’interpeller. Il serait alors passible, en cas de méconnaissance du projet de
règlement,
d’une

amende administrative pouvant aller jusqu’à 20 millions d’euros, ou si le

contrevenant est une entreprise, d’un montant pouvant aller jusqu’à 4 %

de son chiffre d’affaires (art. 71 § 4).


38

À l’extérieur de l’entreprise

le recours au code de la consommation

Les articles L. 224-42-1 et L. 224-42-4 pour récupérer des données électroniques à la suite de contrats de
services

Le droit à la portabilité et le droit d’accès issus également du RGPD offrent aux personnes la possibilité de récupérer une partie de
leurs données dans un format ouvert et lisible par machine. Elles peuvent
ainsi

les stocker ou les transmettre facilement d’un système d’information à un

autre, en vue de leur réutilisation à des fins personnelles.

Livre II : Formation et exécution des contrats


… Titre II : Règles de formation et d’exécution de certains contrats

…… Chapitre IV : Règles spécifiques à des contrats ayant un objet particulier

……… Section 3 : Contrats de services de communications électroniques

………… Sous- section 4 : Récupération et portabilité

des données À l’extérieur de l’entreprise


123

Vérifier la responsabilité de l’entreprise dans les produits défectueux

La directive 85/374/CEE sur la responsabilité du fait des produits défec-

tueux, qui date de 1985, prévoit qu’un fabricant est responsable des
dommages causés par un produit défectueux. Or, avec un système fondé
sur l’IA tel que la voiture autonome, il peut être difficile de prouver la défectuosité du produit une fois le dommage survenu et le
lien de
cause

à effet entre les deux. De plus, il peut être malaisé de déterminer de quelle

manière et dans quelle mesure la directive sur la responsabilité du fait des

produits s’applique à certains types de défauts, notamment s’ils résultent

de faiblesses dans la cybersécurité du produit. Un projet de règlement sur

les produits est proposé par la Commission européenne en avril 2021


;

celui- ci devrait actualiser la directive de 1985, rendue en partie obsolète

au vu des évolutions liées à l’IA.

orienter les travailleurs vers le défenseur des droits

Le Défenseur des droits7 peut être saisi dans la lutte contre les discrimina-

tions et il favorise l’accès aux droits des victimes de tels faits.


C’est au travailleur de saisir le Défenseur des droits (le syndicat peut

l’orienter vers lui), qui lance l’alerte dans le domaine de la santé, de l’en-

vironnement, de la sécurité sanitaire, du respect des droits fondamentaux.

orienter les travailleurs vers la cnil

La Cnil est chargée de veiller à la protection des données personnelles du

travailleur et elle répond en ligne aux questions du type : mon employeur


peut- il demander le nombre de points qu’il reste sur mon permis de conduire ? Puis- je refuser que ma photographie figure dans
l’annuaire

[Link]/

124 Les textes qui permettent de négocier l’intelligence artificielle

du personnel ? Mon employeur peut- il enregistrer ou écouter mes


conversations téléphoniques à mon insu ? Puis- je utiliser ma messagerie

professionnelle pour des messages personnels ? Puis- je stocker des dossiers

et fichiers personnels dans mon ordinateur professionnel ? Peut- on me

filmer en permanence sur mon poste de travail ? Mon employeur doit- il

m’informer de l’installation d’une caméra ? Mon employeur peut- il lire

les documents identifiés comme personnels ?

Une plainte peut, par exemple, être adressée à la Cnil si lors d’un recrute-

ment, d’une évaluation, un travailleur n’arrive pas à connaître, malgré ses

demandes, les informations le concernant détenues par son employeur. Un

recours peut être introduit si un travailleur ne peut consulter les images

vidéo ou les données de géolocalisation le concernant, dans un dispositif


de vidéosurveillance sur son lieu de travail. Idem pour les données de badgeage. La Cnil traite des décisions d’algorithmes, elle se
préoccupe
de consentement.

La Cnil peut effectuer des contrôles auprès de tout organisme traitant des

données à caractère personnel disposant d’un établissement en France, ou

concernant des personnes résidant en France.

La Cnil s’appuie notamment sur le RGPD en vigueur depuis le

25 juin 2018. Ce dernier adapte la loi informatique et libertés du

6 janvier 1978 au « paquet européen de protection des données ».

C’est un levier juridique important pour les travailleurs confrontés à l’IA :

ces dernières années, la Cnil a reçu plus de 2 000 plaintes par an relatives

à la surveillance ou au contrôle des salariés via des technologies.

Le 21 janvier 2019, la formation restreinte de la Cnil a prononcé une sanction de 50 millions d’euros à l’encontre de la société
Google LLC
en

application du RGPD pour manque de transparence, information insatis-


faisante et absence de consentement valable pour la personnalisation de la

publicité. Il s’agit à ce jour de la plus grosse amende prononcée par cette

autorité dans le cadre du RGPD. Son précédent record était une sanction

de 400 000 euros, prononcée à l’encontre de l’application de VTC Uber.

À l’extérieur de l’entreprise 125

orienter les travailleurs vers l’insPection du travail

Les inspecteurs du Travail disposent d’un pouvoir d’appréciation sur les

suites qu’ils entendent donner aux infractions constatées. Leurs décisions

dépendent notamment de la gravité de l’infraction, des circonstances dans

lesquelles cette dernière a été constatée, de la bonne foi de l’employeur et de ses antécédents.

L’inspection du Travail est régulièrement saisie à l’occasion de contestation des limites entre travailleurs indépendants et salariés.
Le parquet de Paris
a reçu courant février 2020 un procès- verbal de l’inspection du Travail

dénonçant des infractions qui auraient été commises par Deliveroo, une

plateforme de livraison de repas à domicile, qui joue le rôle d’intermé-diaire entre restaurants et particuliers. Avec Deliveroo,
l’inspection du

Travail s’attaque à l’ubérisation. Selon l’inspection du Travail et l’Urssaf,

la plateforme n’emploierait pas des livreurs indépendants, mais salariés,

qui ne devraient pas se déclarer en tant que micro- entrepreneurs. Le parquet a été saisi à Paris et à Nantes. L’Urssaf estime que
le
montant des

cotisations non versées en 2015 et 2016 dépasse 6,4 millions d’euros.


Le

dossier est donc actuellement « à l’étude » au parquet.

Selon un communiqué d’Unieuropa, en Espagne, l’inspection du Travail


estime que 4 000 livreurs d’Amazon ont abusivement été qualifiés de travailleurs indépendants. Elle évalue à 6 millions d’euros
les
cotisations sociales dont Amazon serait redevable.

lancer une action collective


Depuis l’entrée en vigueur du RGPD, les organisations syndicales repré-
sentatives peuvent exercer une action de groupe en violation du droit sur les données personnelles (art. 80, RGPD (UE)
2016/679). Tel
pour-
rait être le cas de salariés qui estimeraient avoir subi un préjudice en matière de protection de leurs données personnelles
résultant notam- ment d’un système d’évaluation, de contrôle trop intrusif. Ils
pourraient

alors faire appel à une organisation syndicale représentative qui


exercerait 126 Les textes qui permettent de négocier l’intelligence artificielle

à ce titre une action de groupe devant le juge (art. 37, loi no 78-17 du 6 janvier 1978). À condition toutefois que ce manquement
soit dû au
responsable du traitement (par exemple, l’employeur ou la plateforme

numérique) ou à un sous- traitant (par exemple, l’entreprise ou la personne

chargée de la gestion des données personnelles des salariés) et qu’au moins

deux travailleurs aient subi un préjudice moral ou matériel en résul- tant (art. 4, 7 RGPD (UE) 2016/679). Le juge pourra, le cas
échéant,
prononcer l’arrêt du système d’évaluation ou de contrôle ayant abouti

à une violation des données personnelles et indemniser les travailleurs

rattachés à l’action de groupe.


En guise de conclusion…

La CFDT Cadres est convaincue que l’intelligence artificielle offre des opportunités mais comporte aussi des risques. Pour limiter
ces
derniers,
cette technologie doit être orientée et gouvernée pour que son intro- duction soit bénéfique aux travailleurs, aux citoyens et à la
planète.
Les

applications d’IA, utilisées et déployées dans les organisations, doivent être

compatibles avec le respect des droits fondamentaux et servir les objectifs

de neutralité carbone.

La proposition de régulation européenne va dans le bon sens dans les limites évoquées. L’humain doit avoir le dernier mot et il
est crucial
que

la décision humaine soit préservée face à la machine dans toutes les situa-

tions. Dans les lieux de travail, il est nécessaire d’impliquer les RH et les

partenaires sociaux, de former les acteurs aux enjeux éthiques et sociaux


de l’IA. Les outils de dialogue social et de négociation sur cette techno-

logie existent et ils doivent être activés lors des travaux des comités sociaux
et économiques (CSE) comme lors des négociations. La CFDT Cadres soutient des acteurs publics tels que l’Inria et la Cnil, ou
encore
l’action

du réseau Anact, et celle du Cnam dans le domaine de la formation.


Le

syndicat est persuadé que le développement technologique peut et doit

contribuer au progrès économique et social, et à la transition écologique.

Pour que ces transformations soient justes et profitent à l’ensemble de la

société, elles doivent être anticipées, négociées et débattues.

Dans l’interaction travailleurs- machines intelligentes, la CFDT Cadres insiste pour que l’humain ne devienne jamais l’exécutant de
la
machine.

Au contraire, la technologie doit servir à plus de participation, de respon-

sabilité, d’appropriation des processus de production par l’humain afin


que, comme le souligne la Constitution de l’Organisation internationale

du travail (OIT), le travail procure à ceux qui l’exercent la satisfaction de

donner toute la mesure de leur habileté et de leurs connaissances, et de

contribuer le mieux possible au bien- être commun.


INTERVIEWS
IL FAUT AGIR SYNDICALEMENT

EN AMONT ET VEILLER À LA TRANSPARENCE DES ALGORITHMES


Vincent Gimeno

Vincent Gimeno est DSC- adjoint chez Orange et référent CFDT pour les salariés cadres. Il est représentant titulaire
aux comités de groupe Europe et Monde d’Orange.

Comment se passe l’introduction de l’IA dans le groupe Orange ?


Chez Orange, l’intelligence artificielle n’a jamais été, malgré nos demandes répétées, un élément du dialogue social. Les institu-
tions représentatives du
personnel n’ont jamais été consultées sur l’introduction de ces IA.

La CFDT a initié des groupes de réflexions sur le sujet, dont il ressort des préconisations que nous serions prêts à partager avec
l’entreprise.

Dans le même temps, Orange déploie l’intelligence artificielle pour augmenter l’efficacité opérationnelle de la relation client
d’Orange Bank et d’Orange France. Près de 80 % des appels d’Orange Bank sont traités par un chatbot et il y a aussi des chat-bots
chez Orange France.

Pendant la crise Covid-19, la direction du groupe a décidé unila-téralement d’introduire l’IA pour optimiser le réseau d’Orange,
car le volume des données transportées (e-mails, vidéos, télé-travail) avait explosé. Cela est possible car les réseaux évoluent
d’éléments physiques (hardware) au « tout informatisé ». Ces opti-misations, entre autres, alliées à la baisse de qualité des vidéos
par exemple, ont permis de maintenir opérationnels nos réseaux 132
Le guide de l’intelligence artificielle au travail

en absorbant l’augmentation de 40 % du trafic ; dans le futur, l’IA permettra la maintenance prédictive de ces réseaux.

Concrètement, comment cela se traduit- il ?

Le manque de concertation en amont induit des difficultés consta- tées dans la mise en œuvre. En effet, étant mis devant le fait
accompli des déploiements, plutôt que d’anticiper l’impact sur les personnes et sur les processus métiers en amont, nous devons
intervenir en aval.
Par exemple, si l’IA peut traiter des tâches simples, comment
pourra- t-on entraîner les nouvelles recrues et leur apprendre leur métier ? Comment tenir compte de la surcharge cognitive
induite par le traitement quasi exclusif de cas complexes par les conseillers clients ?

L’IA va- t-elle remplacer les conseillers clients, ou aider ces conseillers dans l’acte de vente, ayant en mémoire beaucoup plus
d’offres, pour trouver la plus adaptée au client ?

Pour nous, il est important que l’humain garde l’interprétation

et le relationnel avec le client final. Aujourd’hui, il peut encore y avoir de l’interaction entre l’humain et l’IA. Mais demain,
lorsque l’IA aura fait des progrès, qu’en sera- t-il ?
Il existe aujourd’hui des moteurs de dialogue naturel, dont on ne sait pas dire si c’est une IA ou un humain qui s’exprime.
Demain, on risque donc de ne plus distinguer une IA d’une personne.
L’entreprise a la responsabilité de dire au client s’il parle avec un être humain ou une machine.
Avec la softwarisation des réseaux, l’humain pourrait ne plus intervenir. Ce seront des ordinateurs qui parleront à des ordi-
nateurs. Si demain l’IA assure de manière autonome des tâches complexes à plusieurs degrés, il faut absolument que l’humain se
réserve le dernier mot.

La CFDT Orange souhaite que soit mis en place un comité d’ex-

perts qui se réunissent pour valider la pertinence des gisements Interviews 133

de données et la transparence des algorithmes. Elle demande qu’il y ait un « go » ou « veto » qui soit donné par les partenaires
sociaux. On ne déploie pas une IA dans un service ou un processus, sans savoir, pour qui, comment, avec qui, pourquoi, et avoir
anticipé l’accompagnement des salariés.

Vous n’aviez pas signé un accord sur la transition numérique ?


La CFDT a en effet signé un accord portant sur « l’accompagne-ment de la transformation numérique » chez Orange. Si le droit à
la déconnexion apparaît avec les droits et devoirs des salariés, les droits d’accès, d’oubli et de rectification des données person-
nelles des salariés liées aux applications internes n’ont pas été complètement mis en œuvre. Les démarches préalables avant de
lancer de nouveaux services aux salariés n’ont pas non plus toujours eu lieu, ni les études d’usages numériques inappropriés au
niveau d’un service. De la même façon, l’application permettant à chacun d’avoir conscience de ses usages des moyens numé-
riques a tardé à venir.

Dans cet accord, un comité national des transformations numé-riques a été créé. Il permettait de travailler sur des aspects
prospectifs à moyen et long terme, et de voir présentés en amont les initiatives et nouveaux services liés à la transformation
numé-rique du groupe. Le comité, avec l’éclairage d’experts, pouvait émettre des recommandations. Ce comité n’a pas perduré.

Nous pensons qu’aujourd’hui, il faudrait se focaliser sur la perti-nence de


l’utilisation de l’IA selon les processus et les métiers visés, la transparence complète des algorithmes, développés en interne ou
par un prestataire et la qualité des données pour éviter les biais.

Dès l’amont, il faut prévoir l’accompagnement des salariés dans la transformation des métiers et des compétences.

L’entreprise, ces derniers temps, a trop focalisé sur le savoir- être et l’adaptabilité des salariés. La mise en œuvre de l’IA montre
134
Le guide de l’intelligence artificielle au travail

au contraire l’importance des savoir- faire, dans l’entraînement des IA, l’accompagnement des équipes et les réglages opération-
nels lors des mises en œuvre.
Nous sommes tous dans un contexte où 50 % des métiers vont être transformés et certains, disparaître d’ici 2030. Il y a un enjeu
fort pour les salariés, capital humain de l’entreprise, qui seuls seront déterminants dans la réussite de la transformation.

Qu’allez- vous demander ?

En fait, l’IA est un programme informatique conçu par des déve- loppeurs humains et basé sur un gisement de données. La
qualité du gisement de données et les choix des développeurs dans l’al-
gorithme induisent la façon dont l’IA va réagir. Il peut y avoir des biais.
Nous souhaitons une totale transparence et un échange sincère au sein d’un comité paritaire sur les données et les algorithmes.
Si on n’est pas transparent sur les biais, le gisement des données, cela peut poser des problèmes lors de la mise en œuvre.
D’autre part, il vaut mieux accompagner les salariés vers les nouveaux métiers et compétences, y compris les managers, qui ont
un rôle important à jouer dans la connaissance des métiers et l’aide à la compréhension des transformations.
Il faut une vraie GPEC, alors qu’Orange ne dispose pas d’accord GPEC valablement signé aujourd’hui.

Quid de la charte Orange, qui vient d’être annoncée par la direction dans la presse ?
La charte inclusive est principalement un objet marketing. Il n’y a pas de lien avec une mise en œuvre opérationnelle de l’IA, les
engagements sont très vagues.
Interviews 135
N’allez- vous pas retenter un nouvel accord numérique ?

On a aujourd’hui un problème de calendrier social du fait de la Covid-19 qui décale les négociations. Il est peu probable que l’on
entre en négociation sur ce thème avant le second semestre 2021.

Nous souhaitons négocier, comme indiqué, autour de la transpa-rence du déploiement de l’IA dans l’entreprise. Il faut poser des
garde- fous à son déploiement. Les déploiements de l’IA concer-nant l’ensemble des filiales du groupe dans le monde, cela doit
être un accord monde.

Si on n’explique pas l’IA, elle peut devenir une raison de crainte importante et de rejet des salariés.

On doit prendre en compte que l’IA peut avoir un rôle bénéfique dans les réseaux fixes et mobiles, en dimensionnement, en opti-
misation et donc en consommation. Néanmoins, ces déploiements doivent se faire en transparence avec les IRP et les
organisations syndicales, et pas de manière unilatérale.
LA LOI AIDE LE SALARIÉ À RÉCUPÉRER
SES DONNÉES PERSONNELLES, C’EST PARFOIS BIEN UTILE
Abel Gouttenoire

Abel Gouttenoire est diplômé de droit privé.

Il fait partie de l’équipe « Mutations du travail et des organisations en temps de crise » du Centre de recherches critiques
sur le droit (équipe de recherche). Il rédige actuellement une thèse intitulée « Normativité algorithmique
et droit du travail », à l’université Lumière Lyon 2. Il est chargé d’études en droit social à la CFDT.

Comment apporter ses données personnelles


comme preuves lors d’un conflit avec son employeur ?

En général, les salariés ont du mal à nourrir leur dossier aux prud’hommes lorsqu’ils sont en conflit. Alors que les employeurs
détiennent beaucoup de données sur eux, qui peuvent être utili- sées comme preuves.
Pour assurer leur défense et obtenir gain de cause, il est donc essentiel pour les travailleurs de savoir comment la loi leur permet
de récupérer leurs propres données personnelles. D’autant que dans l’entreprise, ils laissent de plus en plus de traces
numériques, témoignant de leurs aptitudes profession- nelles, comportementales, de leurs compétences, de leurs capacités à
échanger, autant d’informations qui peuvent nourrir avantageusement un dossier.
Interviews 137

Comment peuvent- ils avoir accès à leurs propres données personnelles lorsque ces dernières
ont été traitées par un algorithme d’intelligence artificielle ?
Tout simplement en invoquant le droit d’accès issu du RGPD et de la loi informatique et libertés. Ce droit s’agrège à un régime
plus vaste que je qualifie de
« droit de rattachement » à ces données personnelles : les salariés peuvent faire
jouer leur droit d’accès à l’information, à la transparence, à la portabilité de leurs données personnelles. Ils ont inversement aussi
un droit de « détache-ment » sur ces dernières : soit un droit à la déconnexion ou, moins connu, celui à bénéficier d’une
intervention humaine lorsqu’un traitement automatisé (tel qu’une IA) génère des conséquences importantes ou juridiques pour
eux. Dans ce cas, les travailleurs peuvent contester la décision prise par l’IA en se référant à cette personne.

Ces droits, et plus particulièrement le droit d’accès, n’ont peu ou pas encore généré de contentieux ou de précontentieux. Il y a
apparemment très peu d’avocats en droit du travail qui utilisent le droit d’accès pour récolter des éléments de preuve et/ou pour
l’invoquer devant le juge.

Comme le relevait une ancienne conseillère prud’homale, il y a une méconnaissance flagrante du droit d’accès par les juristes en
droit du travail. Il n’en reste pas moins que celui- ci existe.

Le fait d’avoir été filmé ou traité par un logiciel

de reconnaissance faciale complique- t-il la donne ?

Non. Lorsqu’un salarié est sanctionné à cause de vidéos issues de vidéosurveillance, il n’a généralement pas accès aux films ou
aux images concernés. Mais il peut faire jouer son droit d’accès à ses informations en vertu de l’article 15 du RGPD, et cela, quand
bien même il aurait quitté l’entreprise. Il peut aussi réclamer ces mêmes éléments lorsqu’une machine à reconnaissance faciale
tente de recenser ses potentialités ou émotions (par exemple, les expressions de son visage). Ce travailleur peut ainsi demander
138
Le guide de l’intelligence artificielle au travail

à son employeur ses données personnelles issues d’un traitement direct (images, vidéos, voix) ou indirect (les données de
localisation par e-mail, les données de connexion, l’adresse IP de l’ordinateur).
Plus intéressant, le salarié peut aussi demander toutes les infor- mations générées ou produites à partir de ses données, que
des algorithmes auraient utilisées. C’est- à-dire ce qu’on appelle du profilage ou des décisions prédictives. Ainsi, par exemple,
le candidat à l’embauche peut réclamer d’accéder aux données
de son recrutement par intelligence artificielle (voir le logiciel Easyrecrue) et se procurer l’analyse de ses entretiens vidéo et
la décision qui en a découlé. Si des algorithmes classent sa candi- dature ou l’évaluent, il a le droit d’accéder à leur
fonctionnement et de comprendre la décision qui en découle. Par exemple, sa notation via un logiciel de benchmarking ou
son classement via un logiciel de ranking peuvent produire des effets juridiques comme une augmentation salariale ou une
évolution de carrière. De ce fait, le travailleur pourra demander sur quels critères et pourquoi ces évaluations algorithmiques
ont eu de telles conséquences. En matière de dossier disciplinaire, si le salarié est accusé de ne pas
avoir été présent au travail, il est en droit de demander les données qui prouvent son absence ou les données de
géolocalisation.

Et lorsque des décisions ont été prises à partir


de l’analyse des données ?

S’il s’est fait évincer ou s’il n’a pas eu d’augmentation à cause d’un algorithme, le travailleur peut demander les données qui
ont aidé son employeur à prendre ces décisions. Comment va- t-il demander ce droit d’accès ? Il peut le faire par écrit ou par voie
électronique. Il devra alors préciser sur quoi porte sa demande c’est- à-dire être précis sur les documents ou données demandées
qui le concernent (données d’évaluations sur quelles temporalités avec quels logiciels ou nombre d’e-mails, etc.). Il adressera
dans ce cas son courrier au responsable du traitement (à l’employeur). Je lui conseille de bien préciser l’objet de sa demande,
sans quoi
l’employeur peut refuser celui- ci au motif que la demande est Interviews 139

abusive (trop générale). Pour la vidéosurveillance, je lui conseille de préciser les heures et les dates, par exemple, ou d’éviter de
demander une copie des données personnelles sur l’ensemble de sa carrière. Une motivation de la demande n’est pas nécessaire.

Quels sont les délais ?

L’employeur a un délai maximum d’un mois (article 12.3 du RGPD), sauf demande complexe où une prolongation de deux mois
est possible pour répondre au salarié. Cela permet au salarié de récolter des éléments de preuve avant que son action prud’ho-
male ne soit prescrite. Si l’employeur refuse ou n’est pas capable
d’expliquer le fonctionnement intrinsèque de l’IA, il devra expliquer comment des recommandations de l’IA ont pu produire cet
effet ou cette décision pour le travailleur.

Quelles sont les sanctions pour l’employeur ?

Ces droits sont d’autant plus intéressants que l’employeur peut perdre jusqu’à 4 % du chiffre d’affaires mondial de l’entreprise,
après une plainte auprès de la Cnil. Le droit des données person-nelles est un droit puissant dans sa portée. Ce droit est toutefois
limité par quelques éléments : lorsque son exercice porte atteinte aux intérêts des tiers (il s’agit d’un e-mail qui impliquerait un
collègue du salarié par exemple) ; s’il porte atteinte au secret des correspondances ou au secret des affaires. Ce droit découle de
la loi informatique et libertés, il a un cadre européen (RGPD) et il comporte des sanctions très importantes. La mobilisation du
droit des données personnelles permet de rééquilibrer le rapport de travail. De plus, les entreprises doivent être en capacité de
démontrer par des analyses d’impacts que les traitements algo-rithmes à haut risque qu’elles réservent aux salariés (logiciels de
recrutement, d’évaluation, de surveillance…) sont conformes à cette réglementation. L’idée est que les acteurs sociaux sont
responsables face à l’IA. Si l’un des acteurs pense qu’une IA porte atteinte aux droits des salariés ou des représentants du
personnel, il peut toujours saisir la Cnil.

L’EMPLOYEUR JOUE UN JEU TROUBLE SUR


LA RESPONSABILITÉ DES PRATICIENS
CONSEILS EN MATIÈRE DE SECRET MÉDICAL
Emmanuelle Soustre

Emmanuelle Soustre est praticien conseil à l’Assurance maladie (direction régionale du service médical à l’Assurance maladie
en Occitanie). Elle est chargée des relations avec les professionnels de santé pour le secteur dentaire.
Son activité de militante s’articule autour de deux mandats : celui de déléguée syndicale centrale pour la Cnam entreprise
(le siège et les directions régionales du service médical) et celui de présidente du Syndicat national des personnels de
direction des organismes sociaux (régime général avec les branches
famille, vieillesse, maladie, accidents du travail, recouvrement, Pôle emploi, mutuelles complémentaires…). Enfin, elle est
élue

au Bureau national de la CFDT Cadres. Elle partage sa vision de la problématique des données sur les assurés à la Cnam.
Comment se présente la problématique des données sur les assurés à la Cnam, d’autant que celles- ci sont très liées au secret
médical ?
À la Cnam, en matière de données de santé sur les assurés, l’employeur joue un jeu trouble dans le domaine de la respon- sabilité
des praticiens conseils vis- à-vis du secret médical et, tout récemment, dans la double écoute liée à la Covid-19. Ce
jeu se concrétise de deux façons : le contournement de certaines difficultés liées au secret médical, la gestion des implications du
contact tracing.
Interviews 141

Qu’entendez- vous par « contournement du secret médical » ?


La CFDT a eu à négocier avec l’employeur, il y a quelques années, un accord- cadre à la Cnam, pour les instances représentatives
du personnel (IRP) qui comportait une commission sur l’exercice des praticiens conseils.

Les praticiens conseils sont garants du secret médical inhérent aux données de santé dont ils ont connaissance. Ces profession-
nels sont regroupés au sein d’un corps de contrôle indépendant. Ce corps rend des avis. Il a un code de déontologie qui soumet
son activité au secret médical. Les agents administratifs travaillant auprès des praticiens conseils signent un engagement
individuel de secret professionnel. La violation de ce secret relève du pénal et peut aboutir à un
emprisonnement d’un an et à 10 000 euros d’amende (articles 226-13 et 226-14 du Code pénal). Ce secret médical s’impose sauf
en cas, par exemple, de constatation de sévices physiques sur personne vulnérable ou encore de maladies à déclaration
obligatoire, comme dans le cas de la Covid-19 où un décret a levé cette obligation. En novembre 2019, dans l’accord- cadre sur les
IRP, l’employeur a étendu les prérogatives de la commission relative à l’activité des praticiens conseils à la protec- tion des
données. Cela afin d’éclairer les élus du CSE central dans leurs avis. Cette commission s’est réunie deux fois. Elle a constaté que
l’employeur avait essayé de contourner les difficultés liées au secret médical dans certaines activités. Tel est le cas pour la cellule
intitulée « recours contre tiers », placée sous l’autorité fonctionnelle d’un médecin- conseil. Ces cellules, sur l’ensemble du
territoire, récupèrent un milliard d’euros par an auprès de tiers responsables d’accidents corporels d’assurés, dans les accidents
de la route, par exemple. Elle calcule l’assiette du préjudice et les frais remboursés à l’assuré pour se retourner ensuite contre
l’assurance du tiers et récupérer des fonds. Les agents de ces cellules n’ont pas de lien hiérarchique avec le médecin- conseil
responsable de la cellule, mais ils ont un lien fonctionnel qui implique que s’ils divulguent une information médicale, c’est le
médecin- conseil qui sera sanctionné pénalement. La CFDT a 142
Le guide de l’intelligence artificielle au travail

alerté la direction de l’aspect faillible de cette organisation et a saisi la commission relative à l’activité des praticiens conseils,
pour demander que la Cnam établisse un système de gestion des données des assurés juridiquement robuste. Depuis cinq ans,
elle est toujours sur ce sujet.

Quid du secret médical dans le contact tracing ? Pendant la pandémie de la Covid-19, le contact tracing permet à la Cnam de
contacter les patients zéros, pour alerter, tester,
protéger l’entourage et prévenir la maladie. Dans le cadre de la gestion de la crise sanitaire, la Cnam a mis en place une
démarche d’amélioration des doubles écoutes téléphoniques
concernant le contenu des conversations des praticiens conseils, dans les brigades Covid-19, pratiquant le contact tracing.
Dans ce qui touche à la Covid-19, le secret médical a été levé par décret et ces écoutes ont révélé que les patients ou les
familles touchées évoquaient au téléphone des sujets médicaux très divers, autres que la Covid-19, et parfois élargis à de
nombreuses personnes.
La CFDT a alerté la Cnam sur le fait qu’un tiers écoute la qualité des échanges, ce qui est contraire au secret médical. Par
ailleurs, elle a estimé que cette double écoute posait la question de la protection, de l’enregistrement, de la conservation des
données sur les assurés.

Y a- t-il d’autres sujets de sécurité concernant les données ?


Il y a la question de la maintenance des outils informatiques qui contiennent ces données de santé. Les personnes chargées
de la maintenance peuvent avoir accès à des données sensibles et
les divulguer. Comment faire pour assurer le secret médical ? Parmi d’autres sujets concernant les données des assurés et qui ne
relèvent pas des sujets susceptibles d’un avis en CSE, il y a l’hébergement des données des assurés ou l’anonymisation
des données. Tout récemment, le ministre de la Santé Olivier Interviews 143

Véran a indiqué qu’il ne souhaitait pas que le lieu de stockage des données de l’Assurance maladie, qui constitue la plus grosse
base de données en Europe, soit hébergé par Microsoft. Par ailleurs, l’anonymisation des données pourrait être utile à la Cnam,
dans une démarche de santé publique, pour mieux cerner, par exemple, l’explosion de l’obésité et du diabète, qui pèse sur les
finances – et si elle peut permettre de mieux appréhender ces maladies et de mieux les soigner, cela ferait autant d’économies
potentielles. Les institutions représentatives du personnel restent sans recours sur ces sujets-là.
LA COMMISSION EUROPÉENNE PEUT DÉCIDER DE RENDRE
UNE NORME D’INTELLIGENCE ARTIFICIELLE OBLIGATOIRE
DANS 27 PAYS

Philippe Saint- Aubin

Philippe Saint- Aubin représente la CFDT au sein du Conseil économique, social et environnemental. Il fait partie
d’un groupe de travail de la CFDT sur l’intelligence artificielle et surveille particulièrement la question des normes.

Où sont élaborées les normes en matière d’intelligence artificielle ?


La fabrication de normes en matière d’intelligence artificielle se réalise à deux niveaux dans le monde. Elle se fait en Europe grâce
au Comité européen de normalisation (CEN). À l’échelle inter- nationale, elle se réalise grâce à un organisme international de
standardisation. Ces deux organismes s’occupent aussi bien des yaourts que de la taille des camemberts, de l’écartement des rails
de chemin de fer que de l’intelligence artificielle.

Ces normes doivent- elles être appliquées obligatoirement ?


Non. Pour l’instant, le Comité européen de normalisation et l’or- ganisme international de standardisation produisent plus des
« documents de travail » que des textes opposables aux entre- prises. Si une entreprise européenne ne respecte pas leurs normes
en matière d’IA, elle n’encourt donc aucune sanction.
La question est de savoir si les normes de ces deux entités dans Interviews 145

le domaine de l’intelligence artificielle feront l’objet d’un label à l’avenir, et si ce label sera opposable.
Quels types de normes sont créés actuellement ?

Une palanquée de normes sur l’IA est en train de se créer. Mais celles- ci sont pour le moment purement techniques. On peut
prendre comme exemple d’IA technique, la façon dont l’IA va distinguer les différents accents dans les langues parlées ou celle
dont les machines vont dialoguer (format des données, codes) ensemble. Mais comme le diable se cache dans les détails, il existe
aussi des normes purement techniques qui touchent à la gestion des données et/ou au respect de la vie
privée…

Quelle est l’approche de l’Europe en matière de normes ?


En matière d’intelligence artificielle, l’Europe s’intéresse aux questions de qualité, de confiance et d’éthique. Par rapport aux
États- Unis et à la Chine, elle essaye d’avoir une approche plus centrée sur l’homme.

À la demande de la Commission européenne, le Comité européen de normalisation a dessiné une « road map » (feuille de route)
sur ce qu’il pense utile en matière de normes et de sujets. Il souligne ainsi que la qualité, la gestion des données, la sécurité et le
respect de la vie privée, l’éthique, l’ingénierie des systèmes d’IA, la sécurité et la responsabilité méritent un traitement.

Autant de thèmes potentiels sur la table du Comité de normali-sation. De son côté, la Commission peut décider de rendre une
norme européenne obligatoire dans
27 pays.

Au niveau européen, il y a eu un travail similaire à la road map du Comité européen de normalisation dans le domaine de la
cybersécurité. Rappelons que ce comité rassemble tous les organismes de normalisation des États membres, dont l’Afnor pour la
France.

146 Le guide de l’intelligence artificielle au travail


Et au niveau mondial ?

Au niveau mondial, il existe aussi des normes dans le domaine de l’IA mais elles sont là encore purement techniques (formats
de messages, description de systèmes).

Cela veut- il dire que les normes n’ont aucun impact sur les élus du personnel dans les entreprises ?
Pour les élus d’entreprise, évidemment, ces sujets n’ont pas d’im- pact. Mais ils peuvent quand même avoir une importance
sérieuse pour eux. La surveillance dans le cadre du télétravail, via l’IA,
sera un sujet relativement important, par exemple. Et c’est pour

cela que la Confédération européenne des syndicats (CES) a un comité technique qui travaille sur les normes d’IA. Si on n’a
pas de normes au niveau des pays, ce sont les entreprises qui prendront le pouvoir avec leurs propres normes. Et là, tout est
possible.
FACE À L’INTELLIGENCE ARTIFICIELLE, IL S’AGIT TOUJOURS
DE SE RENSEIGNER, DE QUESTIONNER ET DE DONNER DU SENS
Emmanuel Gaubert

Emmanuel Gaubert est chef de projets, délégué syndical CFDT

SPEA- IDF à Orano Projets Saint- Quentin- en- Yvelines, filiale experte dans l’ingénierie du cycle du combustible nucléaire,

qui met à disposition de ses clients internes et externes

une large gamme de solutions : conseil, études d’ingénierie, construction et essais, projets clés en main ou encore
de démantèlement. Orano Projets est engagé dans un plan de continuité numérique (au sens du partage de données entre les
logiciels et de perspectives de massification de l’utilisation
de ceux- ci), et la section locale d’établissement CFDT

y participe en se renseignant, en questionnant l’entreprise, ou en donnant du sens à l’introduction de ce sujet.

Comment l’IA est- elle reçue chez Orano Projets ?

Que l’intelligence artificielle ou les techniques assimilées soient présentes ou pas dans l’entreprise, les trois lois du syndicalisme
chez Orano Projets sont les mêmes dans la pratique. Il s’agit toujours de se renseigner, de questionner, et de donner du sens. La
pratique de la CFDT montre qu’en matière d’intelligence arti-ficielle, les élus d’Orano Projets sont pertinents de la même façon
que sur les autres sujets au travail, avec les mêmes outils, et majoritairement sur des sujets transverses classiques.

Les militants et élus se renseignent sur le terrain. Salariés, experts, preuves de concept, présentation des métiers, publi-cations
sont les canaux classiques explorés. Cette première phase correspond à un moment où la section syndicale
d’Orano 148 Le guide de l’intelligence artificielle au travail

s’est mise à discuter d’IA et plus largement, de transforma- tion numérique, ce qui a assuré l’autoformation du groupe. La
section syndicale a conseillé à un salarié la manière de gérer sa démarche de formation de plusieurs mois en matière d’intelli-
gence artificielle. La formation a eu lieu alors que l’entreprise avait par ailleurs investi dans de la formation en IA pour plusieurs
ingénieurs en sûreté ou génie civil, par exemple.
Y a- t-il des effets spécifiques à l’IA à Orano Projets sur le travail ?
La CFDT estime que l’intelligence artificielle entraîne chez Orano Projets une mutation du travail comme une autre, mais
profonde.

Les élus questionnent en CSE sur la formation et le volume d’heures prévues, et en CSE central, sur la stratégie de mana-
gement du changement. La CFDT a suggéré de partir sur des méthodes assises sur la nomination d’agents du changement et
de leaders référents locaux, et cette méthode a été adoptée. Enfin, les élus donnent du sens à l’intelligence artificielle via des
questions ou des analyses. En l’occurrence, en 2019, la CFDT percevait un retard dans la mise en place de l’IA. La direction a
répondu avoir pris le temps de l’analyse pour décider qu’il n’y aurait pas de département IA, mais que l’IA serait à la main de
chacun dans les métiers pour lesquels elle est pertinente. La CFDT constate qu’il y a là un sens commercial, un sens orienté
client
et un savoir- faire métier (d’autant que les outils d’IA deviennent accessibles aux métiers directement). La CFDT et la direction
partagent la vision que la gestion/acquisition des données est prioritaire, et que le rôle des métiers est primordial à ce niveau.

Identifiez- vous des défis particuliers posés par cette technologie à Orano Projets ?
Quant à donner du sens à tout cela… Il existe des sujets éthiques

dans d’autres entreprises (la CFDT n’en voit pas dans les Interviews 149

applications utilisées, mais elle reste vigilante). Aujourd’hui, au- delà des engagements de responsabilité sociale d’entreprise, la
CFDT poursuit les échanges et discussions avec les salariés sur le sens de leur travail, son utilité, leurs projections, etc. En
conclusion, l’IA et la transformation numérique renforcent surtout le besoin de dialogue avec les élus dans les entreprises.
IL EST TEMPS QUE

NOUS NOUS FORMIONS

À L’INTELLIGENCE ARTIFICIELLE !

Pascal Leblay

Depuis février 2019, Pascal Leblay est l’auteur de deux publications : la première vulgarise l’intelligence artificielle, la seconde
tire un bilan de l’impact de l’IA sur les métiers de la banque et de l’assurance. Ces deux publications sont destinées
aux réseaux de salariés de la BPE, et aux élus de la Banque Postale et de la CFDT en général. Pascal Leblay est secrétaire
du CSE de la BPE (banque privée de la Banque Postale)

et du syndicat banques- assurances CFDT de Haute- Normandie, ainsi que secrétaire du comité de groupe de la Banque
Postale.
Par ailleurs, il est directeur d’agence bancaire depuis 1989.
Depuis quand vous passionnez- vous pour l’intelligence artificielle ?
Depuis quatre ans. Dans un congrès CFDT, j’ai découvert l’IA. Et j’ai compris deux choses : d’abord l’IA est comme un enfant avec
un QI de 140, malgré son potentiel, si on ne lui apprend rien, rien n’en sortira ; au pire des jugements irréfléchis. Ensuite, il
n’existe pas de formation à l’IA pour les représentants du personnel et cela va très bien aux directions qui ont confisqué le sujet.
Nos efforts doivent donc porter sur la formation des élus du personnel pour éviter toute opacité sur ce sujet. Comment juger un
dossier sur un sujet qu’on ne connaît pas ? Les représentants des salariés ne peuvent pas donner des avis motivés s’ils n’ont pas
été formés. Il est important que la CFDT forme sur la meilleure façon d’appréhender l’intelligence artificielle et sur les bonnes
questions à poser.
Interviews 151

Dans le monde de la banque, comment l’IA est- elle perçue ?


Dans le monde de la banque, il est regrettable que certains employeurs ne voient l’IA que comme une occasion de réduire les
coûts. Philippe Bajou, secrétaire général du groupe La Poste, déclare dans la revue Forum à l’automne 2020 que « demain la data
et l’IA nous permettront de progresser encore en termes d’économies de coûts et d’amélioration de nos processus ». Or, l’IA peut
aussi permettre aux salariés de mieux faire leur travail, c’est tout l’objet d’ailleurs des négociations sur la GPEC et sur les
conditions de travail. Il peut empêcher les tâches répétitives, rébarbatives, anxiogènes. Pour négocier, il nous faut savoir dans
quel état d’esprit on progresse. Or, si on laisse faire les direc-

tions, l’introduction de l’IA se traduira par un risque pour l’emploi. Il y a quelques années, le robot Watson a été introduit comme
agent conversationnel (analyseur d’e-mails) au Crédit Mutuel et les salariés en ont été plutôt satisfaits parce qu’ils l’ont aidé à
s’éduquer. La vérification de conformité a pris de plus en plus de place dans le temps de travail. Il y a dix ans, 80 % du temps des
salariés étaient dévolus au commercial et 20 % à l’administratif. Aujourd’hui, ces proportions sont inversées. L’évolution que vont
subir les métiers du risque et de la conformité dans les prochaines années fait partie des grandes interrogations qui restent, à
l’heure actuelle, difficiles à lever. L’automatisation progressive des outils de contrôle et d’analyse, couplée à la multiplication des
régle-mentations, a été à l’origine d’une forte demande d’embauches dans la banque, mais celle- ci va s’essouffler
prochainement. Dans le contrôle de conformité, la proportion d’activités pouvant être confiée à la machine reste inconnue.
Lorsqu’on est directeur d’agence, on est responsable de la conformité, un travail bien pertinent. Investir dans la
digitalisation de la conformité, c’est faciliter le travail des salariés. Les banquiers qui arriveront à

mettre des commerciaux dans leur cœur de métier gagneront la bataille, grâce à l’IA. Si l’option choisie est de se servir du numé-
rique juste pour rationaliser les coûts, en effet il y a un risque pour nos emplois.

152 Le guide de l’intelligence artificielle au travail

Quelles sont les banques les plus avancées


en matière d’IA ?

Le CIC, qui fait partie du groupe Crédit Mutuel, a pris une longueur d’avance sur ses concurrents. Il a permis de replacer en
partie les salariés de la banque dans leur cœur de métier : à la disposition
du client. Ce n’est pas un hasard si ce groupe est sacré meilleur employeur de France, pour la quatrième année consécutive.
La version 1 de Watson date de 2016. Ce robot est intervenu cette année- là en tant qu’analyseur d’e-mails pour aider les
conseillers clientèle du Crédit Mutuel à répondre. Le robot triait entre les demandes de RDV et il proposait lui- même des
RDV en fonction de l’agenda de chaque conseiller clientèle. Le salarié gardait la main en vérifiant et en validant le travail du
robot. L’IA interprète également le train de vie et permet de vérifier automatiquement la cohérence des renseignements
fournis (revenus imposables, salaires, dépenses) sur la base d’informations collectées auto- matiquement. Pour l’heure, il
n’existe pas de régulateur de l’IA
avec un cadre juridique et éthique et ce type d’analyse échappe au règlement sur la protection des données personnelles.
L’évolution tend vers le conseil patrimonial, où l’IA sera un assistant rappelant les modalités fiscales avec la loi de finances,
les choix juridiques
avec le Code civil… Il devrait ensuite être incollable sur l’assu- rance santé et la prévoyance.

Qu’est- ce que cela signifie ?

Cela veut dire que toute avancée technologique dans l’entreprise modifiant les conditions de travail ou les métiers devrait faire
l’objet d’une information et d’une consultation des instances représentatives du personnel.

Après le groupe Crédit Mutuel, quelle est la banque la plus avancée en IA ?


C’est La Poste. La Poste est très avancée, mais dans la distri-

bution courrier par IA. La Poste a acheté la société Probayes, Interviews 153

propriétaire entre autres d’un logiciel qui sait lire les enveloppes, notamment lorsqu’il manque une lettre ou qui sait remettre
une adresse dans le bon ordre. Désormais, Il faut une traçabilité pour 90 % des colis et courriers qui arrivent en France pour la
lutte Tracfin. Le logiciel va savoir décrypter quand un courrier arrive régulièrement en provenance de tel pays, de tel lieu avec tel
poids. Il pourra recenser quand un même courrier arrive plusieurs fois d’un lieu identique. C’est une directive européenne sur la
lutte anti- blanchiment qui impose cette surveillance qui est très utile à Tracfin. Le courrier qui arrivera à l’aéroport sera lu immé-
diatement par l’IA. Celle- ci remettra l’adresse « à l’endroit » et lira le code postal. Le courrier sera orienté vers un centre de
distribution, vers un facteur, et vers une tournée.
Avec l’euro numérique, seules les cryptomonnaies pourront échapper au contrôle européen, car elles peuvent être achetées à
partir de comptes anonymes.

Et puis, une autre banque ?

Le Crédit Agricole bien sûr s’est très bien approprié l’IA. La BNP a fait une avancée avec IBM blockchain, facilitateur pour la
gestion Tracfin et Lab. La blockchain est un coffre- fort numé-risé où l’on ne peut plus modifier ce qui est placé à l’intérieur. Tous
les documents de la blockchain sont des originaux véri-fiés. Un exemple de blockchain est la convention Archipel, à laquelle
adhèrent La Poste, EDF, Engie et la Caisse des dépôts et consignations. Les quatre groupes s’unissent pour détecter les
falsifications de justificatifs qu’ils émettent via la technologie de registre décentralisé, et vont développer une offre multi- acteurs
permettant ainsi aux banques, aux assureurs, et aux prestataires sociaux de vérifier si les justificatifs fournis ont été falsifiés. Le
fait de pouvoir vérifier la validité d’un document avec peu d’er-reurs autorise bien sûr beaucoup d’autres applications. En 2025, le
partage d’informations entre banques sera généralisé par les réglementations européennes. Les banques vont devoir traiter la
question de leur positionnement, résoudre le problème de la gestion des données et de leur exploitation.

154 Le guide de l’intelligence artificielle au travail

Par ailleurs, la Société Générale propose à ses clients d’ouvrir

des comptes avec uniquement une photographie faciale autorisée par la Cnil. On peut également citer l’assistant Synoé à la
Société Générale.
Enfin, il existe un fichier (Ficoba) de tous les comptes que l’on a ouvert dans sa vie à la Banque de France. Il est accessible à
la douane, aux services fiscaux, à Tracfin, ainsi qu’à plusieurs organismes d’État.

Qui peut arrêter ce fichage des citoyens ?

Pas la Cnil, car ce n’est pas de son ressort. C’est l’Europe qui doit dire « stop, on va un peu trop loin ». Certes, nous n’en
sommes pas au passeport QVT- social des Chinois, mais c’est sous- jacent. Pour l’instant, l’IA s’immisce partout. Dans le CFDT
magazine1,
je lis que le délégué CFDT Aymeric Pointub du Crédit Mutuel se

déclare satisfait du robot Watson, même s’il reconnaît que l’assis- tance humaine sera toujours nécessaire. Mais dans les
banques, une grande partie des tâches de back- office, du contrôle et de l’analyse du risque pourrait disparaître. Prenons
l’exemple de la Belgique qui avait deux problèmes : trop de banquiers et pas assez de personnel de la santé. Les directions
bancaires sponsorisées
par des aides gouvernementales ont accompagné ce changement radical de métier et motivé financièrement les mobilités, et
le résultat a été probant.
Entre 2006 et 2016, le nombre d’états de reporting obligatoires à produire par les établissements bancaires a augmenté de
83 %,
Les effectifs de la conformité bancaire ont été multipliés par trois ces dix dernières années et selon l’Observatoire de la banque,
20 % des effectifs vont voir leurs métiers disparaître d’ici 2025 et

50 % vont les voir profondément évoluer. Depuis 2010, les banques françaises ont perdu 4 % de leurs effectifs. Après la crise
finan- cière, les effectifs avaient diminué, mais ce phénomène avait

No 449, janvier 2020.

Interviews 155

été masqué par la hausse des effectifs des services centraux risque- conformité.

Maintenant, on constate une érosion lente mais régulière des effectifs car 80 % des opérations en back- office sont automati-
sables. Côté création d’emplois, La Poste a eu la bonne idée de créer un incubateur du numérique et de l’IA, qui comprend une
open- class pour les salariés. Car elle estime qu’un ingénieur recruté à l’extérieur de l’IA coûte très cher, et autant utiliser le
potentiel de ses 270 000 salariés. Même les IRP ont été formées à l’IA à La Poste…
TESTER, TESTER, TESTER LES BOÎTES NOIRES
DE L’INTELLIGENCE ARTIFICIELLE

Dominique Desbois

Dominique Desbois est ingénieur statisticien à l’Unité mixte

de recherches « Économie publique » d’AgroParisTech, et milite au syndicat CFDT de l’Institut national de recherche pour
l’agriculture et l’environnement (Inrae). En tant qu’élu du personnel, il siège au conseil scientifique d’AgroParisTech et au
conseil d’administration

de l’Inrae. Par ailleurs, il est membre du comité de rédaction de Terminal2, revue de réflexion critique qui analyse les impacts
de

l’informatisation sur la société. À ce titre, il est le délégué français au comité technique Information, Communication &
Society (TC9)3 de la Fédération internationale pour le traitement de l’information

(IFIP)4, organisme des Nations unies à vocation professionnelle.

Peut- on définir l’IA en quelques mots ?

Je répondrais : non. Sans remonter à la Machine analy-


tique de Charles Babbage5 et au premier programme d’Ada

Terminal s’attache à une réflexion pluridisciplinaire sur les impacts culturels et sociaux des technologies de l’information et de la
communication (TIC).
Cette revue analyse les enjeux des TIC en termes de libertés individuelles et de développement durable. Pour l’édition de ses
dossiers, la revue colla-
bore avec des laboratoires universitaires, mais également avec des associations citoyennes et des contributeurs indépendants.
[Link]/

International Federation for Information ([Link]).

Intégrant les travaux de Pascal et de Leibniz sur les machines à calculer, Charles Babbage élabora les concepts fondamentaux sur
lesquels repose encore de nos jours l’architecture des ordinateurs, dans un mémoire intitulé On
the Economy of Machinery and Manufactures (Charles Knight, Londres, 1835),
Interviews 157

Lovelace6 dont les applications potentielles visaient l’astronomie et la navigation, il suffit d’un regard rétrospectif sur les princi-
pales étapes de son développement pour constater que l’IA est une véritable tour de Babel !

Il y a 70 ans, Alan Turing, co- déchiffreur du code Enigma et auteur du concept de machine universelle, pose dans la revue Mind la
question de l’automatisation des capacités cognitives sous une forme volontairement provocatrice : « Une machine peut- elle
penser ? »
Depuis ses balbutiements, les annonces médiatisées des prouesses technologiques attribuées à l’IA portent à croire à une unité
disciplinaire alors que, sous le même vocable, s’agrègent des problématiques très diverses et des techniques très diffé- rentes.
Cependant, cette tour de Babel numérique qui s’étend des mathématiques théoriques à l’électronique industrielle, s’orga-nise
autour de tâches fondamentales qui fédèrent les différentes approches : représenter l’information, raisonner, résoudre et in fine
apprendre.

Comment l’IA peut- elle impacter

notre environnement socio- économique ?

Au cœur de technologies comme la robotique ou la reconnais-sance des formes, l’IA vient assister, suppléer, voire dépasser un
certain nombre de facultés cognitives humaines de manière efficace à la fois au plan technique mais aussi économique, qu’il
s’agisse de processus de production comme dans le secteur de l’automobile, d’assistance à des opérateurs humains comme pour
le pilotage d’installations à risque, ou d’intermédiation comme dans le secteur de la distribution ou des
services à la personne.

destiné au calcul et à l’impression automatiques des tables nautiques et astro- nomiques qui comportaient à l’époque de
nombreuses erreurs. 6. Née Ada Byron, Augusta Ada King, comtesse de Lovelace, est l’auteure du premier programme destiné à
être exécuté sur une machine (la Machine analy-tique de Charles Babbage) pour le calcul des nombres de Bernoulli en 1843.

158 Le guide de l’intelligence artificielle au travail

Est- ce que l’IA change nos vies ?

Bien sûr, et assez souvent à notre insu. Par exemple, dans le


domaine de la santé. La technique de l’apprentissage profond permet désormais d’entraîner un réseau de neurones à
détecter des mélanomes sur des photos de peau et des rétinopathies diabétiques sur des images de fonds d’œil.
Dans notre vie quotidienne, les « bots » se multiplient : pour trier le courrier postal7, filtrer nos courriels indésirables ou
analyser nos traces sur Internet, pour la gestion des préférences, des files d’at- tente et la prise de réservations sur les
plateformes numériques,
ces agents conversationnels capables de traiter le langage naturel (écrit ou parlé) peuvent désormais remplir certaines
fonctions relationnelles. C’est le cas des auxiliaires de vie dans les établis- sements d’hébergement pour personnes âgées
dépendantes8. L’automatisation des procédures de contrôle constitue également un des domaines d’application de l’IA
parmi les plus dynamiques. En matière fiscale, l’utilisation de techniques d’apprentissage automatique permet de détecter les
comportements récurrents qui seraient spécifiques à certains types de fraudes9 (à la TVA, au blanchiment, à la fausse
domiciliation et à l’optimisation illicite). De telles techniques sont désormais mises en œuvre par l’admi- nistration fiscale
française.
Dans le domaine financier, la quasi- totalité des opérateurs tels que les banques, les fonds de pension ou les investisseurs institu-
tionnels utilisent désormais des logiciels de trading algorithmique qui mobilisent des techniques d’IA pour exécuter les transac-
tions électroniques nécessaires à l’optimisation en continu de leur portefeuille boursier.

Y. LeCun et al., « Backpropagation applied to handwritten zip code reco- gnition », Neural Computation, 1989, 1(4), p. 541-551.
Édouard Pfimlin, « Zora, la solution robotique au service des seniors »,

Le Monde, 13 juillet 2018.

D. Desbois, « Drague fiscale sur les réseaux sociaux », Terminal, no 125-126, 25 novembre 2019.
Interviews 159

La lecture automatique des plaques minéralogiques est désor-mais une application intégrée à la gestion du trafic routier, comme
c’est le cas pour le péage urbain du Grand Londres.

La reconnaissance faciale est couramment utilisée lors des contrôles de police, notamment dans les aéroports, et par certains
pays dans la gestion des manifestations à partir de caméras de surveillance, fixes ou embarquées sur des drones, en se basant sur
des techniques de reconnaissances de formes biométriques similaires à celles développées pour les empreintes digitales.
Dans le secteur de l’énergie, EDF propose à ses clients industriels Metroscope, une solution de diagnostic énergétique basée sur
l’intégration de techniques d’IA10.

Ces quelques exemples ne représentent que la partie émergée de l’iceberg dans la mesure où de nombreux projets restent
confidentiels, car ils sont en phase de développement, comme le pilotage automatique dans l’industrie ferroviaire, ou de test
pour l’industrie aéronautique voire couverts par le secret industriel ou le secret- défense.

Et si l’IA se trompe ?

Cela arrive effectivement et les antécédents sont le plus souvent assimilables à des erreurs dans l’utilisation ou la conception des
logiciels. Leurs conséquences sont loin d’être anodines : des biais peuvent être générés par la base des données sur laquelle on
entraîne un algorithme (base d’apprentissage), ou induits par des corrélations insoupçonnées avec des règles de décision, des
critères de sélection voire des comportements algorithmiques. En 2018, Amazon a été contraint de revoir son système de sélec-
tion automatique de curriculum vitæ après avoir constaté qu’il pénalisait systématiquement les curriculum vitæ féminins : en
cause, la base d’apprentissage reproduisant un déséquilibre dans

Emmanuel Grasland, « EDF lance sa start- up dans l’intelligence artifi-cielle »,


Les Échos, 29 mars 2018.

160 Le guide de l’intelligence artificielle au travail

la distribution des genres, car constituée à partir des recrute- ments antérieurs sans que leurs biais n’aient été corrigés. De ce
point de vue, la technologie d’IA mobilisée n’est pas neutre, car
certaines méthodes tendent à renforcer les biais inscrits dans la base d’apprentissage.
En reconnaissance faciale, les problèmes de biais entachant les résultats fournis par les algorithmes d’IA peuvent aboutir à
des discriminations ethniques ou sexistes. Une étude du MIT Media Lab a révélé en 2018 que ReKognition, l’IA de
reconnaissance faciale d’Amazon, présentait des biais susceptibles de générer des discriminations : la détection de genre
affichait un taux de réus- site à 100 % pour les hommes à la peau claire alors que ce score tombait à 81 % pour les femmes,
voire à 69 % pour les femmes à la peau sombre, sachant que le score de réussite d’un progiciel concurrent était de 98,5 %
pour les femmes à la peau sombre.
La reproduction, voire l’amplification par renforcement, de biais non détectés a priori dans les bases de données
d’apprentissage, fait de l’IA un levier de discrimination, d’autant que ces biais dits
« cognitifs11 » sont difficilement détectables a priori : c’est le talon d’Achille des algorithmes pointé par un rapport récent de
l’Office parlementaire d’évaluation des choix scientifiques et technolo- giques (Opecst)12.
Récemment, en 2018, la Commission nationale informatique et
libertés a mis en demeure le ministère français en charge de l’enseignement supérieur de réformer la procédure d’admis-
sion post- bac à la suite d’une plainte introduite en 2016, afin que celle- ci respecte les dispositions de la loi informatique et
libertés de 1978 sur le traitement informatisé des données personnelles. Entre autres motivations, la Cnil souligne que l’absence
de détails

Initialement, le terme de « biais cognitif » a été introduit par Daniel Kahneman et Amos Tversky pour décrire les tendances
observées dans les comportements humains apparaissant comme irrationnelles au plan économique.
Rapport d’information no 464 (2016-2017), C. de Gannay et D. Gillot, Office parlementaire d’évaluation des choix scientifiques et
technologiques, déposé le 15 mars 2017.
Interviews 161

sur les rouages de l’algorithme utilisé pour procéder au clas-sement et à l’affectation du candidat bachelier contrevenait à l’article
39 de la loi de 1978 en ne lui permettant pas « de connaître et de contester la logique qui sous- tend le traitement automatisé en
cas de décision prise sur le fondement de celui- ci et produisant des effets juridiques à l’égard de l’intéressé ».
Que peut- on faire pour lutter contre les biais ?

« Accroître l’auditabilité des systèmes d’IA » est l’une des voies préconisées par le rapport Villani13. À l’heure actuelle, trouver un
compromis optimal entre performance et interprétabilité selon le contexte d’application reste du domaine de la recherche.

Cependant, il serait vain de chercher une solution exclusivement technique à un problème qui demeure avant tout politique.
Ainsi, l’accès au crédit bancaire est une figure classique des discrimina-tions de genre et d’origine. Aux États- Unis, encore
actuellement, l’accès au crédit logement est conditionné par votre lieu de rési- dence plutôt que par vos capacités de
remboursement.

Le rapport Villani propose « la constitution d’un corps d’experts publics assermentés, en mesure de procéder à des audits d’al-
gorithmes, des bases de données et de procéder à des tests par tout moyen requis ». De fait, certaines institutions indépendantes
prennent déjà en charge dans leur champ de compétences cet audit public et indépendant, à l’instar de la Cnil et de l’Opecst,
même s’il devient opportun de renforcer les capacités d’expertise scientifique et technique sur lesquelles elles pourraient s’ap-
puyer. Par exemple, une meilleure intégration des dispositions législatives à l’arsenal réglementaire constitue l’une des
voies de progrès : en France, depuis 2010, pour intégrer les dispositions de la loi du 27 mai 2008 relative à la lutte contre les
discrimina-tions, la Cnil a modifié l’autorisation accordée aux banques pour les traitements dits de « credit scoring » attribuant un
risque de défaillance et donc un taux différencié d’emprunt aux clients sur

Cédric Villani, op. cit.

162 Le guide de l’intelligence artificielle au travail

la base de leurs profils individuels. En conséquence, les analystes


de risque en matière de crédits ne doivent plus prendre en compte depuis cette date le sexe du demandeur de crédit,
pratique jusqu’alors courante mais aboutissant à discriminer les mères
de famille monoparentales dans l’accès au crédit.

Il n’empêche : plusieurs fois alertée par certains de ses adminis- trés, la mairie de Villeurbanne, dans le Rhône, lance une
opération de « testing » pour objectiver les discriminations qui ont cours dans le secteur bancaire pour l’accès au prêt
immobilier et au crédit à
la création d’entreprise. Sur l’ensemble de l’agglomération lyon- naise, 90 tests ont été conduits dans 63 agences de 12
banques différentes, d’avril à décembre 2016. Les résultats du testing révèlent des discriminations à chacune des étapes du
parcours
du demandeur de prêt : ainsi, ils montrent que le genre peut être un critère discriminant dans l’accès au crédit bancaire, mais
de façon moins caractérisée que pour l’origine migratoire supposée. Il devient urgent d’ouvrir les « boîtes noires » de l’IA
dans bien d’autres secteurs : une enquête récente menée conjointement
par le CNRS et SOS Racisme montre que ces discriminations s’étendent à des domaines qui demeurent insuffisamment
explorés en France : la formation professionnelle, l’assurance
automobile, l’accès aux complémentaires santé, le crédit à la consommation, l’achat d’une voiture d’occasion, l’hébergement
touristique et la reprise d’entreprise.
Signalons à cette occasion, la contribution originale sur l’enjeu sociétal majeur des inégalités dans l’accès à l’emploi réalisée par
l’Observatoire des discriminations de l’université Panthéon-
Sorbonne qui propose une plateforme internet de différents outils avec un test d’autoévaluation14.
La formation des professionnels à ces problématiques de discri- mination peut également jouer un rôle avec une sensibilisation
aux règles éthiques nécessaires pour encadrer les activités basées sur l’IA.

[Link]/

Interviews 163

Dans le domaine éthique, l’IFIP a publié un code d’éthique pour les informaticiens professionnels qui codent les programmes et
gèrent les systèmes d’information15. Même si elles ne possèdent pas la force contraignante des lois, les chartes éthiques servent
de référentiel lorsque le cadre juridique est insuffisant, voire absent pour les firmes transnationales (FTN) gérant des marques et
des labels : leur gouvernance étant assez sensible à leur réputation globale du fait de la structure
de leur financement et de leurs marchés, les FTN essayent de se conformer aux
codes éthiques lorsqu’ils existent, dans une démarche interne le plus souvent préférée à la certification externe.

De fait, le meilleur moyen de se protéger contre ces biais cognitifs est de contraindre les opérateurs de l’IA à ouvrir leurs « boîtes
noires » à une expertise publique et indépendante afin de trouver un équilibre durable entre le développement technologique et
la protection des citoyens. Ceux- ci doivent être protégés en tant que consommateurs de produits, mais aussi comme
producteurs d’interactions sociales dans la sphère du travail autant que dans l’espace public.

L’IA change- t-elle l’emploi ?

En tant qu’administrateur salarié représentant de la CFDT au conseil d’administration de l’Inrae, je suis très attentif à cette
question dans le contexte de la recherche appliquée et du déve-loppement d’innovations pour le secteur agroalimentaire. En tant
qu’élu du personnel, l’incidence sur l’emploi est l’une de nos prin-cipales préoccupations qui légitime également mes
interventions en tant que membre élu du conseil scientifique d’AgroParisTech et observateur CFDT au conseil scientifique de
l’Inrae.

Il faut bien admettre que, depuis une décennie, l’IA a pris une part de plus en plus importante dans la gestion des processus au
sein de l’agroalimentaire pour réduire les coûts, pas seulement en

D. Desbois, « Le code d’éthique et de conduite professionnelle de l’IFIP »,


Terminal, no 128, 2020.

164 Le guide de l’intelligence artificielle au travail

éliminant les gaspillages avec des applications au tri alimentaire et à la gestion des intrants, mais également en contribuant à la
réduction de la main- d’œuvre et des coûts qui y sont généralement associés par les gestionnaires, y compris dans la distribution.
Cela pose des problèmes de reconversion évidents aux moins qualifiés des salariés que notre syndicalisme doit protéger et
accompagner.

Gaia-X, le projet pour l’autonomie européenne dans le stockage des données


Des alliances industrielles et des partenariats, en ce cas gouver-nemental, Gaia-X est un partenariat franco- allemand visant à
combler le retard européen en matière d’informatique de nuage (cloud computing) de façon à assurer une souveraineté
minimale sur un marché jusqu’ici dominé par les opérateurs états- uniens comme Amazon, Google et Microsoft ou chinois
comme Alibaba. Une plateforme française, Agdatahub, accompagne les opérateurs des filières agricoles pour mettre en œuvre
des projets d’aide à la décision basés sur l’accumulation des données générées par l’Internet des objets de l’agriculture de
précision, qu’il s’agisse des moissonneuses- batteuses ou des robots de traite.

Les différences d’impact peuvent être sectorielles comme pour les secteurs liés à l’innovation où l’IA est désormais large- ment
utilisée pour le dépôt de brevets16 ou dans la recherche pharmaceutique.
Pour rassembler les capacités de prévisions et de prospectives,
mais aussi faire le lien avec des expérimentations de terrain ciblées sur les catégories d’emploi les plus menacées, le rapport
Villani propose la création d’un laboratoire public sur la transfor- mation du travail. Mobilisant un montant global de 32 milliards
d’euros, le levier de la formation professionnelle est également

V. Kanesarajah et E. White, « Chasing change: Innovation and patent activity during COVID-19. A report on the pandemic’s impact
on the global R&D community and innovation lifecycle », Clarivate, 2020.
Interviews 165

évoqué pour développer la médiation numérique et l’innovation sociale afin que l’IA bénéficie à tous. Néanmoins, il convient
d’être vigilant afin que cela soit réellement un moyen pour l’in-dividu d’être acteur dans la négociation de sa propre transition
professionnelle. De ce point de vue, davantage de recherches socio- économiques doivent être entreprises sur la réorganisa-tion
des chaînes de valeur affectées par l’IA dans le contexte de l’après- Covid-19.
L’INTELLIGENCE ARTIFICIELLE EST UN OUTIL PUISSANT. TROP PUISSANT ?
Soraya Duboc

Soraya Duboc est ingénieure dans un groupe international, ancienne présidente de l’Observatoire des cadres (OdC), ancien
membre du comité d’éthique pour la recherche
agronomique. Au Conseil économique social et environnemental (CESE) où elle siège au titre de la CFDT, elle a co- rapporté
l’avis

« Économie et gouvernance de la donnée » (février 2021).

À quoi sert l’intelligence artificielle ?

On peut considérer que l’intelligence artificielle est un outil qui démultiplie les capacités humaines, celles de l’individu et
celles d’une communauté. Mais n’est- ce pas déjà le cas d’autres appli- cations de la science : bombe atomique, microscope
électronique, organisme génétiquement modifié ?
Quelles spécificités présentent les technologies basées sur l’IA ?
Si les applications de l’IA dans de nombreux domaines apportent des bénéfices indéniables (optimisation et automatisation des
procédés de fabrication, anticipation des phénomènes clima- tiques extrêmes, médecine sur mesure, etc.), elles font émerger de
vives questions dès lors qu’elles touchent à nos droits fonda- mentaux, nos libertés.
Les deux exemples d’application qui me viennent le plus vite à l’esprit sont le recrutement et les décisions de justice.
Interviews 167

L’IA peut- elle nous déterminer ?

Dans ces deux domaines pris en exemple, l’IA va sur le terrain de nos comportements, de nos émotions, de nos croyances et
même de nos intentions : elle glane des données innombrables et disparates, les nôtres et celles des autres, celles de notre
environnement immédiat, du temps présent et passé, les croise et prétend anticiper au plus juste nos réactions, nos décisions –
que nous pensons libres. Quand bien même ces anticipations se révèlent exactes, il se peut que la personne n’ait pas eu
l’intention de les énoncer. Elle peut faire de nous des êtres prévisibles par le calcul algorithmique. Elle peut nous faire douter de
notre capacité à bifurquer, de notre liberté à aller hors des sentiers battus. Elle nous fait perdre notre singularité, en quelque
sorte. Et conduire à une forme de déterminisme algorithmique.
La naïveté et la méfiance sont- elles adaptées quand on parle d’IA ?
Le premier polar bioéthique sur l’intelligence artificielle publié en 2018, S.A.R.R.A., met en scène dans un horizon proche (2025)
une IA à qui l’on confie le soin de gérer une épidémie d’Ebola au plein cœur de Paris. Son auteur, David Gruson17, nous décrit en
connaisseur de l’IA ce qu’elle peut produire en intégrant la prévi- sibilité des motivations et comportements humains. D’où, à
mon sens, l’importance de sortir d’une forme de naïveté, ou d’excès de défiance envers l’IA. Il nous faut connaître quelles sont les
finalités d’un outil basé sur l’IA et quels sont ses effets sociaux et économiques non prévus et non désirables. Collectivement,
nous devrions être en mesure de définir les aspects de notre vie où l’IA ne doit pas être utilisée du tout, et des domaines où l’on
peut l’utiliser mais avec prudence. Une analogie peut être faite avec ce que la biologiste Anne McLaren (1927-2007) désignait par
« No go areas » et « Slow go areas ».

Ex- délégué général de la Fédération hospitalière de France et membre du comité de direction de la chaire santé de Sciences Po
Paris.

L’INTELLIGENCE ARTIFICIELLE,

DE L’USINE DE DEMAIN

AU RENOUVEAU DU DIALOGUE
SOCIAL ET SOCIÉTAL

Warda Ichir

Warda Ichir est secrétaire fédérale à la Fédération générale des mines et métallurgie (FGMM- CFDT).

Elle a en charge les questions de digitalisation

et de RSE au sein du pôle économique de la fédération.

Alain Larose

Alain Larose, secrétaire général adjoint FGMM- CFDT,

est responsable des questions de dialogue social après avoir supervisé pendant des années le pôle économique

de la FGMM. Il a particulièrement travaillé sur les liens

entre dialogue social et transitions numériques et écologiques.

Comment définiriez- vous l’intelligence artificielle ? L’intelligence artificielle est une technologie avancée à usage général,
c’est- à-dire qui a vocation à s’étendre à tous les secteurs économiques, avec un impact sur la société dans son ensemble.
L’IA renvoie à une puissance de calcul, capable de traiter diffé- rents types de données (reconnaissance vocale, faciale, de vidéos,
et « compréhension de texte »), qui s’appuie sur des réseaux déve- loppés et des données en grande quantité. La disponibilité
d’une grande masse de données, stockées dans le cloud, alimentée
par de nombreux terminaux connectés comme les ordinateurs, les smartphones, les capteurs, ou les robots permet à l’IA de
s’entraîner et de gagner en pertinence.
Interviews 169

Quel est l’intérêt de cette technologie ?

L’intérêt de l’IA est de proposer des prédictions (saisie de texte, interprétation de radios médicales, maintenance prédictive), de
formuler des recommandations (vidéos sur YouTube et Netflix), voire de prendre des décisions (fixer des prix sur Amazon18).

L’IA conduit donc à la prise de décision, en fonction de ce pour quoi elle a été programmée. En fait, si les machines et robots se
substituent à notre force physique (nos bras et nos jambes notam-ment), l’IA remplace en partie les capacités de notre cerveau.
Or, nous n’avons pas cessé d’utiliser nos jambes depuis que les vélos, voitures et transports existent. De même, les calculatrices
nous font gagner du temps et laissent finalement notre cerveau disponible pour autre chose. Quoi qu’il en soit, rappelons que
l’hu-main reste incontournable pour la conception des programmes, pour leur assigner une finalité, sélectionner les données
d’en- traînement et en contrôler les résultats. Même si le principe de l’apprentissage automatique de l’IA conduit à s’affranchir en
partie de la programmation, les hommes peuvent et doivent donc garder la main.
Le premier problème est que la prise de décision individuelle est considérée comme le propre de l’homme, notamment pour des
questions juridiques. En effet, l’âge de la majorité fixé à 18 ans permet d’exercer pleinement ses droits, mais ceux- ci sont assortis
d’une pleine responsabilité. Au- delà du fait que l’ar-ticle 22 du RGPD interdit de « faire l’objet d’une décision fondée uniquement
sur un traitement automatisé dans l’Union euro-péenne19 », il est aisé de comprendre que toute décision doit être rattachable à
un humain, responsable, pour être expliquée, et éventuellement réparée. En effet, l’IA résulte d’une programma-tion humaine, et
rappelons qu’un outil n’a pas de volonté propre. Le second problème se situe au- delà de la décision individuelle : au

« Pleins feux sur l’intelligence artificielle », Harvard Business Review, décembre 2020-janvier 2021.

[Link]/fr/reglement- europeen- protection- donnees/chapitre3#

Article22

170 Le guide de l’intelligence artificielle au travail

niveau collectif, la décision renvoie au politique. Rappelons que l’OCDE qualifie l’IA de technologie « pervasive » (envahissante),
tant cette technologie est prête à couvrir chacun des aspects de notre quotidien20.

Quels sont les enjeux derrière l’IA ?

La transformation digitale en général – et l’IA en particulier –


renvoie donc certes à des enjeux économiques et sociaux, mais aussi politiques car elle présente potentiellement un impact
sur l’ensemble de la société.
De manière générale, si l’industrie a amorcé sa transforma-

tion numérique, il semble néanmoins que le déploiement de l’IA n’en soit qu’à ses débuts, faute de maturité de ses
applications industrielles. Le mouvement est cependant bien lancé et l’acti- vité de production devrait se trouver
profondément chamboulée par l’IA et les autres technologies numériques. Les évolutions
de l’entreprise se traduiront ainsi par des impacts plus ou moins prévisibles en termes d’emploi et de conditions de travail.
Face à l’ampleur de ces enjeux, le dialogue social, dans sa forme insti- tutionnelle, semble actuellement peu efficace pour
traiter des questions de l’IA et de transformation digitale. Enfin, au- delà des préoccupations économiques et sociales, l’IA
renvoie à des ques- tions démocratiques, tant au sein de l’entreprise, qu’en dehors
au niveau territorial.

Quel est le niveau des investissements en matière d’intelligence artificielle ?


Les investissements sont encore limités, mais inéluctables.

L’industrie a amorcé sa transformation numérique depuis

une quinzaine d’années, même si l’IA n’a pas atteint sa pleine

OCDE, « Artificial intelligence in society », 2019.

Interviews 171

maturité. En effet, selon l’étude de la Fabrique de l’industrie21, les deux tiers des investissements de l’industrie française sont
immatériels et un tiers sont matériels (contre 50-50 pour l’Allemagne). Les produits informatiques et électriques, les machines et
équipements, et les matériels de transports (auto-mobile et aéronautique) concentrent 62 % des investissements immatériels de
l’industrie française, alors qu’ils représentent un quart de la valeur ajoutée de l’industrie.

Cela signifie que les investissements réalisés portent sur le logiciel, les bases de données, l’IA, mais ne se retrouvent pas dans
l’appareil productif au sens matériel du terme. En outre, cette situation se trouve encouragée par les politiques publiques,
notamment par le crédit d’impôt recherche, destiné à soutenir les dépenses en R&D des entreprises, ou encore le plan « Industrie
du futur ». Le « produire en France » est donc la victime collatérale de cette politique22 et, d’une certaine manière, la
dématérialisation ou servicialisation de l’industrie est en cours. Au cœur de l’industrie du futur, les usines intelligentes sont
peuplées d’organes sensoriels, les objets connectés. Équipés de capteurs, ils sont capables de mesurer n’importe quelle quan-tité
physique (son, lumière, couleur, vitesse, poids, effort, etc.), de localiser (GPS, gyroscope), de reconnaître (données biomé-triques,
caméras), de tracer pièces, sous- ensembles, produits, outils, et d’accéder à leurs caractéristiques contenues dans les étiquettes
RFID (mémorisation de données récupérées à distance par radiofréquence).
À l’instar de l’organisme humain, les fonctions sensorielles de l’usine intelligente collectent une masse de données volu-mineuses
qui sont stockées, via un réseau numérique, dans ce que l’on appelle le big data. Un traitement complexe des données adresse
des commandes aux fonctions mécaniques et motrices : approvisionnement en pièces par véhicules à guidage

Sarah Guillou, Rémi Lallement et Caroline Mini, L’Investissement des entreprises est- il efficace ?, Les Notes de la Fabrique, Presse
des Mines, 2018. 22. Marc Chevallier, « L’industrie française investit- elle mal ? », Alternatives Économiques, décembre 2018.

172 Le guide de l’intelligence artificielle au travail

automatique, réglage du poste de travail en fonction de la morpho- logie de l’opérateur et du type de produit à fabriquer,
pilotage
d’un robot, etc.

Les données stockées dans le big data représentent une somme de connaissances mobilisées par l’intelligence artificielle. L’usine
intelligente est ainsi dotée d’une capacité d’autoapprentissage
et de résolution de problèmes complexes dont l’homme était jusque- là seul capable.
Ces unités de production ont le pouvoir de communiquer grâce aux réseaux numériques : les unes avec les autres aux frontières
de l’entreprise ; entre donneurs d’ordre et sous- traitants pour l’en-
treprise étendue à la filière. La fabrication d’un produit est alors le résultat d’un processus industriel qui dialogue et se
déploie au sein d’une chaîne de valeur connectée. Elle communique avec le monde extérieur grâce à Internet, donnant au
client la possibilité d’adresser une commande personnalisée qui sera traduite en ordre de fabrication. L’industrie du futur
ambitionne également d’augmenter les capacités de l’être humain. Il en est ainsi de la réalité augmentée qui permet
d’évoluer dans un espace virtuel numérisé où les opérations réalisées agissent physiquement sur
un environnement réel et distant ; de l’exosquelette, un appendice biomécanique installé sur le corps humain pour l’assister
dans
ses tâches physiques ; ou encore du cobot, robot qui collabore et interagit avec l’être humain. L’industrie du futur est donc
une transformation profonde dont l’objectif est d’accroître la perfor- mance économique. L’enjeu pour le syndicalisme est
d’en faire un progrès pour l’humanité.

Quelles sortes de bénéfices l’IA offre- t-elle à la plupart des entreprises ?


Des bénéfices immédiats mais encore limités. Il faut reconnaître
que si l’IA fait beaucoup de bruit, les exemples de déploiement significatifs demeurent relativement confidentiels aujourd’hui.
Concernant l’industrie, la priorité serait accordée aux technolo-
gies susceptibles d’apporter un bénéfice immédiat (réduction de Interviews 173

coûts, par exemple). Les entreprises attendent de l’IA une accélé-ration de l’automatisation de certains process, par ailleurs
rendus plus agiles, et visent aussi la satisfaction des clients.

Or, l’IA n’étant pas encore totalement mature, les coûts associés à son déploiement peuvent sembler exorbitants en regard des
résultats immédiats obtenus (voir le schéma « Les freins à l’IA »). Naturellement, le degré de diffusion de l’IA dépend beaucoup
des applications concrètes imaginées pour un secteur, en fonction des ponts entre les univers de la recherche et de l’industrie qui
ne sont pas assez développés et doivent s’amplifier, malgré les initiatives telles que les pôles de compétitivité et les plateformes
collaboratives telles que le Lamips23.

Pour l’instant, les principaux usages de l’IA d’après IDC24 concernent les services clients automatisés (chatbots), la défense et la
sécurité nationale (reconnaissance faciale), l’assistance aux diagnostics médicaux et la médecine personnalisée, la gestion de
fret/logistique, le traitement de requêtes automatisé, la simulation avancée, la gestion d’actifs et de flotte à distance
(optimisation des trajets, diagnostic de véhicule à distance, monitoring du conduc-teur), la recommandation d’achats
personnalisée, les solutions de contenu automatisé (jumeau numérique) et les smart grids.

[Link]- [Link]/adherent/lamips/

IDC Worldwide semi- annual artificial intelligence systems spending guide, mars 2020.
174 Le guide de l’intelligence artificielle au travail

Les freins à l’IA

Source : FGMM- CFDT, février 2021.

Et du côté des données, que se passe- t-il ?

L’IA requiert une certaine quantité et une qualité de données afin de s’entraîner et proposer des recommandations fiables. La
faible
disponibilité des données en partage constitue l’un des principaux obstacles. Les entreprises craignent de partager leurs données,
ce qui empêche la mise en œuvre de l’IA dans les chaînes de Interviews 175

valeur, d’autant plus que les problèmes d’interfaces et de normes différentes ne contribuent pas à la coopération. L’intérêt du big
data, c’est de pouvoir tirer profit de nouvelles données produites par tous les acteurs (les entreprises, les particuliers, les scien-
tifiques et les institutions publiques) dans le but d’optimiser son offre commerciale, ses services, développer la recherche et le
développement. L’effet de réseau n’est donc pas très visible tant que cette taille critique n’est pas atteinte et la plupart des algo-
rithmes pâtissent d’un démarrage à froid avant d’acquérir les bonnes données. Mais une fois lancé, le digital peut permettre de
générer de la valeur et de dépasser rapidement les entreprises traditionnelles. Ce travail en amont sur les données nécessite du
temps et rejoint par ailleurs des questions organisationnelles et culturelles dans les entreprises. Sur le plan
technique, le déve-loppement de la 5G et des objets connectés favoriseront celui de l’IA en France, ne serait- ce que par rapport
aux flux de données supplémentaires apportés.

Quel regard porte- t-on sur l’IA ?

Par ailleurs, l’un des freins les plus importants concernant l’adoption de l’IA par les entreprises, relevé par la Commission
européenne, renvoie au manque de confiance autour de l’IA25. À ce propos, la proportion d’entreprises ayant relevé l’IA comme
représentant un risque potentiel dans le cadre de leur rapport annuel destiné aux actionnaires a plus que doublé en 2018, ce qui
représente 55 grandes entreprises, d’après le Wall Street Journal26 (réputation de marque entachée, confiance en baisse, coûts
cachés, plaintes éventuelles…). Le manque de confiance provient tant des entreprises que des autres acteurs de la société et
résulte principalement d’un sentiment de manque de maîtrise par rapport à des risques susceptibles de
survenir.
Commission européenne, Technology Focus on Artificial Intelligence, Advanced Technologies for Industry, AT Watch, juillet 2020.

Becky Yerak et Tatyana Shumsky, « More Companies Flag a New Risk: Artificial Intelligence », Wall Street Journal, 9 janvier 2019.

176 Le guide de l’intelligence artificielle au travail

Les risques sont de plusieurs ordres. Concernant les bugs infor- matiques, ou même les biais reprochés à l’IA, il convient de
rappeler que les erreurs sont… humaines ! En effet, si Gérard Berry27, professeur au Collège de France, se dit convaincu que le
bug est constitutif de l’informatique des systèmes complexes, il précise toutefois que ce dernier résulte toujours initialement
d’une erreur humaine. De même, les algorithmes ne sont pas par nature racistes ou sexistes, mais reproduisent les biais
(humains) constatés via les données. La complexité des systèmes informa- tiques entraîne une difficulté à en assurer la maîtrise.
Les problèmes de sûreté et de sécurité revêtent une importance cruciale, tant la portée des intrusions informatiques peut être
grave à mesure que le volume de données croît. En tout cas, investir dans la sûreté et la sécurité des données permet d’agir
sur la confiance autour de l’IA, et pourrait même constituer un gisement d’emplois. De plus, du point de vue des clients-
citoyens, l’incertitude par rapport à la gouvernance des données person- nelles doit être levée par plus de transparence et
une éthique claire. La captation et l’utilisation des données personnelles
doivent être explicitées et acceptées par l’ensemble des acteurs économiques et sociaux. Le manque de compétences en IA
au sein des entreprises est aussi un frein dans la mesure où les entreprises ne maîtrisent pas le déploiement de l’IA et
recourent à des prestataires extérieurs. Le nombre d’experts en IA serait actuellement insuffisant pour répondre à la
demande. Cédric Villani28 affirmait que la recherche française se situait au premier plan mondial en mathématiques et en
intelligence artificielle,
en revanche, la transformation des avancées scientifiques en applications industrielles économiques est plus délicate et la
France pâtit de la fuite de ses cerveaux… Rappelons que l’une des figures les plus importantes de l’intelligence artificielle en
France travaille pour Facebook : il s’agit de Yann Lecun.

Gérard Berry, « Pourquoi et comment le monde devient numérique »,


leçon inaugurale au Collège de France, 2008.

Cédric Villani, op. cit.

Interviews 177

Mais l’adoption de l’IA n’est qu’une question de temps… et de données, n’est-ce pas ?
Oui. Selon IDC29, plus d’un quart des entreprises européennes auraient adopté l’IA et une moitié prévoiraient de le faire prochai-
nement. Naturellement, la crise sanitaire de la Covid-19 a plutôt ralenti les plans d’adoption de l’IA, compte tenu des incertitudes
et du manque de liquidités. Néanmoins, les investissements en IA devraient reprendre leur croissance après la crise sanitaire afin
d’accélérer l’automatisation et la transformation digitale. L’IA peut même être une manière de rebondir intelligemment à la suite
de la crise engendrée par les confinements et quarantaines. Comme toute nouvelle technologie, l’IA doit être domestiquée par le
système socio- économique pour atteindre son plein potentiel. Rappelons qu’à la fin des années 1990, les technologies de l’in-
formation et de la communication ont eu un impact économique lent car profond, sans amélioration apparente des
performances microéconomiques des entreprises30. L’IA fait ainsi partie des
grandes mutations complexes, car elles revêtent un caractère fondamental, et pénètrent tous les secteurs de la société.

Au- delà des entreprises et des considérations techniques, il convient également de prendre en compte les changements de
pratiques tant dans la vie économique que sociale. C’est ce que Pascal Griset résume de la manière suivante : « Quelles que
soient les époques, les nouvelles techniques résultent d’une dialectique entre une autre technique, le travail des chercheurs, des
ingé-nieurs, des entrepreneurs, et la demande sociale, l’aspiration des dirigeants politiques, les exigences des citoyens, les désirs
des consommateurs, les revendications des travailleurs, les critères financiers ou bien encore le rêve des visionnaires, voire des
utopistes31. »
IDC Worldwide semi- annual artificial intelligence systems spending guide, mars 2020.

Éric Brousseau et Nicolas Curien, « Économie d’Internet, économie du numérique », Revue Économique, vol. 52, 2001.

Pascal Griset, « De la machine à vapeur aux GAFA(M) : D’une innovation technologique à l’autre », Questions internationales,
mai- août 2018.

178 Le guide de l’intelligence artificielle au travail

Ne pensez- vous pas que la valeur économique s’appuie de plus en plus sur le réseau
avec les plateformes et la recomposition des chaînes de valeur ?
Oui. Pour Nicolas Colin et Henri Verdier32, la valeur réside désor- mais dans la multitude que nous formons tous, individus
éduqués, équipés et connectés. En effet, les milliards d’individus connectés de par le monde et leurs échanges représentent un
formidable gisement de richesses pour qui sait le capter et l’exploiter. Il s’agit d’ailleurs de la recette du succès des géants du
web. La valeur
des entreprises du numérique est créée par les utilisateurs et leurs données, véritable carburant de l’IA.
Il suffit de regarder l’exemple le plus abouti de plateformes avec
les GAFAM, avec leur percée rapide et leur diversification qui s’étend à l’ensemble de l’économie. Il leur est souvent reproché
de capter abusivement la valeur produite par les autres, mais l’économie du partage, ou l’économie collaborative s’inscrit
également dans le champ des « plateformes ». En s’appuyant sur les effets de réseaux, considérablement amplifiés par
Internet, chaque géant du web a, d’une certaine manière, su imposer un standard à la population mondiale, que ce soit par
un moteur de recherche, un logiciel, un smartphone, un réseau social…
En conséquence, l’avantage compétitif dépend désormais de la capacité à créer et à contrôler des réseaux : les entreprises
qui parviennent à connecter les activités, agréger les données qui circulent entre elles et à en extraire la valeur à l’aide de
l’analy- tique et l’IA sortiront gagnantes de la transformation numérique. De plus, les effets de la plateformisation sont
régulièrement qualifiés de disruptifs du fait de la recomposition des chaînes
de valeur, plutôt vers le service. En 2015, Michael Porter et

Nicolas Colin et Henri Verdier, L’Âge de la multitude. Entreprendre et gouverner après la révolution numérique, Armand
Colin, 2015.
Interviews 179

James Heppelmann33 ont décortiqué le processus de transfor-mation très profond qui caractérise le passage d’une économie
classique à une économie numérique. Au départ, un simple produit, auquel on ajoute une puce électronique pour le rendre
intelligent, puis que l’on connecte à un utilisateur ou à un fabri-cant, devient finalement un simple élément d’un système bien
plus large (voir le schéma « Les systèmes de systèmes »). C’est le système reliant les produits – et non les produits par eux-
mêmes – qui constitue l’avantage principal. Le modèle de ces plateformes conduit à reconsidérer la place du produit matériel,
c’est- à-dire du produit d’origine dans la chaîne de valeur, donc celle de l’usine et des emplois qui sont derrière.

Quelles sont les conséquences de l’IA sur l’emploi ?

Le groupe chinois Ant, cinq ans après sa création, concurrence le premier groupe de services financiers au monde JPMorgan
Chase, avec dix fois plus de clients que les banques américaines, mais dix fois moins de salariés pour exécuter les opérations clas-
siques : « La valeur obtenue n’est pas générée par des processus métiers exécutés par les travailleurs, managers, ingénieurs et
services clients, mais par des algorithmes34. » Il semble clair que l’une des conséquences de l’IA conduit à l’automatisation d’un
nombre croissant de tâches et d’opérations effectuées par l’homme. De manière générale, personne ne sait exactement combien
d’emplois seront détruits, ni à quel rythme les progrès combinés de la robotique et de l’intelligence artificielle se subs-titueront
aux capacités humaines, au moins en partie. À terme, plusieurs études convergent vers le fait que plus de la moitié des activités
actuelles pourraient être remplacées par des systèmes d’IA. La promesse faite par la 5G, l’IA et les objets connectés

Michael Porter et James Heppelmann, « Comment les produits intel-ligents changent les règles de la concurrence », Harvard
Business Review, avril- mai 2015.
« Pleins feux sur l’intelligence artificielle », Harvard Business Review, décembre 2020-janvier 2021.

180 Le guide de l’intelligence artificielle au travail


Les systèmes de systèmes plateformisent les secteurs traditionnels

Source : Porter & Heppelmann, Harvard Business Review, avril- mai 2015.
Interviews 181

pour les prochaines années va parfois même jusqu’au pilotage à distance d’une usine sans ouvrier35, ou en tout cas avec le moins
possible. Néanmoins, il est probable que de nouveaux emplois soient créés pour gérer les machines, bien que nous ne connais-
sions pas encore les emplois de demain. En effet, selon une étude publiée en 2017 par Dell et l’Institut pour le futur, un think tank
californien, 85 % des emplois de 2030 n’existent pas encore36. Enfin, notons que les destructions d’emplois ne concerneront pas
seulement les ouvriers et s’étendront aux tâches administratives, aux fonctions support, etc.

Autre élément significatif, si le CDI demeure la norme, il l’est toute-fois de moins en moins. En 2018, le ministère du Travail
publiait une étude37 se penchant sur l’évolution des embauches en CDI et CDD depuis 25 ans en France : la part des personnes
en CDI (hors intérim) dans l’économie française, est passée de 94 %
en 1982 à 88 % en 2017. De plus, la durée moyenne des CDD a, quant à elle, été divisée par un peu plus de deux, passant de 112
jours en 2001 à 46 jours en 2017. Plus inquiétant encore, près d’un tiers des CDD signés chaque année en France est de moins
d’une journée ! Dans le même temps des nouveaux statuts de travailleurs ont émergé, comme celui des autoentrepreneurs. En
outre, l’impact de l’IA sur l’emploi est aussi qualitatif et s’exprime au travers des compétences requises. L’usage de la calculatrice
nous a certes quelque peu déqualifiés, car nous sommes moins bons en calcul mental que nos aïeux mais… et alors ? Est- ce si
grave que cela ? Le déploiement de l’IA conduira à une recomposition des tâches confiées à la machine et à l’humain. À
l’évidence, les compétences en extraction et traitement de données, en analytique et en déve-loppement d’algorithmes seront
demandées.
Au niveau des soft

Sébastien Grob, « Bientôt des usines sans ouvriers ? Comment la 5G pour-rait décupler la robotisation de l’industrie », Marianne,
19 novembre 2020. 36. Dell
Technologies, « Emerging technologies’ impact on society & work

in 2030 », 2017, [Link]/content/dam/delltechnologies/

assets/perspectives/2030/pdf/SR1940_IFTFforDellTechnologies_Human-

Machine_070517_readerhigh- [Link]

Dares, « CDD, CDI : comment évoluent les embauches et les ruptures depuis 25 ans », juin 2018.

182 Le guide de l’intelligence artificielle au travail

skills, la créativité, l’interdisciplinarité, l’esprit critique, l’aptitude à coopérer tendent également à devenir des compétences clés.

Quelles sont les conséquences de l’IA sur les conditions de travail ?


S’agissant des conditions de travail, il convient de rappeler que l’automatisation des tâches manuelles a globalement réduit
la pénibilité physique, mais a accru l’intensité du travail et la charge cognitive pour les salariés. Pour l’IA, les zones de risque
demeurent nombreuses, sachant que les technologies numé- riques ont jusque- là plutôt eu pour effet d’accroître les risques
psychosociaux. Si l’IA peut aider dans l’élaboration de certaines
tâches avec son apport d’informations, la relation hommes- machines est à construire, le degré de prescription faite par l’IA à
l’homme étant susceptible de réduire son autonomie, et de générer une forme de déshumanisation du travail. À cet égard,
Cédric Villani propose, par exemple, d’envisager de faire évoluer le compte pénibilité, pour prendre en compte de nouvelles
situations de travail (l’obéissance exclusive aux instructions de machines, l’impossibilité de discuter avec ses collègues sans
passer par une interface machine…). Les biais de discrimination, dans le cadre
de process de recrutement, doivent être surveillés en organisant une gouvernance des données dans l’entreprise, par
exemple dans le cadre du dialogue social. Lors de la mise en place de l’IA dans une entreprise, une réflexion peut être
engagée sur le type de données alimentant l’IA, les modalités de mise à jour de ces données, mais aussi sur les spécifications
techniques, c’est- à-dire
les exigences éthiques et autres imposées à la programmation. De même, les transformations de l’entreprise impacteront les
orga- nisations du travail qui devraient se caractériser par davantage de flexibilité (horaire notamment, disponibilité
permanente par les outils numériques). La recherche de l’efficacité, la suppression de
temps morts peuvent engendrer du stress (pas de micro- pauses du fait des optimisations). Le télétravail ou travail à distance
devrait aussi gagner du terrain, du fait des contrôles et de la main-

tenance à distance rendue possible. Par ailleurs, les nouveaux Interviews 183

statuts d’emplois combinés à l’intensification du travail à distance conduisent à l’éclatement des collectifs de travail, qu’il importe
de recon struire. Cet élément est particulièrement un défi pour les équipes syndicales. Enfin, les risques de surveillance accrue
des salariés inquiètent d’ores et déjà certains travailleurs, soumis à un flicage continu en temps réel : le risque est que cette
surveillance serve de base à la gestion de la performance dans l’entreprise. Le recueil et l’utilisation des données personnelles des
salariés doivent faire l’objet d’une attention particulière, notamment au regard de la protection de la vie privée.

La plateformisation est- elle une déconstruction des filières industrielles verticales au profit
de la production de biens et de services en réseau ?

Oui. Au cœur de la plateforme, la collection de données et d’al-gorithmes façonne l’intelligence du système pour répondre aux
besoins et aux attentes du consommateur, mais aussi pour prendre en compte, voire anticiper les évolutions sociétales. Dans ce
vaste réseau dématérialisé et internationalisé, l’ap-pareil productif devient un satellite dont l’agilité et la plasticité

sont recherchées pour s’adapter rapidement à la demande. La structure classique, la grande entreprise, n’est plus adaptée car
trop rigide. L’évolution du modèle d’affaires conduit à la reconfi-guration en un réseau d’entreprises interopérant pour concevoir
et proposer le produit final ainsi que le service associé. L’acteur qui capte les données stratégiques pour le modèle d’affaires est
aussi celui qui détient le
pouvoir au sein de la plateforme, soulevant de fait un problème de gouvernance. De même, pour le sous- système productif, les
enjeux majeurs sont centrés sur les capacités technologiques et d’innovation. À ce niveau, ce sont ces fonctions qui détiennent le
pouvoir et qui définissent les orien-tations stratégiques. Dans cette perspective, le dialogue social ne peut plus être l’affaire des
seuls DRH et DRS, mais doit se nourrir des problématiques métiers au sein d’un environnement complexe et en perpétuelle
transformation.

184 Le guide de l’intelligence artificielle au travail

Que pensez- vous du niveau du dialogue social face aux enjeux de l’IA ?
Le dialogue social institutionnel est globalement insuffisant pour faire face aux enjeux de la digitalisation. Dans le cadre des
consul- tations et négociations obligatoires, un positionnement syndical
sur les questions numériques est possible. Ainsi, le numérique et l’IA peuvent être appréhendés de différentes manières. En
premier lieu, les questions relatives à l’évolution quantitative (destructions et créations d’emplois) et qualitative de l’emploi
(transformation des métiers et des compétences) peuvent être abordées dans
le cadre de la consultation sur les orientations stratégiques du comité de groupe ou du CSE, qui trouve son pendant dans la négo-
ciation sur la gestion de l’emploi et des parcours professionnels.
De même, les questions relatives à la déconnexion et aux risques
psychosociaux peuvent être abordées dans le cadre de la consul- tation sur la politique sociale du CSE, et lors de la
négociation sur la qualité de vie au travail (QVT).
Aussi une réflexion sur l’impact du numérique sur les rému- nérations peut être abordée, à la fois sous l’angle des gains de
productivité (automatisation, robotisation, par exemple) et de la modification des chaînes de valeur induite par la
plateformisa- tion : ces questions trouveront naturellement leur place dans la consultation relative à la situation économique
de l’entreprise,
et dans la négociation sur les rémunérations et le partage de la valeur ajoutée.
Enfin, la consultation du CSE relative à l’introduction de nouvelles technologies peut être l’occasion de déclencher une
expertise afin d’obtenir plus d’informations. Toutefois, en dépit de ce cadre exis- tant, la digitalisation et l’IA ne sont pas au
cœur du dialogue social dans les entreprises. Les modalités actuelles du dialogue social sont globalement insuffisantes, car la
transformation digitale et
ses conséquences sont imparfaitement traitées dans les informa- tions consultations du CSE, des comités de groupe et dans
le cadre des négociations d’entreprises ou de branche. Alors que le partage
d’information constitue la base d’un diagnostic partagé entre les

partenaires sociaux, il n’est pas rare de se retrouver avec une Interviews 185

information absente ou incomplète, qui n’est pas à même de favo-riser des échanges constructifs. L’information aborde rarement
les conséquences d’un déploiement technologique en termes de conditions de travail, et encore moins en termes d’emploi.

Et dans le meilleur des cas, le dialogue social intervient dans le cadre d’une anticipation liée aux conséquences de la
numérisation, mais la décision d’investissement et la mise en œuvre ne sont pas discutées. Par ailleurs, considérant que l’activité
de production pourrait s’orienter vers, d’une part, des décisions hypercentra-lisées (plateformes connues aujourd’hui), d’autre
part, par une multitude d’écosystèmes locaux interconnectés, cela signifie que les contours de l’entreprise devraient évoluer, et il
en sera donc de même pour la place du dialogue social. Néanmoins, la taille des plateformes fait qu’elles seront de plus en plus
contraintes d’inté-grer des considérations éthiques, sociétales, donc politiques. La régulation de ces nouvelles formes
d’entreprises n’est aujourd’hui pas vraiment acquise, si ce n’est par la loi. Néanmoins les lois sont nationales, alors que les
plateformes ne connaissent pas, par essence, de frontières. La frontière entre l’économique et le politique s’efface : l’activité de
régulation doit être relayée en interne, au sein même des entreprises et des plateformes. Les enjeux soulevés par l’IA, les
données, la surveillance, la sécurité vont au- delà du champ économique.

La FGMM- CFDT a une proposition originale

qui est de conduire les transformations de l’entreprise par le design social. Pourriez- vous l’expliquer ?
Afin de développer les méthodes et outils du design social, la FGMM- CFDT a répondu à un appel à projet émis par la délégation
générale à l’Emploi et à la
Formation professionnelle (DGEFP), une administration centrale du ministère du Travail. Piloté par Alain Larose, secrétaire
général adjoint de la FGMM- CFDT, le projet déposé est financé pour moitié par le Fonds social européen. L’UIMM38 et l’Alliance
Industrie du Futur ont accepté d’en être

Patronat de la métallurgie.

186 Le guide de l’intelligence artificielle au travail

parties prenantes. Des ergonomes du Cnam interviennent pour créer la phase « Imaginer » du design social et la simulation des
transformations. Le cabinet Syndex quant à lui a la charge de l’in- génierie projet, et travaille également sur les questions relatives
à l’économie et à la stratégie industrielle. Des expérimentations doivent avoir lieu en entreprise pour mettre au point la
démarche. L’origine des réflexions de la FGMM- CFDT sur les transformations de l’industrie a commencé suite à la volonté
affichée par l’Alliance Industrie du Futur39 de « placer l’être humain au centre de l’indus- trie du futur ». Que voulait dire
concrètement cette affirmation ? Les employeurs n’avaient pour seules réponses que la formation professionnelle et la gestion
prévisionnelle des emplois et des compétences. En clair, adapter le travailleur aux transformations
et non les concevoir avec lui.

Si les entreprises continuent de conduire le changement sur le modèle enseigné par les écoles de management et appliqué
par les cabinets de conseil, le déploiement de l’industrie du futur
se déroulera dans de mauvaises conditions. En effet, plusieurs études (notamment les travaux de la Harvard Business School)
démontrent que, très majoritairement, les projets de transforma- tion des entreprises n’atteignent jamais leurs cibles. Pire
encore, il arrive fréquemment qu’ils dégradent la performance ainsi que la santé des travailleurs. Il apparaît donc nécessaire
de proposer une autre façon de conduire les transformations.
La méthode du design social procède d’une autre logique. Elle pose le préalable que toute transformation du travail mobilise
deux dimensions – stratégique et opérationnelle. La direction de l’entreprise et les organisations syndicales sont les interve-
nants légitimes sur les sujets stratégiques ; les travailleurs et le management sont eux directement concernés par les
questions
opérationnelles. En d’autres termes, la FGMM- CFDT propose de conduire le changement en articulant le dialogue social,
entre
la direction et les syndicats, avec le dialogue professionnel qui
AIF est une association qui réunit des organisations professionnelles, des

partenaires académiques, technologiques et de financement des entreprises.


Interviews
187

aborde les questions concrètes du contenu du travail et de son organisation, entre opérateurs et manageurs.

Pouvez- vous décrire précisément le design social ?

Pour cette nouvelle méthode de conduite des transformations baptisée design social, Alain Larose a identifié cinq étapes :

Comprendre : sur la base d’un état des lieux et d’un diagnostic de la situation économique, sociale, environnementale, indus-
trielle et technologique, les partenaires sociaux discutent et partagent les objectifs de transformation. C’est aussi à ce stade que
syndicats et direction doivent s’approprier la démarche de design social, à l’aide d’une formation qu’ils suivent en même temps.
Cet apprentissage commun est le moyen de mesurer
le degré de maturité des acteurs sociaux de l’entreprise pour

la mise en œuvre du design social. Si tel n’est pas le cas, cette voie sera abandonnée pour retourner aux procédures d’infor-
mations et de consultations du Code du travail.

Conduire : le cadre de la démarche est mis en place par la négociation d’un accord de design social. Il s’agit de définir le périmètre
de réalisation du projet de transformation, de formaliser les objectifs et les méthodes pour mesurer leur niveau de réalisation, les
acteurs qui seront concernés et mobilisés, le calendrier de déploiement du design social, l’ar-
ticulation avec l’information et la consultation du CSE, et enfin les moyens consacrés à la mise en œuvre de la démarche.
Imaginer : l’offre technologique est aujourd’hui suffisamment diversifiée et flexible pour que la numérisation de l’outil de
production soit conçue en prenant en compte les facteurs humains, organisationnels et la réalité du travail. Cette étape met à
contribution les travailleurs et leurs manageurs afin qu’ils imaginent plusieurs scénarios de transformation qui sont ensuite
simulés et caractérisés.
Concrétiser : la caractérisation de chacun des scénarios de

transformation permet à la direction de l’entreprise et les 188


Le guide de l’intelligence artificielle au travail
syndicats de s’accorder sur celui qui sera mis en œuvre. Les partenaires sociaux élaborent ensuite l’accompagnement
nécessaire constitué de plans d’actions, de plans de forma-tion et d’accords.

Évaluer : il s’agit à cette étape de mesurer le niveau d’ac-

complissement des objectifs du projet de transformation de l’entreprise. Les méthodes d’évaluation conçues à l’étape «
Conduire », complétées par d’autres le cas échéant au cours du déroulement de la démarche de design social, sont utili-sées
pour piloter la transformation. En fonction des résultats obtenus, le scénario pourra être ajusté et les dispositifs d’ac-
compagnement adaptés en conséquence.

Finalement, avec le design social, la FGMM- CFDT ambitionne de faire évoluer le dialogue social de l’accompagnement vers la
conduite des transformations. Elle souhaite aussi clairement
établir ce qui relève du dialogue social, du dialogue professionnel et les acteurs concernés tout en proposant une articulation
et une interaction entre ces deux constituants de la démocratie en entreprise. C’est le moyen de mettre en discussion le
projet de l’entreprise et de faire en sorte que les considérations humaines,
sociales et environnementales soient également prises en compte. Des objectifs réellement partagés et compris par la
communauté de travail concernée doivent favoriser la mobilisation nécessaire
à la réussite de la transformation.
L’IA est- elle un sujet de démocratie dans et en dehors de l’entreprise, finalement ?
Oui. L’activité de l’entreprise et ses transformations ont des conséquences qui vont au- delà des questions économiques,
concernant plus largement la société. Les décisions stratégiques de ceux qui les détiennent revêtent ainsi une dimension
politique. Elles doivent à ce titre s’inscrire dans un processus démocratique auquel l’ensemble des parties prenantes, internes et
externes, doivent participer.
Interviews 189

Dans l’entreprise, quelles sont les questions à se poser ?


À quoi sert l’entreprise ou plutôt, à qui devrait- elle servir ? La finalité des entreprises doit être questionnée. La crise sanitaire de
la Covid-19 a tristement mis en lumière en 2020 les limites de la désindustrialisation française et notre dépendance aux impor-
tations, y compris sur des productions stratégiques. En effet, les logiques d’optimisation poussée ont conduit les entreprises, avec
des motivations plus financières qu’industrielles, à rechercher les coûts d’approvisionnement les plus faibles, sans se préoccuper
des risques de rupture d’approvisionnement, de souveraineté, etc.

L’industrie de demain pourrait être l’occasion, avec ses capteurs, robots, fabrication 3D, d’utiliser concrètement l’IA pour
répondre à des besoins réels des citoyens comme la (re)localisation de certaines usines, la réduction de notre
empreinte carbone, la reconquête de certains territoires, et le soutien à l’emploi40. La question de l’IA renvoie aux finalités qui lui
sont assignées et donc aux priorités de l’entreprise qui doit agir pour le bien commun, et non dans le seul intérêt des
actionnaires. L’IA et les technologies numériques sont donc un ensemble de moyens pour lesquels il convient de définir une
finalité acceptable socialement de tous.

Cette question se pose d’autant plus que l’IA requiert des données pour lesquelles les questions de propriété ne sont pas toujours
très claires. Si une entreprise utilise des données qui relèvent du bien commun pour servir des intérêts privés, ou une surveillance
généralisée, l’acceptabilité sociale risque de s’en trouver tôt ou tard égratignée.

Certes, la loi Pacte permet des avancées puisque l’objet des sociétés n’est plus limité au seul profit des actionnaires, mais les
enjeux sont tels que c’est hélas insuffisant. En effet, compte tenu de l’importance prise par les grandes plateformes notamment,
un des modèles d’organisation de la vie économique d’aujourd’hui et

Pascal Laurin (Bosch France), « L’industrie 4.0 n’est- elle qu’une question de technologie ? », La Tribune, 28 octobre 2020.

190 Le guide de l’intelligence artificielle au travail

de demain, il est urgent de remettre plus de démocratie dans l’en- treprise. Au- delà des considérations économiques, cette
question renvoie aux enjeux sociaux et environnementaux : c’est donc un sujet éminemment politique41.
Dans les entreprises françaises, les travailleurs ont la possibi- lité d’élire leurs représentants et de choisir les organisations
syndicales qui auront la faculté de négocier des accords, choix issu de la représentativité qui est calculée au premier tour des
élections professionnelles. Le système démocratique de l’entre- prise est donc de type représentatif. Néanmoins, si les
travailleurs élisent leurs représentants, ceux- ci disposent des seules facultés d’être informés et consultés sur les choix de
l’entreprise, mais n’ont pas la capacité de les remettre en cause. Dans les faits, le gouvernement de l’entreprise est assuré
par une seule de ses parties prenantes : la direction. C’est elle qui décide des choix
stratégiques, et des options qui auront des impacts sur l’ensemble de la collectivité de travail (travail, organisation,
conditions de travail, emploi, etc.). La négociation entre partenaires sociaux de l’entreprise est alors mobilisée pour
accompagner ces projets.
À ce stade, la FGMM considère que le système démocratique de l’entreprise est incomplet.
Isabelle Ferreras42 propose justement de démocratiser le champ économique, en prônant un « bicamérisme » qui
permettrait aux travailleurs – qui investissent non en capital, mais en travail – d’avoir une voix égale à celle des actionnaires
dans la gouvernance des grandes entreprises. Doté d’autant de compétences que le
conseil d’administration, le CSE permettrait aux salariés de se positionner collectivement, à la majorité, sur les choix straté-
giques de l’entreprise, avec un droit de veto collectif sur toutes les questions traitées par le conseil d’administration, y compris la
nomination du PDG ou la répartition des profits générés par l’activité.

Pascal Demurger, L’Entreprise du e xxisiècle sera politique ou ne sera pas, Éditions de l’Aube, 2019.
Isabelle Ferreras, « La contradiction entre capitalisme et démocratie atteint un point de non- retour », Le Monde, 11 octobre
2019.
Interviews 191

Si le capitalisme est un régime de gouvernement qui alloue les droits politiques en fonction de la possession du capital, la démo-
cratie, au contraire, est fondée sur la reconnaissance de l’égalité de chacun et chacune en dignité et en droits. La logique extrac-
tive du mode de gouvernement capitaliste, dénoncée par Isabelle Ferreras, domine les salariés et épuise la planète, mettant en
concurrence les États entre eux.

Parallèlement à la proposition d’Isabelle Ferreras de donner un poids égal aux salariés par rapport aux actionnaires, il convient
aussi d’imaginer une instance au sein de laquelle seraient repré-sentées les parties prenantes externes intéressées, comme la
collectivité locale ou les ONG, en vue de recevoir des informations de la part de l’entreprise (comme le CSE aujourd’hui). Il n’est
pas anormal de considérer
qu’une entreprise implantée dans un territoire rende des comptes aux élus de celui- ci sur son activité, son impact
environnemental, etc.

Dans les écosystèmes locaux, l’IA est- elle à l’origine d’interrogations socio- environnementales ?
Le numérique échappe certes aux lieux de décisions démo-cratiques en raison de la puissance des acteurs qui le pilotent,
notamment des GAFAM, mais il offre aussi la possibilité à des citoyens ordinaires de se prendre en main, au nom d’un projet
solidaire, par exemple. Il existe d’ailleurs plusieurs exemples d’utilisation vertueuse de l’IA, qui vont dans le sens du bien commun
(lutte contre la faim, gestion des déchets, amélioration du système de santé dans des zones reculées, etc.).

Jeremy Rifkin, économiste et conseiller politique américain, célé-brait déjà le passage d’une logique de propriété à une économie
de partage entre usagers, nouveau paradigme, qui selon lui éclip-sera le capitalisme et ses valeurs43. Il montre que l’économie
du partage est en train de se développer et d’effacer la frontière

Jeremy Rifkin, L’Âge de l’accès. La Révolution de la nouvelle économie, La Découverte, 2000.

192 Le guide de l’intelligence artificielle au travail

entre le producteur et le consommateur44. Jeremy Rifkin s’en- thousiasme tout particulièrement pour les imprimantes 3D, dont
la généralisation permettra à chacun de produire ses objets
du quotidien, comme sa voiture ou sa maison. Cette produc-
tion collective intelligente serait, par ailleurs, gérée par des

« communs collaboratifs », sortes d’associations ou coopératives constituées pour l’intérêt collectif.


En outre, pour Jeremy Rifkin, le secteur de l’énergie serait le premier concerné. Les énergies renouvelables vont se
développer
comme c’est déjà le cas en Allemagne, où près d’un quart de la production d’électricité était renouvelable en 2015 – et leur
production et leur consommation seront pilotées et optimisées
par un Internet de l’énergie pour devenir abondantes et quasiment gratuites. Bien sûr, les prévisions de Jeremy Rifkin ne sont
pas partagées par tout le monde, loin de là, mais elles méritent quand même toute notre attention.
La transformation numérique pourrait ainsi « naturellement » favo- riser l’éclosion d’une pluralité d’écosystèmes locaux auto
suffisants sur les plans énergétique et agricole (fermes verticales45), par exemple. Ces écosystèmes implantés pourraient
fonctionner en économie circulaire, afin de répondre aux besoins élémentaires de leur territoire, tout en réduisant leur
impact environnemental. Ils pourraient aussi prendre en charge des productions aujourd’hui assurées par des entreprises
classiques via les imprimantes 3D,
mutualisées à l’échelle d’un territoire plus ou moins étendu.

Par ailleurs, les citoyens pourraient gérer politiquement plus directement leurs priorités éthiques, sociales et environnemen-
tales par des modalités de démocratie directe et représentative
en fonction des thématiques46. À l’échelle d’un territoire quel qu’il

Jeremy Rifkin, La Nouvelle Société du coût marginal zéro, Les Liens qui Libèrent, 2014.
Voir la vidéo diffusée par The Economist, « Under the streets of south London », en février 2021.
Voir la « démocratie liquide », qui combine des éléments de démocratie directe et indirecte, en fonction des appétences, du
temps, etc.
Interviews 193

soit, les questions environnementales gagneraient en impor-tance, car personne ne veut une antenne 5G à côté de chez soi par
exemple, ou une quelconque pollution de proximité, tandis que pour les grandes entreprises, ce rapport à l’environnement est
moins direct. Quoi qu’il en soit, le bilan environnemental de la transformation numérique est difficile à apprécier entre, d’une
part, les promesses d’optimisation, d’autre part, l’explosion de la consommation énergétique dénoncée notamment par le Shift
Project et l’épuisement des métaux rares47.

Faut- il réguler l’IA ?


Au niveau de la régulation globale du numérique, Anne- Thida Norodom observe que le contrôle de l’ordre public se trouve
partagé entre les États certes, mais aussi les plateformes numé-riques48. En cela, la transformation numérique remet également
en question les autorités étatiques et bouscule notre démocratie. En effet, d’une part, les plateformes empiètent sur certaines
prérogatives des États, d’autre part, elles parviennent à régler des problèmes collectifs grâce notamment à l’IA que les auto-rités
actuelles, elles- mêmes, ne sont pas en capacité de gérer et constituent, de ce point de vue, une ressource précieuse.

Néanmoins, les États se sont rapidement heurtés au caractère global, décentralisé et ouvert d’Internet qui s’accommode peu des
régulations nationales. Sur le plan monétaire, rappelons que les bitcoins court- circuitent les autorités étatiques. Pourtant, le «
pouvoir de battre monnaie » renvoie à l’une des prérogatives de base de tout État, de même que celui de la fiscalité… Sur ce
dernier point, Airbnb
collecte l’impôt pour le compte de plusieurs municipalités françaises et hors de France. Au- delà de la monnaie et de la fiscalité, la
technologie blockchain, en ce qu’elle permet d’éviter les tiers de confiance, défie les organisations étatiques.

Guillaume Pitron, La Guerre des métaux rares. La Face cachée de la transition énergétique et numérique, Les Liens qui Libèrent,
2018. 48. Anne- Thida Norodom,
« La galaxie Internet », Questions internationales, mai- août 2018.

194 Le guide de l’intelligence artificielle au travail

Le groupe de haut niveau de l’Union européenne sur l’IA a défini sept exigences clés en 2018, invitant à organiser une
gouvernance incluant de multiples parties prenantes, garantes du respect de
ces principes : bon pour l’humain, supervision humaine, robus- tesse, sécurité, bien- être sociétal, environnement, et redevabilité.
Au niveau européen, Aida Ponce del Castillo49 observe une proli- fération des codes de conduite et lignes directrices sur
l’éthique de l’IA (plus de 84 documents dénombrés). Rien ne permet de garantir leur adoption et leur respect par les
entreprises : ces textes, basés sur le volontariat, ne prévoient généralement aucune sanction en cas de violation. Ces
démarches relèvent
donc plus de l’« ethics washing ». Enfin, la loi européenne gagne-

rait à être mise à jour afin de garantir que les droits humains soient respectés par les systèmes d’IA (discriminations et inéga-
lités), en mettant en place, par exemple, des contrôles nationaux indépendants.

En conclusion, en dépit des freins observés, l’IA va s’imposer dans l’économie et la société. Si les entreprises peuvent être
momentanément gagnantes en remplaçant le travail par le capital, même immatériel, pour autant, au niveau collectif,
risquent de se poser des problèmes de demande solvable, mais aussi de financement de la protection sociale, de la
couverture chômage, des retraites, etc. Enfin, s’agissant des perspectives,
la société de demain pourrait avoir deux visages : l’un séduisant,
affichant les traits radieux d’un retour à une économie locale et solidaire et l’autre, grimaçant, qui serait le reflet de l’exploi-
tation la plus sauvage et de la régression sociale. À ce tableau pourraient se greffer des considérations environnementales : la
prédation économique et l’épuisement de la planète pourraient s’effacer au profit d’une consommation collaborative par le troc,
le covoiturage, un financement participatif comme le prêt entre particuliers, etc.

49. Aida Ponce del Castillo, « Le Travail à l’ère de l’IA : pourquoi la régle-

mentation est nécessaire pour protéger les travailleurs », ETUI, février 2020.
Interviews
195

La digitalisation de l’économie est une évolution profonde et structurante de la société. L’IA en est une pièce maîtresse.
Sera-

t-elle à l’origine d’un progrès pour l’humanité et la planète ou le dernier avatar du capitalisme financier ? Seul le débat démocra-
tique dans la société et l’entreprise permettra de trouver la voie de l’intérêt et du bien commun.
UN PROJET

D’INTELLIGENCE ARTIFICIELLE EST UN PROJET DE TRANSFORMATION


David Giblas

David Giblas est ingénieur et statisticien.

Il est directeur général délégué aux opérations d’assurances, à la relation client, à l’innovation

et aux partenariats santé chez Malakoff Humanis.

Stéphane Barde

Stéphane Barde est ingénieur et mathématicien. Il est directeur Data & Digital dans le groupe.

Il y a quatre ans, tous deux ont créé une direction Data

au sein de Malakoff Humanis. Cette direction se penche sur tous


les travaux de gouvernance et de visualisation des données.

Elle gère aussi le big data et l’intelligence artificielle.

Pourquoi une direction Data (données) au sein de Malakoff Humanis ?


David Giblas : L’usage de l’intelligence artificielle révolutionne tous les secteurs de l’économie, et Malakoff Humanis ne fait pas
exception. Notre direction générale a compris très tôt l’utilité d’investir dans cette technologie disruptive et de la mettre au
centre de sa transformation dans une direction Data. L’IA agit comme un levier de performance en optimisant certains traite-
ments, mais aussi comme un moyen d’améliorer la satisfaction de nos clients. Grâce à la formation de nos équipes en actuariat,
en mathématiques, en ingénierie, nous avions conscience que
cette direction Data pourrait aider le Groupe à se transformer. Un projet d’intelligence artificielle est en effet avant tout un projet
de
transformation de processus, mais dans un cadre de confiance. Interviews 197

Quels sont les piliers de ce projet de transformation ?


David Giblas : Nous avons recensé trente cas d’usage de données d’intelligence artificielle, avant la diffusion progressive d’algo-
rithmes au sein de Malakoff Humanis. Il y a quatre ans, dans le cadre de notre projet de transformation par la Data, nous avons
décidé de poser les bases d’un grand pilier concernant la gouver- nance des données, en cohérence avec le cadre protecteur du
RGPD.

Nous avons intégré les notions de « Privacy by Design » (sécurité intégrée à la conception) dans nos projets en limitant les fina-
lités d’usage et les données à caractère personnel, ainsi qu’un dispositif d’analyse de l’éthique dans un cadre de travail euro-
péen. Nous avons aujourd’hui une gouvernance interne à Malakoff Humanis en charge de l’analyse des algorithmes, qui est parti-
culièrement attentive à des sujets tels que l’éthique, le rôle de l’humain ou la protection de la vie privée.

Avez- vous un processus de certification

des algorithmes ou de choix comme l’éthique

by Design… ?

Stéphane Barde : L’idée d’éthique by Design consiste à intégrer des valeurs et des principes humains dès la conception des outils
technologiques. Cela se traduit par une réflexion déontologique, qui se concrétise ensuite techniquement.

Mais chez Malakoff Humanis, nous avons choisi un processus de choix des algorithmes à partir d’un vivier de cas d’usage, en
amont d’un processus de suivi de production. Notre Data Protection Officer rencontre tous les mois nos
professionnels en matière de protection des données à caractère personnel, de sécurité de l’information, de gestion des risques,
de finalité de traitement… Il est essentiel d’associer les collaborateurs lorsqu’on met de l’IA dans les processus. C’est l’un des
facteurs de réussite de tout projet de transformation.

198 Le guide de l’intelligence artificielle au travail

Dans quels cas utilisez- vous l’intelligence artificielle


au sein de Malakoff Humanis ?

Stéphane Barde : Transformer les processus de l’entreprise demande beaucoup d’énergie ! Notre objectif consiste à faciliter
le travail des collaborateurs en leur apportant des éléments de décision ou en automatisant des tâches répétitives. Par
exemple, lorsque Malakoff Humanis reçoit des factures de ses fournisseurs, vérifier si le bon de commande est bien présent
dans chaque facture est une opération fastidieuse. Pour l’IA, cette opéra-
tion peut être très rapide. En outre, elle permettrait de réduire les temps de traitement et réduire les risques d’erreurs. Autre
exemple, Malakoff Humanis reçoit des documents de la part des assurés tels que des demandes de prise en charge, et pour
certains, des algorithmes en extraient les données. Sans IA, il
faudrait recopier à la main les informations pour chacune de ces demandes. Troisième exemple enfin, pour lutter contre la
fraude, l’IA est très performante, l’algorithme fait une présélection des dossiers litigieux, qui sont ensuite instruits par des
collaborateurs dont l’expertise est alors précieuse.

Comment les collaborateurs appréhendent- ils


ces nouveaux outils ?

David Giblas : Les collaborateurs sont d’autant plus acteurs d’un projet de transformation qu’ils y sont associés. En début de
projet, il y a toujours des questionnements sur le fonction- nement et l’apport de l’IA, puis une fois ces étapes franchies, l’intérêt
pour ces approches est rapidement validé. L’algorithme
ne prend jamais une décision à la place de l’humain. Lorsque nous concevons un algorithme, les premières versions de ce dernier
sont très perfectibles. Nous l’accompagnons par le savoir- faire
de nos collaborateurs : leur décision est éclairée par l’IA, et ce sont eux qui améliorent l’IA pour être in fine plus efficaces et se
concentrer sur des tâches à plus grande valeur ajoutée. Les
collaborateurs sont extrêmement intéressés et satisfaits par cette nouvelle forme de travail. Leur retour est unanime.
Interviews 199

Estimez- vous aujourd’hui qu’une IA peut remplacer l’humain dans votre secteur d’activité ?
Stéphane Barde : Non. Il y a une représentation de l’IA qui dépasse parfois la réalité. De manière générale, l’IA est encore loin de
reproduire des raisonnements sophistiqués ; elle assure plutôt des tâches assez rudimentaires qui permettent
néanmoins de garantir une prestation de qualité. N’oublions pas que l’intel-ligence artificielle demande beaucoup de données
pour être performante.

Nous utilisons une intelligence artificielle très ciblée pour faire des choses simples, des micro- tâches, tout à fait basique
comparée à l’intelligence humaine. Ce qui est important, c’est d’avoir des compétences pour maîtriser cette technologie.

L’IA libère- t-elle du temps chez les salariés ?

David Giblas : Oui, l’IA a libéré du temps dans les tâches les plus fastidieuses. Grâce au temps libéré, les collaborateurs peuvent
ainsi réinvestir dans une relation plus qualitative avec les four-nisseurs, consacrer plus de temps à des tâches à valeur ajoutée,
par exemple. Il faut comprendre qu’en le dégageant des tâches fastidieuses qui peuvent être traitées par l’IA, le collaborateur
voit l’intérêt de son travail se renforcer.

Y a- t-il eu des discussions sur le temps libéré ou l’intensification du travail ?


David Giblas : Chaque métier comporte des tâches fastidieuses. Identifier ces
tâches suppose une compétence technique. En matière d’achats, par exemple, il est pertinent de discuter avec les acheteurs pour
identifier ces tâches.

L’objectif c’est d’optimiser le temps de travail lié à ces activités fastidieuses pour le réorienter vers un travail plus qualitatif.

200 Le guide de l’intelligence artificielle au travail

Quel investissement prévoyez- vous pour l’IA ?

David Giblas : Un investissement important. L’élaboration d’un


algorithme prend deux mois, la transformation du processus associé… un an et demi à deux ans. La collecte des données et la
conception d’un algorithme représentent 30 % du temps, du budget, de l’énergie de la transformation. Les 70 % du temps
restant sont liés à la transformation du métier.
Quand on s’engage sur des projets de ce style- là, c’est coûteux. L’algorithme bouscule les idées préconçues. Au début, cela
nécessite de comprendre le besoin du métier pour collecter les données nécessaires à la création de l’algorithme. S’ensuit
une phase de rodage et d’adaptation de l’algorithme, dont les colla- borateurs peuvent ne pas valider les conclusions.
Lorsque les collaborateurs ne valident pas les prédictions ou sélections des algorithmes, nous devons en décortiquer les
raisons. Il faut avoir un bon niveau de compétences pour confirmer le résultat de l’al- gorithme, car progressivement, on
tombe sur des cas de plus en plus complexes.
Quand on pose un algorithme dans un métier, il faut continuer à s’occuper de celui- ci et cela requiert un niveau d’expertise
senior dans les métiers sur ces projets. Nous devons identifier les compétences internes pour le suivre. Or, celles- ci n’ont pas
toujours le temps nécessaire. Dans ce cas, nous devons identifier les sujets sur lesquels elles doivent se focaliser. L’algorithme
leur permet d’apprendre sur leur métier, car il sort des cas qu’il était impossible de voir auparavant. C’est une boucle
d’amélioration continue.

Et du point de vue des métiers ?

Stéphane Barde : De nouvelles activités apparaissent dans les métiers et d’autres se développent ; cela est rendu possible grâce
au temps dégagé par le traitement automatique de tâches simples par l’IA. L’IA intervient sur 1 % de la palette d’activités d’un
colla- borateur. On ne peut pas dire qu’il y ait un remplacement massif des activités.
Interviews 201

L’impact de l’IA sur l’emploi est très difficile à mesurer. Dans le Groupe, l’IA ne génère pas de suppressions d’emplois. Au
contraire, l’IA crée de nouveaux métiers. On trouve des personnes sensibilisées à la qualité des données, des personnes qui ont
des compétences sur l’enrichissement et l’entretien du patrimoine des données. Les collaborateurs qui produisent les données
sont ceux qui les traitent et leurs compétences sont importantes autant que précieuses.
Peut- il y avoir des biais dans vos algorithmes ? Certaines assurances peuvent, grâce à des algorithmes, choisir des clients qui ont
le moins de risques…
David Giblas : Nous sommes un groupe de protection sociale à but non lucratif, nous ne faisons pas de sélection médicale.

Y a- t-il un risque de biais ?

Stéphane Barde : D’un point de vue général, il peut y avoir des biais dans les données historiques, l’algorithme peut alors en être
un amplificateur. Nous avons de la chance de ne pas avoir de cas d’usages qui nous exposeraient à ce type de problématique,
pour l’instant. Nous analysons systématiquement les données, pour voir les potentiels biais : par exemple, des
surreprésentations, selon l’âge ou le sexe… Nous comparons toujours ce que fait l’al-gorithme à un échantillon témoin, utilisé
comme garde- fou. Par ailleurs, nous raisonnons sur des données anonymisées, c’est- à-dire sans les données à caractère
personnel, pour limiter les possibilités de biais.

Quelles sont l’explicabilité et l’interprétabilité de vos algorithmes ?


Stéphane Barde : Il y a un mythe de l’algorithme qui décide seul. Un algorithme ne prend pas de décision, ce qui est intéressant,
202
Le guide de l’intelligence artificielle au travail

c’est de comprendre sa « recommandation ». Nous faisons souvent de la composition de plusieurs algorithmes, ce qui veut dire
qu’on
fait une moyenne entre eux. L’explicabilité n’est pas toujours si facile. Nous utilisons du machine learning, très peu d’«
apprentis- sage profond », une famille d’algorithmes moins « explicables ». Nous faisons donc un choix technique qui permet
une meilleure explicabilité.
Dans nos processus augmentés avec de l’IA, ce sont les humains qui prennent les décisions. Il n’y a pas de décisions
automatiques issues de nos algorithmes. Nous veillons bien à ce que les colla- borateurs challengent les algorithmes dans la
durée, notamment dans nos comités de pilotage mensuels. En faisant appel à l’ex- pertise des collaborateurs, l’IA est plus une
opportunité qu’une menace.
Postface

L’introduction d’une technologie comme celle de l’intelligence artifi- cielle, permise par une évolution numérique rapide et sans
précédent,
a

des impacts profonds sur les citoyens et les travailleurs, et nécessite une

gouvernance qui doit associer tous les acteurs de la société civile.


Pour

la CFDT, ces changements ne doivent laisser personne sur le bord de la

route.

La CFDT mesure les opportunités que cette technologie offre, sans en sous- estimer les risques. Des opportunités dans de
nombreux
domaines

– médical, celui des transports ou de l’agriculture –, qui peuvent contri-


buer à sauver des vies, réduire les émissions de gaz à effet de serre, optimiser la consommation des ressources, créer de
nouveaux
emplois,

pour n’en citer que quelques- unes…


Dans l’organisation du travail, l’essor du télétravail pendant la crise sanitaire

a offert des opportunités de souplesse auxquelles beaucoup de travailleurs

sont désormais attachés.

Des risques néanmoins, tels la destruction et le changement rapide des

emplois, la perte de savoir- faire professionnel, la précarisation des emplois


et la perte des protections sociales, des inégalités… Ces changements nécessitent de nouvelles compétences et qualifications, de
l’anticipation, de l’accompagnement et de la formation. Les impacts
sur les conditions

de travail, l’intensification du travail, la relation homme- machine doivent

être discutés et régulés.

Cette technologie pose des défis sociétaux et éthiques inédits : la protec-

tion de la vie privée et celle de la dignité humaine, la place de l’humain


dans la décision face à la machine, la question des discriminations. Elle pose aussi des enjeux pour nos démocraties.

Dans les lieux de travail, nous avons des outils en Europe et en France,
comme ce guide le souligne et nous devons les utiliser. Des législa- tions françaises et européennes prévoient que l’introduction
de
nouvelles 204 Le guide de l’intelligence artificielle au travail

technologies doit donner lieu à une information- consultation des repré-

sentants des travailleurs.

Le dialogue social, professionnel et sociétal doit permettre d’interroger la

finalité et le fonctionnement des systèmes d’intelligence artificielle, pour

choisir ceux qui sont bons pour l’humain et pour nos sociétés et éviter,

voire interdire, ceux qui sont néfastes.

Comme le recommande ce livre, l’humain doit rester maître de la déci-


sion. Voulons- nous confier à une machine la possibilité de décider du

recrutement d’un travailleur ou de son évolution professionnelle ou de

l’octroi d’un prêt à un citoyen, sur la base d’algorithmes opaques ? Je pense

que l’humain doit garder la main. Dans les entreprises et les administra-

tions, les DRH doivent pouvoir s’opposer à une décision des algorithmes

et avoir le dernier mot sur ceux- ci. Les cadres et les managers doivent être

associés et formés sur l’IA, tous comme les syndicalistes et les travailleurs.

Je salue ce livre qui participe à la prise de conscience, met en évidence

les enjeux à l’œuvre, et offre des outils et témoignages précieux pour questionner cette technologie et poser les organisations
syndicales et les individus comme acteurs de ces évolutions et des orientations qui s’imposent.

Des syndicats aux États- Unis se créent dans les entreprises de la « tech » sur
des enjeux éthiques et sur la finalité de l’entreprise qui affiche des valeurs

pour lesquelles ils l’ont choisie et qu’elle ne respecte plus. En France et en

Europe, les syndicats ainsi que d’autres acteurs de la société civile seront

attendus sur ces défis. La CFDT est prête à les relever !

Laurent Berger

Secrétaire général de la CFDT


Remerciements

Mes remerciements vont à la CFDT Cadres, et en particulier à Laurent Mahieu pour sa confiance et à Jérôme Chemin pour son
soutien. Je remercie chaleureusement tous les acteurs du terrain qui ont
contribué à

ce livre par leurs témoignages et ont soulevé les questions que l’IA pose

dans leurs réalités de travail.


Merci d’avoir choisi ce livre Eyrolles. Nous espérons que sa lecture vous a été utile et vous aidera pour mener à bien vos
projets.

Nous serions ravis de rester en contact avec vous et de pouvoir vous proposer d’autres idées de livres
à découvrir, des nouveautés, des conseils ou des événements avec nos auteurs.

Intéressé(e) ? Inscrivez-vous à notre lettre d’information.

Pour cela, rendez-vous à l’adresse

[Link]/newsletter ou flashez ce QR code (votre adresse électronique sera à l’usage unique des éditions Eyrolles
pour vous envoyer
les informations demandées) :
Vous êtes présent(e) sur les réseaux sociaux ? Rejoignez-nous pour suivre d’encore plus près nos actualités :

Eyrolles Business et Eyrolles Web Dev et Web Design

Eyrolles Business

Eyrolles Business

Merci pour votre confiance.

L’équipe Eyrolles.

Vous aimerez peut-être aussi