2le Guide de L'intelligence Arti - Salis-Madinier, Franca
2le Guide de L'intelligence Arti - Salis-Madinier, Franca
La question n’est plus d’être pour ou contre l’IA, la question est de savoir
des stratégies intégrant l’IA comme facteur d’innovation pour les clients
comment les organisations vont- elles former et impliquer les salariés pour
gique, son esprit critique pour remettre en cause, par exemple, un GPS
Cet ouvrage est à la fois un baromètre et une boussole. Il permet de cartographier les évolutions internationales au sujet des
usages mais
aussi
l’ouvrage.
qui permettent à des machines de réaliser des tâches. Si on prend l’angle des
Quel que soit le métier exercé, l’IA aura un impact. Aussi, une nouvelle
participer les salariés à l’évolution de leur métier avec l’IA. Par exemple,
il s’agira aussi bien de faire prendre conscience des risques de l’IA liés
aux biais de data ou aux cyberattaques, qui peuvent piller des données de
l’IA peut gérer des entrées d’e-mails et les répartir aux bons interlocuteurs
naires sociaux, à la transformation des métiers avec l’IA, c’est réfléchir aux
tâches qui pourront être réalisées par l’IA, celles où elle pourra assister
Nombreux sont les secteurs d’activité qui innovent avec de l’IA (la méde-
cine, l’industrie, les services, les RH, etc.). Les opportunités sont liées aux
nouveaux usages porteurs de progrès, mais les dérives et les dangers sont
Avoir des valeurs pour prendre des décisions constitue le socle pour instaurer des axes éthiques. En complément des initiatives
internatio- nales et au niveau des États, on peut citer l’Unesco1 qui a créé le
premier
1. Unesco, « L’Unesco franchit une étape majeure vers le premier instrument normatif mondial sur l’éthique de l’intelligence
artificielle », 17 septembre 2020.
Cécile Dejoux
Professeure des universités au Cnam, affiliée à l’ESCP Europe, conférencière, directrice du Learning Lab Human Change, Cnam
Introduction
e-mails, des foires aux questions, ou des rappels à date inconnue au lieu
d’ingénieurs et de techniciens.
Comme évoqué par Cécile Dejoux dans la préface, si l’on définit l’IA au regard de ses usages, elle est une technologie numérique
qui peut accomplir des tâches cognitives humaines dans les domaines de la
parole
nécessaire et qu’un dialogue doit s’engager sur ces sujets aux conséquences
syndicat, car l’IA regroupe des technologies que les travailleurs côtoient au
D’autre part, l’IA crée des attentes par rapport aux droits des salariés dans la gestion des ressources humaines et des droits des
citoyens
dans les
pas être l’objet d’une décision prise exclusivement par un algorithme (par
exemple, la décision de ne pas être recruté ou celle de se voir refuser un crédit bancaire), le droit à l’oubli, le droit à l’explicabilité
des déci- sions prises par la machine… À la base de l’intelligence artificielle,
c’est
de le tracer !
C’est pour faire face à cette complexité et à cette opacité des systèmes
d’intelligence artificielle, pour en éviter les errances, pour créer une confiance bénéfique aux citoyens, que l’Europe, premier
continent
dans
et équilibré, qui évite les écueils des scénarios catastrophe ou d’une rela-
de l’intelligence artificielle
Si l’intelligence artificielle est source d’espoir de nouveaux gains de productivité dans les entreprises et de réduction des tâches
pénibles ou fastidieuses, d’opportunités dans les domaines
médical,
d’intensification du travail et de contrôle des personnes. Il est nécessaire qu’elle soit sérieusement encadrée sur le plan sociétal
pour protéger les droits humains.
1
En cinq ans, le marché mondial de l’intelligence artificielle a été multi- plié par dix1. Peu avant la pandémie, une enquête intitulée
« Win
with
empathy », menée par Mercer en mars 2020 auprès de plus de 7 300 respon-
de l’autre côté du globe. Le principe « the biggest takes the all » (traduisez « le plus gros remporte toute la mise ») implique que
ces sociétés bénéficient
Ces efforts sont déployés dans un contexte où la France et, au- delà, l’Europe, tentent de rattraper leur retard vis- à-vis de leurs
concurrents
données, depuis plus d’une décennie, via les géants Amazon, Google et
autres Facebook ou Huawei et qui investissent massivement. Certes, les investissements européens dans le domaine de
l’intelligence artificielle
Toutefois, grâce aux programmes Digital Europe et Horizon Europe, la Commission européenne prévoit d’investir 1 milliard
d’euros par an
dans
la sécurité des citoyens et de rendre les villes sûres, une surveillance des
américaines3.
Benjamin Ferran, « Prism : Apple, Microsoft et Facebook se confessent timide- ment », Le Figaro, 17 juin 2013.
York Times a écrit que, depuis 2010, la NSA avait réalisé des profilages
il a signalé que les connexions entre chaque personne et ses contacts pouvaient être visualisées sous forme de cartes5.
lière allemande Angela Merkel, de 2012 à 2014, avec l’aide des services
York Times et le Guardian ont révélé que des informations sur 87 millions
d’utilisateurs de Facebook avaient été vendues à des politiciens pour cibler leurs efforts de campagne. L’un des lanceurs d’alerte,
Christopher
crucial » dans le Brexit, bien que la firme ait assuré en 2015 avoir détruit
désinformation, tout comme les effets néfastes sur les adolescents utili-
contenus.
Jacob Appelbaum, Nikolaus Blome, Hubert Gude et al., « Embassy Espionage: The NSA’s Secret Spy Hub in Berlin », Der Spiegel,
26 octobre 2013. 10. Arjun Kharpal, « Facebook and Cambridge Analytica whistleblower: Donald Trump’s election made me speak
out », CNBC, 27 mars 2018.
Durant l’été 2021, le logiciel Pegasus défraye la chronique. Ce logiciel a utilisé la technologie numérique et l’IA pour pirater des
données de
divers chefs d’État, dont le président de la République en France, d’op-posants politiques et de journalistes. Développé par une
société israélienne
du nom de NSO Group, il permet de surveiller les communications de smartphones Android ou iOS. Il peut lire les messages,
écouter les
conversations et les appels, les enregistrer… Bref, il permet de prendre possession des téléphones portables qu’il cible comme s’il
en était le
Encore une fois, l’usage non encadré de l’intelligence artificielle peut avoir
des conséquences qui nous rendent vulnérables au contrôle et susceptibles de subir des cyberattaques ou des piratages.
L’utilisation de ces logiciels
espions, fréquente et surtout dangereuse, dans les pays gouvernés par des régimes autoritaires, n’est pas sans poser des
problèmes de fond qui doivent
La concurrence est rude. Dans l’industrie, un million d’e-mails ont été capturés illégalement dans les messageries d’Alstom par les
États-
Unis
boration avec le « Department of Justice » américain, à General Electric de prendre à la France un actif fondamental en matière
d’énergie et de
l’automobile, l’énergie, le nucléaire ou encore l’aérospatial. À elles seules, les voitures récoltent de plus en plus d’informations
sur leurs conducteurs.
McKinsey valorise ces dernières à 750 millions de dollars d’ici 203012. Dans la défense, Thales et Atos viennent de fonder une
société
commune,
11. Frédéric Pierucci et Matthieu Aron, Le Piège américain, JC Lattès, 2019. 12. McKinsey, « Monetizing car data: New service
business opportunities to create new customer benefits », septembre 2016.
Athea, qui développera une plateforme dédiée à ce domaine pour le renseignement et la sécurité intérieure.
En Europe, les données personnelles sont considérées comme une propriété intrinsèque de la personne (droit de la personne).
Aux
États-
Unis, elles sont vues plutôt sous l’angle de la propriété matérielle et
(droit de la propriété). Depuis dix ans, on entend dire que ces données
ont une valeur marchande, mais quel est leur prix ? Pour répondre à cette
des données sensibles ou non sensibles, en passant par les données communicables au public ou les données confidentielles. Nos
données
est près de trois fois supérieure à celle des entreprises du CAC 40.
L’exploitation de ces données prodigue un pouvoir sur nos vies, nos goûts, nos orientations et sur l’utilisation de notre temps de «
cerveau disponible » :
Google est probablement celui qui en sait le plus sur nous tous. Il est
vidéos. Il connaît les sites que nous consultons, grâce à Chrome. Il trace nos déplacements au travers des applications Android,
Google
Maps ou Waze, peut analyser nos e-mails, via Gmail, notre agenda ou
nos documents de travail grâce à Google Docs. Il peut aussi connaître
tait pas certains des principes clés du droit européen sur les données
ou Facebook).
nos livres. Il scrute nos contenus préférés via Prime Video. Avec son
Même s’il est plus aisé de vendre des données personnelles de prospects et clients qui peuvent être directement étudiées et
utilisées pour des
Le Règlement européen sur la protection des données (RGPD) a ouvert la voie à la vente pour chaque internaute européen de ses
propres données
L’achat ou la revente de données se font sur le « dark web », où l’on peut acheter aussi bien les coordonnées d’une carte
bancaire que celles d’un
environ 840 euros. Dans l’annonce, le hacker affirmait posséder le nom, l’âge, le numéro de téléphone, le nom des anciens
employeurs, l’adresse
e-mail de 1,2 million d’entrées. Cette annonce a été contestée par Pôle
jour suivant.
Capgemini réalisé en 2010, indiquant que Huawei avait pu écouter les lignes mobiles de l’opérateur néerlandais KPN, dont celle
du Premier
ministre. Huawei et ZTE, les leaders chinois des télécommunications,
États- Unis centrées sur les risques que leurs équipements pourraient faire
raient leurs données vers les États- Unis, grâce aux accords des utilisateurs,
concernant les conditions générales d’utilisation d’un service. Elles y voyaient une base légale suffisante pour faire passer ces
données
Outre-
cloud » qui n’a pas pour vocation de créer un concurrent capable de riva-
de ces services : Orange, Deutsche Telekom, Bosch, Siemens, Atos, OVHcloud, Scaleway13, BMW…
Ces conditions visent à favoriser les prestataires européens. Mais les géants
américains pourront probablement les remplir et figurer dans le cata- logue d’offres Gaia-X. D’ailleurs, Amazon participe aux
discussions sur le label. Tout comme Google. « Nous apportons notre expertise sur
les
le groupe qui, à l’instar d’Amazon, dit laisser le choix à ses clients en cas
de requête extraterritoriale.
Le fonctionnement de l’IA
13. Filiale cloud d’Iliad, fondée par Xavier Niel, actionnaire à titre individuel du
Monde.
le respect des droits de l’Homme. Elle s’était inspirée des préconisa- tions européennes pour émettre des recommandations qui
ont fourni le premier standard international et intergouvernemental des politiques d’intelligence artificielle ratifiées par ces 50
gouvernements.
Que faire si les droits de l’Homme, la démocratie et l’État de droit ne nous protégeaient pas suffisamment ?
En raison du caractère invasif de certaines applications ou utilisations de l’intelligence artificielle, il pourrait y avoir à l’avenir
des situations dans lesquelles notre cadre actuel des droits de l’Homme, de démo- cratie et d’État de droit ne nous
protégerait plus de manière adéquate. Nous devrions peut- être faire une pause pour réfléchir et trouver la réponse
appropriée à ce que l’on pourrait considérer comme la « ques-
tion zéro » : voulons- nous autoriser un système d’intelligence artificielle ou une utilisation particulière de l’Intelligence
artificielle et si oui, dans quelles conditions ?
La réponse à cette question devrait nous obliger à examiner le système ou l’utilisation de l’intelligence artificielle sous tous
les angles, dans tous les lieux (que cela soit dans les lieux de travail, dans l’administration, ou dans l’espace public) ce qui
pourrait déboucher sur plusieurs « solutions » :
un système d’intelligence artificielle ou une utilisation particulière
un système ou un usage particulier de l’intelligence artificielle pour- raient être soumis à un contrôle démocratique spécifique ;
les propriétaires privés de systèmes d’intelligence artificielle puis-
sants seraient tenus d’aligner leurs structures de développement et de gouvernance de l’intelligence artificielle sur les intérêts
des personnes concernées par ces systèmes (comme les travailleurs, les consommateurs, les clients, les citoyens, les décideurs
politiques).
Le lieu d’hébergement des données manipulées par l’intelligence artifi-cielle est dans le collimateur de Bruxelles. Le 16 juillet
2020, le bouclier
de protection des données Union européenne/États- Unis, dit « Privacy Shield » (« bouclier de données »), qui permettait le
transfert de données personnelles des habitants de l’Union européenne vers les États- Unis en conformité avec le RGPD, a été
invalidé par la Cour de Justice de
avec les États- Unis, semant la perplexité dans de nombreuses entreprises européennes travaillant avec des pays tiers, car les Cnil
peuvent suspendre ou mettre fin à ces transferts de leur propre initiative ou suite à la plainte d’un citoyen. De son côté,
l’association None Of Your Business (NOYB),
domiciliée à Vienne, a choisi, au mois d’août 2020, de privilégier une interprétation « radicale » de cet arrêt Schrems II en
considérant que le simple fait de travailler avec un acteur économique américain était, en soi, un non- respect de ce texte. Elle a
déposé une plainte
à l’encontre de
irlandaise pour la protection des données (DPC), à reprendre une enquête qui pourrait aboutir à une interdiction des transferts
de données de Facebook en Europe vers les États- Unis. Cette décision est d’autant plus intéressante que l’Irlande tire un profit
certain de son régime de taxation des sociétés qui
pouvait porter une suspicion de violation du RGPD devant une juridiction d’un État membre, même si cette autorité n’était pas
chef de file.
En janvier 2021, le Conseil de l’Europe de Strasbourg, dans le cadre de la convention 108 sur la protection des données, a adressé
des
lignes
réclamé des règles strictes pour éviter que l’intelligence artificielle ait un
impact important sur notre vie privée et que des données de reconnais-
l’étude des « biais algorithmiques » avait surtout été dominée par des voix et des cas anglo- saxons. En matière de justice, de
recrutement, de crédit, de reconnaissance faciale, les polémiques les plus tonitruantes, venues des États- Unis, ont ruisselé sur le
monde entier.
La suspension de l’algorithme de recrutement d’Amazon en 2015 a permis de vulgariser la manière dont les biais issus des
données pouvaient advenir
en matière d’intelligence artificielle. Entraîné sur des centaines de milliers de CV adressés à Amazon durant dix ans, l’algorithme
de recrutement d’Amazon avait attribué des notes de 1 à 5 étoiles aux candidats à l’em-bauche, mais il s’était révélé incapable de
sélectionner les meilleurs CV et les
profils de femmes qualifiées. Son choix se portait plutôt vers des candidats hommes sous- qualifiés et défavorisait les CV
contenant les mots « women », y compris « women’s chess club captain ». La
qualité des données d’entraînement de cet algorithme avait donc été mise en cause, avec un fort retentissement.
En 2018, Amazon a donc mis fin à un projet de recrutement sur Internet à cause des biais de celui- ci. L’intelligence artificielle de
recrutement d’Amazon favorisait les hommes par rapport aux femmes, car elle était formée à partir de profils d’employés
d’Amazon qui avaient réussi et
qui se trouvaient être des hommes. Le système n’avait pas simplement éliminé les femmes, il avait examiné les caractéristiques
des employés qui réussissaient, à travers leurs formulations et phrasés typiques, et avait éliminé les CV qui ne présentaient pas
ces caractéristiques. Le problème de ces systèmes réside dans le fait que, même s’ils excellent
à identifier des modèles, par exemple des phrases typiques utilisées par les employés qui réussissent, ils ne comprennent pas la
signification de ces phrases, et sont incapables de comprendre le sens de la réussite,
ou même de saisir ce qu’est un employé. Ils ne peuvent que fournir une étiquette à un modèle spécifique.
28 Le contexte international et les enjeux de l’intelligence artificielle
Plus récemment, aux États- Unis, trois seniors américains de centres d’ap-
abouti à les discriminer du fait de leur âge. Ils ont porté plainte contre
Facebook, Cox Communications, Amazon, T Mobile… sur le conseil du syndicat de salariés Communications Workers of America
(CWA).
candidats au recrutement.
L’algorithme IBM : une vision étroite du monde dans la représentation de la diversité des visages
L’ensemble de données « Diversity in Faces » (DiF) d’IBM a été créé en réponse aux critiques qui avaient montré que les logiciels
de reconnais- sance faciale de la société ne reconnaissaient souvent tout simplement
pas les visages des personnes à la peau plus foncée. IBM a promis publi- quement d’améliorer ses ensembles de données de
reconnaissance faciale pour les rendre plus « représentatifs » et a publié l’ensemble
des données DiF en conséquence. Mais même après toutes ces tenta- tives d’élargissement des modes de classification des
personnes, l’ensemble DiF repose toujours sur une classification binaire pour le
sexe : les personnes ne peuvent être étiquetées que comme « homme » ou « femme ». Atteindre la parité entre les différentes
catégories n’est pas la même chose que d’atteindre la diversité ou l’équité, et la construction
et l’analyse des données d’IBM perpétuent un ensemble de classifications nuisibles dans une vision étroite du monde.
dévoiler le code de l’algorithme considéré comme si celui- ci était un secret industriel à protéger.
d’expliquer sa décision et si tel n’est pas le cas, qu’il soit audité et réponde
Dans un jugement du 31 décembre 2020, la section travail du tribunal de Bologne, saisie par trois syndicats affiliés à la CGIL, a
estimé que l’al- gorithme utilisé jusqu’en novembre 2020 par la plateforme de livraison
de repas Deliveroo n’était pas neutre. Selon ce jugement, le système de réservation par les riders des tranches horaires de travail
qui donnait la priorité aux livreurs les mieux notés, était « aveugle », puisqu’il ne tenait pas compte des motivations d’absence,
pénalisant en particulier ceux qui adhéraient à une grève. Deliveroo a été condamné à verser aux syndicats 50 000 euros (mais
pas à changer l’algorithme).
Enfin, parallèlement, un travail d’élaboration de « normes fondamen- tales » des algorithmes et des systèmes a débuté au niveau
international
Partie II
L’Union européenne vise une intelligence artificielle de qualité et « éthique » qui respecte ses valeurs fondamentales
et les droits humains. À ce titre, elle joue un rôle moteur sur la scène mondiale. Elle a été la première au monde
à établir un cadre juridique global pour le développement, le déploiement et l’utilisation responsable et éthique
de l’intelligence artificielle. Exiger une « éthique » de l’intelligence
artificielle signifie questionner les systèmes d’IA sur le respect des droits fondamentaux européens : le respect de la vie
privée,
celui du droit à la dignité, du droit à l’égalité, du droit à ne pas subir de discriminations…
5
L’Europe ne veut ni laisser de puissantes entreprises technologiques comme les GAFAM livrées à elles- mêmes comme aux États-
Unis, ni suivre l’exemple de la Chine, qui exploite l’intelligence artificielle pour créer un État de surveillance et de notation sociale.
Au lieu de cela, elle souhaite une approche « centrée sur l’humain » qui stimule la
tech-
nologie tout en l’empêchant d’attenter à la vie privée de ses citoyens. Dès 2018, un groupe d’experts, qui a associé des membres
du
Comité
économique et social européen (CESE), au sein de la Commission européenne, a demandé que les organismes publics des pays
européens
lequel elle a prôné une approche axée sur la régulation et l’investis- sement. Elle y a fait la promotion de l’intelligence artificielle
tout
en soulignant les risques associés. Dans des domaines tels la santé, les
ficielle sont jugés « à haut risque », elle a prévu que les systèmes devront
« être transparents, traçables et garantir un contrôle humain ». Parmi les usages de l’IA, elle a distingué ceux qui ont des « effets
juridiques
» 34 Régulation de l’intelligence artificielle : l’Europe moteur entre la Chine et les États- Unis
Les sept exigences européennes pour une intelligence artificielle digne de confiance
une ia contrôlée Par l’humain
restreindre ou dévoyer l’autonomie humaine. L’humain doit garder la main sur les décisions.
robustes pour gérer les erreurs ou les incohérences au long du cycle de vie
Finlande, après que les hackers ont publié sur le « dark web » les premiers
36 Régulation de l’intelligence artificielle : l’Europe moteur entre la Chine et les États- Unis
une ia transParente
La traçabilité et l’explicabilité des systèmes d’IA doivent être assurées tout au long du cycle de vie des systèmes, depuis leur
conception
jusqu’à
classification, la détection et la prédiction de l’origine ethnique et du sexe Les sept exigences européennes pour une intelligence
artificielle digne de confiance37
doit être réévaluée de toute urgence. Les systèmes qui utilisent l’apparence
« The Ethics of artificial intelligence: issues and initiatives » : « Les États et les
qui se pose autour de l’intelligence artificielle est celle des inégalités, qui
artificielle. »
Systèmes discriminants1
L’IA est- elle un miroir de notre société ? Une étude intitulée « Genre, appartenance ethnique et pouvoir dans l’IA » de l’Institut
AI Now de l’uni- versité de New York datant de 2019 établit un problème persistant de discrimination fondée sur le genre et
l’appartenance ethnique (parmi d’autres attributs et formes d’identité) des systèmes d’intelligence arti- ficielle. Selon cette étude,
les technologies de reconnaissance d’images catégorisent mal les visages des noirs et les algorithmes utilisés par la justice dans le
système pénal sont discriminatoires à l’égard des accusés noirs.
Les chatbots adoptent facilement un langage raciste et misogyne lors- qu’ils sont formés au discours en ligne et le système de
reconnaissance faciale d’Uber ne fonctionne pas pour les conducteurs trans. Dans la plupart des cas, ces préjugés reflètent et
reproduisent les structures d’inégalité existantes dans la société.
Une charte éthique européenne pour l’utilisation de l’intelligence artificielle dans la sphère judiciaire
Une charte éthique européenne d’utilisation de l’intelligence artificielle
dans les systèmes judiciaires et leur environnement a été adoptée en 2018 au sein du Conseil de l’Europe par la Commission
européenne pour
l’efficacité de la justice.
à améliorer l’efficacité et la qualité de la justice, et mérite d’être encou-ragée. Elle doit toutefois se mettre en pratique de
manière responsable,
dans le respect des droits fondamentaux des individus énoncés par la Convention européenne des droits de l’homme et par la
Convention
pour la protection des données à caractère personnel, ainsi que des autres principes fondamentaux énoncés ci- après, qui
devraient orienter la défi-
40 Régulation de l’intelligence artificielle : l’Europe moteur entre la Chine et les États- Unis
et des données intangibles avec des modèles conçus d’une manière multidisciplinaire, dans un environnement technologique
sécurisé ;
la transparence, la neutralité et l’intégrité intellectuelle : rendre acces-
la maîtrise par l’utilisateur : bannir une approche prescriptive et permettre à l’usager d’être un acteur éclairé et maître de ses
choix.
8
la Commission européenne a présenté, le 21 avril 2021, une « Proposition de règlement du Parlement européen et du Conseil
établissant des règles
harmonisées concernant l’intelligence artificielle ». Elle considère que l’intelligence artificielle, par son opacité, sa complexité, sa
dépendance à l’égard des données, son comportement autonome,
peut porter atteinte
la Commission européenne a délivré un message clair : les droits fonda-mentaux et les valeurs européennes doivent être au cœur
de l’approche
norme, et les règles établies à l’échelle de l’UE auront certainement des répercussions dans le monde entier.
42 Régulation de l’intelligence artificielle : l’Europe moteur entre la Chine et les États- Unis
de règlement européen :
les intelligences artificielles pour le recrutement ou la sélection de
Ces systèmes d’intelligence artificielle peuvent avoir une incidence sensible sur les perspectives de carrière et les moyens de
subsistance
futurs de ces personnes. La Commission précise que lorsque ces systèmes sont
personnes handicapées ou des personnes de certaines origines raciales ou ethniques ou de certaines orientations sexuelles. De
plus, ceux utilisés
peuvent avoir présenté un impact sur les droits à la protection des données
et à la vie privée.
Pour contrebalancer ces risques, les systèmes devront employer des données
de la conformité avec la réglementation existante, être transparents, tout à fait exacts et sécurisés. Le fait qu’une intelligence
artificielle soit classée
ce type d’intelligence artificielle pendant son utilisation, à l’aide d’outils d’interface hommes- machines pour prévenir ou réduire
au minimum les
risques en santé, en sécurité ou les menaces sur les droits fondamentaux
Les salariés seront informés en cas de détection des émotions ou de reconnaissance faciale.
Alors que les évolutions dans le domaine de l’IA sont très rapides, les nouvelles normes européennes de l’intelligence artificielle
n’entreront pas en vigueur rapidement. Elles feront l’objet d’un examen
approfondi
des députés européens à partir de 2022 – il est probable que le texte d’application ne sera pas publié avant 2025. Le degré
d’autorégulation du
pas suffisante pour protéger les citoyens, car elle remet l’appréciation de
salariés sans s’interroger ni sur leur bien- fondé ni sur leur compatibilité
avec les valeurs européennes. Le dialogue social aura un rôle important
(CEEP) et SME United (représentant des PME). Cet accord rappelle que
le droit à la déconnexion ;
À Bruxelles, depuis 2017, compte tenu de l’ampleur du sujet, la CFDT Cadres a très vite décidé de se pencher sur l’intelligence
artificielle au niveau européen, considérant qu’il s’agissait de l’échelon le plus
pertinent.
Elle s’est positionnée comme référence dans ce domaine à Bruxelles. Elle a répondu aux consultations sur une législation
spécifique en
faveur
du Comité économique et social européen de deux avis2 sur l’IA, qui ont
été adoptés par les syndicats, par les employeurs, par les ONG et asso-
ciations, composantes et voix de la société civile européenne organisée
dans ce comité.
INT/845 : « Intelligence artificielle/impacts sur le travail » et INT/887 : « L’intelligence artificielle axée sur le facteur humain ».
Partie III
en France
En France, le débat a rebondi sur les lieux d’hébergement des données (surtout celles concernant la santé), sur le rôle
des lanceurs d’alerte et sur le contrôle à distance des travailleurs pendant le confinement. Le projet des parlementaires d’une
taxation de Google, Amazon, Facebook et Apple s’est vu repris dans un impôt minimum mondial
qui reste à mettre en musique.
12
Dans les lieux de travail, des législations françaises et européennes prévoient que l’introduction de nouvelles technologies donne
lieu à
une
profilage.
Une formation accessible sur l’IA ainsi que des débats citoyens sur son introduction et ses finalités contribuent sans doute à
améliorer la conscience des enjeux et à protéger nos vies et nos démocraties.
13
objet de débats depuis plusieurs années. Cette taxe était considérée par un
grand nombre d’acteurs, dont les syndicats, comme une juste contribution
des Big tech (Google, Amazon, Facebook et Apple) aux profits réalisés
d’intermédiation.
Ciblée principalement sur des firmes américaines, cette taxe a d’abord été
que Washington annonce, avec Joe Biden, qu’il voulait un impôt mondial
En 2019, sous la pression des États- Unis menaçant l’Hexagone de mesures de rétorsion commerciale, la France suspend la
mise en œuvre de la taxe GAFA nationale afin de donner une chance aux négociations internationales.
2020 : réintroduction de la taxe en France
Face à l’échec des négociations internationales, la France a remis une taxation unilatérale des GAFA depuis décembre 2020
dans un contexte de fronde face aux géants du numérique qui surfent sur la crise pour réaliser des bénéfices exceptionnels.
Un groupe de députés de la Commission des finances, porté par Guillaume Peltier (LR), a proposé
le 18 novembre 2020, de créer un « prélèvement sur les bénéfices supplé- mentaires des GAFA pour soutenir nos commerces
de proximité et nos librairies ». Une telle mesure, proposée par la Commission européenne, devrait être étendue en Europe,
mais de nombreux pays y sont opposés. 2021 : une taxe des GAFA, dissimulée derrière un impôt mondial
Les ministres des Finances du G7 ont annoncé en juin 2021 un accord sur un impôt mondial minimum impliquant une
meilleure répartition des recettes fiscales provenant des multinationales, particulièrement les
géants du numérique. 130 pays, dont la Chine et l’Inde, se sont accordés pour appliquer un taux d’impôt minimal mondial sur
les sociétés d’au moins 15 %. Les entreprises du numérique seraient taxées en partie là où elles font leurs ventes, et non pas
comme aujourd’hui, là où elles souhaitent installer leur siège, justement dans les paradis fiscaux. Neuf pays ont rejeté
l’accord, dont trois pays européens : l’Irlande, l’Estonie
et la Hongrie.
14
La France a jusqu’au 17 décembre 2021, pour le secteur public et les entreprises de plus de 249 travailleurs pour le secteur privé,
pour
trans-
poser la directive UE 2019/1937 du 23 octobre 2019 sur la protection des personnes qui signalent des violations du droit de
l’Union. Cette directive permet aux lanceurs d’alerte de passer par une autorité
externe
pour dénoncer les faits, alors qu’en France, ces derniers doivent saisir, sauf
Pour l’essentiel, la loi Sapin II a défini qu’« un lanceur d’alerte est une personne physique qui révèle ou signale, de manière
désintéressée et de
grave sur la santé publique ou l’environnement. L’alerte est consignée par écrit dans des conditions déterminées par la loi.
L’employeur informe le
lanceur d’alerte de la suite qu’il réserve à celle- ci. Aucun salarié ne peut
être sanctionné, licencié ou faire l’objet d’une mesure discriminatoire pour avoir témoigné des agissements définis aux articles L.
1132-1 et
Le texte européen, dans ses considérants, reconnaît notamment aux lanceurs d’alerte un rôle utile en ce qui concerne la sécurité
des
produits
mis sur le marché européen. Il considère que les entreprises qui participent à la chaîne de fabrication et de distribution sont la
principale source de
exigences de sécurité applicables à la fois aux produits et dans le domaine de la protection de la vie privée, et les données à
caractère personnel.
pour émettre des avis sur l’éthique de l’intelligence artificielle, donner des
Cédric Villani, Donner un sens à l’intelligence artificielle : Pour une stratégie nationale et européenne, mars 2018.
ment comme par les citoyens, et qui nous dise ce qui est acceptable ou non
La mixité doit être également au cœur des priorités. Il doit être possible
temps qu’elle voie le jour et que les syndicats puissent aussi la saisir.
Former les citoyens : quatre autorités créent un « kit pédagogique du citoyen numérique »
La Cnil, le CSA, le Défenseur des droits et l’Hadopi ont lancé un « kit pédagogique du citoyen numérique », accessible en ligne, qui
rassemble des documents éducatifs, des conseils juridiques et des guides pratiques adressés à des internautes (parents et
enfants) ainsi qu’à des éducateurs et formateurs. Celui- ci comprend quatre grandes thématiques : les droits sur Internet ; la
protection de la vie privée ; le respect de la création ; l’utilisation raisonnée et citoyenne des écrans. Il détaille ces institutions
dans un communiqué commun. Des thèmes qui englobent des questions très concrètes : quel recours en cas de
cyberharcèlement ? Peut- on faire supprimer une vidéo publiée sans son consentement ? Pourquoi faut- il rémunérer les
créateurs ? Quel rôle les médias jouent- ils dans l’égalité entre les hommes et les femmes ?
Le Conservatoire national des arts et métiers (Cnam) a de son côté produit un MOOC (cours en ligne ouvert), « L’Intelligence
artificielle pour
tous », qui aborde les notions de base de l’IA et ses domaines d’applica- tion. Il traite aussi de la question des nouveaux modèles
économiques
et les nouveaux rapports au travail, ainsi que le sujet des compétences en IA du collaborateur.
Les dispositifs de contrôle de l’intelligence artificielle en France 57
des recours auPrès de la commission nationale de l’informatiQue et des libertés (cnil)
« Comment garder la main ? » est la synthèse d’un débat public animé par
Le rôle du délégué
Le règlement général sur la protection des données a établi la mise en place chez les autorités et organismes publics, ainsi que les
organismes dont les activités de base consistent en un suivi systématique à grande échelle de personnes ou en un traitement à
grande échelle de catégo- ries particulières de données à caractère personnel, d’un délégué à la protection des données (DPD). Le
DPD doit communiquer ses coordon- nées à l’autorité de contrôle compétente pour publication. Ces exigences visent à garantir
que les personnes concernées (tant à l’intérieur qu’à l’extérieur de l’organisme) et les autorités de contrôle puissent aisément et
directement prendre contact avec le DPD sans devoir s’adresser à un autre service de l’organisme. La confidentialité est
également un aspect
important : les employés pourraient, par exemple, hésiter à se plaindre auprès du DPD si la confidentialité de leurs
communications n’était pas garantie. Le DPD est soumis au secret professionnel ou à une obligation de confidentialité en ce qui
concerne l’exercice de ses missions, confor- mément au droit de l’Union ou au droit des États membres (article 38 du RGPD,
paragraphe 5).
58 Le contexte, le débat et les enjeux en France
Le RGPD européen a donné lieu à une transposition en une loi en France. Cette loi est une des pièces maîtresses de la protection
des données personnelles. Elle est à l’origine de la création de la Cnil. Elle
concerne la gestion de données sensibles (données de santé, données
automatisée).
Différents organismes auditent les algorithmes. La certification des systèmes d’intelligence artificielle ou leur validation est une
tâche
tita-
nesque. Depuis 2016, le gouvernement français a confié à l’institut de recherche Inria la charge du développement de la
plateforme
Transalgo
par des hommes blancs, issus souvent du même milieu. Transalgo doit
encoder l’égalité et anticiper les possibles biais, pour que les stéréotypes
pour relayer ses travaux et défendre les positions des acteurs de l’Hexagone Les dispositifs de contrôle de l’intelligence artificielle
en France 59
dans les projets de textes. Cette nouvelle structure a comme projet de
développer des normes volontaires nationales, susceptibles d’être portées
par la suite au niveau international ou européen. Enfin, la Cnil recom-
mande de former à l’éthique tous les maillons de la « chaîne algorithmique »
(concepteurs, professionnels, citoyens).
15
par le Parlement européen, il est probable que le texte donne lieu à une
prévues pour les forces de l’ordre sont susceptibles de plaire aux pays
été séduits par une surveillance aéroportée des manifestations avant que
le Conseil constitutionnel français ne s’y oppose. D’autres élus ont été conquis par les dispositifs de surveillance de masse
destinés aux
services
La Fabrique de l’industrie, laboratoire d’idées soutenu par l’UIMM et France industrie, ausculte les attentes et besoins des acteurs
en
matière
Vis- à-vis de l’Internet des objets (objets, robots sur lesquels on greffe de
l’IA), les employeurs de l’UIMM sollicités par la Fabrique de l’industrie sont ambivalents. D’un côté, ils espèrent de nombreux
bénéfices :
traça-
d’autant que les expertises seront remplacées par des compétences géné-
des machines connectées. Dans la transmission des savoirs, ils savent que
les salariés expérimentés seront remplacés par des tutoriels qui permettront
consignes sur écran d’une tablette reliée à chaque station de montage. Ils
texte inédit qui répond à une réelle urgence ; si rien n’est fait, d’ici 2040,
ces questions :
La technologie est- elle suffisamment avancée pour que cette tâche soit automatisée ?
Il demande une concertation sur les conséquences économiques et sociales
de l’IA.
19
Le Conservatoire national des arts et métiers (Cnam) : vérifier ce que peut faire l’intelligence artificielle
Le Cnam a créé une chaire sur le « Learning Lab Human Change », dont
la titulaire est Cécile Dejoux. Pour Cécile Dejoux, aussi professeure de gestion au Cnam, « il devient indispensable de comprendre
ce que
peut
DRH à son utilisation est une exigence comme celle du dialogue social,
au travail.
20
de trier des candidats en raison de leur sexe ne sont donc pas autorisés
en dehors de ces exceptions. Il recommande de prévoir des systèmes limitant la recherche, le tri, la sélection des candidats sur
des critères discriminatoires.
Partie IV
En 2018, la CFDT Cadres mettait en avant un certain nombre de recommandations lors de l’introduction de l’intelligence
artificielle, parmi lesquelles un rôle actif
et éclairé des cadres et des managers, au centre des transitions.
par son interlocuteur qu’il voudrait bien vous rendre service, mais qu’il en
sur le salarié, cela dissimulant les exigences de ceux qui ont contribué
La formation des équipes syndicales et des travailleurs aux enjeux de l’intelligence artificielle est d’autant plus nécessaire que
l’intelligence artificielle entre souvent dans les entreprises ou les administrations
sans
discussion. Ce silence sur son introduction laisse les représentants du personnel sur la défensive. Ils se sentent désarmés,
redoutent de ne
pas
avoir les clefs pour discuter d’autant plus qu’ils voient des risques pour
l’emploi. Leur sentiment de légitimité est faible face à leur direction (dont la responsabilité vis- à-vis de l’intelligence artificielle
doit être renforcée) ou à des experts, ne leur donnant pas la confiance
suffisante
qui leur permettrait de réellement s’impliquer. Par ailleurs, la lisibilité du dispositif juridique actuel permettant l’intervention des
représen-
tants du personnel sur cet enjeu est insuffisante. Ces freins provoquent
sur l’intelligence artificielle, dans une période où les attentes des salariés
qu’ils représentent évoluent significativement en matière de réévalua- tion du sens du progrès, de protection de l’emploi et de
contrôle des données. Cela met en évidence un besoin de formation et de
sensibili-
accompagnés sur le sujet, indique une enquête « Intelligence artifi- cielle et capital humain : quels défis pour les entreprises ? »
menée par Malakoff Médéric et le Boston Consulting Group (BCG) en
mars 2018.
23
pour les machines. L’impact sur l’emploi est ainsi avéré, seule l’ampleur
Les économistes divergent sur l’impact relatif de l’intelligence artifi- cielle et de la robotique sur l’emploi des travailleurs. Selon
une étude
du
28 mars 2018 de France Stratégie, organisme de réflexion placé auprès du
des capteurs sur la main- d’œuvre, car nous ne sommes qu’au début d’une
cols bleus et de cols blancs, beaucoup craignant que cela entraîne une forte
World economic forum, « The futur of jobs report, Centre for the new economy
occupés par des êtres humains, seront en grande partie repris par des robots
ou des agents numériques, l’ingéniosité humaine créera de nouveaux emplois, de nouvelles industries et de nouvelles façons de
gagner sa
vie.
cielle sur l’emploi différera selon les secteurs économiques, selon le degré
travailleurs.
Ce qui veut dire que pour les syndicats et les représentants de travail-
Favoriser la mixité
ces filières tant les femmes sont peu représentées. En 2021, en Europe,
y contribuer.
25
en cause de leur place dans l’organisation ou encore comme un défi vis- à-vis de leurs collègues plus technophiles. Tandis que
d’autres travailleurs
cielle. Bref, l’intelligence artificielle peut être la source pour certains de problèmes psychiques.
Le choix d’un contrôle illimité, par exemple, peut menacer le droit à des
lité des chances et à un traitement sans discrimination fondée sur le sexe en matière d’emploi et d’évolution professionnelle peut
sortir fragilisé,
L’intelligence artificielle, si elle est mal ou pas accompagnée, peut être une source de nouvelles formes de risques psychosociaux
basés sur des paramé-
trages de logiciels, liés à l’emploi. Les finalités et l’impact de l’IA sur la qualité
travail ont été mis en place sans que cela ait fait l’objet d’une concertation
distance des salariés (ISG Research) aux États- Unis est passé de 1 à plus
premier confinement. La CFDT Cadres a par exemple été alertée du cas d’un centre français d’appels à dimension internationale,
qui avait implanté
de contrôle comme Doctor, Sneek, Vericlock, Desktime, ActivTrack, Hubstaff, Clevercontrol, Teramind… fleurissent et permettent
plus de
« tracking » sur le travail et sa mesure.
treur de frappe du clavier, temps passé en ligne sur des sites « productifs »
ainsi que les scores de productivité se sont intensifiés depuis les confine-
L’utilisation de ces outils doit être discutée avec les managers, dont la responsabilité, la marge de manœuvre et le pouvoir de
décision
peuvent
se trouver fortement limités par cette utilisation. Et bien évidemment, comme la Cnil le souligne, la communauté de travailleurs
et leurs
repré-
projets. Ils assurent pour l’employeur un filtrage, afin que les salariés ne
puissent pas naviguer en ligne sur certains sites internet ou une sécurité
les salariés qui sont sujets à une surveillance de plus en plus intrusive, ce
Lors de la crise de la pandémie de la Covid-19, après le premier déconfi- nement, les employeurs des entreprises testées ont
montré un intérêt 500 fois supérieur pour les dispositifs qui mesurent la productivité des salariés, une augmentation inédite qui
soulève quelques inquiétudes sur l’avenir managérial2. En France, cette pression a été si intense que la
Cnil a dû publier une « question- réponse » sur le contrôle de l’activité des salariés. La Cnil fait état d’une augmentation des
plaintes transmises
dans le domaine de la surveillance des travailleurs en 2020.
Ce document souligne que les systèmes de collecte et de traitement permanent de données, qui permettent d’identifier et de
surveiller à distance l’activité des télétravailleurs, doivent faire l’objet d’une déclara- tion préalable auprès d’elle. Dans le cas où
les formalités déclaratives ne
sont pas remplies, le dispositif de surveillance ou de contrôle est illicite.
Kevin Balckwell, « Employees, Pandemics and Productivity: Support (Don’t) Surveil Your Remote Workforce », ISG, 2020.
Utiliser l’intelligence artificielle dans les recrutements est un choix de management très tentant, car la fonction est chronophage
et
l’analyse
« Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence
artificielle », 21 avril 2021.
27
péenne. Toutes les décisions basées sur des algorithmes et qui impactent
les travailleurs devraient être explicables, interprétables, concises, compré-
utilisés par les systèmes d’IA doivent, en préalable, être audités par des
organismes indépendants.
28
C’est pour cette raison que la CFDT Cadres demande que les représen-
droit de regard sur la qualité des données utilisées par l’IA. Des négo-
ciations sur la collecte des données des salariés sont essentielles lorsque
Les données personnelles des travailleurs ne doivent pas être utilisées par
ment des données dans le cadre des relations de travail » qui encourage la
négociation de conventions ou d’accords collectifs sur la protection de la dignité humaine, des intérêts légitimes et des droits
fondamentaux
des
le lieu de travail.
Il est important de rester acteur de ces évolutions et d’interpeller les directions sur les lieux de travail.
d’intelligence artificielle ?
Huit questions pour évaluer en amont l’intelligence artificielle sur le lieu de travail
Mon entreprise/administration utilise- t-elle des systèmes d’IA ?
Qui est le commanditaire d’un système d’IA et avec quelle finalité l’introduit- il ? Si ce système a été acheté, quel est le sous-
traitant qui l’a conçu et qui l’a acquis, au sein de l’entreprise et à partir de quels critères ?
À qui le système est- il utile et à combien de personnes ?
À qui peut- il causer des dommages et vis- à-vis de qui comporte- t-il des inconvénients ?
Qui est exclu de l’IA et quelle est l’ampleur de la perte des droits sociaux et sociétaux générée par son utilisation ?
Comment la décision d’introduire le système a- t-elle été prise, et à qui a- t-on demandé l’avis et selon quelle procédure ?
Qui est le propriétaire des données, qui a des droits d’accès ou d’utilisation ?
Les utilisateurs et les employés sont- ils impliqués dans la conception de l’IA ?
Partie V
Les représentants du personnel peuvent, au sein des branches professionnelles, négocier des accords sur l’utilisation de
l’intelligence artificielle, car l’IA peut avoir un impact
sur des domaines de négociation relevant de leur compétence.
29
La métallurgie :
consiste à simuler les changements dans des entreprises tests avant qu’ils
nisations du travail pour choisir les organisations les plus favorables aux
technologies 4.0.
30
Le commerce :
Afin d’accompagner les mutations économiques, treize branches de l’Opcommerce ont signé un Engagement de développement
de l’em- ploi et des compétences (Edec) avec le ministère du Travail sur
l’impact
du numérique dans le commerce et la distribution. L’Edec aborde par conséquent l’impact du digital cognitif ou intelligence
artificielle sur
les
pratiques. Il s’agit d’une étude qualitative et prospective menée sur le terrain et avec le concours d’observateurs du secteur.
31
La banque :
tiers sous la forme de briques adaptables dans des systèmes déjà existants.
et sur les compétences utiles demain pour exercer un métier. Les outils IA
Peu de métiers vont disparaître, la plupart vont se transformer, avec un renforcement de la spécialisation pour répondre aux
nouvelles exigences du secteur (montée en compétences généralisée). Certains métiers, comme
ceux de la data et de la gestion de projet, vont apparaître ou prendre une importance capitale dans les entreprises du secteur.
Les changements demanderont une redéfinition des passerelles de mobi-lité et un accompagnement des collaborateurs dans les
transformations. Les collaborateurs devront, avec l’aide des ressources humaines, devenir acteurs de leurs parcours de carrière.
Les RH auront un rôle capital dans
tantes pour renforcer l’employabilité des collaborateurs et fluidifier la mobilité. Sept compétences seront particulièrement
nécessaires : s’adapter au changement, apprendre à apprendre, travailler de façon communau-taire, communiquer/avoir de
l’impact, s’orienter vers le client, résoudre
JPMorgan Chase et ses conseillers clients robots Lors de son arrivée en Grande Bretagne, la première banque américaine JP
Morgan a acquis une petite start-up, Nutmeg, spécialisée dans la gestion de fortunes. Ses robots conseillaient 140 000 clients,
alors qu’elle n’employait que 150 salariés. Lorsque la banque HSBC est arrivée en France en 2005, elle avait acquis le Crédit
commercial de France, à un prix et des coûts humains beaucoup plus élevés. Aujourd’hui, il suffit d’acheter une fin- tech en ligne
pour entrer sur le marché bancaire. Reste que l’acquisition de clients reste difficile, car les robots sont certes de bons conseillers,
mais ils ne sont pas de bons commerciaux. Et puis il
faut quand même des employés en bout de chaîne pour résoudre les cas complexes et pour rassurer les clients. De plus, le risque
de cybercrimi- nalité est potentiellement explosif.
33
conclut à 7 500 créations nettes d’emploi dans la branche d’ici cinq ans.
Cette analyse dresse un état des lieux des besoins en recrutement, des
en France.
34
La Poste
la computer vision qui reconnaît et détecte des objets dans les documents,
d’images ;
qui permettent aux partenaires sociaux de négocier des accords. Les lanceurs d’alerte peuvent aussi agir et les syndicats
peuvent les soutenir. Il existe tout un arsenal juridique pour interpeller une entreprise sur l’introduction interne de
technologies
d’intelligence artificielle. Cet arsenal peut être mobilisé au niveau
d’un conseil d’administration, d’un CSE, de ses commissions ou d’une branche professionnelle. Lorsqu’elles sont saisies,
des administrations publiques ou indépendantes comme l’inspection
le plus souvent de la sécurité et de la santé des travailleurs, de la gestion prévisionnelle des emplois et des compétences
(GPEC) ou de la transformation des emplois.
Ce sont des sujets invoqués couramment dans les négociations
annuelles ou périodiques.
35
Au conseil d’administration
CA.
dans les entreprises d’au moins 50 salariés. Ils peuvent assister à toutes les
réunions du conseil d’administration, pour faire passer les recommanda-
vœux par un avis motivé. Dans les sociétés d’au moins 50 salariés, le CSE
que son introduction est passée sous silence, comme il arrive souvent,
la direction financière.
représentant les salariés dans les sociétés non cotées dont le groupe emploie
huit membres. Ces administrateurs salariés peuvent poser des questions sur
Les administrateurs élus par les salariés ou désignés doivent bénéfi- cier d’une formation dont la durée ne peut être inférieure à
40 heures (article L. 225-30-2 du Code de commerce). Pour les « grandes entre- prises » et pour les sociétés cotées, un fragment
de la formation
devra
du travail et le RGPD.
conditions de travail – GPEC – effets de l’exposition aux facteurs de risques professionnels énumérés
à l’article L. 4161-1
Les organisations liées par une convention de branche ou, à défaut, par des
accords professionnels se réunissent, au moins une fois tous les quatre ans,
pour les thèmes mentionnés aux 1° à 5° et au moins une fois tous les cinq ans pour les thèmes mentionnés aux 6° et 7°, pour
négocier :
1° Sur les salaires ;
d’outils aux entreprises pour prévenir et agir contre le harcèlement sexuel et les agissements sexistes ;
2 bis° Sur les mesures destinées à faciliter la conciliation entre la vie professionnelle et la vie personnelle des salariés proches
aidants ;
3° Sur les conditions de travail, la gestion prévisionnelle des emplois et
Accord du 5 février 2020 relatif à la formation professionnelle (convention collective nationale de la Banque du 10
janvier 2000. Étendue par arrêté du 17 novembre 2004 JORF 11 décembre 2004) : Article 2 Priorités de la branche et
publics prioritaires.
Les parties signataires rappellent l’importance de la formation profes- sionnelle tant pour les entreprises que pour les
salariés qui les composent. Ils déterminent les axes prioritaires de formation suivants au niveau de la branche :
permettre de maintenir les compétences des salariés face aux évolutions économiques, technologiques et
d’organisa-
tion par une anticipation, un accompagnement et une adaptation face aux changements, notamment l’intelligence
artificielle, les relations clients
via le digital, la blockchain.
à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données (RGPD) est publié sur le site de
la Cnil et sur le site de l’Union européenne.
Le RGPD est applicable depuis le 25 mai 2018 (article 99.2) dans tous les pays de l’Union européenne. Il s’applique à toutes les
entreprises
(y compris leurs CSE), les administrations et les associations qui traitent des données à caractère personnel. Ce règlement prévoit
dans ses articles 5, 40
et 88 des thèmes sur la licéité du traitement des données, sur la protection, la collecte, la qualité des données, les codes de
conduite, thèmes suscep-tibles d’être repris dans les négociations de branches sur l’IA. Depuis le
1er juin 2019, les dispositions du RGPD ont été retranscrites dans la loi du 6 janvier 1978 dite « informatique et libertés ».
C’est le RGPD qui a été invoqué en novembre 2020, lorsque quatre anciens chauffeurs britanniques et un chauffeur portugais ont
accusé
102 Les textes qui permettent de négocier l’intelligence artificielle
encouragent l’élaboration de codes de conduite destinés à contribuer à la bonne application du présent règlement, compte tenu
de la spécificité
des différents secteurs de traitement et des besoins spécifiques des micro, petites et moyennes entreprises.
sables du traitement ou de sous- traitants peuvent élaborer des codes de conduite, les modifier ou les proroger, aux fins de
préciser les modalités
les mesures et les procédures visées aux articles 24 et 25, et les mesures
organisations internationales ;
sans préjudice des droits des personnes concernées au titre des articles 77
et 79.
Les États membres peuvent prévoir, par la loi ou au moyen de conven-tions collectives, des règles plus spécifiques pour assurer la
protection des droits et libertés en ce qui concerne le traitement des données à carac-
tère personnel des employés dans le cadre des relations de travail, aux fins, notamment, du recrutement, de l’exécution du
contrat de travail,
y compris le respect des obligations fixées par la loi ou par des conven-tions collectives, de la gestion, de la planification et de
l’organisation du travail, de l’égalité et de la diversité sur le lieu de travail, de la santé et de
la sécurité au travail, de la protection des biens appartenant à l’employeur ou au client, aux fins de l’exercice et de la jouissance
des droits et des
avantages liés à l’emploi, individuellement ou collectivement, ainsi qu’aux fins de la résiliation de la relation de travail.
Ces règles comprennent des mesures appropriées et spécifiques pour protéger la dignité humaine, les intérêts légitimes et les
droits fondamen-
taux des personnes concernées, en accordant une attention particulière à la transparence du traitement, au transfert de données
à caractère personnel
au sein d’un groupe d’entreprises ainsi qu’aux systèmes de contrôle sur le lieu de travail.
Chaque État membre notifie à la Commission les dispositions légales qu’il adopte en vertu du paragraphe 1 au plus tard le 25 mai
2018 et, sans
L’accord européen entre les partenaires sociaux de juin 2020 rappelle cet
Dans l’entreprise
Il est possible de faire entrer l’IA dans les thèmes de négociation ordinaires
Le Code civil prend en considération les enjeux sociaux et environne- mentaux de l’entreprise.
L’article 1833 du Code civil a été modifié pour consacrer la notion juris-
Tout dirigeant sera ainsi amené à s’interroger sur ces enjeux à l’occasion
Le fonctionnement du CSE
…… Chapitre V : Fonctionnement
……… Section 3 : Dispositions particulières des entreprises d’au moins cinquante salariés
fonctions syndicales peuvent bénéficier du congé de formation écono- mique, numérique et sociale, et syndicale prévu à l’article
L. 2145-5.
formation syndicale organisés soit par des centres rattachés aux organi-
La section syndicale et/ou les élus du CSE peuvent demander à créer une
commission au sein du CSE relative à l’intelligence artificielle. En effet,
il est possible par voie d’accord collectif d’entreprise de créer une telle
Un accord d’entreprise conclu dans les conditions prévues au premier alinéa de l’article L. 2232-12 peut prévoir la création de
commissions supplémentaires pour l’examen de problèmes particuliers. Le cas échéant, l’employeur peut adjoindre à
106 Les textes qui permettent de négocier l’intelligence artificielle
travail avec des robots collaboratifs, devront être revues dans la perspective
chargée de préparer les délibérations du comité économique et social central (CESC) sur les données.
La délégation du personnel au comité social et économique (CSE) a pour mission de présenter à l’employeur les réclamations
individuelles
ou
exerce le droit d’alerte dans les conditions prévues aux articles L. 2312-59,
L. 2312-60 et L. 4133-2.
ces commissions avec voix consultative des experts et des techniciens appartenant à l’entreprise et choisis en dehors du comité.
Les dispositions de l’article L. 2315-3 relatives au secret professionnel et à l’obligation de discrétion leur sont applicables. Les
rapports des commissions sont soumis à la délibération du comité.
bération du conseil d’administration, ils sont reçus par celui- ci, sur leur
demande, en présence du directeur ou de son représentant ayant connais-
Les membres de la délégation du personnel du comité peuvent saisir l’inspection du Travail de toutes les plaintes et observations
relatives
à l’ap-
plication des dispositions légales dont elle est chargée d’assurer le contrôle.
Le comité social et économique (CSE) a pour mission d’assurer une expression collective des salariés permettant la prise en
compte
permanente
la formation professionnelle ;
de travail ;
travail.
108 Les textes qui permettent de négocier l’intelligence artificielle
Depuis les ordonnances Macron, l’introduction de nouvelles technolo- gies permettrait aux élus des CSE de désigner un expert
afin
d’exercer
leur mission de prévention, cela, sans que l’on soit obligé de se poser la
Le CSE peut ainsi faire appel à un expert habilité (L. 2315-94) en cas
risque grave (pouvant être issu d’une nouvelle technologie) est prise en
109
19 juillet 2005) et loyal. En effet, l’employeur est également soumis à une obligation de loyauté envers ses salariés.
En principe donc, l’employeur ne peut surveiller constamment ses salariés (sauf dans des cas exceptionnels dûment
justifiés au regard
de la nature de la tâche). Il ne peut en tout état de cause, selon la Cnil, procéder :
à la surveillance constante au moyen de dispositifs vidéo (tels qu’une
webcam) ou audio. Il peut s’agir, par exemple, de la demande faite par un employeur à un employé de se mettre en
visioconférence tout au long de son
temps de travail pour s’assurer de sa présence derrière son écran. Un tel système qui place les salariés sous surveillance
permanente est excessif : il ne peut donc être mis en œuvre, qu’il s’agisse de poursuivre un objectif de sécurité ou un objectif de
surveil-lance du temps de travail. Des moyens alternatifs moins intrusifs existent pour ce faire ;
(logiciels qui permettent d’enregistrer l’ensemble des frappes au clavier effectuées par une personne sur un ordinateur). De tels
procédés sont particulièrement invasifs et s’analysent en une surveil-lance permanente et disproportionnée des activités des
employés ;
pour démontrer sa présence derrière son écran comme cliquer toutes les x
minutes sur une application ou prendre des photos à intervalles réguliers.
De plus, le Code du travail prévoit une obligation de transparence de la part de l’employeur concernant l’usage des données
personnelles :
« Aucune information concernant personnellement un salarié ne peut être collectée par un dispositif qui n’a pas été porté
préalablement à sa connaissance » (art. L. 1222-4 du Code du travail).
Sur le sujet, voir aussi le guide du télétravail de la CFDT Cadres3.
[Link]/sites/default/files/2021-04/Guide%20CFDT%20Cadres%20
-%20Guide%20N%C3%A9gocier%20le%20t%C3%A9l%C3%[Link] 110
Les textes qui permettent de négocier l’intelligence artificielle
Faire appel à la base de données économiques et sociales
(BDES)
Les informations contenues dans cette base de données portent sur les
thèmes suivants :
des contrats précaires, des stages et des emplois à temps partiel, forma-
du groupe.
Ces informations portent sur les deux années précédentes et l’année en cours, et intègrent des perspectives sur les trois années
suivantes.
Le contenu de ces informations ainsi que les modalités de fonctionnement
leurs missions dans les conditions fixées par les textes applicables4 ».
Pour que la protection du lanceur d’alerte s’applique, il faut que ces actes
soient constitutifs d’un délit ou d’un crime, d’une violation de la loi ou d’une menace ou un préjudice grave pour l’intérêt général.
L’article L. 4133-1 du Code du travail sur le domaine d’action des lanceurs d’alerte
l’environnement. L’alerte est consignée par écrit dans des conditions déterminées par voie réglementaire. L’employeur informe
le lanceur d’alerte de la suite qu’il réserve à celle- ci.
[Link]/sites/default/files/atoms/files/referentiel_grh_novembre_2019_0.pdf
112 Les textes qui permettent de négocier l’intelligence artificielle
Les articles L. 1132-3 et L. 1132-3-3 du Code du travail sur la protection du lanceur d’alerte
Aucun salarié ne peut être sanctionné, licencié ou faire l’objet d’une mesure discriminatoire pour avoir témoigné des agissements
définis
aux
articles L. 1132-1, L. 1132-2 et L. 1132-3-3 ou pour les avoir relatés. Le salarié aurait donc le statut et la protection de lanceur
d’alerte s’il témoigne par exemple sur les biais ou les effets discriminatoires
résultant d’algorithmes.
Informer et signaler au délégué à la protection des données (DPO) l’alerte si elle porte sur une intelligence artificielle et/ou sur
une violation du droit à la protection des données
Le gouvernement français a adopté, le 21 avril 2021, une ordonnance no 2021-484 qui met en place une forme de représentation
collective
des travailleurs des plateformes, mais uniquement pour les travailleurs
motorisé ou non ». Ce texte prévoit l’organisation d’une élection des représentants des travailleurs des plateformes en 2022.
négociation au moins une fois par cycle électoral de deux ans. Le contenu Dans l’entreprise
113
de cette négociation est laissé au libre choix des représentants, parmi sept
en lui reconnaissant des droits collectifs très similaires à ceux des salariés.
Le droit d’association, par exemple, est un droit de l’homme ; que le travailleur soit indépendant ou non, il dispose de ce droit.
C’est ainsi
que
des travailleurs de plateformes ont créé des syndicats. Il leur reste à ouvrir
À cet égard, la CFDT a créé en 2020 une association pour défendre collectivement les droits des indépendants : Union
Indépendants5.
représentés.
[Link] 114
Les textes qui permettent de négocier l’intelligence artificielle
Celui- ci avait soulevé que les conditions tant contractuelles que d’exé- cution de la relation étaient caractéristiques d’un lien
de subordination permanent. Mais la cour d’appel a écarté tout lien de subordination, arguant que le livreur avait :
une liberté de choix des jours ou des créneaux de livraison ;
de ce contrôle.
Plateformes : une charte de la responsabilité sociale, homologable par la direction générale du Travail
Le 23 octobre 2020 est parue la troisième version d’un décret prévu par la loi d’orientation sur les mobilités, adoptée fin 2019,
qui organise les relations entre services et travailleurs. Ce texte précise que les plate- formes peuvent se doter d’une « charte de
responsabilité sociale ». C’est la « première étape pour réguler les relations entre les plateformes et
les travailleurs », a commenté le ministère du Travail. Cette charte devra être déposée auprès de la direction générale du Travail
(DGT), au minis- tère, qui pourra l’homologuer. Pour son homologation, la société devra fournir les documents attestant « du
résultat de la consultation préalable des travailleurs sur le contenu de la charte, du nombre de travailleurs consultés, du nombre
de travailleurs qui se sont exprimés ; des moda- lités d’organisation de la consultation ». La DGT vérifiera la conformité du
contenu de la charte.
Attention, une charte de responsabilité sociale entre les plateformes
et les travailleurs ne vaut pas présomption de non- salariat pour ces derniers (Cons. const., 20 déc. 2019, no 2019-794).
dans les filiales situées en France, les sociétés françaises qui emploient au
moins 10 000 salariés dans le monde. Le siège de la société doit être situé
être établies dans un pays tiers. Ainsi, une société française qui emploie
lance pour prévenir les risques graves envers les droits humains et la liberté
qui résultent de leurs activités ainsi que celles de leurs filiales, sous- traitants
personne justifiant d’un intérêt à agir » peut alors saisir le juge pour lui
demander d’enjoindre l’entreprise de respecter ses obligations, le cas échéant sous astreinte.
L’arrêt Uber Elite, rendu par la CJUE le 20 décembre 2017 sur le terrain
de transport. Il ne reste plus qu’un pas pour en déduire que cette dépen-
La directive 2002/14/CE établit un cadre général sur l’information et la consultation des travailleurs dans la Communauté
européenne. Elle fixe des normes procédurales minimales pour la protection des droits
des
et de l’emploi touchant leur lieu de travail. Sont ainsi visés par ce cadre :
La norme ISO/TS 15066:2016 créée par l’Organisation internationale de normalisation sur les robots collaboratifs s’adresse aux
fabricants,
aux
Comité social et économique européen « Renforcer la confiance dans l’intelligence artificielle axée sur le facteur humain6 ».
Vérifier le maintien des droits en cas de transfert d’entreprise
transfert.
Le règlement 4064/89, modifié par le règlement 1310/97 et le règle- ment 447/98 (en cas de fusion concentration d’entreprises)
exigent l’approbation des autorités de concurrence de la Commission
européenne
L’article 5 de cette directive du 12 juin 1989 vise une protection de la santé qui se rapporte à « tous les aspects liés au travail ». La
France
considère
dans sa loi de transposition du 31 décembre 1991 qu’il s’agit de prévenir
tive prévoit d’informer sur l’existence des risques pour assurer une prise
de conscience de ceux-ci par le travailleur. Dans son article 6, elle fait entrer dans le cadre des responsabilités de l’employeur tant
les
activités de
les systèmes logiques et les systèmes statistiques : art. 3,1 du présent règle-
(art. 5 § 1) :
dommage ;
À l’extérieur de l’entreprise
Les articles L. 224-42-1 et L. 224-42-4 pour récupérer des données électroniques à la suite de contrats de
services
Le droit à la portabilité et le droit d’accès issus également du RGPD offrent aux personnes la possibilité de récupérer une partie de
leurs données dans un format ouvert et lisible par machine. Elles peuvent
ainsi
tueux, qui date de 1985, prévoit qu’un fabricant est responsable des
dommages causés par un produit défectueux. Or, avec un système fondé
sur l’IA tel que la voiture autonome, il peut être difficile de prouver la défectuosité du produit une fois le dommage survenu et le
lien de
cause
à effet entre les deux. De plus, il peut être malaisé de déterminer de quelle
Le Défenseur des droits7 peut être saisi dans la lutte contre les discrimina-
l’orienter vers lui), qui lance l’alerte dans le domaine de la santé, de l’en-
[Link]/
Une plainte peut, par exemple, être adressée à la Cnil si lors d’un recrute-
La Cnil peut effectuer des contrôles auprès de tout organisme traitant des
ces dernières années, la Cnil a reçu plus de 2 000 plaintes par an relatives
Le 21 janvier 2019, la formation restreinte de la Cnil a prononcé une sanction de 50 millions d’euros à l’encontre de la société
Google LLC
en
autorité dans le cadre du RGPD. Son précédent record était une sanction
lesquelles cette dernière a été constatée, de la bonne foi de l’employeur et de ses antécédents.
L’inspection du Travail est régulièrement saisie à l’occasion de contestation des limites entre travailleurs indépendants et salariés.
Le parquet de Paris
a reçu courant février 2020 un procès- verbal de l’inspection du Travail
dénonçant des infractions qui auraient été commises par Deliveroo, une
plateforme de livraison de repas à domicile, qui joue le rôle d’intermé-diaire entre restaurants et particuliers. Avec Deliveroo,
l’inspection du
qui ne devraient pas se déclarer en tant que micro- entrepreneurs. Le parquet a été saisi à Paris et à Nantes. L’Urssaf estime que
le
montant des
à ce titre une action de groupe devant le juge (art. 37, loi no 78-17 du 6 janvier 1978). À condition toutefois que ce manquement
soit dû au
responsable du traitement (par exemple, l’employeur ou la plateforme
deux travailleurs aient subi un préjudice moral ou matériel en résul- tant (art. 4, 7 RGPD (UE) 2016/679). Le juge pourra, le cas
échéant,
prononcer l’arrêt du système d’évaluation ou de contrôle ayant abouti
La CFDT Cadres est convaincue que l’intelligence artificielle offre des opportunités mais comporte aussi des risques. Pour limiter
ces
derniers,
cette technologie doit être orientée et gouvernée pour que son intro- duction soit bénéfique aux travailleurs, aux citoyens et à la
planète.
Les
de neutralité carbone.
La proposition de régulation européenne va dans le bon sens dans les limites évoquées. L’humain doit avoir le dernier mot et il
est crucial
que
la décision humaine soit préservée face à la machine dans toutes les situa-
tions. Dans les lieux de travail, il est nécessaire d’impliquer les RH et les
logie existent et ils doivent être activés lors des travaux des comités sociaux
et économiques (CSE) comme lors des négociations. La CFDT Cadres soutient des acteurs publics tels que l’Inria et la Cnil, ou
encore
l’action
Dans l’interaction travailleurs- machines intelligentes, la CFDT Cadres insiste pour que l’humain ne devienne jamais l’exécutant de
la
machine.
Vincent Gimeno est DSC- adjoint chez Orange et référent CFDT pour les salariés cadres. Il est représentant titulaire
aux comités de groupe Europe et Monde d’Orange.
La CFDT a initié des groupes de réflexions sur le sujet, dont il ressort des préconisations que nous serions prêts à partager avec
l’entreprise.
Dans le même temps, Orange déploie l’intelligence artificielle pour augmenter l’efficacité opérationnelle de la relation client
d’Orange Bank et d’Orange France. Près de 80 % des appels d’Orange Bank sont traités par un chatbot et il y a aussi des chat-bots
chez Orange France.
Pendant la crise Covid-19, la direction du groupe a décidé unila-téralement d’introduire l’IA pour optimiser le réseau d’Orange,
car le volume des données transportées (e-mails, vidéos, télé-travail) avait explosé. Cela est possible car les réseaux évoluent
d’éléments physiques (hardware) au « tout informatisé ». Ces opti-misations, entre autres, alliées à la baisse de qualité des vidéos
par exemple, ont permis de maintenir opérationnels nos réseaux 132
Le guide de l’intelligence artificielle au travail
en absorbant l’augmentation de 40 % du trafic ; dans le futur, l’IA permettra la maintenance prédictive de ces réseaux.
Le manque de concertation en amont induit des difficultés consta- tées dans la mise en œuvre. En effet, étant mis devant le fait
accompli des déploiements, plutôt que d’anticiper l’impact sur les personnes et sur les processus métiers en amont, nous devons
intervenir en aval.
Par exemple, si l’IA peut traiter des tâches simples, comment
pourra- t-on entraîner les nouvelles recrues et leur apprendre leur métier ? Comment tenir compte de la surcharge cognitive
induite par le traitement quasi exclusif de cas complexes par les conseillers clients ?
L’IA va- t-elle remplacer les conseillers clients, ou aider ces conseillers dans l’acte de vente, ayant en mémoire beaucoup plus
d’offres, pour trouver la plus adaptée au client ?
et le relationnel avec le client final. Aujourd’hui, il peut encore y avoir de l’interaction entre l’humain et l’IA. Mais demain,
lorsque l’IA aura fait des progrès, qu’en sera- t-il ?
Il existe aujourd’hui des moteurs de dialogue naturel, dont on ne sait pas dire si c’est une IA ou un humain qui s’exprime.
Demain, on risque donc de ne plus distinguer une IA d’une personne.
L’entreprise a la responsabilité de dire au client s’il parle avec un être humain ou une machine.
Avec la softwarisation des réseaux, l’humain pourrait ne plus intervenir. Ce seront des ordinateurs qui parleront à des ordi-
nateurs. Si demain l’IA assure de manière autonome des tâches complexes à plusieurs degrés, il faut absolument que l’humain se
réserve le dernier mot.
perts qui se réunissent pour valider la pertinence des gisements Interviews 133
de données et la transparence des algorithmes. Elle demande qu’il y ait un « go » ou « veto » qui soit donné par les partenaires
sociaux. On ne déploie pas une IA dans un service ou un processus, sans savoir, pour qui, comment, avec qui, pourquoi, et avoir
anticipé l’accompagnement des salariés.
Dans cet accord, un comité national des transformations numé-riques a été créé. Il permettait de travailler sur des aspects
prospectifs à moyen et long terme, et de voir présentés en amont les initiatives et nouveaux services liés à la transformation
numé-rique du groupe. Le comité, avec l’éclairage d’experts, pouvait émettre des recommandations. Ce comité n’a pas perduré.
Dès l’amont, il faut prévoir l’accompagnement des salariés dans la transformation des métiers et des compétences.
L’entreprise, ces derniers temps, a trop focalisé sur le savoir- être et l’adaptabilité des salariés. La mise en œuvre de l’IA montre
134
Le guide de l’intelligence artificielle au travail
au contraire l’importance des savoir- faire, dans l’entraînement des IA, l’accompagnement des équipes et les réglages opération-
nels lors des mises en œuvre.
Nous sommes tous dans un contexte où 50 % des métiers vont être transformés et certains, disparaître d’ici 2030. Il y a un enjeu
fort pour les salariés, capital humain de l’entreprise, qui seuls seront déterminants dans la réussite de la transformation.
En fait, l’IA est un programme informatique conçu par des déve- loppeurs humains et basé sur un gisement de données. La
qualité du gisement de données et les choix des développeurs dans l’al-
gorithme induisent la façon dont l’IA va réagir. Il peut y avoir des biais.
Nous souhaitons une totale transparence et un échange sincère au sein d’un comité paritaire sur les données et les algorithmes.
Si on n’est pas transparent sur les biais, le gisement des données, cela peut poser des problèmes lors de la mise en œuvre.
D’autre part, il vaut mieux accompagner les salariés vers les nouveaux métiers et compétences, y compris les managers, qui ont
un rôle important à jouer dans la connaissance des métiers et l’aide à la compréhension des transformations.
Il faut une vraie GPEC, alors qu’Orange ne dispose pas d’accord GPEC valablement signé aujourd’hui.
Quid de la charte Orange, qui vient d’être annoncée par la direction dans la presse ?
La charte inclusive est principalement un objet marketing. Il n’y a pas de lien avec une mise en œuvre opérationnelle de l’IA, les
engagements sont très vagues.
Interviews 135
N’allez- vous pas retenter un nouvel accord numérique ?
On a aujourd’hui un problème de calendrier social du fait de la Covid-19 qui décale les négociations. Il est peu probable que l’on
entre en négociation sur ce thème avant le second semestre 2021.
Nous souhaitons négocier, comme indiqué, autour de la transpa-rence du déploiement de l’IA dans l’entreprise. Il faut poser des
garde- fous à son déploiement. Les déploiements de l’IA concer-nant l’ensemble des filiales du groupe dans le monde, cela doit
être un accord monde.
Si on n’explique pas l’IA, elle peut devenir une raison de crainte importante et de rejet des salariés.
On doit prendre en compte que l’IA peut avoir un rôle bénéfique dans les réseaux fixes et mobiles, en dimensionnement, en opti-
misation et donc en consommation. Néanmoins, ces déploiements doivent se faire en transparence avec les IRP et les
organisations syndicales, et pas de manière unilatérale.
LA LOI AIDE LE SALARIÉ À RÉCUPÉRER
SES DONNÉES PERSONNELLES, C’EST PARFOIS BIEN UTILE
Abel Gouttenoire
Il fait partie de l’équipe « Mutations du travail et des organisations en temps de crise » du Centre de recherches critiques
sur le droit (équipe de recherche). Il rédige actuellement une thèse intitulée « Normativité algorithmique
et droit du travail », à l’université Lumière Lyon 2. Il est chargé d’études en droit social à la CFDT.
En général, les salariés ont du mal à nourrir leur dossier aux prud’hommes lorsqu’ils sont en conflit. Alors que les employeurs
détiennent beaucoup de données sur eux, qui peuvent être utili- sées comme preuves.
Pour assurer leur défense et obtenir gain de cause, il est donc essentiel pour les travailleurs de savoir comment la loi leur permet
de récupérer leurs propres données personnelles. D’autant que dans l’entreprise, ils laissent de plus en plus de traces
numériques, témoignant de leurs aptitudes profession- nelles, comportementales, de leurs compétences, de leurs capacités à
échanger, autant d’informations qui peuvent nourrir avantageusement un dossier.
Interviews 137
Comment peuvent- ils avoir accès à leurs propres données personnelles lorsque ces dernières
ont été traitées par un algorithme d’intelligence artificielle ?
Tout simplement en invoquant le droit d’accès issu du RGPD et de la loi informatique et libertés. Ce droit s’agrège à un régime
plus vaste que je qualifie de
« droit de rattachement » à ces données personnelles : les salariés peuvent faire
jouer leur droit d’accès à l’information, à la transparence, à la portabilité de leurs données personnelles. Ils ont inversement aussi
un droit de « détache-ment » sur ces dernières : soit un droit à la déconnexion ou, moins connu, celui à bénéficier d’une
intervention humaine lorsqu’un traitement automatisé (tel qu’une IA) génère des conséquences importantes ou juridiques pour
eux. Dans ce cas, les travailleurs peuvent contester la décision prise par l’IA en se référant à cette personne.
Ces droits, et plus particulièrement le droit d’accès, n’ont peu ou pas encore généré de contentieux ou de précontentieux. Il y a
apparemment très peu d’avocats en droit du travail qui utilisent le droit d’accès pour récolter des éléments de preuve et/ou pour
l’invoquer devant le juge.
Comme le relevait une ancienne conseillère prud’homale, il y a une méconnaissance flagrante du droit d’accès par les juristes en
droit du travail. Il n’en reste pas moins que celui- ci existe.
Non. Lorsqu’un salarié est sanctionné à cause de vidéos issues de vidéosurveillance, il n’a généralement pas accès aux films ou
aux images concernés. Mais il peut faire jouer son droit d’accès à ses informations en vertu de l’article 15 du RGPD, et cela, quand
bien même il aurait quitté l’entreprise. Il peut aussi réclamer ces mêmes éléments lorsqu’une machine à reconnaissance faciale
tente de recenser ses potentialités ou émotions (par exemple, les expressions de son visage). Ce travailleur peut ainsi demander
138
Le guide de l’intelligence artificielle au travail
à son employeur ses données personnelles issues d’un traitement direct (images, vidéos, voix) ou indirect (les données de
localisation par e-mail, les données de connexion, l’adresse IP de l’ordinateur).
Plus intéressant, le salarié peut aussi demander toutes les infor- mations générées ou produites à partir de ses données, que
des algorithmes auraient utilisées. C’est- à-dire ce qu’on appelle du profilage ou des décisions prédictives. Ainsi, par exemple,
le candidat à l’embauche peut réclamer d’accéder aux données
de son recrutement par intelligence artificielle (voir le logiciel Easyrecrue) et se procurer l’analyse de ses entretiens vidéo et
la décision qui en a découlé. Si des algorithmes classent sa candi- dature ou l’évaluent, il a le droit d’accéder à leur
fonctionnement et de comprendre la décision qui en découle. Par exemple, sa notation via un logiciel de benchmarking ou
son classement via un logiciel de ranking peuvent produire des effets juridiques comme une augmentation salariale ou une
évolution de carrière. De ce fait, le travailleur pourra demander sur quels critères et pourquoi ces évaluations algorithmiques
ont eu de telles conséquences. En matière de dossier disciplinaire, si le salarié est accusé de ne pas
avoir été présent au travail, il est en droit de demander les données qui prouvent son absence ou les données de
géolocalisation.
S’il s’est fait évincer ou s’il n’a pas eu d’augmentation à cause d’un algorithme, le travailleur peut demander les données qui
ont aidé son employeur à prendre ces décisions. Comment va- t-il demander ce droit d’accès ? Il peut le faire par écrit ou par voie
électronique. Il devra alors préciser sur quoi porte sa demande c’est- à-dire être précis sur les documents ou données demandées
qui le concernent (données d’évaluations sur quelles temporalités avec quels logiciels ou nombre d’e-mails, etc.). Il adressera
dans ce cas son courrier au responsable du traitement (à l’employeur). Je lui conseille de bien préciser l’objet de sa demande,
sans quoi
l’employeur peut refuser celui- ci au motif que la demande est Interviews 139
abusive (trop générale). Pour la vidéosurveillance, je lui conseille de préciser les heures et les dates, par exemple, ou d’éviter de
demander une copie des données personnelles sur l’ensemble de sa carrière. Une motivation de la demande n’est pas nécessaire.
L’employeur a un délai maximum d’un mois (article 12.3 du RGPD), sauf demande complexe où une prolongation de deux mois
est possible pour répondre au salarié. Cela permet au salarié de récolter des éléments de preuve avant que son action prud’ho-
male ne soit prescrite. Si l’employeur refuse ou n’est pas capable
d’expliquer le fonctionnement intrinsèque de l’IA, il devra expliquer comment des recommandations de l’IA ont pu produire cet
effet ou cette décision pour le travailleur.
Ces droits sont d’autant plus intéressants que l’employeur peut perdre jusqu’à 4 % du chiffre d’affaires mondial de l’entreprise,
après une plainte auprès de la Cnil. Le droit des données person-nelles est un droit puissant dans sa portée. Ce droit est toutefois
limité par quelques éléments : lorsque son exercice porte atteinte aux intérêts des tiers (il s’agit d’un e-mail qui impliquerait un
collègue du salarié par exemple) ; s’il porte atteinte au secret des correspondances ou au secret des affaires. Ce droit découle de
la loi informatique et libertés, il a un cadre européen (RGPD) et il comporte des sanctions très importantes. La mobilisation du
droit des données personnelles permet de rééquilibrer le rapport de travail. De plus, les entreprises doivent être en capacité de
démontrer par des analyses d’impacts que les traitements algo-rithmes à haut risque qu’elles réservent aux salariés (logiciels de
recrutement, d’évaluation, de surveillance…) sont conformes à cette réglementation. L’idée est que les acteurs sociaux sont
responsables face à l’IA. Si l’un des acteurs pense qu’une IA porte atteinte aux droits des salariés ou des représentants du
personnel, il peut toujours saisir la Cnil.
Emmanuelle Soustre est praticien conseil à l’Assurance maladie (direction régionale du service médical à l’Assurance maladie
en Occitanie). Elle est chargée des relations avec les professionnels de santé pour le secteur dentaire.
Son activité de militante s’articule autour de deux mandats : celui de déléguée syndicale centrale pour la Cnam entreprise
(le siège et les directions régionales du service médical) et celui de présidente du Syndicat national des personnels de
direction des organismes sociaux (régime général avec les branches
famille, vieillesse, maladie, accidents du travail, recouvrement, Pôle emploi, mutuelles complémentaires…). Enfin, elle est
élue
au Bureau national de la CFDT Cadres. Elle partage sa vision de la problématique des données sur les assurés à la Cnam.
Comment se présente la problématique des données sur les assurés à la Cnam, d’autant que celles- ci sont très liées au secret
médical ?
À la Cnam, en matière de données de santé sur les assurés, l’employeur joue un jeu trouble dans le domaine de la respon- sabilité
des praticiens conseils vis- à-vis du secret médical et, tout récemment, dans la double écoute liée à la Covid-19. Ce
jeu se concrétise de deux façons : le contournement de certaines difficultés liées au secret médical, la gestion des implications du
contact tracing.
Interviews 141
Les praticiens conseils sont garants du secret médical inhérent aux données de santé dont ils ont connaissance. Ces profession-
nels sont regroupés au sein d’un corps de contrôle indépendant. Ce corps rend des avis. Il a un code de déontologie qui soumet
son activité au secret médical. Les agents administratifs travaillant auprès des praticiens conseils signent un engagement
individuel de secret professionnel. La violation de ce secret relève du pénal et peut aboutir à un
emprisonnement d’un an et à 10 000 euros d’amende (articles 226-13 et 226-14 du Code pénal). Ce secret médical s’impose sauf
en cas, par exemple, de constatation de sévices physiques sur personne vulnérable ou encore de maladies à déclaration
obligatoire, comme dans le cas de la Covid-19 où un décret a levé cette obligation. En novembre 2019, dans l’accord- cadre sur les
IRP, l’employeur a étendu les prérogatives de la commission relative à l’activité des praticiens conseils à la protec- tion des
données. Cela afin d’éclairer les élus du CSE central dans leurs avis. Cette commission s’est réunie deux fois. Elle a constaté que
l’employeur avait essayé de contourner les difficultés liées au secret médical dans certaines activités. Tel est le cas pour la cellule
intitulée « recours contre tiers », placée sous l’autorité fonctionnelle d’un médecin- conseil. Ces cellules, sur l’ensemble du
territoire, récupèrent un milliard d’euros par an auprès de tiers responsables d’accidents corporels d’assurés, dans les accidents
de la route, par exemple. Elle calcule l’assiette du préjudice et les frais remboursés à l’assuré pour se retourner ensuite contre
l’assurance du tiers et récupérer des fonds. Les agents de ces cellules n’ont pas de lien hiérarchique avec le médecin- conseil
responsable de la cellule, mais ils ont un lien fonctionnel qui implique que s’ils divulguent une information médicale, c’est le
médecin- conseil qui sera sanctionné pénalement. La CFDT a 142
Le guide de l’intelligence artificielle au travail
alerté la direction de l’aspect faillible de cette organisation et a saisi la commission relative à l’activité des praticiens conseils,
pour demander que la Cnam établisse un système de gestion des données des assurés juridiquement robuste. Depuis cinq ans,
elle est toujours sur ce sujet.
Quid du secret médical dans le contact tracing ? Pendant la pandémie de la Covid-19, le contact tracing permet à la Cnam de
contacter les patients zéros, pour alerter, tester,
protéger l’entourage et prévenir la maladie. Dans le cadre de la gestion de la crise sanitaire, la Cnam a mis en place une
démarche d’amélioration des doubles écoutes téléphoniques
concernant le contenu des conversations des praticiens conseils, dans les brigades Covid-19, pratiquant le contact tracing.
Dans ce qui touche à la Covid-19, le secret médical a été levé par décret et ces écoutes ont révélé que les patients ou les
familles touchées évoquaient au téléphone des sujets médicaux très divers, autres que la Covid-19, et parfois élargis à de
nombreuses personnes.
La CFDT a alerté la Cnam sur le fait qu’un tiers écoute la qualité des échanges, ce qui est contraire au secret médical. Par
ailleurs, elle a estimé que cette double écoute posait la question de la protection, de l’enregistrement, de la conservation des
données sur les assurés.
Véran a indiqué qu’il ne souhaitait pas que le lieu de stockage des données de l’Assurance maladie, qui constitue la plus grosse
base de données en Europe, soit hébergé par Microsoft. Par ailleurs, l’anonymisation des données pourrait être utile à la Cnam,
dans une démarche de santé publique, pour mieux cerner, par exemple, l’explosion de l’obésité et du diabète, qui pèse sur les
finances – et si elle peut permettre de mieux appréhender ces maladies et de mieux les soigner, cela ferait autant d’économies
potentielles. Les institutions représentatives du personnel restent sans recours sur ces sujets-là.
LA COMMISSION EUROPÉENNE PEUT DÉCIDER DE RENDRE
UNE NORME D’INTELLIGENCE ARTIFICIELLE OBLIGATOIRE
DANS 27 PAYS
Philippe Saint- Aubin représente la CFDT au sein du Conseil économique, social et environnemental. Il fait partie
d’un groupe de travail de la CFDT sur l’intelligence artificielle et surveille particulièrement la question des normes.
le domaine de l’intelligence artificielle feront l’objet d’un label à l’avenir, et si ce label sera opposable.
Quels types de normes sont créés actuellement ?
Une palanquée de normes sur l’IA est en train de se créer. Mais celles- ci sont pour le moment purement techniques. On peut
prendre comme exemple d’IA technique, la façon dont l’IA va distinguer les différents accents dans les langues parlées ou celle
dont les machines vont dialoguer (format des données, codes) ensemble. Mais comme le diable se cache dans les détails, il existe
aussi des normes purement techniques qui touchent à la gestion des données et/ou au respect de la vie
privée…
À la demande de la Commission européenne, le Comité européen de normalisation a dessiné une « road map » (feuille de route)
sur ce qu’il pense utile en matière de normes et de sujets. Il souligne ainsi que la qualité, la gestion des données, la sécurité et le
respect de la vie privée, l’éthique, l’ingénierie des systèmes d’IA, la sécurité et la responsabilité méritent un traitement.
Autant de thèmes potentiels sur la table du Comité de normali-sation. De son côté, la Commission peut décider de rendre une
norme européenne obligatoire dans
27 pays.
Au niveau européen, il y a eu un travail similaire à la road map du Comité européen de normalisation dans le domaine de la
cybersécurité. Rappelons que ce comité rassemble tous les organismes de normalisation des États membres, dont l’Afnor pour la
France.
Au niveau mondial, il existe aussi des normes dans le domaine de l’IA mais elles sont là encore purement techniques (formats
de messages, description de systèmes).
Cela veut- il dire que les normes n’ont aucun impact sur les élus du personnel dans les entreprises ?
Pour les élus d’entreprise, évidemment, ces sujets n’ont pas d’im- pact. Mais ils peuvent quand même avoir une importance
sérieuse pour eux. La surveillance dans le cadre du télétravail, via l’IA,
sera un sujet relativement important, par exemple. Et c’est pour
cela que la Confédération européenne des syndicats (CES) a un comité technique qui travaille sur les normes d’IA. Si on n’a
pas de normes au niveau des pays, ce sont les entreprises qui prendront le pouvoir avec leurs propres normes. Et là, tout est
possible.
FACE À L’INTELLIGENCE ARTIFICIELLE, IL S’AGIT TOUJOURS
DE SE RENSEIGNER, DE QUESTIONNER ET DE DONNER DU SENS
Emmanuel Gaubert
SPEA- IDF à Orano Projets Saint- Quentin- en- Yvelines, filiale experte dans l’ingénierie du cycle du combustible nucléaire,
une large gamme de solutions : conseil, études d’ingénierie, construction et essais, projets clés en main ou encore
de démantèlement. Orano Projets est engagé dans un plan de continuité numérique (au sens du partage de données entre les
logiciels et de perspectives de massification de l’utilisation
de ceux- ci), et la section locale d’établissement CFDT
Que l’intelligence artificielle ou les techniques assimilées soient présentes ou pas dans l’entreprise, les trois lois du syndicalisme
chez Orano Projets sont les mêmes dans la pratique. Il s’agit toujours de se renseigner, de questionner, et de donner du sens. La
pratique de la CFDT montre qu’en matière d’intelligence arti-ficielle, les élus d’Orano Projets sont pertinents de la même façon
que sur les autres sujets au travail, avec les mêmes outils, et majoritairement sur des sujets transverses classiques.
Les militants et élus se renseignent sur le terrain. Salariés, experts, preuves de concept, présentation des métiers, publi-cations
sont les canaux classiques explorés. Cette première phase correspond à un moment où la section syndicale
d’Orano 148 Le guide de l’intelligence artificielle au travail
s’est mise à discuter d’IA et plus largement, de transforma- tion numérique, ce qui a assuré l’autoformation du groupe. La
section syndicale a conseillé à un salarié la manière de gérer sa démarche de formation de plusieurs mois en matière d’intelli-
gence artificielle. La formation a eu lieu alors que l’entreprise avait par ailleurs investi dans de la formation en IA pour plusieurs
ingénieurs en sûreté ou génie civil, par exemple.
Y a- t-il des effets spécifiques à l’IA à Orano Projets sur le travail ?
La CFDT estime que l’intelligence artificielle entraîne chez Orano Projets une mutation du travail comme une autre, mais
profonde.
Les élus questionnent en CSE sur la formation et le volume d’heures prévues, et en CSE central, sur la stratégie de mana-
gement du changement. La CFDT a suggéré de partir sur des méthodes assises sur la nomination d’agents du changement et
de leaders référents locaux, et cette méthode a été adoptée. Enfin, les élus donnent du sens à l’intelligence artificielle via des
questions ou des analyses. En l’occurrence, en 2019, la CFDT percevait un retard dans la mise en place de l’IA. La direction a
répondu avoir pris le temps de l’analyse pour décider qu’il n’y aurait pas de département IA, mais que l’IA serait à la main de
chacun dans les métiers pour lesquels elle est pertinente. La CFDT constate qu’il y a là un sens commercial, un sens orienté
client
et un savoir- faire métier (d’autant que les outils d’IA deviennent accessibles aux métiers directement). La CFDT et la direction
partagent la vision que la gestion/acquisition des données est prioritaire, et que le rôle des métiers est primordial à ce niveau.
Identifiez- vous des défis particuliers posés par cette technologie à Orano Projets ?
Quant à donner du sens à tout cela… Il existe des sujets éthiques
dans d’autres entreprises (la CFDT n’en voit pas dans les Interviews 149
applications utilisées, mais elle reste vigilante). Aujourd’hui, au- delà des engagements de responsabilité sociale d’entreprise, la
CFDT poursuit les échanges et discussions avec les salariés sur le sens de leur travail, son utilité, leurs projections, etc. En
conclusion, l’IA et la transformation numérique renforcent surtout le besoin de dialogue avec les élus dans les entreprises.
IL EST TEMPS QUE
À L’INTELLIGENCE ARTIFICIELLE !
Pascal Leblay
Depuis février 2019, Pascal Leblay est l’auteur de deux publications : la première vulgarise l’intelligence artificielle, la seconde
tire un bilan de l’impact de l’IA sur les métiers de la banque et de l’assurance. Ces deux publications sont destinées
aux réseaux de salariés de la BPE, et aux élus de la Banque Postale et de la CFDT en général. Pascal Leblay est secrétaire
du CSE de la BPE (banque privée de la Banque Postale)
et du syndicat banques- assurances CFDT de Haute- Normandie, ainsi que secrétaire du comité de groupe de la Banque
Postale.
Par ailleurs, il est directeur d’agence bancaire depuis 1989.
Depuis quand vous passionnez- vous pour l’intelligence artificielle ?
Depuis quatre ans. Dans un congrès CFDT, j’ai découvert l’IA. Et j’ai compris deux choses : d’abord l’IA est comme un enfant avec
un QI de 140, malgré son potentiel, si on ne lui apprend rien, rien n’en sortira ; au pire des jugements irréfléchis. Ensuite, il
n’existe pas de formation à l’IA pour les représentants du personnel et cela va très bien aux directions qui ont confisqué le sujet.
Nos efforts doivent donc porter sur la formation des élus du personnel pour éviter toute opacité sur ce sujet. Comment juger un
dossier sur un sujet qu’on ne connaît pas ? Les représentants des salariés ne peuvent pas donner des avis motivés s’ils n’ont pas
été formés. Il est important que la CFDT forme sur la meilleure façon d’appréhender l’intelligence artificielle et sur les bonnes
questions à poser.
Interviews 151
tions, l’introduction de l’IA se traduira par un risque pour l’emploi. Il y a quelques années, le robot Watson a été introduit comme
agent conversationnel (analyseur d’e-mails) au Crédit Mutuel et les salariés en ont été plutôt satisfaits parce qu’ils l’ont aidé à
s’éduquer. La vérification de conformité a pris de plus en plus de place dans le temps de travail. Il y a dix ans, 80 % du temps des
salariés étaient dévolus au commercial et 20 % à l’administratif. Aujourd’hui, ces proportions sont inversées. L’évolution que vont
subir les métiers du risque et de la conformité dans les prochaines années fait partie des grandes interrogations qui restent, à
l’heure actuelle, difficiles à lever. L’automatisation progressive des outils de contrôle et d’analyse, couplée à la multiplication des
régle-mentations, a été à l’origine d’une forte demande d’embauches dans la banque, mais celle- ci va s’essouffler
prochainement. Dans le contrôle de conformité, la proportion d’activités pouvant être confiée à la machine reste inconnue.
Lorsqu’on est directeur d’agence, on est responsable de la conformité, un travail bien pertinent. Investir dans la
digitalisation de la conformité, c’est faciliter le travail des salariés. Les banquiers qui arriveront à
mettre des commerciaux dans leur cœur de métier gagneront la bataille, grâce à l’IA. Si l’option choisie est de se servir du numé-
rique juste pour rationaliser les coûts, en effet il y a un risque pour nos emplois.
Le CIC, qui fait partie du groupe Crédit Mutuel, a pris une longueur d’avance sur ses concurrents. Il a permis de replacer en
partie les salariés de la banque dans leur cœur de métier : à la disposition
du client. Ce n’est pas un hasard si ce groupe est sacré meilleur employeur de France, pour la quatrième année consécutive.
La version 1 de Watson date de 2016. Ce robot est intervenu cette année- là en tant qu’analyseur d’e-mails pour aider les
conseillers clientèle du Crédit Mutuel à répondre. Le robot triait entre les demandes de RDV et il proposait lui- même des
RDV en fonction de l’agenda de chaque conseiller clientèle. Le salarié gardait la main en vérifiant et en validant le travail du
robot. L’IA interprète également le train de vie et permet de vérifier automatiquement la cohérence des renseignements
fournis (revenus imposables, salaires, dépenses) sur la base d’informations collectées auto- matiquement. Pour l’heure, il
n’existe pas de régulateur de l’IA
avec un cadre juridique et éthique et ce type d’analyse échappe au règlement sur la protection des données personnelles.
L’évolution tend vers le conseil patrimonial, où l’IA sera un assistant rappelant les modalités fiscales avec la loi de finances,
les choix juridiques
avec le Code civil… Il devrait ensuite être incollable sur l’assu- rance santé et la prévoyance.
Cela veut dire que toute avancée technologique dans l’entreprise modifiant les conditions de travail ou les métiers devrait faire
l’objet d’une information et d’une consultation des instances représentatives du personnel.
bution courrier par IA. La Poste a acheté la société Probayes, Interviews 153
propriétaire entre autres d’un logiciel qui sait lire les enveloppes, notamment lorsqu’il manque une lettre ou qui sait remettre
une adresse dans le bon ordre. Désormais, Il faut une traçabilité pour 90 % des colis et courriers qui arrivent en France pour la
lutte Tracfin. Le logiciel va savoir décrypter quand un courrier arrive régulièrement en provenance de tel pays, de tel lieu avec tel
poids. Il pourra recenser quand un même courrier arrive plusieurs fois d’un lieu identique. C’est une directive européenne sur la
lutte anti- blanchiment qui impose cette surveillance qui est très utile à Tracfin. Le courrier qui arrivera à l’aéroport sera lu immé-
diatement par l’IA. Celle- ci remettra l’adresse « à l’endroit » et lira le code postal. Le courrier sera orienté vers un centre de
distribution, vers un facteur, et vers une tournée.
Avec l’euro numérique, seules les cryptomonnaies pourront échapper au contrôle européen, car elles peuvent être achetées à
partir de comptes anonymes.
Le Crédit Agricole bien sûr s’est très bien approprié l’IA. La BNP a fait une avancée avec IBM blockchain, facilitateur pour la
gestion Tracfin et Lab. La blockchain est un coffre- fort numé-risé où l’on ne peut plus modifier ce qui est placé à l’intérieur. Tous
les documents de la blockchain sont des originaux véri-fiés. Un exemple de blockchain est la convention Archipel, à laquelle
adhèrent La Poste, EDF, Engie et la Caisse des dépôts et consignations. Les quatre groupes s’unissent pour détecter les
falsifications de justificatifs qu’ils émettent via la technologie de registre décentralisé, et vont développer une offre multi- acteurs
permettant ainsi aux banques, aux assureurs, et aux prestataires sociaux de vérifier si les justificatifs fournis ont été falsifiés. Le
fait de pouvoir vérifier la validité d’un document avec peu d’er-reurs autorise bien sûr beaucoup d’autres applications. En 2025, le
partage d’informations entre banques sera généralisé par les réglementations européennes. Les banques vont devoir traiter la
question de leur positionnement, résoudre le problème de la gestion des données et de leur exploitation.
des comptes avec uniquement une photographie faciale autorisée par la Cnil. On peut également citer l’assistant Synoé à la
Société Générale.
Enfin, il existe un fichier (Ficoba) de tous les comptes que l’on a ouvert dans sa vie à la Banque de France. Il est accessible à
la douane, aux services fiscaux, à Tracfin, ainsi qu’à plusieurs organismes d’État.
Pas la Cnil, car ce n’est pas de son ressort. C’est l’Europe qui doit dire « stop, on va un peu trop loin ». Certes, nous n’en
sommes pas au passeport QVT- social des Chinois, mais c’est sous- jacent. Pour l’instant, l’IA s’immisce partout. Dans le CFDT
magazine1,
je lis que le délégué CFDT Aymeric Pointub du Crédit Mutuel se
déclare satisfait du robot Watson, même s’il reconnaît que l’assis- tance humaine sera toujours nécessaire. Mais dans les
banques, une grande partie des tâches de back- office, du contrôle et de l’analyse du risque pourrait disparaître. Prenons
l’exemple de la Belgique qui avait deux problèmes : trop de banquiers et pas assez de personnel de la santé. Les directions
bancaires sponsorisées
par des aides gouvernementales ont accompagné ce changement radical de métier et motivé financièrement les mobilités, et
le résultat a été probant.
Entre 2006 et 2016, le nombre d’états de reporting obligatoires à produire par les établissements bancaires a augmenté de
83 %,
Les effectifs de la conformité bancaire ont été multipliés par trois ces dix dernières années et selon l’Observatoire de la banque,
20 % des effectifs vont voir leurs métiers disparaître d’ici 2025 et
50 % vont les voir profondément évoluer. Depuis 2010, les banques françaises ont perdu 4 % de leurs effectifs. Après la crise
finan- cière, les effectifs avaient diminué, mais ce phénomène avait
Interviews 155
été masqué par la hausse des effectifs des services centraux risque- conformité.
Maintenant, on constate une érosion lente mais régulière des effectifs car 80 % des opérations en back- office sont automati-
sables. Côté création d’emplois, La Poste a eu la bonne idée de créer un incubateur du numérique et de l’IA, qui comprend une
open- class pour les salariés. Car elle estime qu’un ingénieur recruté à l’extérieur de l’IA coûte très cher, et autant utiliser le
potentiel de ses 270 000 salariés. Même les IRP ont été formées à l’IA à La Poste…
TESTER, TESTER, TESTER LES BOÎTES NOIRES
DE L’INTELLIGENCE ARTIFICIELLE
Dominique Desbois
de recherches « Économie publique » d’AgroParisTech, et milite au syndicat CFDT de l’Institut national de recherche pour
l’agriculture et l’environnement (Inrae). En tant qu’élu du personnel, il siège au conseil scientifique d’AgroParisTech et au
conseil d’administration
de l’Inrae. Par ailleurs, il est membre du comité de rédaction de Terminal2, revue de réflexion critique qui analyse les impacts
de
l’informatisation sur la société. À ce titre, il est le délégué français au comité technique Information, Communication &
Society (TC9)3 de la Fédération internationale pour le traitement de l’information
Terminal s’attache à une réflexion pluridisciplinaire sur les impacts culturels et sociaux des technologies de l’information et de la
communication (TIC).
Cette revue analyse les enjeux des TIC en termes de libertés individuelles et de développement durable. Pour l’édition de ses
dossiers, la revue colla-
bore avec des laboratoires universitaires, mais également avec des associations citoyennes et des contributeurs indépendants.
[Link]/
Intégrant les travaux de Pascal et de Leibniz sur les machines à calculer, Charles Babbage élabora les concepts fondamentaux sur
lesquels repose encore de nos jours l’architecture des ordinateurs, dans un mémoire intitulé On
the Economy of Machinery and Manufactures (Charles Knight, Londres, 1835),
Interviews 157
Lovelace6 dont les applications potentielles visaient l’astronomie et la navigation, il suffit d’un regard rétrospectif sur les princi-
pales étapes de son développement pour constater que l’IA est une véritable tour de Babel !
Il y a 70 ans, Alan Turing, co- déchiffreur du code Enigma et auteur du concept de machine universelle, pose dans la revue Mind la
question de l’automatisation des capacités cognitives sous une forme volontairement provocatrice : « Une machine peut- elle
penser ? »
Depuis ses balbutiements, les annonces médiatisées des prouesses technologiques attribuées à l’IA portent à croire à une unité
disciplinaire alors que, sous le même vocable, s’agrègent des problématiques très diverses et des techniques très diffé- rentes.
Cependant, cette tour de Babel numérique qui s’étend des mathématiques théoriques à l’électronique industrielle, s’orga-nise
autour de tâches fondamentales qui fédèrent les différentes approches : représenter l’information, raisonner, résoudre et in fine
apprendre.
Au cœur de technologies comme la robotique ou la reconnais-sance des formes, l’IA vient assister, suppléer, voire dépasser un
certain nombre de facultés cognitives humaines de manière efficace à la fois au plan technique mais aussi économique, qu’il
s’agisse de processus de production comme dans le secteur de l’automobile, d’assistance à des opérateurs humains comme pour
le pilotage d’installations à risque, ou d’intermédiation comme dans le secteur de la distribution ou des
services à la personne.
destiné au calcul et à l’impression automatiques des tables nautiques et astro- nomiques qui comportaient à l’époque de
nombreuses erreurs. 6. Née Ada Byron, Augusta Ada King, comtesse de Lovelace, est l’auteure du premier programme destiné à
être exécuté sur une machine (la Machine analy-tique de Charles Babbage) pour le calcul des nombres de Bernoulli en 1843.
Y. LeCun et al., « Backpropagation applied to handwritten zip code reco- gnition », Neural Computation, 1989, 1(4), p. 541-551.
Édouard Pfimlin, « Zora, la solution robotique au service des seniors »,
D. Desbois, « Drague fiscale sur les réseaux sociaux », Terminal, no 125-126, 25 novembre 2019.
Interviews 159
La lecture automatique des plaques minéralogiques est désor-mais une application intégrée à la gestion du trafic routier, comme
c’est le cas pour le péage urbain du Grand Londres.
La reconnaissance faciale est couramment utilisée lors des contrôles de police, notamment dans les aéroports, et par certains
pays dans la gestion des manifestations à partir de caméras de surveillance, fixes ou embarquées sur des drones, en se basant sur
des techniques de reconnaissances de formes biométriques similaires à celles développées pour les empreintes digitales.
Dans le secteur de l’énergie, EDF propose à ses clients industriels Metroscope, une solution de diagnostic énergétique basée sur
l’intégration de techniques d’IA10.
Ces quelques exemples ne représentent que la partie émergée de l’iceberg dans la mesure où de nombreux projets restent
confidentiels, car ils sont en phase de développement, comme le pilotage automatique dans l’industrie ferroviaire, ou de test
pour l’industrie aéronautique voire couverts par le secret industriel ou le secret- défense.
Et si l’IA se trompe ?
Cela arrive effectivement et les antécédents sont le plus souvent assimilables à des erreurs dans l’utilisation ou la conception des
logiciels. Leurs conséquences sont loin d’être anodines : des biais peuvent être générés par la base des données sur laquelle on
entraîne un algorithme (base d’apprentissage), ou induits par des corrélations insoupçonnées avec des règles de décision, des
critères de sélection voire des comportements algorithmiques. En 2018, Amazon a été contraint de revoir son système de sélec-
tion automatique de curriculum vitæ après avoir constaté qu’il pénalisait systématiquement les curriculum vitæ féminins : en
cause, la base d’apprentissage reproduisant un déséquilibre dans
la distribution des genres, car constituée à partir des recrute- ments antérieurs sans que leurs biais n’aient été corrigés. De ce
point de vue, la technologie d’IA mobilisée n’est pas neutre, car
certaines méthodes tendent à renforcer les biais inscrits dans la base d’apprentissage.
En reconnaissance faciale, les problèmes de biais entachant les résultats fournis par les algorithmes d’IA peuvent aboutir à
des discriminations ethniques ou sexistes. Une étude du MIT Media Lab a révélé en 2018 que ReKognition, l’IA de
reconnaissance faciale d’Amazon, présentait des biais susceptibles de générer des discriminations : la détection de genre
affichait un taux de réus- site à 100 % pour les hommes à la peau claire alors que ce score tombait à 81 % pour les femmes,
voire à 69 % pour les femmes à la peau sombre, sachant que le score de réussite d’un progiciel concurrent était de 98,5 %
pour les femmes à la peau sombre.
La reproduction, voire l’amplification par renforcement, de biais non détectés a priori dans les bases de données
d’apprentissage, fait de l’IA un levier de discrimination, d’autant que ces biais dits
« cognitifs11 » sont difficilement détectables a priori : c’est le talon d’Achille des algorithmes pointé par un rapport récent de
l’Office parlementaire d’évaluation des choix scientifiques et technolo- giques (Opecst)12.
Récemment, en 2018, la Commission nationale informatique et
libertés a mis en demeure le ministère français en charge de l’enseignement supérieur de réformer la procédure d’admis-
sion post- bac à la suite d’une plainte introduite en 2016, afin que celle- ci respecte les dispositions de la loi informatique et
libertés de 1978 sur le traitement informatisé des données personnelles. Entre autres motivations, la Cnil souligne que l’absence
de détails
Initialement, le terme de « biais cognitif » a été introduit par Daniel Kahneman et Amos Tversky pour décrire les tendances
observées dans les comportements humains apparaissant comme irrationnelles au plan économique.
Rapport d’information no 464 (2016-2017), C. de Gannay et D. Gillot, Office parlementaire d’évaluation des choix scientifiques et
technologiques, déposé le 15 mars 2017.
Interviews 161
sur les rouages de l’algorithme utilisé pour procéder au clas-sement et à l’affectation du candidat bachelier contrevenait à l’article
39 de la loi de 1978 en ne lui permettant pas « de connaître et de contester la logique qui sous- tend le traitement automatisé en
cas de décision prise sur le fondement de celui- ci et produisant des effets juridiques à l’égard de l’intéressé ».
Que peut- on faire pour lutter contre les biais ?
« Accroître l’auditabilité des systèmes d’IA » est l’une des voies préconisées par le rapport Villani13. À l’heure actuelle, trouver un
compromis optimal entre performance et interprétabilité selon le contexte d’application reste du domaine de la recherche.
Cependant, il serait vain de chercher une solution exclusivement technique à un problème qui demeure avant tout politique.
Ainsi, l’accès au crédit bancaire est une figure classique des discrimina-tions de genre et d’origine. Aux États- Unis, encore
actuellement, l’accès au crédit logement est conditionné par votre lieu de rési- dence plutôt que par vos capacités de
remboursement.
Le rapport Villani propose « la constitution d’un corps d’experts publics assermentés, en mesure de procéder à des audits d’al-
gorithmes, des bases de données et de procéder à des tests par tout moyen requis ». De fait, certaines institutions indépendantes
prennent déjà en charge dans leur champ de compétences cet audit public et indépendant, à l’instar de la Cnil et de l’Opecst,
même s’il devient opportun de renforcer les capacités d’expertise scientifique et technique sur lesquelles elles pourraient s’ap-
puyer. Par exemple, une meilleure intégration des dispositions législatives à l’arsenal réglementaire constitue l’une des
voies de progrès : en France, depuis 2010, pour intégrer les dispositions de la loi du 27 mai 2008 relative à la lutte contre les
discrimina-tions, la Cnil a modifié l’autorisation accordée aux banques pour les traitements dits de « credit scoring » attribuant un
risque de défaillance et donc un taux différencié d’emprunt aux clients sur
Il n’empêche : plusieurs fois alertée par certains de ses adminis- trés, la mairie de Villeurbanne, dans le Rhône, lance une
opération de « testing » pour objectiver les discriminations qui ont cours dans le secteur bancaire pour l’accès au prêt
immobilier et au crédit à
la création d’entreprise. Sur l’ensemble de l’agglomération lyon- naise, 90 tests ont été conduits dans 63 agences de 12
banques différentes, d’avril à décembre 2016. Les résultats du testing révèlent des discriminations à chacune des étapes du
parcours
du demandeur de prêt : ainsi, ils montrent que le genre peut être un critère discriminant dans l’accès au crédit bancaire, mais
de façon moins caractérisée que pour l’origine migratoire supposée. Il devient urgent d’ouvrir les « boîtes noires » de l’IA
dans bien d’autres secteurs : une enquête récente menée conjointement
par le CNRS et SOS Racisme montre que ces discriminations s’étendent à des domaines qui demeurent insuffisamment
explorés en France : la formation professionnelle, l’assurance
automobile, l’accès aux complémentaires santé, le crédit à la consommation, l’achat d’une voiture d’occasion, l’hébergement
touristique et la reprise d’entreprise.
Signalons à cette occasion, la contribution originale sur l’enjeu sociétal majeur des inégalités dans l’accès à l’emploi réalisée par
l’Observatoire des discriminations de l’université Panthéon-
Sorbonne qui propose une plateforme internet de différents outils avec un test d’autoévaluation14.
La formation des professionnels à ces problématiques de discri- mination peut également jouer un rôle avec une sensibilisation
aux règles éthiques nécessaires pour encadrer les activités basées sur l’IA.
[Link]/
Interviews 163
Dans le domaine éthique, l’IFIP a publié un code d’éthique pour les informaticiens professionnels qui codent les programmes et
gèrent les systèmes d’information15. Même si elles ne possèdent pas la force contraignante des lois, les chartes éthiques servent
de référentiel lorsque le cadre juridique est insuffisant, voire absent pour les firmes transnationales (FTN) gérant des marques et
des labels : leur gouvernance étant assez sensible à leur réputation globale du fait de la structure
de leur financement et de leurs marchés, les FTN essayent de se conformer aux
codes éthiques lorsqu’ils existent, dans une démarche interne le plus souvent préférée à la certification externe.
De fait, le meilleur moyen de se protéger contre ces biais cognitifs est de contraindre les opérateurs de l’IA à ouvrir leurs « boîtes
noires » à une expertise publique et indépendante afin de trouver un équilibre durable entre le développement technologique et
la protection des citoyens. Ceux- ci doivent être protégés en tant que consommateurs de produits, mais aussi comme
producteurs d’interactions sociales dans la sphère du travail autant que dans l’espace public.
En tant qu’administrateur salarié représentant de la CFDT au conseil d’administration de l’Inrae, je suis très attentif à cette
question dans le contexte de la recherche appliquée et du déve-loppement d’innovations pour le secteur agroalimentaire. En tant
qu’élu du personnel, l’incidence sur l’emploi est l’une de nos prin-cipales préoccupations qui légitime également mes
interventions en tant que membre élu du conseil scientifique d’AgroParisTech et observateur CFDT au conseil scientifique de
l’Inrae.
Il faut bien admettre que, depuis une décennie, l’IA a pris une part de plus en plus importante dans la gestion des processus au
sein de l’agroalimentaire pour réduire les coûts, pas seulement en
éliminant les gaspillages avec des applications au tri alimentaire et à la gestion des intrants, mais également en contribuant à la
réduction de la main- d’œuvre et des coûts qui y sont généralement associés par les gestionnaires, y compris dans la distribution.
Cela pose des problèmes de reconversion évidents aux moins qualifiés des salariés que notre syndicalisme doit protéger et
accompagner.
Les différences d’impact peuvent être sectorielles comme pour les secteurs liés à l’innovation où l’IA est désormais large- ment
utilisée pour le dépôt de brevets16 ou dans la recherche pharmaceutique.
Pour rassembler les capacités de prévisions et de prospectives,
mais aussi faire le lien avec des expérimentations de terrain ciblées sur les catégories d’emploi les plus menacées, le rapport
Villani propose la création d’un laboratoire public sur la transfor- mation du travail. Mobilisant un montant global de 32 milliards
d’euros, le levier de la formation professionnelle est également
V. Kanesarajah et E. White, « Chasing change: Innovation and patent activity during COVID-19. A report on the pandemic’s impact
on the global R&D community and innovation lifecycle », Clarivate, 2020.
Interviews 165
évoqué pour développer la médiation numérique et l’innovation sociale afin que l’IA bénéficie à tous. Néanmoins, il convient
d’être vigilant afin que cela soit réellement un moyen pour l’in-dividu d’être acteur dans la négociation de sa propre transition
professionnelle. De ce point de vue, davantage de recherches socio- économiques doivent être entreprises sur la réorganisa-tion
des chaînes de valeur affectées par l’IA dans le contexte de l’après- Covid-19.
L’INTELLIGENCE ARTIFICIELLE EST UN OUTIL PUISSANT. TROP PUISSANT ?
Soraya Duboc
Soraya Duboc est ingénieure dans un groupe international, ancienne présidente de l’Observatoire des cadres (OdC), ancien
membre du comité d’éthique pour la recherche
agronomique. Au Conseil économique social et environnemental (CESE) où elle siège au titre de la CFDT, elle a co- rapporté
l’avis
On peut considérer que l’intelligence artificielle est un outil qui démultiplie les capacités humaines, celles de l’individu et
celles d’une communauté. Mais n’est- ce pas déjà le cas d’autres appli- cations de la science : bombe atomique, microscope
électronique, organisme génétiquement modifié ?
Quelles spécificités présentent les technologies basées sur l’IA ?
Si les applications de l’IA dans de nombreux domaines apportent des bénéfices indéniables (optimisation et automatisation des
procédés de fabrication, anticipation des phénomènes clima- tiques extrêmes, médecine sur mesure, etc.), elles font émerger de
vives questions dès lors qu’elles touchent à nos droits fonda- mentaux, nos libertés.
Les deux exemples d’application qui me viennent le plus vite à l’esprit sont le recrutement et les décisions de justice.
Interviews 167
Dans ces deux domaines pris en exemple, l’IA va sur le terrain de nos comportements, de nos émotions, de nos croyances et
même de nos intentions : elle glane des données innombrables et disparates, les nôtres et celles des autres, celles de notre
environnement immédiat, du temps présent et passé, les croise et prétend anticiper au plus juste nos réactions, nos décisions –
que nous pensons libres. Quand bien même ces anticipations se révèlent exactes, il se peut que la personne n’ait pas eu
l’intention de les énoncer. Elle peut faire de nous des êtres prévisibles par le calcul algorithmique. Elle peut nous faire douter de
notre capacité à bifurquer, de notre liberté à aller hors des sentiers battus. Elle nous fait perdre notre singularité, en quelque
sorte. Et conduire à une forme de déterminisme algorithmique.
La naïveté et la méfiance sont- elles adaptées quand on parle d’IA ?
Le premier polar bioéthique sur l’intelligence artificielle publié en 2018, S.A.R.R.A., met en scène dans un horizon proche (2025)
une IA à qui l’on confie le soin de gérer une épidémie d’Ebola au plein cœur de Paris. Son auteur, David Gruson17, nous décrit en
connaisseur de l’IA ce qu’elle peut produire en intégrant la prévi- sibilité des motivations et comportements humains. D’où, à
mon sens, l’importance de sortir d’une forme de naïveté, ou d’excès de défiance envers l’IA. Il nous faut connaître quelles sont les
finalités d’un outil basé sur l’IA et quels sont ses effets sociaux et économiques non prévus et non désirables. Collectivement,
nous devrions être en mesure de définir les aspects de notre vie où l’IA ne doit pas être utilisée du tout, et des domaines où l’on
peut l’utiliser mais avec prudence. Une analogie peut être faite avec ce que la biologiste Anne McLaren (1927-2007) désignait par
« No go areas » et « Slow go areas ».
Ex- délégué général de la Fédération hospitalière de France et membre du comité de direction de la chaire santé de Sciences Po
Paris.
L’INTELLIGENCE ARTIFICIELLE,
DE L’USINE DE DEMAIN
AU RENOUVEAU DU DIALOGUE
SOCIAL ET SOCIÉTAL
Warda Ichir
Warda Ichir est secrétaire fédérale à la Fédération générale des mines et métallurgie (FGMM- CFDT).
Alain Larose
est responsable des questions de dialogue social après avoir supervisé pendant des années le pôle économique
Comment définiriez- vous l’intelligence artificielle ? L’intelligence artificielle est une technologie avancée à usage général,
c’est- à-dire qui a vocation à s’étendre à tous les secteurs économiques, avec un impact sur la société dans son ensemble.
L’IA renvoie à une puissance de calcul, capable de traiter diffé- rents types de données (reconnaissance vocale, faciale, de vidéos,
et « compréhension de texte »), qui s’appuie sur des réseaux déve- loppés et des données en grande quantité. La disponibilité
d’une grande masse de données, stockées dans le cloud, alimentée
par de nombreux terminaux connectés comme les ordinateurs, les smartphones, les capteurs, ou les robots permet à l’IA de
s’entraîner et de gagner en pertinence.
Interviews 169
L’intérêt de l’IA est de proposer des prédictions (saisie de texte, interprétation de radios médicales, maintenance prédictive), de
formuler des recommandations (vidéos sur YouTube et Netflix), voire de prendre des décisions (fixer des prix sur Amazon18).
L’IA conduit donc à la prise de décision, en fonction de ce pour quoi elle a été programmée. En fait, si les machines et robots se
substituent à notre force physique (nos bras et nos jambes notam-ment), l’IA remplace en partie les capacités de notre cerveau.
Or, nous n’avons pas cessé d’utiliser nos jambes depuis que les vélos, voitures et transports existent. De même, les calculatrices
nous font gagner du temps et laissent finalement notre cerveau disponible pour autre chose. Quoi qu’il en soit, rappelons que
l’hu-main reste incontournable pour la conception des programmes, pour leur assigner une finalité, sélectionner les données
d’en- traînement et en contrôler les résultats. Même si le principe de l’apprentissage automatique de l’IA conduit à s’affranchir en
partie de la programmation, les hommes peuvent et doivent donc garder la main.
Le premier problème est que la prise de décision individuelle est considérée comme le propre de l’homme, notamment pour des
questions juridiques. En effet, l’âge de la majorité fixé à 18 ans permet d’exercer pleinement ses droits, mais ceux- ci sont assortis
d’une pleine responsabilité. Au- delà du fait que l’ar-ticle 22 du RGPD interdit de « faire l’objet d’une décision fondée uniquement
sur un traitement automatisé dans l’Union euro-péenne19 », il est aisé de comprendre que toute décision doit être rattachable à
un humain, responsable, pour être expliquée, et éventuellement réparée. En effet, l’IA résulte d’une programma-tion humaine, et
rappelons qu’un outil n’a pas de volonté propre. Le second problème se situe au- delà de la décision individuelle : au
« Pleins feux sur l’intelligence artificielle », Harvard Business Review, décembre 2020-janvier 2021.
Article22
niveau collectif, la décision renvoie au politique. Rappelons que l’OCDE qualifie l’IA de technologie « pervasive » (envahissante),
tant cette technologie est prête à couvrir chacun des aspects de notre quotidien20.
tion numérique, il semble néanmoins que le déploiement de l’IA n’en soit qu’à ses débuts, faute de maturité de ses
applications industrielles. Le mouvement est cependant bien lancé et l’acti- vité de production devrait se trouver
profondément chamboulée par l’IA et les autres technologies numériques. Les évolutions
de l’entreprise se traduiront ainsi par des impacts plus ou moins prévisibles en termes d’emploi et de conditions de travail.
Face à l’ampleur de ces enjeux, le dialogue social, dans sa forme insti- tutionnelle, semble actuellement peu efficace pour
traiter des questions de l’IA et de transformation digitale. Enfin, au- delà des préoccupations économiques et sociales, l’IA
renvoie à des ques- tions démocratiques, tant au sein de l’entreprise, qu’en dehors
au niveau territorial.
Interviews 171
maturité. En effet, selon l’étude de la Fabrique de l’industrie21, les deux tiers des investissements de l’industrie française sont
immatériels et un tiers sont matériels (contre 50-50 pour l’Allemagne). Les produits informatiques et électriques, les machines et
équipements, et les matériels de transports (auto-mobile et aéronautique) concentrent 62 % des investissements immatériels de
l’industrie française, alors qu’ils représentent un quart de la valeur ajoutée de l’industrie.
Cela signifie que les investissements réalisés portent sur le logiciel, les bases de données, l’IA, mais ne se retrouvent pas dans
l’appareil productif au sens matériel du terme. En outre, cette situation se trouve encouragée par les politiques publiques,
notamment par le crédit d’impôt recherche, destiné à soutenir les dépenses en R&D des entreprises, ou encore le plan « Industrie
du futur ». Le « produire en France » est donc la victime collatérale de cette politique22 et, d’une certaine manière, la
dématérialisation ou servicialisation de l’industrie est en cours. Au cœur de l’industrie du futur, les usines intelligentes sont
peuplées d’organes sensoriels, les objets connectés. Équipés de capteurs, ils sont capables de mesurer n’importe quelle quan-tité
physique (son, lumière, couleur, vitesse, poids, effort, etc.), de localiser (GPS, gyroscope), de reconnaître (données biomé-triques,
caméras), de tracer pièces, sous- ensembles, produits, outils, et d’accéder à leurs caractéristiques contenues dans les étiquettes
RFID (mémorisation de données récupérées à distance par radiofréquence).
À l’instar de l’organisme humain, les fonctions sensorielles de l’usine intelligente collectent une masse de données volu-mineuses
qui sont stockées, via un réseau numérique, dans ce que l’on appelle le big data. Un traitement complexe des données adresse
des commandes aux fonctions mécaniques et motrices : approvisionnement en pièces par véhicules à guidage
Sarah Guillou, Rémi Lallement et Caroline Mini, L’Investissement des entreprises est- il efficace ?, Les Notes de la Fabrique, Presse
des Mines, 2018. 22. Marc Chevallier, « L’industrie française investit- elle mal ? », Alternatives Économiques, décembre 2018.
automatique, réglage du poste de travail en fonction de la morpho- logie de l’opérateur et du type de produit à fabriquer,
pilotage
d’un robot, etc.
Les données stockées dans le big data représentent une somme de connaissances mobilisées par l’intelligence artificielle. L’usine
intelligente est ainsi dotée d’une capacité d’autoapprentissage
et de résolution de problèmes complexes dont l’homme était jusque- là seul capable.
Ces unités de production ont le pouvoir de communiquer grâce aux réseaux numériques : les unes avec les autres aux frontières
de l’entreprise ; entre donneurs d’ordre et sous- traitants pour l’en-
treprise étendue à la filière. La fabrication d’un produit est alors le résultat d’un processus industriel qui dialogue et se
déploie au sein d’une chaîne de valeur connectée. Elle communique avec le monde extérieur grâce à Internet, donnant au
client la possibilité d’adresser une commande personnalisée qui sera traduite en ordre de fabrication. L’industrie du futur
ambitionne également d’augmenter les capacités de l’être humain. Il en est ainsi de la réalité augmentée qui permet
d’évoluer dans un espace virtuel numérisé où les opérations réalisées agissent physiquement sur
un environnement réel et distant ; de l’exosquelette, un appendice biomécanique installé sur le corps humain pour l’assister
dans
ses tâches physiques ; ou encore du cobot, robot qui collabore et interagit avec l’être humain. L’industrie du futur est donc
une transformation profonde dont l’objectif est d’accroître la perfor- mance économique. L’enjeu pour le syndicalisme est
d’en faire un progrès pour l’humanité.
coûts, par exemple). Les entreprises attendent de l’IA une accélé-ration de l’automatisation de certains process, par ailleurs
rendus plus agiles, et visent aussi la satisfaction des clients.
Or, l’IA n’étant pas encore totalement mature, les coûts associés à son déploiement peuvent sembler exorbitants en regard des
résultats immédiats obtenus (voir le schéma « Les freins à l’IA »). Naturellement, le degré de diffusion de l’IA dépend beaucoup
des applications concrètes imaginées pour un secteur, en fonction des ponts entre les univers de la recherche et de l’industrie qui
ne sont pas assez développés et doivent s’amplifier, malgré les initiatives telles que les pôles de compétitivité et les plateformes
collaboratives telles que le Lamips23.
Pour l’instant, les principaux usages de l’IA d’après IDC24 concernent les services clients automatisés (chatbots), la défense et la
sécurité nationale (reconnaissance faciale), l’assistance aux diagnostics médicaux et la médecine personnalisée, la gestion de
fret/logistique, le traitement de requêtes automatisé, la simulation avancée, la gestion d’actifs et de flotte à distance
(optimisation des trajets, diagnostic de véhicule à distance, monitoring du conduc-teur), la recommandation d’achats
personnalisée, les solutions de contenu automatisé (jumeau numérique) et les smart grids.
[Link]- [Link]/adherent/lamips/
IDC Worldwide semi- annual artificial intelligence systems spending guide, mars 2020.
174 Le guide de l’intelligence artificielle au travail
L’IA requiert une certaine quantité et une qualité de données afin de s’entraîner et proposer des recommandations fiables. La
faible
disponibilité des données en partage constitue l’un des principaux obstacles. Les entreprises craignent de partager leurs données,
ce qui empêche la mise en œuvre de l’IA dans les chaînes de Interviews 175
valeur, d’autant plus que les problèmes d’interfaces et de normes différentes ne contribuent pas à la coopération. L’intérêt du big
data, c’est de pouvoir tirer profit de nouvelles données produites par tous les acteurs (les entreprises, les particuliers, les scien-
tifiques et les institutions publiques) dans le but d’optimiser son offre commerciale, ses services, développer la recherche et le
développement. L’effet de réseau n’est donc pas très visible tant que cette taille critique n’est pas atteinte et la plupart des algo-
rithmes pâtissent d’un démarrage à froid avant d’acquérir les bonnes données. Mais une fois lancé, le digital peut permettre de
générer de la valeur et de dépasser rapidement les entreprises traditionnelles. Ce travail en amont sur les données nécessite du
temps et rejoint par ailleurs des questions organisationnelles et culturelles dans les entreprises. Sur le plan
technique, le déve-loppement de la 5G et des objets connectés favoriseront celui de l’IA en France, ne serait- ce que par rapport
aux flux de données supplémentaires apportés.
Par ailleurs, l’un des freins les plus importants concernant l’adoption de l’IA par les entreprises, relevé par la Commission
européenne, renvoie au manque de confiance autour de l’IA25. À ce propos, la proportion d’entreprises ayant relevé l’IA comme
représentant un risque potentiel dans le cadre de leur rapport annuel destiné aux actionnaires a plus que doublé en 2018, ce qui
représente 55 grandes entreprises, d’après le Wall Street Journal26 (réputation de marque entachée, confiance en baisse, coûts
cachés, plaintes éventuelles…). Le manque de confiance provient tant des entreprises que des autres acteurs de la société et
résulte principalement d’un sentiment de manque de maîtrise par rapport à des risques susceptibles de
survenir.
Commission européenne, Technology Focus on Artificial Intelligence, Advanced Technologies for Industry, AT Watch, juillet 2020.
Becky Yerak et Tatyana Shumsky, « More Companies Flag a New Risk: Artificial Intelligence », Wall Street Journal, 9 janvier 2019.
Les risques sont de plusieurs ordres. Concernant les bugs infor- matiques, ou même les biais reprochés à l’IA, il convient de
rappeler que les erreurs sont… humaines ! En effet, si Gérard Berry27, professeur au Collège de France, se dit convaincu que le
bug est constitutif de l’informatique des systèmes complexes, il précise toutefois que ce dernier résulte toujours initialement
d’une erreur humaine. De même, les algorithmes ne sont pas par nature racistes ou sexistes, mais reproduisent les biais
(humains) constatés via les données. La complexité des systèmes informa- tiques entraîne une difficulté à en assurer la maîtrise.
Les problèmes de sûreté et de sécurité revêtent une importance cruciale, tant la portée des intrusions informatiques peut être
grave à mesure que le volume de données croît. En tout cas, investir dans la sûreté et la sécurité des données permet d’agir
sur la confiance autour de l’IA, et pourrait même constituer un gisement d’emplois. De plus, du point de vue des clients-
citoyens, l’incertitude par rapport à la gouvernance des données person- nelles doit être levée par plus de transparence et
une éthique claire. La captation et l’utilisation des données personnelles
doivent être explicitées et acceptées par l’ensemble des acteurs économiques et sociaux. Le manque de compétences en IA
au sein des entreprises est aussi un frein dans la mesure où les entreprises ne maîtrisent pas le déploiement de l’IA et
recourent à des prestataires extérieurs. Le nombre d’experts en IA serait actuellement insuffisant pour répondre à la
demande. Cédric Villani28 affirmait que la recherche française se situait au premier plan mondial en mathématiques et en
intelligence artificielle,
en revanche, la transformation des avancées scientifiques en applications industrielles économiques est plus délicate et la
France pâtit de la fuite de ses cerveaux… Rappelons que l’une des figures les plus importantes de l’intelligence artificielle en
France travaille pour Facebook : il s’agit de Yann Lecun.
Interviews 177
Mais l’adoption de l’IA n’est qu’une question de temps… et de données, n’est-ce pas ?
Oui. Selon IDC29, plus d’un quart des entreprises européennes auraient adopté l’IA et une moitié prévoiraient de le faire prochai-
nement. Naturellement, la crise sanitaire de la Covid-19 a plutôt ralenti les plans d’adoption de l’IA, compte tenu des incertitudes
et du manque de liquidités. Néanmoins, les investissements en IA devraient reprendre leur croissance après la crise sanitaire afin
d’accélérer l’automatisation et la transformation digitale. L’IA peut même être une manière de rebondir intelligemment à la suite
de la crise engendrée par les confinements et quarantaines. Comme toute nouvelle technologie, l’IA doit être domestiquée par le
système socio- économique pour atteindre son plein potentiel. Rappelons qu’à la fin des années 1990, les technologies de l’in-
formation et de la communication ont eu un impact économique lent car profond, sans amélioration apparente des
performances microéconomiques des entreprises30. L’IA fait ainsi partie des
grandes mutations complexes, car elles revêtent un caractère fondamental, et pénètrent tous les secteurs de la société.
Au- delà des entreprises et des considérations techniques, il convient également de prendre en compte les changements de
pratiques tant dans la vie économique que sociale. C’est ce que Pascal Griset résume de la manière suivante : « Quelles que
soient les époques, les nouvelles techniques résultent d’une dialectique entre une autre technique, le travail des chercheurs, des
ingé-nieurs, des entrepreneurs, et la demande sociale, l’aspiration des dirigeants politiques, les exigences des citoyens, les désirs
des consommateurs, les revendications des travailleurs, les critères financiers ou bien encore le rêve des visionnaires, voire des
utopistes31. »
IDC Worldwide semi- annual artificial intelligence systems spending guide, mars 2020.
Éric Brousseau et Nicolas Curien, « Économie d’Internet, économie du numérique », Revue Économique, vol. 52, 2001.
Pascal Griset, « De la machine à vapeur aux GAFA(M) : D’une innovation technologique à l’autre », Questions internationales,
mai- août 2018.
Ne pensez- vous pas que la valeur économique s’appuie de plus en plus sur le réseau
avec les plateformes et la recomposition des chaînes de valeur ?
Oui. Pour Nicolas Colin et Henri Verdier32, la valeur réside désor- mais dans la multitude que nous formons tous, individus
éduqués, équipés et connectés. En effet, les milliards d’individus connectés de par le monde et leurs échanges représentent un
formidable gisement de richesses pour qui sait le capter et l’exploiter. Il s’agit d’ailleurs de la recette du succès des géants du
web. La valeur
des entreprises du numérique est créée par les utilisateurs et leurs données, véritable carburant de l’IA.
Il suffit de regarder l’exemple le plus abouti de plateformes avec
les GAFAM, avec leur percée rapide et leur diversification qui s’étend à l’ensemble de l’économie. Il leur est souvent reproché
de capter abusivement la valeur produite par les autres, mais l’économie du partage, ou l’économie collaborative s’inscrit
également dans le champ des « plateformes ». En s’appuyant sur les effets de réseaux, considérablement amplifiés par
Internet, chaque géant du web a, d’une certaine manière, su imposer un standard à la population mondiale, que ce soit par
un moteur de recherche, un logiciel, un smartphone, un réseau social…
En conséquence, l’avantage compétitif dépend désormais de la capacité à créer et à contrôler des réseaux : les entreprises
qui parviennent à connecter les activités, agréger les données qui circulent entre elles et à en extraire la valeur à l’aide de
l’analy- tique et l’IA sortiront gagnantes de la transformation numérique. De plus, les effets de la plateformisation sont
régulièrement qualifiés de disruptifs du fait de la recomposition des chaînes
de valeur, plutôt vers le service. En 2015, Michael Porter et
Nicolas Colin et Henri Verdier, L’Âge de la multitude. Entreprendre et gouverner après la révolution numérique, Armand
Colin, 2015.
Interviews 179
James Heppelmann33 ont décortiqué le processus de transfor-mation très profond qui caractérise le passage d’une économie
classique à une économie numérique. Au départ, un simple produit, auquel on ajoute une puce électronique pour le rendre
intelligent, puis que l’on connecte à un utilisateur ou à un fabri-cant, devient finalement un simple élément d’un système bien
plus large (voir le schéma « Les systèmes de systèmes »). C’est le système reliant les produits – et non les produits par eux-
mêmes – qui constitue l’avantage principal. Le modèle de ces plateformes conduit à reconsidérer la place du produit matériel,
c’est- à-dire du produit d’origine dans la chaîne de valeur, donc celle de l’usine et des emplois qui sont derrière.
Le groupe chinois Ant, cinq ans après sa création, concurrence le premier groupe de services financiers au monde JPMorgan
Chase, avec dix fois plus de clients que les banques américaines, mais dix fois moins de salariés pour exécuter les opérations clas-
siques : « La valeur obtenue n’est pas générée par des processus métiers exécutés par les travailleurs, managers, ingénieurs et
services clients, mais par des algorithmes34. » Il semble clair que l’une des conséquences de l’IA conduit à l’automatisation d’un
nombre croissant de tâches et d’opérations effectuées par l’homme. De manière générale, personne ne sait exactement combien
d’emplois seront détruits, ni à quel rythme les progrès combinés de la robotique et de l’intelligence artificielle se subs-titueront
aux capacités humaines, au moins en partie. À terme, plusieurs études convergent vers le fait que plus de la moitié des activités
actuelles pourraient être remplacées par des systèmes d’IA. La promesse faite par la 5G, l’IA et les objets connectés
Michael Porter et James Heppelmann, « Comment les produits intel-ligents changent les règles de la concurrence », Harvard
Business Review, avril- mai 2015.
« Pleins feux sur l’intelligence artificielle », Harvard Business Review, décembre 2020-janvier 2021.
Source : Porter & Heppelmann, Harvard Business Review, avril- mai 2015.
Interviews 181
pour les prochaines années va parfois même jusqu’au pilotage à distance d’une usine sans ouvrier35, ou en tout cas avec le moins
possible. Néanmoins, il est probable que de nouveaux emplois soient créés pour gérer les machines, bien que nous ne connais-
sions pas encore les emplois de demain. En effet, selon une étude publiée en 2017 par Dell et l’Institut pour le futur, un think tank
californien, 85 % des emplois de 2030 n’existent pas encore36. Enfin, notons que les destructions d’emplois ne concerneront pas
seulement les ouvriers et s’étendront aux tâches administratives, aux fonctions support, etc.
Autre élément significatif, si le CDI demeure la norme, il l’est toute-fois de moins en moins. En 2018, le ministère du Travail
publiait une étude37 se penchant sur l’évolution des embauches en CDI et CDD depuis 25 ans en France : la part des personnes
en CDI (hors intérim) dans l’économie française, est passée de 94 %
en 1982 à 88 % en 2017. De plus, la durée moyenne des CDD a, quant à elle, été divisée par un peu plus de deux, passant de 112
jours en 2001 à 46 jours en 2017. Plus inquiétant encore, près d’un tiers des CDD signés chaque année en France est de moins
d’une journée ! Dans le même temps des nouveaux statuts de travailleurs ont émergé, comme celui des autoentrepreneurs. En
outre, l’impact de l’IA sur l’emploi est aussi qualitatif et s’exprime au travers des compétences requises. L’usage de la calculatrice
nous a certes quelque peu déqualifiés, car nous sommes moins bons en calcul mental que nos aïeux mais… et alors ? Est- ce si
grave que cela ? Le déploiement de l’IA conduira à une recomposition des tâches confiées à la machine et à l’humain. À
l’évidence, les compétences en extraction et traitement de données, en analytique et en déve-loppement d’algorithmes seront
demandées.
Au niveau des soft
Sébastien Grob, « Bientôt des usines sans ouvriers ? Comment la 5G pour-rait décupler la robotisation de l’industrie », Marianne,
19 novembre 2020. 36. Dell
Technologies, « Emerging technologies’ impact on society & work
assets/perspectives/2030/pdf/SR1940_IFTFforDellTechnologies_Human-
Machine_070517_readerhigh- [Link]
Dares, « CDD, CDI : comment évoluent les embauches et les ruptures depuis 25 ans », juin 2018.
skills, la créativité, l’interdisciplinarité, l’esprit critique, l’aptitude à coopérer tendent également à devenir des compétences clés.
tenance à distance rendue possible. Par ailleurs, les nouveaux Interviews 183
statuts d’emplois combinés à l’intensification du travail à distance conduisent à l’éclatement des collectifs de travail, qu’il importe
de recon struire. Cet élément est particulièrement un défi pour les équipes syndicales. Enfin, les risques de surveillance accrue
des salariés inquiètent d’ores et déjà certains travailleurs, soumis à un flicage continu en temps réel : le risque est que cette
surveillance serve de base à la gestion de la performance dans l’entreprise. Le recueil et l’utilisation des données personnelles des
salariés doivent faire l’objet d’une attention particulière, notamment au regard de la protection de la vie privée.
La plateformisation est- elle une déconstruction des filières industrielles verticales au profit
de la production de biens et de services en réseau ?
Oui. Au cœur de la plateforme, la collection de données et d’al-gorithmes façonne l’intelligence du système pour répondre aux
besoins et aux attentes du consommateur, mais aussi pour prendre en compte, voire anticiper les évolutions sociétales. Dans ce
vaste réseau dématérialisé et internationalisé, l’ap-pareil productif devient un satellite dont l’agilité et la plasticité
sont recherchées pour s’adapter rapidement à la demande. La structure classique, la grande entreprise, n’est plus adaptée car
trop rigide. L’évolution du modèle d’affaires conduit à la reconfi-guration en un réseau d’entreprises interopérant pour concevoir
et proposer le produit final ainsi que le service associé. L’acteur qui capte les données stratégiques pour le modèle d’affaires est
aussi celui qui détient le
pouvoir au sein de la plateforme, soulevant de fait un problème de gouvernance. De même, pour le sous- système productif, les
enjeux majeurs sont centrés sur les capacités technologiques et d’innovation. À ce niveau, ce sont ces fonctions qui détiennent le
pouvoir et qui définissent les orien-tations stratégiques. Dans cette perspective, le dialogue social ne peut plus être l’affaire des
seuls DRH et DRS, mais doit se nourrir des problématiques métiers au sein d’un environnement complexe et en perpétuelle
transformation.
Que pensez- vous du niveau du dialogue social face aux enjeux de l’IA ?
Le dialogue social institutionnel est globalement insuffisant pour faire face aux enjeux de la digitalisation. Dans le cadre des
consul- tations et négociations obligatoires, un positionnement syndical
sur les questions numériques est possible. Ainsi, le numérique et l’IA peuvent être appréhendés de différentes manières. En
premier lieu, les questions relatives à l’évolution quantitative (destructions et créations d’emplois) et qualitative de l’emploi
(transformation des métiers et des compétences) peuvent être abordées dans
le cadre de la consultation sur les orientations stratégiques du comité de groupe ou du CSE, qui trouve son pendant dans la négo-
ciation sur la gestion de l’emploi et des parcours professionnels.
De même, les questions relatives à la déconnexion et aux risques
psychosociaux peuvent être abordées dans le cadre de la consul- tation sur la politique sociale du CSE, et lors de la
négociation sur la qualité de vie au travail (QVT).
Aussi une réflexion sur l’impact du numérique sur les rému- nérations peut être abordée, à la fois sous l’angle des gains de
productivité (automatisation, robotisation, par exemple) et de la modification des chaînes de valeur induite par la
plateformisa- tion : ces questions trouveront naturellement leur place dans la consultation relative à la situation économique
de l’entreprise,
et dans la négociation sur les rémunérations et le partage de la valeur ajoutée.
Enfin, la consultation du CSE relative à l’introduction de nouvelles technologies peut être l’occasion de déclencher une
expertise afin d’obtenir plus d’informations. Toutefois, en dépit de ce cadre exis- tant, la digitalisation et l’IA ne sont pas au
cœur du dialogue social dans les entreprises. Les modalités actuelles du dialogue social sont globalement insuffisantes, car la
transformation digitale et
ses conséquences sont imparfaitement traitées dans les informa- tions consultations du CSE, des comités de groupe et dans
le cadre des négociations d’entreprises ou de branche. Alors que le partage
d’information constitue la base d’un diagnostic partagé entre les
partenaires sociaux, il n’est pas rare de se retrouver avec une Interviews 185
information absente ou incomplète, qui n’est pas à même de favo-riser des échanges constructifs. L’information aborde rarement
les conséquences d’un déploiement technologique en termes de conditions de travail, et encore moins en termes d’emploi.
Et dans le meilleur des cas, le dialogue social intervient dans le cadre d’une anticipation liée aux conséquences de la
numérisation, mais la décision d’investissement et la mise en œuvre ne sont pas discutées. Par ailleurs, considérant que l’activité
de production pourrait s’orienter vers, d’une part, des décisions hypercentra-lisées (plateformes connues aujourd’hui), d’autre
part, par une multitude d’écosystèmes locaux interconnectés, cela signifie que les contours de l’entreprise devraient évoluer, et il
en sera donc de même pour la place du dialogue social. Néanmoins, la taille des plateformes fait qu’elles seront de plus en plus
contraintes d’inté-grer des considérations éthiques, sociétales, donc politiques. La régulation de ces nouvelles formes
d’entreprises n’est aujourd’hui pas vraiment acquise, si ce n’est par la loi. Néanmoins les lois sont nationales, alors que les
plateformes ne connaissent pas, par essence, de frontières. La frontière entre l’économique et le politique s’efface : l’activité de
régulation doit être relayée en interne, au sein même des entreprises et des plateformes. Les enjeux soulevés par l’IA, les
données, la surveillance, la sécurité vont au- delà du champ économique.
qui est de conduire les transformations de l’entreprise par le design social. Pourriez- vous l’expliquer ?
Afin de développer les méthodes et outils du design social, la FGMM- CFDT a répondu à un appel à projet émis par la délégation
générale à l’Emploi et à la
Formation professionnelle (DGEFP), une administration centrale du ministère du Travail. Piloté par Alain Larose, secrétaire
général adjoint de la FGMM- CFDT, le projet déposé est financé pour moitié par le Fonds social européen. L’UIMM38 et l’Alliance
Industrie du Futur ont accepté d’en être
Patronat de la métallurgie.
parties prenantes. Des ergonomes du Cnam interviennent pour créer la phase « Imaginer » du design social et la simulation des
transformations. Le cabinet Syndex quant à lui a la charge de l’in- génierie projet, et travaille également sur les questions relatives
à l’économie et à la stratégie industrielle. Des expérimentations doivent avoir lieu en entreprise pour mettre au point la
démarche. L’origine des réflexions de la FGMM- CFDT sur les transformations de l’industrie a commencé suite à la volonté
affichée par l’Alliance Industrie du Futur39 de « placer l’être humain au centre de l’indus- trie du futur ». Que voulait dire
concrètement cette affirmation ? Les employeurs n’avaient pour seules réponses que la formation professionnelle et la gestion
prévisionnelle des emplois et des compétences. En clair, adapter le travailleur aux transformations
et non les concevoir avec lui.
Si les entreprises continuent de conduire le changement sur le modèle enseigné par les écoles de management et appliqué
par les cabinets de conseil, le déploiement de l’industrie du futur
se déroulera dans de mauvaises conditions. En effet, plusieurs études (notamment les travaux de la Harvard Business School)
démontrent que, très majoritairement, les projets de transforma- tion des entreprises n’atteignent jamais leurs cibles. Pire
encore, il arrive fréquemment qu’ils dégradent la performance ainsi que la santé des travailleurs. Il apparaît donc nécessaire
de proposer une autre façon de conduire les transformations.
La méthode du design social procède d’une autre logique. Elle pose le préalable que toute transformation du travail mobilise
deux dimensions – stratégique et opérationnelle. La direction de l’entreprise et les organisations syndicales sont les interve-
nants légitimes sur les sujets stratégiques ; les travailleurs et le management sont eux directement concernés par les
questions
opérationnelles. En d’autres termes, la FGMM- CFDT propose de conduire le changement en articulant le dialogue social,
entre
la direction et les syndicats, avec le dialogue professionnel qui
AIF est une association qui réunit des organisations professionnelles, des
aborde les questions concrètes du contenu du travail et de son organisation, entre opérateurs et manageurs.
Pour cette nouvelle méthode de conduite des transformations baptisée design social, Alain Larose a identifié cinq étapes :
Comprendre : sur la base d’un état des lieux et d’un diagnostic de la situation économique, sociale, environnementale, indus-
trielle et technologique, les partenaires sociaux discutent et partagent les objectifs de transformation. C’est aussi à ce stade que
syndicats et direction doivent s’approprier la démarche de design social, à l’aide d’une formation qu’ils suivent en même temps.
Cet apprentissage commun est le moyen de mesurer
le degré de maturité des acteurs sociaux de l’entreprise pour
la mise en œuvre du design social. Si tel n’est pas le cas, cette voie sera abandonnée pour retourner aux procédures d’infor-
mations et de consultations du Code du travail.
Conduire : le cadre de la démarche est mis en place par la négociation d’un accord de design social. Il s’agit de définir le périmètre
de réalisation du projet de transformation, de formaliser les objectifs et les méthodes pour mesurer leur niveau de réalisation, les
acteurs qui seront concernés et mobilisés, le calendrier de déploiement du design social, l’ar-
ticulation avec l’information et la consultation du CSE, et enfin les moyens consacrés à la mise en œuvre de la démarche.
Imaginer : l’offre technologique est aujourd’hui suffisamment diversifiée et flexible pour que la numérisation de l’outil de
production soit conçue en prenant en compte les facteurs humains, organisationnels et la réalité du travail. Cette étape met à
contribution les travailleurs et leurs manageurs afin qu’ils imaginent plusieurs scénarios de transformation qui sont ensuite
simulés et caractérisés.
Concrétiser : la caractérisation de chacun des scénarios de
complissement des objectifs du projet de transformation de l’entreprise. Les méthodes d’évaluation conçues à l’étape «
Conduire », complétées par d’autres le cas échéant au cours du déroulement de la démarche de design social, sont utili-sées
pour piloter la transformation. En fonction des résultats obtenus, le scénario pourra être ajusté et les dispositifs d’ac-
compagnement adaptés en conséquence.
Finalement, avec le design social, la FGMM- CFDT ambitionne de faire évoluer le dialogue social de l’accompagnement vers la
conduite des transformations. Elle souhaite aussi clairement
établir ce qui relève du dialogue social, du dialogue professionnel et les acteurs concernés tout en proposant une articulation
et une interaction entre ces deux constituants de la démocratie en entreprise. C’est le moyen de mettre en discussion le
projet de l’entreprise et de faire en sorte que les considérations humaines,
sociales et environnementales soient également prises en compte. Des objectifs réellement partagés et compris par la
communauté de travail concernée doivent favoriser la mobilisation nécessaire
à la réussite de la transformation.
L’IA est- elle un sujet de démocratie dans et en dehors de l’entreprise, finalement ?
Oui. L’activité de l’entreprise et ses transformations ont des conséquences qui vont au- delà des questions économiques,
concernant plus largement la société. Les décisions stratégiques de ceux qui les détiennent revêtent ainsi une dimension
politique. Elles doivent à ce titre s’inscrire dans un processus démocratique auquel l’ensemble des parties prenantes, internes et
externes, doivent participer.
Interviews 189
L’industrie de demain pourrait être l’occasion, avec ses capteurs, robots, fabrication 3D, d’utiliser concrètement l’IA pour
répondre à des besoins réels des citoyens comme la (re)localisation de certaines usines, la réduction de notre
empreinte carbone, la reconquête de certains territoires, et le soutien à l’emploi40. La question de l’IA renvoie aux finalités qui lui
sont assignées et donc aux priorités de l’entreprise qui doit agir pour le bien commun, et non dans le seul intérêt des
actionnaires. L’IA et les technologies numériques sont donc un ensemble de moyens pour lesquels il convient de définir une
finalité acceptable socialement de tous.
Cette question se pose d’autant plus que l’IA requiert des données pour lesquelles les questions de propriété ne sont pas toujours
très claires. Si une entreprise utilise des données qui relèvent du bien commun pour servir des intérêts privés, ou une surveillance
généralisée, l’acceptabilité sociale risque de s’en trouver tôt ou tard égratignée.
Certes, la loi Pacte permet des avancées puisque l’objet des sociétés n’est plus limité au seul profit des actionnaires, mais les
enjeux sont tels que c’est hélas insuffisant. En effet, compte tenu de l’importance prise par les grandes plateformes notamment,
un des modèles d’organisation de la vie économique d’aujourd’hui et
Pascal Laurin (Bosch France), « L’industrie 4.0 n’est- elle qu’une question de technologie ? », La Tribune, 28 octobre 2020.
de demain, il est urgent de remettre plus de démocratie dans l’en- treprise. Au- delà des considérations économiques, cette
question renvoie aux enjeux sociaux et environnementaux : c’est donc un sujet éminemment politique41.
Dans les entreprises françaises, les travailleurs ont la possibi- lité d’élire leurs représentants et de choisir les organisations
syndicales qui auront la faculté de négocier des accords, choix issu de la représentativité qui est calculée au premier tour des
élections professionnelles. Le système démocratique de l’entre- prise est donc de type représentatif. Néanmoins, si les
travailleurs élisent leurs représentants, ceux- ci disposent des seules facultés d’être informés et consultés sur les choix de
l’entreprise, mais n’ont pas la capacité de les remettre en cause. Dans les faits, le gouvernement de l’entreprise est assuré
par une seule de ses parties prenantes : la direction. C’est elle qui décide des choix
stratégiques, et des options qui auront des impacts sur l’ensemble de la collectivité de travail (travail, organisation,
conditions de travail, emploi, etc.). La négociation entre partenaires sociaux de l’entreprise est alors mobilisée pour
accompagner ces projets.
À ce stade, la FGMM considère que le système démocratique de l’entreprise est incomplet.
Isabelle Ferreras42 propose justement de démocratiser le champ économique, en prônant un « bicamérisme » qui
permettrait aux travailleurs – qui investissent non en capital, mais en travail – d’avoir une voix égale à celle des actionnaires
dans la gouvernance des grandes entreprises. Doté d’autant de compétences que le
conseil d’administration, le CSE permettrait aux salariés de se positionner collectivement, à la majorité, sur les choix straté-
giques de l’entreprise, avec un droit de veto collectif sur toutes les questions traitées par le conseil d’administration, y compris la
nomination du PDG ou la répartition des profits générés par l’activité.
Pascal Demurger, L’Entreprise du e xxisiècle sera politique ou ne sera pas, Éditions de l’Aube, 2019.
Isabelle Ferreras, « La contradiction entre capitalisme et démocratie atteint un point de non- retour », Le Monde, 11 octobre
2019.
Interviews 191
Si le capitalisme est un régime de gouvernement qui alloue les droits politiques en fonction de la possession du capital, la démo-
cratie, au contraire, est fondée sur la reconnaissance de l’égalité de chacun et chacune en dignité et en droits. La logique extrac-
tive du mode de gouvernement capitaliste, dénoncée par Isabelle Ferreras, domine les salariés et épuise la planète, mettant en
concurrence les États entre eux.
Parallèlement à la proposition d’Isabelle Ferreras de donner un poids égal aux salariés par rapport aux actionnaires, il convient
aussi d’imaginer une instance au sein de laquelle seraient repré-sentées les parties prenantes externes intéressées, comme la
collectivité locale ou les ONG, en vue de recevoir des informations de la part de l’entreprise (comme le CSE aujourd’hui). Il n’est
pas anormal de considérer
qu’une entreprise implantée dans un territoire rende des comptes aux élus de celui- ci sur son activité, son impact
environnemental, etc.
Dans les écosystèmes locaux, l’IA est- elle à l’origine d’interrogations socio- environnementales ?
Le numérique échappe certes aux lieux de décisions démo-cratiques en raison de la puissance des acteurs qui le pilotent,
notamment des GAFAM, mais il offre aussi la possibilité à des citoyens ordinaires de se prendre en main, au nom d’un projet
solidaire, par exemple. Il existe d’ailleurs plusieurs exemples d’utilisation vertueuse de l’IA, qui vont dans le sens du bien commun
(lutte contre la faim, gestion des déchets, amélioration du système de santé dans des zones reculées, etc.).
Jeremy Rifkin, économiste et conseiller politique américain, célé-brait déjà le passage d’une logique de propriété à une économie
de partage entre usagers, nouveau paradigme, qui selon lui éclip-sera le capitalisme et ses valeurs43. Il montre que l’économie
du partage est en train de se développer et d’effacer la frontière
entre le producteur et le consommateur44. Jeremy Rifkin s’en- thousiasme tout particulièrement pour les imprimantes 3D, dont
la généralisation permettra à chacun de produire ses objets
du quotidien, comme sa voiture ou sa maison. Cette produc-
tion collective intelligente serait, par ailleurs, gérée par des
Par ailleurs, les citoyens pourraient gérer politiquement plus directement leurs priorités éthiques, sociales et environnemen-
tales par des modalités de démocratie directe et représentative
en fonction des thématiques46. À l’échelle d’un territoire quel qu’il
Jeremy Rifkin, La Nouvelle Société du coût marginal zéro, Les Liens qui Libèrent, 2014.
Voir la vidéo diffusée par The Economist, « Under the streets of south London », en février 2021.
Voir la « démocratie liquide », qui combine des éléments de démocratie directe et indirecte, en fonction des appétences, du
temps, etc.
Interviews 193
soit, les questions environnementales gagneraient en impor-tance, car personne ne veut une antenne 5G à côté de chez soi par
exemple, ou une quelconque pollution de proximité, tandis que pour les grandes entreprises, ce rapport à l’environnement est
moins direct. Quoi qu’il en soit, le bilan environnemental de la transformation numérique est difficile à apprécier entre, d’une
part, les promesses d’optimisation, d’autre part, l’explosion de la consommation énergétique dénoncée notamment par le Shift
Project et l’épuisement des métaux rares47.
Néanmoins, les États se sont rapidement heurtés au caractère global, décentralisé et ouvert d’Internet qui s’accommode peu des
régulations nationales. Sur le plan monétaire, rappelons que les bitcoins court- circuitent les autorités étatiques. Pourtant, le «
pouvoir de battre monnaie » renvoie à l’une des prérogatives de base de tout État, de même que celui de la fiscalité… Sur ce
dernier point, Airbnb
collecte l’impôt pour le compte de plusieurs municipalités françaises et hors de France. Au- delà de la monnaie et de la fiscalité, la
technologie blockchain, en ce qu’elle permet d’éviter les tiers de confiance, défie les organisations étatiques.
Guillaume Pitron, La Guerre des métaux rares. La Face cachée de la transition énergétique et numérique, Les Liens qui Libèrent,
2018. 48. Anne- Thida Norodom,
« La galaxie Internet », Questions internationales, mai- août 2018.
Le groupe de haut niveau de l’Union européenne sur l’IA a défini sept exigences clés en 2018, invitant à organiser une
gouvernance incluant de multiples parties prenantes, garantes du respect de
ces principes : bon pour l’humain, supervision humaine, robus- tesse, sécurité, bien- être sociétal, environnement, et redevabilité.
Au niveau européen, Aida Ponce del Castillo49 observe une proli- fération des codes de conduite et lignes directrices sur
l’éthique de l’IA (plus de 84 documents dénombrés). Rien ne permet de garantir leur adoption et leur respect par les
entreprises : ces textes, basés sur le volontariat, ne prévoient généralement aucune sanction en cas de violation. Ces
démarches relèvent
donc plus de l’« ethics washing ». Enfin, la loi européenne gagne-
rait à être mise à jour afin de garantir que les droits humains soient respectés par les systèmes d’IA (discriminations et inéga-
lités), en mettant en place, par exemple, des contrôles nationaux indépendants.
En conclusion, en dépit des freins observés, l’IA va s’imposer dans l’économie et la société. Si les entreprises peuvent être
momentanément gagnantes en remplaçant le travail par le capital, même immatériel, pour autant, au niveau collectif,
risquent de se poser des problèmes de demande solvable, mais aussi de financement de la protection sociale, de la
couverture chômage, des retraites, etc. Enfin, s’agissant des perspectives,
la société de demain pourrait avoir deux visages : l’un séduisant,
affichant les traits radieux d’un retour à une économie locale et solidaire et l’autre, grimaçant, qui serait le reflet de l’exploi-
tation la plus sauvage et de la régression sociale. À ce tableau pourraient se greffer des considérations environnementales : la
prédation économique et l’épuisement de la planète pourraient s’effacer au profit d’une consommation collaborative par le troc,
le covoiturage, un financement participatif comme le prêt entre particuliers, etc.
49. Aida Ponce del Castillo, « Le Travail à l’ère de l’IA : pourquoi la régle-
mentation est nécessaire pour protéger les travailleurs », ETUI, février 2020.
Interviews
195
La digitalisation de l’économie est une évolution profonde et structurante de la société. L’IA en est une pièce maîtresse.
Sera-
t-elle à l’origine d’un progrès pour l’humanité et la planète ou le dernier avatar du capitalisme financier ? Seul le débat démocra-
tique dans la société et l’entreprise permettra de trouver la voie de l’intérêt et du bien commun.
UN PROJET
Il est directeur général délégué aux opérations d’assurances, à la relation client, à l’innovation
Stéphane Barde
Stéphane Barde est ingénieur et mathématicien. Il est directeur Data & Digital dans le groupe.
Nous avons intégré les notions de « Privacy by Design » (sécurité intégrée à la conception) dans nos projets en limitant les fina-
lités d’usage et les données à caractère personnel, ainsi qu’un dispositif d’analyse de l’éthique dans un cadre de travail euro-
péen. Nous avons aujourd’hui une gouvernance interne à Malakoff Humanis en charge de l’analyse des algorithmes, qui est parti-
culièrement attentive à des sujets tels que l’éthique, le rôle de l’humain ou la protection de la vie privée.
by Design… ?
Stéphane Barde : L’idée d’éthique by Design consiste à intégrer des valeurs et des principes humains dès la conception des outils
technologiques. Cela se traduit par une réflexion déontologique, qui se concrétise ensuite techniquement.
Mais chez Malakoff Humanis, nous avons choisi un processus de choix des algorithmes à partir d’un vivier de cas d’usage, en
amont d’un processus de suivi de production. Notre Data Protection Officer rencontre tous les mois nos
professionnels en matière de protection des données à caractère personnel, de sécurité de l’information, de gestion des risques,
de finalité de traitement… Il est essentiel d’associer les collaborateurs lorsqu’on met de l’IA dans les processus. C’est l’un des
facteurs de réussite de tout projet de transformation.
Stéphane Barde : Transformer les processus de l’entreprise demande beaucoup d’énergie ! Notre objectif consiste à faciliter
le travail des collaborateurs en leur apportant des éléments de décision ou en automatisant des tâches répétitives. Par
exemple, lorsque Malakoff Humanis reçoit des factures de ses fournisseurs, vérifier si le bon de commande est bien présent
dans chaque facture est une opération fastidieuse. Pour l’IA, cette opéra-
tion peut être très rapide. En outre, elle permettrait de réduire les temps de traitement et réduire les risques d’erreurs. Autre
exemple, Malakoff Humanis reçoit des documents de la part des assurés tels que des demandes de prise en charge, et pour
certains, des algorithmes en extraient les données. Sans IA, il
faudrait recopier à la main les informations pour chacune de ces demandes. Troisième exemple enfin, pour lutter contre la
fraude, l’IA est très performante, l’algorithme fait une présélection des dossiers litigieux, qui sont ensuite instruits par des
collaborateurs dont l’expertise est alors précieuse.
David Giblas : Les collaborateurs sont d’autant plus acteurs d’un projet de transformation qu’ils y sont associés. En début de
projet, il y a toujours des questionnements sur le fonction- nement et l’apport de l’IA, puis une fois ces étapes franchies, l’intérêt
pour ces approches est rapidement validé. L’algorithme
ne prend jamais une décision à la place de l’humain. Lorsque nous concevons un algorithme, les premières versions de ce dernier
sont très perfectibles. Nous l’accompagnons par le savoir- faire
de nos collaborateurs : leur décision est éclairée par l’IA, et ce sont eux qui améliorent l’IA pour être in fine plus efficaces et se
concentrer sur des tâches à plus grande valeur ajoutée. Les
collaborateurs sont extrêmement intéressés et satisfaits par cette nouvelle forme de travail. Leur retour est unanime.
Interviews 199
Estimez- vous aujourd’hui qu’une IA peut remplacer l’humain dans votre secteur d’activité ?
Stéphane Barde : Non. Il y a une représentation de l’IA qui dépasse parfois la réalité. De manière générale, l’IA est encore loin de
reproduire des raisonnements sophistiqués ; elle assure plutôt des tâches assez rudimentaires qui permettent
néanmoins de garantir une prestation de qualité. N’oublions pas que l’intel-ligence artificielle demande beaucoup de données
pour être performante.
Nous utilisons une intelligence artificielle très ciblée pour faire des choses simples, des micro- tâches, tout à fait basique
comparée à l’intelligence humaine. Ce qui est important, c’est d’avoir des compétences pour maîtriser cette technologie.
David Giblas : Oui, l’IA a libéré du temps dans les tâches les plus fastidieuses. Grâce au temps libéré, les collaborateurs peuvent
ainsi réinvestir dans une relation plus qualitative avec les four-nisseurs, consacrer plus de temps à des tâches à valeur ajoutée,
par exemple. Il faut comprendre qu’en le dégageant des tâches fastidieuses qui peuvent être traitées par l’IA, le collaborateur
voit l’intérêt de son travail se renforcer.
L’objectif c’est d’optimiser le temps de travail lié à ces activités fastidieuses pour le réorienter vers un travail plus qualitatif.
Stéphane Barde : De nouvelles activités apparaissent dans les métiers et d’autres se développent ; cela est rendu possible grâce
au temps dégagé par le traitement automatique de tâches simples par l’IA. L’IA intervient sur 1 % de la palette d’activités d’un
colla- borateur. On ne peut pas dire qu’il y ait un remplacement massif des activités.
Interviews 201
L’impact de l’IA sur l’emploi est très difficile à mesurer. Dans le Groupe, l’IA ne génère pas de suppressions d’emplois. Au
contraire, l’IA crée de nouveaux métiers. On trouve des personnes sensibilisées à la qualité des données, des personnes qui ont
des compétences sur l’enrichissement et l’entretien du patrimoine des données. Les collaborateurs qui produisent les données
sont ceux qui les traitent et leurs compétences sont importantes autant que précieuses.
Peut- il y avoir des biais dans vos algorithmes ? Certaines assurances peuvent, grâce à des algorithmes, choisir des clients qui ont
le moins de risques…
David Giblas : Nous sommes un groupe de protection sociale à but non lucratif, nous ne faisons pas de sélection médicale.
Stéphane Barde : D’un point de vue général, il peut y avoir des biais dans les données historiques, l’algorithme peut alors en être
un amplificateur. Nous avons de la chance de ne pas avoir de cas d’usages qui nous exposeraient à ce type de problématique,
pour l’instant. Nous analysons systématiquement les données, pour voir les potentiels biais : par exemple, des
surreprésentations, selon l’âge ou le sexe… Nous comparons toujours ce que fait l’al-gorithme à un échantillon témoin, utilisé
comme garde- fou. Par ailleurs, nous raisonnons sur des données anonymisées, c’est- à-dire sans les données à caractère
personnel, pour limiter les possibilités de biais.
c’est de comprendre sa « recommandation ». Nous faisons souvent de la composition de plusieurs algorithmes, ce qui veut dire
qu’on
fait une moyenne entre eux. L’explicabilité n’est pas toujours si facile. Nous utilisons du machine learning, très peu d’«
apprentis- sage profond », une famille d’algorithmes moins « explicables ». Nous faisons donc un choix technique qui permet
une meilleure explicabilité.
Dans nos processus augmentés avec de l’IA, ce sont les humains qui prennent les décisions. Il n’y a pas de décisions
automatiques issues de nos algorithmes. Nous veillons bien à ce que les colla- borateurs challengent les algorithmes dans la
durée, notamment dans nos comités de pilotage mensuels. En faisant appel à l’ex- pertise des collaborateurs, l’IA est plus une
opportunité qu’une menace.
Postface
L’introduction d’une technologie comme celle de l’intelligence artifi- cielle, permise par une évolution numérique rapide et sans
précédent,
a
des impacts profonds sur les citoyens et les travailleurs, et nécessite une
route.
La CFDT mesure les opportunités que cette technologie offre, sans en sous- estimer les risques. Des opportunités dans de
nombreux
domaines
Dans les lieux de travail, nous avons des outils en Europe et en France,
comme ce guide le souligne et nous devons les utiliser. Des législa- tions françaises et européennes prévoient que l’introduction
de
nouvelles 204 Le guide de l’intelligence artificielle au travail
choisir ceux qui sont bons pour l’humain et pour nos sociétés et éviter,
que l’humain doit garder la main. Dans les entreprises et les administra-
tions, les DRH doivent pouvoir s’opposer à une décision des algorithmes
et avoir le dernier mot sur ceux- ci. Les cadres et les managers doivent être
associés et formés sur l’IA, tous comme les syndicalistes et les travailleurs.
les enjeux à l’œuvre, et offre des outils et témoignages précieux pour questionner cette technologie et poser les organisations
syndicales et les individus comme acteurs de ces évolutions et des orientations qui s’imposent.
Des syndicats aux États- Unis se créent dans les entreprises de la « tech » sur
des enjeux éthiques et sur la finalité de l’entreprise qui affiche des valeurs
Europe, les syndicats ainsi que d’autres acteurs de la société civile seront
Laurent Berger
Mes remerciements vont à la CFDT Cadres, et en particulier à Laurent Mahieu pour sa confiance et à Jérôme Chemin pour son
soutien. Je remercie chaleureusement tous les acteurs du terrain qui ont
contribué à
ce livre par leurs témoignages et ont soulevé les questions que l’IA pose
Nous serions ravis de rester en contact avec vous et de pouvoir vous proposer d’autres idées de livres
à découvrir, des nouveautés, des conseils ou des événements avec nos auteurs.
[Link]/newsletter ou flashez ce QR code (votre adresse électronique sera à l’usage unique des éditions Eyrolles
pour vous envoyer
les informations demandées) :
Vous êtes présent(e) sur les réseaux sociaux ? Rejoignez-nous pour suivre d’encore plus près nos actualités :
Eyrolles Business
Eyrolles Business
L’équipe Eyrolles.