Présentatrice: Savana
Politicien + philosophe : Romain
Expertes scientifiques : Leila ( informaticienne ) et Asma (chercheur en IA)
Représentant d'une ONG : Julien
-> podcast : Intelligence artificielle par delà le bien et le mal? Mercredi 30 mars 2022
Problématique : L’IA menace-t-elle les principes éthiques fondamentaux ?
UNESCO -> 4 principes fondateurs (déclaration) universalité des principes ?
Avancée avec les promesses et menaces
• Avoir un certains nombre de règles(chartes)
Compliquer d'appliquer un concept moral et philosophique à un dispositif technique ?
• éthique de science -> c'est possible
• Plusieurs discours possible
• L'autonomisation rend la tâche périlleuse.
Face aux risques d'usage incontrôlés ou malveillants, l'UNESCO a adopté une recommandation
sur l'éthique de l'intelligence artificielle, 24 novembre dernier. Pourquoi est-il important de parler
d'éthique dans l'IA? Quelles sont les instances qui supervisent cette dimension ?
Risque juridique ?
Informations :
L’IA entre en guerre ( courrier international, journal) :
• intégration de l’IA dans l’armée chinoise (armes autonomes, la cybersécurité, la
reconnaissance faciale…)
• La FSS( créée en 2015 ) de l’armée chinoise fait une annonce afin d’embaucher 500
employés spécialisés dans l’intelligence artificielle
• Pour le président XI Jinping il faut injecter l’IA générative (permet de simuler différentes
situations) dans tous les secteurs de l’armée chinoise.
• Sauf que donner le contrôle des armes nucléaires à l’IA est une mauvaise idée (risque
d’escalade nucléaire.
• une équipe de chercheurs ont montré que les LLM amplifient la courses aux armements,
accroît les conflits, conduisent au déploiement d’armes nucléaires
• En plus de cela l’IA susceptible d’erreurs selon les données qu'elle prend en compte
L’IA peut-elle penser à notre place ? (Sciences humaines)
• L’IA est souvent vu comme une machine insensible et incapable de comprendre les
émotions humaines en réalité elle bouleversent des métiers créatifs
• Les nouvelles IA génératives sont loin de pouvoir substituer l’intelligence humaine car il
n’ont pas conscience de ce qui a de la valeur pour nous
• D’après le philosophe des sciences Philippe Huneman l’une des différences entre l’IA
générative et la pensée humaine est que ChatGPT est une machine à écrire. En effet, il
cherche constamment la réponse la plus fréquente dans les milliards de textes et
d’informations présents sur internet. Cependant il ignore complètement ce que signifient
ces suites de lettres. Si un individu discute d’un sujet dans lequel il sent à l’aise à ChatGPT,
il se mettra tôt ou tard à inventer de fausses informations.
• Les débats actuels sur l’impact de l’IA s’amplifient.
• Les géants alors émergents du numérique, comme Amazon, ont successivement été
accusés de s’appuyer sur le piratage d'œuvres culturelles, souvent protégés par les droits
d’auteurs ; de véhiculer des contenus discriminatoires et de fausses informations, etc …
IA ce qu’elle change ( sciences avenir ) :
• Une solution ? Fondée en 2023 , l’entreprise française Mistral AI mise sur la confidentialité .
Son IA propose un mode incognito qui permet aux utilisateurs d'interagir avec l’outil sans
que ces échanges soient archivés.une autre fonction empêche l’IA d'utiliser les données
pour son apprentissage et donc de les mettre potentiellement à la disposition d’un autre
utilisateur.
• L’IA possède une somme de connaissances acquises qu’il est difficile de modifier par la
suite, en effet les informaticien sont obligés table rase de tous les paramètre de stockages
de données pour effectuer une réactualisation .
– raisonnement éthique important pour les question au niveaux des technologie ou de la vie
quotidienne ou on sait qu’il peut voir un impact sur les individu ou la société ( positif ou négative)
• IA peut résoudre des soucis ou en résoudre (problème également lié à l’impact
environnementale, justice social)
• stratégie du développement
• question de droit d’auteur - éthique peut apporter des réponses très concrètes pour
anticiper les risques.
• l’éthique n’est pas juste une discipline qui va mettre les bâton dans les roues du
développement et donc qui va juste ralentir : incluir le discours et analyse
éthique va peut-être ralentir
• différente vision du monde, approche philosophique sur comment utilise t-on ses système
d’IA
• Il existe l’éthique-washing: c’est le fait de faire semblant d’avoir une réflexion éthique de
manière assez superficiels en se questionnant mais sans aller chercher et creuse r les
questions qui se cache derrière et sans aller y attacher des actions comme des valeurs ou
des principe guides qu’on se donne . Au lieu de nous rendre service, cela va à la fois
endommager un utilisateur car il va se dire qu'il y a eu une réflexion éthique donc il peut
avoir des attentes et ça peut endommager la vision globale du développement du produit
Podcast par dela le bien et le mal :
• éthique est-il soluble dans l’IA ?
• Les informaticiens de l’IA développe une éthique de l’IA qui est une éthique de la science
( de ce point de vue ce n’est pas si difficile )
Il existe plusieurs discours ( éthique algorithmique, digital, artificielle, des usages de
l'intelligence artificielle. Donc en gros l’autonomisation de ces machines rend la tâche
périlleuse
• Le nom “ Intelligence artificielle “ est créateur de mythes, d’imaginaire et de projection alors
que si le nom aurait été beaucoup plus précis sur le réel travail que fait cette machine,
personne ne se souciait de ce que ce système est.
• 4 grands principes: respect d’autonomie humaine, d’équité, de prévention ou de non
malfaisances
• Elle facilite aussi l'accès à l'information, à l'éducation et aux formations. L'IA peut aussi
contribuer à rendre le milieu du travail plus sûr, puisque des robots peuvent être employés
pour prendre en charge les tâches dangereuses, tout en créant de nouveaux emplois avec
l'expansion des entreprises utilisant l'IA
INTRODUCTION
Savana (présentatrice)
Bonjour à toutes et à tous, et bienvenue dans “nom du podcast ” !
Aujourd’hui, nous posons une question cruciale : l’intelligence artificielle menace-t-elle les
principes éthiques fondamentaux ?
Dans un monde transformé par la technologie, l’IA est partout : dans nos téléphones, nos
hôpitaux, nos armées. Mais à quel prix ?
Pour y répondre, j’ai le plaisir d’être entourée de cinq intervenants aux regards
complémentaires.
Def éthique
I – Une technologie neutre, au service des valeurs humaines ?
Julien (représentant ONG)
L’éthique de l’IA, c’est avant tout une question de valeurs. On ne peut pas la laisser aux
seuls gouvernements ou entreprises.
Nous observons déjà des usages inquiétants : surveillance de masse, reconnaissance
faciale intrusive, décisions discriminatoires.
L’IA n’est pas neutre, elle reflète les biais de ceux qui la conçoivent. Il faut des garanties
fortes, des chartes contraignantes, et surtout, une gouvernance qui inclut la société civile.
Romain (politicien et philosophe)
L’intelligence artificielle est une opportunité immense pour nos services publics et notre
économie. Mais elle soulève aussi des questions éthiques essentielles : vie privée, équité,
transparence.
L’équilibre est difficile : nous devons légiférer pour protéger les citoyens, sans freiner
l’innovation. C’est une question de responsabilité collective.
Savana
Merci Romain et Julien. Alors, l’IA peut-elle être alignée avec les principes humains, ou
risque-t-elle de nous échapper ? Voyons ce que disent nos experts scientifiques.
II – Une technologie aux effets parfois incontrôlables
Asma (chercheuse en IA)
L’IA fonctionne sur des données. Et si ces données sont biaisées, les décisions le seront
aussi.
On parle de plus en plus d’IA “explicable” : c’est-à-dire compréhensible et vérifiable par les
humains.
Mais ce n’est pas simple. L’autonomisation de certains systèmes rend l’éthique plus
complexe : on ne parle plus juste d’outils, mais de systèmes qui prennent des décisions.
Leila (informaticienne)
Oui, et au niveau technique, il faut intégrer l’éthique dès la conception.
Aujourd’hui, certaines IA comme les modèles génératifs peuvent inventer des informations,
sans comprendre ce qu’elles disent.
Elles peuvent amplifier des conflits, comme l’ont montré des chercheurs sur les risques de
guerre avec l’IA.
L’exemple de l’armée chinoise qui veut intégrer l’IA dans tous les secteurs, y compris les
armes autonomes, est alarmant.
Il ne s’agit plus seulement d’efficacité, mais de menaces réelles, parfois existentielles.
Savana
Merci Leila et Asma. L’IA est donc loin d’être une technologie “neutre” : elle peut amplifier
les inégalités et menacer la paix. Mais alors, comment faire pour préserver l’éthique dans
cette révolution technologique ?
III – Comment préserver l’éthique à l’ère de l’IA ?
Julien
Il faut des régulations internationales. En novembre dernier, l’UNESCO a adopté une
recommandation sur l’éthique de l’IA, reposant sur quatre principes : respect de
l’autonomie humaine, équité, prévention du mal, et transparence.
Mais ces principes doivent s’appliquer vraiment. Pas d’éthique-washing ! Faire semblant de
respecter des valeurs sans actions concrètes est dangereux.
Romain
L’éthique, ce n’est pas juste un frein. C’est une manière de penser notre futur commun.
Et comme le dit le philosophe des sciences Philippe Huneman, l’IA n’a pas de conscience.
ChatGPT, par exemple, n’est qu’un “calculateur de phrases probables”.
Penser que ces machines peuvent nous remplacer est une erreur. C’est à nous d’insuffler
du sens, de la valeur, de poser des limites.
Leila
Certaines entreprises, comme Mistral AI en France, proposent des alternatives plus
respectueuses : avec un mode incognito, et sans exploitation des données utilisateurs.
Cela montre que des choix éthiques sont possibles, même dans le secteur privé.
Asma
Et cela passe aussi par l’éducation. L’IA peut être un levier positif : faciliter l’accès à
l’éducation, protéger les travailleurs…
Mais cela demande une stratégie claire, interdisciplinaire, et une éthique qui ne soit pas un
supplément, mais un cœur du développement.
Savana
C’est tout l’enjeu : faire de l’éthique un moteur, pas un obstacle.
CONCLUSION
Savana
L’intelligence artificielle bouleverse nos sociétés. Elle porte autant de promesses que de
dangers.
Face à ses usages incontrôlés, il nous faut une éthique vivante, exigeante, et universelle.
Merci à nos invités : Romain, Julien, Leila, Asma. Et merci à vous, auditeurs et auditrices,
pour votre écoute attentive.
À très bientôt pour un nouvel épisode de “nom du podcast” !