0% ont trouvé ce document utile (0 vote)
28 vues12 pages

Agentivité en éducation et IA : enjeux clés

Transféré par

Stein Regen
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
28 vues12 pages

Agentivité en éducation et IA : enjeux clés

Transféré par

Stein Regen
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

9 /// PRESERVER

L’AGENTIVITE DES
ENSEIGNANTS ET
ELEVES : DES PISTES
ISSUES D’UNE
RECENSION DES ECRITS
Alexandre Lepage1
Simon Collin2
1
Université de Montréal, Canada
2
Université du Québec à Montréal, Canada

Automatiser des actions qui étaient autrefois réalisées par des humains peut
poser un certain nombre de risques qu’il est toutefois possible de prévenir
dès l’étape de conception. En éducation, le travail des enseignants comme
celui des élèves est appelé à se transformer avec l’apparition des systèmes
d’IA.
Si aucune précaution n’est prise, certaines technologies éducatives basées
sur l’IA risquent de limiter la capacité des enseignants à prendre eux-mêmes
des décisions pédagogiques, en plus d’introduire des erreurs de
classification ou de jugement. Néanmoins, des solutions existent. Ce
chapitre présente les résultats partiels d’une recension systématique des
écrits sur les enjeux éthiques de l’IA en éducation, en se concentrant sur les
questions relatives à la préservation de l’agentivité des enseignants et des
élèves. Il est structuré sous forme de rapport de recherche, avec contexte,
méthode, résultats et discussion. Des pistes sont proposées pour se
prémunir contre les risques recensés.

Introduction
L’éducation n’échappe pas au développement rapide des techniques d’intelligence artificielle
(IA) et à leur capacité à réaliser des actions de plus en plus complexes. Dans le Consensus
de Beijing sur l’IA en éducation, l’UNESCO (2019) entrevoit des bénéfices potentiels de l’IA
dans plusieurs activités jusqu’à présent réalisées par des élèves, du personnel enseignant ou
du personnel administratif. Les occasions d’utiliser l’IA en éducation sont nombreuses, que ce
soit pour le tutorat intelligent, l’évaluation des apprentissages ou bien la prévention de
l’abandon scolaire (Zawacki-Richter et al., 2019). Ces avancées nous amènent à nous poser
de nouvelles questions : et si le personnel enseignant pouvait enfin être déchargé des
fastidieuses heures passées à corriger des copies ? Un élève pourra-t-il obtenir une aide en
temps réel, à la maison, lorsqu’il stagne sur un difficile problème de mathématique ? Une IA

Enseigner et apprendre à l’ère de l’intelligence artificielle Sommaire 82


peut-elle faire aussi bien qu’un enseignant ? Ou même mieux ? Ces questions alimentent des
craintes non fondées, mais elles demeurent pertinentes pour faire émerger des enjeux
éthiques à considérer dans les déploiements futurs de l’IA en éducation.

Le présent chapitre entend réfléchir à ces questions sous l’angle de la préservation de


l’agentivité humaine (Engeström et Sannino, 2013), un des grands enjeux de l’IA en éducation
aux côtés de la justice sociale, de la complexité humaine ou de la gouvernance, par exemple.
Nous présenterons dans l’ordre quelques éléments contextuels dont certaines définitions de
l’IA en éducation, deux repères théoriques, soit le système technicien et le concept
d’agentivité, et finalement les résultats d’une recension des écrits sur les enjeux éthiques
associés à l’agentivité et l’IA en éducation.

QU’EST-CE QUE L’IA APPLIQUEE A L’EDUCATION ?

L’IA peut d’abord être envisagée comme un ensemble de techniques aux contours plus ou
moins définis. Ses techniques les plus communes relèvent de l’apprentissage automatique
(machine learning), qui peut être supervisé, semi-supervisé ou non supervisé (Taulli, 2019).
L’apprentissage profond par réseaux de neurones artificiels peut être utilisé pour traiter les
données dites massives, c’est-à-dire caractérisées par la rapidité à laquelle elles se multiplient,
leur volume et leur diversité (Taulli, 2019). Humble et Mozelius (2019) l’abordent en soulignant
le caractère interdisciplinaire qui dépasse les sciences informatiques : « l’IA en éducation est
un domaine interdisciplinaire intégrant la psychologie, la linguistique, les neurosciences,
l’éducation, l’anthropologie et la sociologie dans le but de créer des outils puissants pour
l’éducation et de mieux comprendre le phénomène d’apprentissage » (p. 1). L’IA peut aussi
être définie autrement que par ses méthodes informatiques, par exemple par les fonctions
qu’elle occupe dans un système. Loder et Nicholas (2018) présentent l’IA comme des
« ordinateurs réalisant des tâches cognitives, généralement associées au raisonnement
humain, particulièrement pour l’apprentissage et la résolution de problèmes » (p. 11). Pour
Popenici et Kerr (2017), l’IA en éducation est constituée de « systèmes informatiques capables
de s’engager dans des processus humains comme l’apprentissage, l’adaptation, la synthèse,
l’autocorrection et l’utilisation de données pour des tâches complexes » (p. 4). C’est cette
dernière que nous retiendrons, car elle permet de dépasser l’opposition entre l’intelligence
humaine et l’IA et d’envisager des interactions complexes entre les deux.

L’IA est un terme qui peut vouloir dire beaucoup de choses. Appliquée à l’éducation, elle vise à accomplir des
tâches complexes qui étaient jusqu’à maintenant uniquement réalisées par des êtres humains (comme de la
rétroaction ou l’adaptation du matériel didactique en fonction du niveau de difficulté optimal pour un groupe
d’élèves).

L’IA VIA LE PRISME DU SYSTEME TECHNICIEN

Nous proposons d’envisager ces techniques sous l’angle de la théorie du système technicien
de Ellul (1977). Selon cette théorie, les techniques redéfinissent constamment la réalité de
l’expérience humaine. Ellul donne l’exemple de la télévision, rendue possible par accumulation
de techniques. En la visionnant, les individus finissent par ne plus voir ces techniques. La
télévision a rendu possible une nouvelle forme de communication que nous avons fini par
intégrer, puis banaliser au point de ne même plus nous intéresser à son fonctionnement. En
somme, les techniques qui l’ont rendue possible, comme l’électricité ou les antennes de
diffusion, finissent par s’implanter et redéfinir les actions des individus qui utilisent la télévision,
ainsi que les rapports sociaux auxquels ils participent plus largement, etc. En appliquant cette

Enseigner et apprendre à l’ère de l’intelligence artificielle Sommaire 83


théorie à l’IA, on pourrait en venir à se demander si la complexité des techniques d’IA en
éducation nous fera oublier la complexité des techniques et des gestes professionnels propres
à l’enseignement. Comment les enseignants occuperaient le temps passé à concevoir et
articuler des activités pédagogiques si des systèmes sélectionnaient et adaptaient
automatiquement des exercices selon le niveau de leurs élèves ? Allons-nous cesser de nous
intéresser à la docimologie, science de l’évaluation, parce qu’une IA le fait à notre place ?
Contrairement à d’autres technologies éducatives, l’IA a de particulier qu’elle est développée
dans le but d’accomplir des tâches de plus en plus complexes, ce qui permettrait à l’enseignant
de se concentrer sur les tâches pour lesquelles l’IA fait moins bien (p. ex. les tâches de haute
complexité qui exigent une compréhension fine du contexte, comme les relations avec les
élèves).

L’enseignement est composé d’actions complexes que les enseignants connaissent bien. Introduire des outils
basés sur l’IA pour accomplir ces actions ne devrait pas nous amener à oublier ce que nous savons de cette
complexité et la façon dont nous la gérons actuellement.

L’AGENTIVITE POUR COMPRENDRE ET SITUER L’ACTIVITE HUMAINE

La définition que nous avons retenue de l’IA en éducation plus haut, celle de Popenici et Kerr
(2017), introduit l’idée que les systèmes informatiques simulant l’intelligence humaine
prennent place dans des systèmes humains. Nous envisageons chacun de ces systèmes
comme agents l’un de l’autre. En informatique, le terme agent désigne un système avec une
certaine part d’autonomie capable de réaliser des actions qui auront un impact sur
l’environnement dans lequel il se trouve : « l’action, qui est un concept fondamental pour les
systèmes multi-agents, repose sur le fait que les agents accomplissent des actions qui vont
modifier l’environnement des agents et donc leurs prises de décision futures » (Ferber, 1995,
p. 13). C’est là une des particularités des systèmes complexes dits intelligents : ceux-ci ne se
contentent pas de « raisonner » (Ferber, 1995, p. 13), ils agissent et transforment leur
environnement.

En sciences sociales, le concept d’agentivité fait aussi référence à une forme d’autonomie,
mais cette fois de la part des personnes. Selon Engeström et Sannino (2013), « l’agentivité
est une recherche volontaire de transformation de la part du sujet » et « se manifeste dans
une situation problématique polymotivée dans laquelle le sujet évalue et interprète les
circonstances, prend des décisions selon les interprétations et exécute ces décisions » (p. 7).
Par exemple, un enseignant pourrait souhaiter offrir une rétroaction très précise à ses élèves,
mais devoir rendre les notes le plus rapidement possible. Dans une telle situation, deux motifs
sont en concurrence et c’est en prenant des actions agentives que l’enseignant parviendra à
résoudre ce conflit de motifs. Pour l’IA en éducation, il pourrait s’agir de permettre à l’élève ou
à l’enseignant, selon le cas, d’avoir une capacité d’action plus importante par l’utilisation de
systèmes d’IA. Mais au-delà de ce scénario idéal, à l’heure actuelle, la plupart des usages de
l’IA appliqués à l’éducation tendent plutôt à modéliser des décisions pédagogiques en vue
d’une aide à la décision, d’une automatisation de certaines décisions ou d’une analyse des
décisions prises.

Les êtres humains sont caractérisés par leur agentivité, c’est-à-dire qu’ils parviennent à prendre des actions
et des décisions dans des situations où seulement de l’information incomplète est disponible.

Enseigner et apprendre à l’ère de l’intelligence artificielle Sommaire 84


QUESTION DE RECHERCHE

À première vue, les domaines d’applications actuels de l’IA sont susceptibles d’empiéter sur
l’agentivité des élèves et du personnel enseignant, notamment lorsqu’il est question
d’évaluation et de choix des ressources ou activités pédagogiques. Pour dépasser ces
perceptions initiales, nous poserons la question de recherche suivante : quels types d’usages
de l’IA en éducation risquent de limiter l’agentivité des enseignants, et des élèves ?

Méthode : une recension des écrits sur les enjeux


éthiques
Ce chapitre s’appuie sur des données rassemblées lors d’un projet de recension systématique
des écrits autour des termes « éthique, IA et éducation », dans les bases de données Google
Scholar, Web of Science, Microsoft Academic, EBSCO Education, [Link] et Scopus,
et en procédant par sérendipité (Michel et Le Nagard, 2019). Les documents sont des articles
scientifiques ou actes de colloque révisés par les pairs. Ils sont rédigés en français ou en
anglais, et publiés entre 2010 et 2021 (N = 58). Les articles ont été lus puis des segments
codés à l’aide du logiciel nVivo par deux personnes. Alors que la recension fera l’objet d’une
publication spécifique (en rédaction), ce chapitre propose une analyse spécifique, approfondie
et inédite, des enjeux relatifs à la préservation de l’agentivité humaine. Aux fins du présent
chapitre, ce sont 24 documents (n = 24) qui ont été retenus pour l’analyse, lesquels
comprenaient 62 segments codés.

Résultats en lien avec l’agentivité des enseignants


et des élèves
Cette section présente, dans l’ordre, les résultats relatifs à l’agentivité des enseignants puis
ceux relatifs à l’agentivité des élèves. Elle vise à rapporter le plus fidèlement possible, de façon
objective et sans interprétation secondaire, les idées véhiculées dans la littérature. La
discussion qui suivra permettra d’apporter certaines nuances.

RESULTATS RELATIFS A L’AGENTIVITE DES ENSEIGNANTS

Sans préciser le type d’outils d’IA dont il est question, plusieurs des documents consultés
considèrent que ceux-ci risquent de diminuer l’agentivité des enseignants. Le développement
de systèmes informatiques complexes fait passer une partie de leur pouvoir décisionnel vers
des équipes de conception de logiciels :

Intégrer des systèmes d’IA en éducation pourrait exacerber un déséquilibre des pouvoirs et créer de
nouvelles inégalités. Les systèmes d’IA peuvent faire pivoter le centre de l’expertise des enseignants et
gestionnaires scolaires vers les programmeurs ou concepteurs de systèmes qui créent les modèles
permettant de diagnostiquer les retombées sur l’apprentissage, prédire les accomplissements scolaires et
déterminer les recommandations qui seront affichées et à qui. (Berendt et al., 2020, p. 317).

C’est le cas par exemple des tuteurs intelligents qui sélectionnent du matériel didactique à la
place de l’enseignant, du diagnostic des élèves à risque ou bien de la prédiction de la réussite.
Prenons l’exemple d’une enseignante de mathématiques qui crée elle-même une série
d’exercices pour entraîner les élèves à la résolution d’équations du second degré. A priori, on

Enseigner et apprendre à l’ère de l’intelligence artificielle Sommaire 85


pourrait penser qu’il s’agit là d’une tâche pouvant être automatisée, ou à tout le moins que du
matériel existant pourrait être réutilisé. C’est peut-être le cas, mais on pourrait aussi chercher
à comprendre pourquoi l’enseignante le fait, et faire des découvertes intéressantes. Elle
pourrait le faire, par exemple, car elle enseigne auprès d’un groupe multiculturel et qu’elle ne
trouve pas de problèmes mettant en scène des référents culturels pertinents pour son groupe.
Elle pourrait aussi choisir d’utiliser volontairement une série d’exercices trop faciles pour ses
élèves pour des considérations purement pédagogiques, par exemple pour renforcer
momentanément leur confiance à réussir. Elle pourrait, tout compte fait, exercer son agentivité
dans des situations polymotivées là où un système basé sur l’IA ne considérerait qu’un motif
didactique.

Une enseignante pourrait, tout compte fait, exercer son agentivité dans des situations polymotivées là où un
système basé sur l’IA ne considérerait qu’un motif didactique.

Selon Berendt et al. (2020), cela pourrait aussi conduire à un recul de compétences des
enseignants qui pourraient prendre l’habitude de s’en remettre aux décisions d’un système au
détriment de leur propre expertise. Tout porte à croire que le biais d’automatisation
(Parasuraman et Manzey, 2010) pourrait aussi s’appliquer, c’est-à-dire qu’il pourrait y avoir
une trop grande confiance envers les décisions des systèmes basés sur l’IA. De plus, si ce
risque n’est pas reconnu par les établissements scolaires, ceux-ci pourraient exiger l’utilisation
de certains outils par les enseignants sous l’illusion de meilleures prédictions ou résultats
(Jones et al., 2020).

L’agentivité inscrit toujours l’action dans un contexte élargi. Knox (2017) rappelle que les
logiciels, algorithmes et bases de données sont toujours employés dans des contextes plus
larges qu’il n’y paraît :

L’utilisation des logiciels, algorithmes et bases de données, à travers plusieurs acteurs humains, est
souvent envisagée comme trop détachée de l’éducation en tant que telle. Les données des étudiants sont
soumises, et les enseignants sont encouragés à réagir face à ces données, sans pour autant qu’ils aient
fait partie du processus responsable de leur production. (p. 737, traduction libre)

Pour Corrin et al. (2019), l’usage d’outils basés sur l’IA doit toujours impliquer l’intervention
humaine, par exemple pour la révision des décisions contestées et des erreurs de
classification. Gras (2019), s’appuyant sur le Règlement général sur la protection des
données, parle de la « nécessité du maintien du contrôle par l’humain » (p. 4), et Knox (2017)
souligne que la possibilité de refuser les recommandations d’un système d’IA doit être
préservée et ce, sans conséquences négatives pour les enseignants. Se basant sur une
préoccupation similaire, Sjödén (2020) questionne qui devrait avoir préséance en cas de
divergence (note à une évaluation, action à poser, diagnostic de risque d’échec par exemple) :
l’enseignant ou l’IA ?

L’importance de préserver l’agentivité est soulignée par plusieurs documents consultés.


Adams et al. (2021) parle de laisser le choix aux enseignants de recourir ou non à des outils
basés sur l’IA. Aiken et Epstein (2000) affirment : « il faut à tout prix préserver la capacité
humaine de résoudre des problèmes et de réfléchir de façon rationnelle » (p. 166, traduction
libre). Holmes et al. (2021) invite à ne pas tomber dans une glorification des progrès des
systèmes informatiques qui diminuerait le rôle de l’humain. Sur la préservation de l’agentivité
des enseignants, Smuha (2020) détonne parmi les autres documents consultés en affirmant
que, dans la mesure où le choix d’utiliser ou non l’IA et de se fier ou non à ses
recommandations demeure possible, l’agentivité peut être accrue :

Enseigner et apprendre à l’ère de l’intelligence artificielle Sommaire 86


Tant que les humains peuvent choisir quand et dans quelles conditions les décisions sont déléguées à un
système d’IA, l’agentivité humaine n’est pas seulement préservée, elle peut être accrue. (p. 8, traduction
libre)

Parmi tous les documents consultés, il y a convergence sur l’importance de préserver


l’agentivité en laissant les enseignants libres d’utiliser ou non les outils basés sur l’IA. Et dès
la conception, ces outils devraient être pensés pour augmenter l’agentivité et non la
restreindre.

RESULTATS RELATIFS A L’AGENTIVITE DES ELEVES

Les élèves devraient également pouvoir choisir d’agir conformément ou non aux
recommandations d’un système d’IA (Roberts et al., 2017). À l’échelle de la situation
d’enseignement-apprentissage, l’usage de l’IA peut retirer de l’agentivité aux élèves. Selon
Bulger (2016), c’est le cas lorsqu’un système assigne des tâches scolaires. De façon
spécifique à l’enseignement supérieur, Roberts et al. (2017) constatent le risque
d’infantilisation des personnes si des systèmes cherchent à ludifier lorsque cela n’est pas
nécessaire ou souhaité par les apprenants. West et al. (2020) évoquent aussi ce risque, en
insistant sur la pertinence des voix étudiantes dans le processus de régulation des
apprentissages. Leurs perceptions, commentaires, expériences sont des éléments à
considérer dans les décisions pédagogiques et ne devraient pas être diminués face à un
système recourant à l’IA.

Les élèves devraient également pouvoir choisir d’agir conformément ou non aux recommandations d’un
système d’IA.

À l’échelle du parcours scolaire d’un élève, des systèmes prédictifs qui s’appuient sur les
données peuvent conduire à recommander des choix de programmes ou de cours (Jones et
al., 2020). Ce problème s’inscrit plus généralement dans la problématique des bulles de filtre,
où des algorithmes de recommandation parviennent bien à identifier des préférences à partir
de données antérieures concernant une personne, mais parviennent mal à éveiller de
nouveaux intérêts. C’est le cas, par exemple, de recommandations sur des plateformes
musicales ou de visionnement de séries télévisées. Ce faisant, elles limitent l’agentivité (Jones
et al., 2020) ou, à tout le moins, participent à redéfinir l’environnement dans lequel elle
s’exerce. Regan et Jesse (2019) rappellent que ces usages, même s’ils peuvent sembler
banals, ont une incidence sur la capacité des personnes à gérer leur vie librement.

Regan et Jesse (2019), s’appuyant sur Kerr et Earle (2013), présentent trois types de
prédictions pouvant affecter l’agentivité : les prédictions qui permettent aux personnes
d’anticiper les conséquences négatives, les prédictions qui orientent vers des décisions
spécifiques, et les prédictions prescriptives qui réduisent les choix possibles. Selon Regan et
Jesse (2019), les prédictions basées sur les conséquences réduisent peu l’agentivité des
personnes, alors que les prédictions prescriptives la réduisent beaucoup. Prenons pour
exemple la différence entre un système qui recommande automatiquement une série de
ressources pour l’apprentissage, sans pour autant masquer d’autres ressources, et un autre
qui les sélectionne et les intègre dans un parcours dit personnalisé. Le premier maintient une
certaine agentivité alors que le second retire une forme d’agentivité, car il prend des décisions
à la place de l’apprenant.

Au niveau des usages didactiques, Sjödén (2020) note que les systèmes basés sur l’IA
peuvent intégrer de fausses informations à l’environnement dans lequel agit l’élève. Il présente

Enseigner et apprendre à l’ère de l’intelligence artificielle Sommaire 87


trois types de procédés que pourraient employer des systèmes d’IA et qui pourraient poser
des problèmes éthiques : les cas où les systèmes mentent, c’est-à-dire présentent une
information volontairement inexacte, les cas où ils cachent de l’information en sélectionnant
celle à présenter, les cas où ils entretiennent des croyances erronées chez les élèves. Sjödén
(2020) pose la question : « Jusqu’à quel point est-il justifiable, d’un point de vue éthique,
d’entretenir de telles illusions ? » (p. 293). Ici, le lien avec l’agentivité tient à l’authenticité de
l’environnement dans lequel l’agentivité est exercée. Une agentivité appuyée par des
informations partielles ou fausses est-elle réellement de l’agentivité ?

Une agentivité appuyée par des informations partielles ou fausses est-elle réellement de l’agentivité ?

Reiss (2021), s’appuyant sur Puddifoot et O’Donnell (2018), souligne que des outils qui
poursuivent une intention de facilitation des apprentissages peuvent entraver l’activité
intellectuelle nécessaire à la formation des concepts :

Puddifoot et O’Donnell (2018) défendent l’idée qu’une trop grande dépendance envers les technologies
pour stocker l’information à notre place - information que nous devions auparavant mémoriser - peut être
contre-productive et donner lieu à des opportunités ratées pour les élèves de former des abstractions et
de réaliser des inférences à partir de nouvelles informations. (p. 4, traduction libre)

Même en présence d’outils visant à faciliter la tâche des apprenants, il peut être
momentanément pertinent de conserver une activité intellectuelle précise pour le
développement de certaines structures logiques de pensée. Par exemple, un outil qui
préidentifie les passages importants dans un texte, pour éviter à l’élève de devoir le lire au
complet, pourrait ne pas être souhaitable si l’intention pédagogique est le développement de
la capacité de synthèse. Un peu comme d’autres l’ont fait avant au sujet de la calculette,
Smuha (2020) parle du risque de développement d’une paresse intellectuelle à force
d’interagir avec des machines plus performantes pour la réalisation de certaines tâches. Selon
des parents d’élèves, certains outils pourraient même être des entraves à l’apprentissage si
les élèves ne développent pas de recul critique et leur accordent une trop grande confiance
(Qin et al., 2020).

Par contre, quelques parents sont inquiets que l’usage de systèmes basés sur l’IA en éducation puisse
faire en sorte que les élèves en deviennent dépendants et manquent de pensée critique. Cela explique le
fait que les parents soient réticents à faire confiance à ces systèmes. (p. 1699, traduction libre)

Certains risques s’ajoutent lorsqu’il est question d’enseignement supérieur. Des systèmes trop
guidés qui s’immiscent dans l’organisation du travail scolaire pourraient être perçus comme
infantilisants par les principaux intéressés (Roberts et al., 2017). Ce risque est aussi supporté
par West et al. (2020) selon qui les apprenants doivent être perçus comme des personnes
capables de réguler eux-mêmes leurs apprentissages. Roberts et al. (2017) proposent de
s’assurer que les étudiants ne soient jamais obligés d’agir en concordance avec les
recommandations d’un système ou sur la base de ses indicateurs de performance. Il faut aussi
souligner l’importance que les systèmes utilisés soient valides, fiables et capables d’accomplir
les tâches pour lesquelles ils ont été conçus dans un contexte réel (Smuha, 2020).

Enseigner et apprendre à l’ère de l’intelligence artificielle Sommaire 88


Discussion : quelques nuances et pistes pour se
prémunir des risques
À la lumière des résultats, cette section revient de manière systématique sur deux des
éléments abordés dans le contexte, à savoir le système technicien et le concept d’agentivité.
Elle présente également quelques pistes pour soutenir le développement de l’IA en éducation
tout en préservant l’agentivité des élèves et des enseignants.

PAR RAPPORT AU SYSTEME TECHNICIEN

Suivant Ellul (1977), l’enseignement, comme à peu près tout, peut être compris comme un
ensemble de techniques (formules pédagogiques, méthodes d’évaluation, etc.). Au fur et à
mesure que ces techniques se complexifient, dans ce cas-ci par le recours à l’IA, la complexité
sous-jacente aux techniques qui prévalaient jusqu’alors est masquée, opaque ou bien
carrément niée. Les outils basés sur l’IA sont rendus possibles par des techniques, au premier
plan desquelles se trouve l’apprentissage automatique (machine learning). Plus ils se
développent, plus ils précisent la réalité dans laquelle les individus évoluent. En ce sens, les
systèmes informatiques basés sur l’IA appliquant ces techniques en contexte éducatif ne
peuvent pas être considérés uniquement comme des outils. Ils redéfinissent plusieurs
paramètres de la situation éducative, par exemple le temps requis pour accomplir une tâche,
ou bien la nécessité ou non de mémoriser certaines informations, la nécessité ou non de
demander de l’aide pour accomplir une tâche, ou bien les possibilités d’interactions sociales.

Les outils basés sur l’IA sont rendus possibles par des techniques, au premier plan desquelles se trouve
l’apprentissage automatique (machine learning). Plus ils se développent, plus ils précisent la réalité dans
laquelle les individus évoluent.

Le recours à l’IA en éducation s’inscrit aussi dans la théorie du système technicien par le
déplacement de certains pouvoirs. Certains outils représentent « une forme de privatisation et
de commercialisation en transférant le contrôle des programmes scolaires et de la pédagogie
des enseignants et des écoles vers les entreprises à but lucratif » (Saltman, 2020, p. 199,
traduction libre). Si ce déplacement de pouvoirs peut être souhaitable, par moments, pour des
questions d’efficience ou d’innovation, il doit être fait prudemment en évaluant l’ensemble des
conséquences qui peuvent en découler. Le développement de l’IA ne peut donc être envisagé
que comme une façon d’améliorer l’expérience d’enseignement et d’apprentissage. Cette
conception est insuffisante pour décrire la transformation que ces outils pourraient opérer.
Insuffisante d’abord car elle ne considère pas l’IA comme un ensemble de techniques qui
reconfigurent les actions des élèves et enseignants, et insuffisante aussi car elle omet de
considérer que l’enseignement et l’apprentissage sont eux-mêmes alimentés par des
techniques.

PAR RAPPORT A L’AGENTIVITE

L’agentivité, telle que nous l’avons présentée, implique une initiative d’action dans des
situations présentant des conflits de motifs. Tout usage de l’IA qui retire de l’espace pour
prendre de telles initiatives limite l’agentivité. Il serait toutefois possible d’atténuer ce risque en
orientant les systèmes, dès la conception, pour qu’ils augmentent l’agentivité. Selon Kerr et
Earle (2013), cela pourrait se faire en concevant des systèmes qui réalisent des prédictions
de conséquences et rendent ainsi disponible plus d’information pour que les personnes

Enseigner et apprendre à l’ère de l’intelligence artificielle Sommaire 89


prennent elles-mêmes des décisions, plutôt que des systèmes basés sur des prédictions de
préférence ou prescriptives. Une prédiction prescriptive vise à diminuer les options
disponibles, alors qu’une prédiction de préférence permet d’orienter ou classer, sans diminuer
les options disponibles. Comme le suggèrent Roberts et al. (2017), il est important que
l’étudiant n’ait pas l’obligation d’agir sur certains indicateurs. Dans l’enseignement supérieur,
s’ajoute le risque d’un guidage trop important des étudiants qui peut avoir un effet infantilisant
sur ces derniers. C’est pourquoi, dans le domaine des traces d’apprentissages (learning
analytics), le développement des tableaux de bord appelle à prendre en compte les besoins
réels des étudiants.

PISTES POUR LE DEVELOPPEMENT D’OUTILS BASES SUR L’IA PRESERVANT


L’AGENTIVITE

Les résultats de notre recension des écrits soulèvent plusieurs risques relatifs au maintien de
l’agentivité humaine à travers les usages de l’IA en éducation, autant pour le personnel
enseignant que pour les élèves. Nous proposons ici trois pistes pour concevoir des
technologies éducatives basées sur l’IA tout en préservant, voire renforçant, l’agentivité
humaine.

Premièrement, l’IA devrait d’abord être employée non pas pour prendre des décisions, mais
plutôt pour améliorer la qualité de l’information pour permettre aux personnes de prendre des
décisions plus éclairées. Cela peut se faire par exemple en présentant les conséquences
probables de décisions (Regan et Jesse, 2019) tout en maintenant de la transparence sur ce
dont tiennent compte les prédictions et ce dont elles ne tiennent pas compte. L’utilisation de
tels systèmes devrait demeurer facultative pour les enseignants (Knox, 2017).

En éducation, l’IA devrait d’abord être employée non pas pour prendre des décisions, mais plutôt pour
améliorer la qualité de l’information pour permettre aux personnes de prendre des décisions plus éclairées.

Deuxièmement, relativement à l’évaluation des apprentissages, il semble prometteur d’utiliser


l’IA pour des rétroactions rapides, personnalisées et fréquentes, dans des contextes où la
rétroaction de l’enseignant ne pas être réalistement attendue. Bien sûr, ces systèmes doivent
être transparents, même auprès de l’élève, sur la façon dont la rétroaction a été établie. En
cohérence avec le point précédent, ils doivent contribuer à augmenter l’information disponible
auprès de l’élève, sans toutefois prendre de décisions relatives à la notation, par exemple. L’IA
ne devrait pas être utilisée pour remplacer le jugement professionnel des enseignants pour
des évaluations certificatives. Elle pourrait aussi servir à porter à l’attention de l’enseignant
certains biais potentiels dans ses évaluations ou certaines incohérences.

Finalement, en ce qui concerne les aides à la tâche destinées aux élèves, elles pourraient être
développées éventuellement, mais ce terrain semble incertain pour le moment. Les intentions
pédagogiques des curricula ne permettent pas toujours, à un niveau micro, de distinguer quelle
activité intellectuelle est essentielle de celle qui est instrumentale ou déjà acquise. Les usages
de l’IA visant à engager des élèves dans des projets technocréatifs (Romero et al., 2017) et
développer eux-mêmes des compétences dans le domaine semblent plus prometteurs à court
terme et peuvent même être combinés à des usages a priori destinés à l’enseignant.

Enseigner et apprendre à l’ère de l’intelligence artificielle Sommaire 90


Conclusion
En situation éducative, enseignants comme élèves font preuve d’agentivité au quotidien.
Malgré tous les efforts pour modéliser des problèmes éducatifs et automatiser des solutions,
par exemple pour l’évaluation des apprentissages, il faut garder en tête que ces problèmes
peuvent être abordés depuis plusieurs points de vue et qu’ils font intervenir des dimensions
humaines parfois intangibles, et des motifs contradictoires. C’est par l’agentivité que sont
résolues ces situations au quotidien. Il faut donc éviter le piège réductionniste de concevoir
des outils didactiques détachés du contexte dans lequel ils sont utilisés.

Les pistes étant certainement nombreuses, nous en avons proposé trois : (1) utiliser l’IA pour
améliorer l’information décisionnelle plutôt que prendre des décisions éducatives, (2) utiliser
l’IA pour des rétroactions formatives et non pour l’évaluation certificative, tout en entraînant
les élèves et les enseignants à un recul critique, et (3) privilégier les usages qui engagent les
élèves et leur permettent de développer un recul critique sur le fonctionnement de l’IA.

Références
Adams, C., Pente, P., Lemermeyer, G. et Rockwell, G. (2021). Artificial
Intelligence Ethics Guidelines for K-12 Education: A Review of the Global
Landscape. Dans I. Roll, D. McNamara, S. Sosnovsky, R. Luckin et V.
Dimitrova (Éds.), Artificial Intelligence in Education (Vol. 12749, p. 24-28).
Springer International Publishing.
Aiken, R. M., & Epstein, R. G. (2000). Ethical Guidelines for AI in Education:
Starting a Conversation. International Journal of Artificial Intelligence in
Education, 11, p. 163-176.
Berendt, B., Littlejohn, A. et Blakemore, M. (2020). AI in education: Learner
choice and fundamental rights. Learning, Media and Technology, 45(3),
p. 312-324.
Bulger, M. (2016). Personalized Learning: The Conversations We’re Not
Having. Data & Society, 29.
Corrin, L., Kennedy, G., French, S., Shum, S. B., Kitto, K., Pardo, A., West,
D., Mirriahi, N. et Colvin, C. (2019). The Ethics of Learning Analytics in
Australian Higher Education.
Ellul, J. (1977). Le système technicien. Calmann-Levy.
Engeström, Y. et Sannino, A. (2013). La volition et l’agentivité
transformatrice : Perspective théorique de l’activité. Revue internationale du
CRIRES : innover dans la tradition de Vygotsky, 1(1), 4-19.
Ferber, J. (1995). Les systèmes multi-agents : Vers une intelligence
collective. Intereditions.
Gras, B. (2019). Éthique des Learning Analytics. Distances et médiations
des savoirs, 26.
Holmes, W., Porayska-Pomsta, K., Holstein, K., Sutherland, E., Baker, T.,
Shum, S. B., Santos, O. C., Rodrigo, M. T., Cukurova, M., Bittencourt, I. I. et
Koedinger, K. R. (2021). Ethics of AI in Education: Towards a Community-
Wide Framework. International Journal of Artificial Intelligence in Education.
Humble, N. et Mozelius, P. (2019). Teacher-supported AI or AI-supported
teachers? 11.

Enseigner et apprendre à l’ère de l’intelligence artificielle Sommaire 91


Jones, K. M. L., Rubel, A. et LeClere, E. (2020). A matter of trust: Higher
education institutions as information fiduciaries in an age of educational data
mining and learning analytics. Journal of the Association for Information
Science and Technology, 71(10), p. 1227-1241.
Kerr, I. et Earle, J. (2013). Prediction, preemption, presumption: How big data
threatens big picture privacy. Stanford Law Review Online, 66, 65-72.
Knox, J. (2017). Data Power in Education: Exploring Critical Awareness with
the “Learning Analytics Report Card”. Television & New Media, 18(8),
p. 734-752.
Loder, J. et Nicholas, L. (2018). Confronting Dr Robot—Creating a people-
powered future for AI in health (p. 38). Nesta Health Lab.
Michel, G. et Le Nagard, E. (2019). Favoriser la sérendipité pour des
recherches plus créatives. Decisions Marketing, (1), p. 5-9.
Parasuraman, R. et Manzey, D. H. (2010). Complacency and bias in human
use of automation: An attentional integration. Human Factors, 52(3),
p. 381-410.
Popenici, S. A. D. et Kerr, S. (2017). Exploring the impact of artificial
intelligence on teaching and learning in higher education. Research and
Practice in Technology Enhanced Learning, 12(22), p. 1-13.
Puddifoot, K. et O’Donnell, C. (2018). Human Memory and the Limits of
Technology in Education. Educational Theory, 68(6), p. 643-655.
Qin, F., Li, K. et Yan, J. (2020). Understanding user trust in artificial
intelligence‐based educational systems: Evidence from China. British
Journal of Educational Technology, 51(5), p. 1693-1710.
Regan, P. M. et Jesse, J. (2019). Ethical challenges of edtech, big data and
personalized learning: Twenty-first century student sorting and tracking.
Ethics and Information Technology, 21(3), p. 167-179.
Reiss, M. J. (2021). The use of AI in education: Practicalities and ethical
considerations. London Review of Education, 19(1).
Roberts, L. D., Chang, V. et Gibson, D. (2017). Ethical Considerations in
Adopting a University- and System-Wide Approach to Data and Learning
Analytics. Dans B. Kei Daniel (Éd.), Big Data and Learning Analytics in
Higher Education (p. 89-108). Springer International Publishing.
Romero, M., Lille, B. et Patiño, A. (2017). Usages créatifs du numérique pour
l’apprentissage au XXIe siècle. PUQ.
Saltman, K. J. (2020). Artificial intelligence and the technological turn of
public education privatization: In defence of democratic education. London
Review of Education, 18(2).
Sjödén, B. (2020). When Lying, Hiding and Deceiving Promotes Learning—
A Case for Augmented Intelligence with Augmented Ethics. Dans I. I.
Bittencourt, M. Cukurova, K. Muldner, R. Luckin, & E. Millán (Éds.), Artificial
Intelligence in Education (Vol. 12164, p. 291-295). Springer International
Publishing.
Smuha, N. A. (2020). Trustworthy Artificial Intelligence in Education: Pitfalls
and Pathways. SSRN Electronic Journal.
Taulli, T. (2019). Artificial Intelligence Basics: A Non-Technical Introduction.
Apress.
UNESCO. (2019). BEIJING CONSENSUS on artificial intelligence and
education. [Link]

Enseigner et apprendre à l’ère de l’intelligence artificielle Sommaire 92


West, D., Luzeckyj, A., Toohey, D., Vanderlelie, J. et Searle, B. (2020). Do
academics and university administrators really know better? The ethics of
positioning student perspectives in learning analytics. Australasian Journal
of Educational Technology.
Zawacki-Richter, O., Marín, V. I., Bond, M. et Gouverneur, F. (2019).
Systematic review of research on artificial intelligence applications in higher
education – where are the educators? International Journal of Educational
Technology in Higher Education, 16(1), 39.

Enseigner et apprendre à l’ère de l’intelligence artificielle Sommaire 93

Vous aimerez peut-être aussi