Agentivité en éducation et IA : enjeux clés
Agentivité en éducation et IA : enjeux clés
L’AGENTIVITE DES
ENSEIGNANTS ET
ELEVES : DES PISTES
ISSUES D’UNE
RECENSION DES ECRITS
Alexandre Lepage1
Simon Collin2
1
Université de Montréal, Canada
2
Université du Québec à Montréal, Canada
Automatiser des actions qui étaient autrefois réalisées par des humains peut
poser un certain nombre de risques qu’il est toutefois possible de prévenir
dès l’étape de conception. En éducation, le travail des enseignants comme
celui des élèves est appelé à se transformer avec l’apparition des systèmes
d’IA.
Si aucune précaution n’est prise, certaines technologies éducatives basées
sur l’IA risquent de limiter la capacité des enseignants à prendre eux-mêmes
des décisions pédagogiques, en plus d’introduire des erreurs de
classification ou de jugement. Néanmoins, des solutions existent. Ce
chapitre présente les résultats partiels d’une recension systématique des
écrits sur les enjeux éthiques de l’IA en éducation, en se concentrant sur les
questions relatives à la préservation de l’agentivité des enseignants et des
élèves. Il est structuré sous forme de rapport de recherche, avec contexte,
méthode, résultats et discussion. Des pistes sont proposées pour se
prémunir contre les risques recensés.
Introduction
L’éducation n’échappe pas au développement rapide des techniques d’intelligence artificielle
(IA) et à leur capacité à réaliser des actions de plus en plus complexes. Dans le Consensus
de Beijing sur l’IA en éducation, l’UNESCO (2019) entrevoit des bénéfices potentiels de l’IA
dans plusieurs activités jusqu’à présent réalisées par des élèves, du personnel enseignant ou
du personnel administratif. Les occasions d’utiliser l’IA en éducation sont nombreuses, que ce
soit pour le tutorat intelligent, l’évaluation des apprentissages ou bien la prévention de
l’abandon scolaire (Zawacki-Richter et al., 2019). Ces avancées nous amènent à nous poser
de nouvelles questions : et si le personnel enseignant pouvait enfin être déchargé des
fastidieuses heures passées à corriger des copies ? Un élève pourra-t-il obtenir une aide en
temps réel, à la maison, lorsqu’il stagne sur un difficile problème de mathématique ? Une IA
L’IA peut d’abord être envisagée comme un ensemble de techniques aux contours plus ou
moins définis. Ses techniques les plus communes relèvent de l’apprentissage automatique
(machine learning), qui peut être supervisé, semi-supervisé ou non supervisé (Taulli, 2019).
L’apprentissage profond par réseaux de neurones artificiels peut être utilisé pour traiter les
données dites massives, c’est-à-dire caractérisées par la rapidité à laquelle elles se multiplient,
leur volume et leur diversité (Taulli, 2019). Humble et Mozelius (2019) l’abordent en soulignant
le caractère interdisciplinaire qui dépasse les sciences informatiques : « l’IA en éducation est
un domaine interdisciplinaire intégrant la psychologie, la linguistique, les neurosciences,
l’éducation, l’anthropologie et la sociologie dans le but de créer des outils puissants pour
l’éducation et de mieux comprendre le phénomène d’apprentissage » (p. 1). L’IA peut aussi
être définie autrement que par ses méthodes informatiques, par exemple par les fonctions
qu’elle occupe dans un système. Loder et Nicholas (2018) présentent l’IA comme des
« ordinateurs réalisant des tâches cognitives, généralement associées au raisonnement
humain, particulièrement pour l’apprentissage et la résolution de problèmes » (p. 11). Pour
Popenici et Kerr (2017), l’IA en éducation est constituée de « systèmes informatiques capables
de s’engager dans des processus humains comme l’apprentissage, l’adaptation, la synthèse,
l’autocorrection et l’utilisation de données pour des tâches complexes » (p. 4). C’est cette
dernière que nous retiendrons, car elle permet de dépasser l’opposition entre l’intelligence
humaine et l’IA et d’envisager des interactions complexes entre les deux.
L’IA est un terme qui peut vouloir dire beaucoup de choses. Appliquée à l’éducation, elle vise à accomplir des
tâches complexes qui étaient jusqu’à maintenant uniquement réalisées par des êtres humains (comme de la
rétroaction ou l’adaptation du matériel didactique en fonction du niveau de difficulté optimal pour un groupe
d’élèves).
Nous proposons d’envisager ces techniques sous l’angle de la théorie du système technicien
de Ellul (1977). Selon cette théorie, les techniques redéfinissent constamment la réalité de
l’expérience humaine. Ellul donne l’exemple de la télévision, rendue possible par accumulation
de techniques. En la visionnant, les individus finissent par ne plus voir ces techniques. La
télévision a rendu possible une nouvelle forme de communication que nous avons fini par
intégrer, puis banaliser au point de ne même plus nous intéresser à son fonctionnement. En
somme, les techniques qui l’ont rendue possible, comme l’électricité ou les antennes de
diffusion, finissent par s’implanter et redéfinir les actions des individus qui utilisent la télévision,
ainsi que les rapports sociaux auxquels ils participent plus largement, etc. En appliquant cette
L’enseignement est composé d’actions complexes que les enseignants connaissent bien. Introduire des outils
basés sur l’IA pour accomplir ces actions ne devrait pas nous amener à oublier ce que nous savons de cette
complexité et la façon dont nous la gérons actuellement.
La définition que nous avons retenue de l’IA en éducation plus haut, celle de Popenici et Kerr
(2017), introduit l’idée que les systèmes informatiques simulant l’intelligence humaine
prennent place dans des systèmes humains. Nous envisageons chacun de ces systèmes
comme agents l’un de l’autre. En informatique, le terme agent désigne un système avec une
certaine part d’autonomie capable de réaliser des actions qui auront un impact sur
l’environnement dans lequel il se trouve : « l’action, qui est un concept fondamental pour les
systèmes multi-agents, repose sur le fait que les agents accomplissent des actions qui vont
modifier l’environnement des agents et donc leurs prises de décision futures » (Ferber, 1995,
p. 13). C’est là une des particularités des systèmes complexes dits intelligents : ceux-ci ne se
contentent pas de « raisonner » (Ferber, 1995, p. 13), ils agissent et transforment leur
environnement.
En sciences sociales, le concept d’agentivité fait aussi référence à une forme d’autonomie,
mais cette fois de la part des personnes. Selon Engeström et Sannino (2013), « l’agentivité
est une recherche volontaire de transformation de la part du sujet » et « se manifeste dans
une situation problématique polymotivée dans laquelle le sujet évalue et interprète les
circonstances, prend des décisions selon les interprétations et exécute ces décisions » (p. 7).
Par exemple, un enseignant pourrait souhaiter offrir une rétroaction très précise à ses élèves,
mais devoir rendre les notes le plus rapidement possible. Dans une telle situation, deux motifs
sont en concurrence et c’est en prenant des actions agentives que l’enseignant parviendra à
résoudre ce conflit de motifs. Pour l’IA en éducation, il pourrait s’agir de permettre à l’élève ou
à l’enseignant, selon le cas, d’avoir une capacité d’action plus importante par l’utilisation de
systèmes d’IA. Mais au-delà de ce scénario idéal, à l’heure actuelle, la plupart des usages de
l’IA appliqués à l’éducation tendent plutôt à modéliser des décisions pédagogiques en vue
d’une aide à la décision, d’une automatisation de certaines décisions ou d’une analyse des
décisions prises.
Les êtres humains sont caractérisés par leur agentivité, c’est-à-dire qu’ils parviennent à prendre des actions
et des décisions dans des situations où seulement de l’information incomplète est disponible.
À première vue, les domaines d’applications actuels de l’IA sont susceptibles d’empiéter sur
l’agentivité des élèves et du personnel enseignant, notamment lorsqu’il est question
d’évaluation et de choix des ressources ou activités pédagogiques. Pour dépasser ces
perceptions initiales, nous poserons la question de recherche suivante : quels types d’usages
de l’IA en éducation risquent de limiter l’agentivité des enseignants, et des élèves ?
Sans préciser le type d’outils d’IA dont il est question, plusieurs des documents consultés
considèrent que ceux-ci risquent de diminuer l’agentivité des enseignants. Le développement
de systèmes informatiques complexes fait passer une partie de leur pouvoir décisionnel vers
des équipes de conception de logiciels :
Intégrer des systèmes d’IA en éducation pourrait exacerber un déséquilibre des pouvoirs et créer de
nouvelles inégalités. Les systèmes d’IA peuvent faire pivoter le centre de l’expertise des enseignants et
gestionnaires scolaires vers les programmeurs ou concepteurs de systèmes qui créent les modèles
permettant de diagnostiquer les retombées sur l’apprentissage, prédire les accomplissements scolaires et
déterminer les recommandations qui seront affichées et à qui. (Berendt et al., 2020, p. 317).
C’est le cas par exemple des tuteurs intelligents qui sélectionnent du matériel didactique à la
place de l’enseignant, du diagnostic des élèves à risque ou bien de la prédiction de la réussite.
Prenons l’exemple d’une enseignante de mathématiques qui crée elle-même une série
d’exercices pour entraîner les élèves à la résolution d’équations du second degré. A priori, on
Une enseignante pourrait, tout compte fait, exercer son agentivité dans des situations polymotivées là où un
système basé sur l’IA ne considérerait qu’un motif didactique.
Selon Berendt et al. (2020), cela pourrait aussi conduire à un recul de compétences des
enseignants qui pourraient prendre l’habitude de s’en remettre aux décisions d’un système au
détriment de leur propre expertise. Tout porte à croire que le biais d’automatisation
(Parasuraman et Manzey, 2010) pourrait aussi s’appliquer, c’est-à-dire qu’il pourrait y avoir
une trop grande confiance envers les décisions des systèmes basés sur l’IA. De plus, si ce
risque n’est pas reconnu par les établissements scolaires, ceux-ci pourraient exiger l’utilisation
de certains outils par les enseignants sous l’illusion de meilleures prédictions ou résultats
(Jones et al., 2020).
L’agentivité inscrit toujours l’action dans un contexte élargi. Knox (2017) rappelle que les
logiciels, algorithmes et bases de données sont toujours employés dans des contextes plus
larges qu’il n’y paraît :
L’utilisation des logiciels, algorithmes et bases de données, à travers plusieurs acteurs humains, est
souvent envisagée comme trop détachée de l’éducation en tant que telle. Les données des étudiants sont
soumises, et les enseignants sont encouragés à réagir face à ces données, sans pour autant qu’ils aient
fait partie du processus responsable de leur production. (p. 737, traduction libre)
Pour Corrin et al. (2019), l’usage d’outils basés sur l’IA doit toujours impliquer l’intervention
humaine, par exemple pour la révision des décisions contestées et des erreurs de
classification. Gras (2019), s’appuyant sur le Règlement général sur la protection des
données, parle de la « nécessité du maintien du contrôle par l’humain » (p. 4), et Knox (2017)
souligne que la possibilité de refuser les recommandations d’un système d’IA doit être
préservée et ce, sans conséquences négatives pour les enseignants. Se basant sur une
préoccupation similaire, Sjödén (2020) questionne qui devrait avoir préséance en cas de
divergence (note à une évaluation, action à poser, diagnostic de risque d’échec par exemple) :
l’enseignant ou l’IA ?
Les élèves devraient également pouvoir choisir d’agir conformément ou non aux
recommandations d’un système d’IA (Roberts et al., 2017). À l’échelle de la situation
d’enseignement-apprentissage, l’usage de l’IA peut retirer de l’agentivité aux élèves. Selon
Bulger (2016), c’est le cas lorsqu’un système assigne des tâches scolaires. De façon
spécifique à l’enseignement supérieur, Roberts et al. (2017) constatent le risque
d’infantilisation des personnes si des systèmes cherchent à ludifier lorsque cela n’est pas
nécessaire ou souhaité par les apprenants. West et al. (2020) évoquent aussi ce risque, en
insistant sur la pertinence des voix étudiantes dans le processus de régulation des
apprentissages. Leurs perceptions, commentaires, expériences sont des éléments à
considérer dans les décisions pédagogiques et ne devraient pas être diminués face à un
système recourant à l’IA.
Les élèves devraient également pouvoir choisir d’agir conformément ou non aux recommandations d’un
système d’IA.
À l’échelle du parcours scolaire d’un élève, des systèmes prédictifs qui s’appuient sur les
données peuvent conduire à recommander des choix de programmes ou de cours (Jones et
al., 2020). Ce problème s’inscrit plus généralement dans la problématique des bulles de filtre,
où des algorithmes de recommandation parviennent bien à identifier des préférences à partir
de données antérieures concernant une personne, mais parviennent mal à éveiller de
nouveaux intérêts. C’est le cas, par exemple, de recommandations sur des plateformes
musicales ou de visionnement de séries télévisées. Ce faisant, elles limitent l’agentivité (Jones
et al., 2020) ou, à tout le moins, participent à redéfinir l’environnement dans lequel elle
s’exerce. Regan et Jesse (2019) rappellent que ces usages, même s’ils peuvent sembler
banals, ont une incidence sur la capacité des personnes à gérer leur vie librement.
Regan et Jesse (2019), s’appuyant sur Kerr et Earle (2013), présentent trois types de
prédictions pouvant affecter l’agentivité : les prédictions qui permettent aux personnes
d’anticiper les conséquences négatives, les prédictions qui orientent vers des décisions
spécifiques, et les prédictions prescriptives qui réduisent les choix possibles. Selon Regan et
Jesse (2019), les prédictions basées sur les conséquences réduisent peu l’agentivité des
personnes, alors que les prédictions prescriptives la réduisent beaucoup. Prenons pour
exemple la différence entre un système qui recommande automatiquement une série de
ressources pour l’apprentissage, sans pour autant masquer d’autres ressources, et un autre
qui les sélectionne et les intègre dans un parcours dit personnalisé. Le premier maintient une
certaine agentivité alors que le second retire une forme d’agentivité, car il prend des décisions
à la place de l’apprenant.
Au niveau des usages didactiques, Sjödén (2020) note que les systèmes basés sur l’IA
peuvent intégrer de fausses informations à l’environnement dans lequel agit l’élève. Il présente
Une agentivité appuyée par des informations partielles ou fausses est-elle réellement de l’agentivité ?
Reiss (2021), s’appuyant sur Puddifoot et O’Donnell (2018), souligne que des outils qui
poursuivent une intention de facilitation des apprentissages peuvent entraver l’activité
intellectuelle nécessaire à la formation des concepts :
Puddifoot et O’Donnell (2018) défendent l’idée qu’une trop grande dépendance envers les technologies
pour stocker l’information à notre place - information que nous devions auparavant mémoriser - peut être
contre-productive et donner lieu à des opportunités ratées pour les élèves de former des abstractions et
de réaliser des inférences à partir de nouvelles informations. (p. 4, traduction libre)
Même en présence d’outils visant à faciliter la tâche des apprenants, il peut être
momentanément pertinent de conserver une activité intellectuelle précise pour le
développement de certaines structures logiques de pensée. Par exemple, un outil qui
préidentifie les passages importants dans un texte, pour éviter à l’élève de devoir le lire au
complet, pourrait ne pas être souhaitable si l’intention pédagogique est le développement de
la capacité de synthèse. Un peu comme d’autres l’ont fait avant au sujet de la calculette,
Smuha (2020) parle du risque de développement d’une paresse intellectuelle à force
d’interagir avec des machines plus performantes pour la réalisation de certaines tâches. Selon
des parents d’élèves, certains outils pourraient même être des entraves à l’apprentissage si
les élèves ne développent pas de recul critique et leur accordent une trop grande confiance
(Qin et al., 2020).
Par contre, quelques parents sont inquiets que l’usage de systèmes basés sur l’IA en éducation puisse
faire en sorte que les élèves en deviennent dépendants et manquent de pensée critique. Cela explique le
fait que les parents soient réticents à faire confiance à ces systèmes. (p. 1699, traduction libre)
Certains risques s’ajoutent lorsqu’il est question d’enseignement supérieur. Des systèmes trop
guidés qui s’immiscent dans l’organisation du travail scolaire pourraient être perçus comme
infantilisants par les principaux intéressés (Roberts et al., 2017). Ce risque est aussi supporté
par West et al. (2020) selon qui les apprenants doivent être perçus comme des personnes
capables de réguler eux-mêmes leurs apprentissages. Roberts et al. (2017) proposent de
s’assurer que les étudiants ne soient jamais obligés d’agir en concordance avec les
recommandations d’un système ou sur la base de ses indicateurs de performance. Il faut aussi
souligner l’importance que les systèmes utilisés soient valides, fiables et capables d’accomplir
les tâches pour lesquelles ils ont été conçus dans un contexte réel (Smuha, 2020).
Suivant Ellul (1977), l’enseignement, comme à peu près tout, peut être compris comme un
ensemble de techniques (formules pédagogiques, méthodes d’évaluation, etc.). Au fur et à
mesure que ces techniques se complexifient, dans ce cas-ci par le recours à l’IA, la complexité
sous-jacente aux techniques qui prévalaient jusqu’alors est masquée, opaque ou bien
carrément niée. Les outils basés sur l’IA sont rendus possibles par des techniques, au premier
plan desquelles se trouve l’apprentissage automatique (machine learning). Plus ils se
développent, plus ils précisent la réalité dans laquelle les individus évoluent. En ce sens, les
systèmes informatiques basés sur l’IA appliquant ces techniques en contexte éducatif ne
peuvent pas être considérés uniquement comme des outils. Ils redéfinissent plusieurs
paramètres de la situation éducative, par exemple le temps requis pour accomplir une tâche,
ou bien la nécessité ou non de mémoriser certaines informations, la nécessité ou non de
demander de l’aide pour accomplir une tâche, ou bien les possibilités d’interactions sociales.
Les outils basés sur l’IA sont rendus possibles par des techniques, au premier plan desquelles se trouve
l’apprentissage automatique (machine learning). Plus ils se développent, plus ils précisent la réalité dans
laquelle les individus évoluent.
Le recours à l’IA en éducation s’inscrit aussi dans la théorie du système technicien par le
déplacement de certains pouvoirs. Certains outils représentent « une forme de privatisation et
de commercialisation en transférant le contrôle des programmes scolaires et de la pédagogie
des enseignants et des écoles vers les entreprises à but lucratif » (Saltman, 2020, p. 199,
traduction libre). Si ce déplacement de pouvoirs peut être souhaitable, par moments, pour des
questions d’efficience ou d’innovation, il doit être fait prudemment en évaluant l’ensemble des
conséquences qui peuvent en découler. Le développement de l’IA ne peut donc être envisagé
que comme une façon d’améliorer l’expérience d’enseignement et d’apprentissage. Cette
conception est insuffisante pour décrire la transformation que ces outils pourraient opérer.
Insuffisante d’abord car elle ne considère pas l’IA comme un ensemble de techniques qui
reconfigurent les actions des élèves et enseignants, et insuffisante aussi car elle omet de
considérer que l’enseignement et l’apprentissage sont eux-mêmes alimentés par des
techniques.
L’agentivité, telle que nous l’avons présentée, implique une initiative d’action dans des
situations présentant des conflits de motifs. Tout usage de l’IA qui retire de l’espace pour
prendre de telles initiatives limite l’agentivité. Il serait toutefois possible d’atténuer ce risque en
orientant les systèmes, dès la conception, pour qu’ils augmentent l’agentivité. Selon Kerr et
Earle (2013), cela pourrait se faire en concevant des systèmes qui réalisent des prédictions
de conséquences et rendent ainsi disponible plus d’information pour que les personnes
Les résultats de notre recension des écrits soulèvent plusieurs risques relatifs au maintien de
l’agentivité humaine à travers les usages de l’IA en éducation, autant pour le personnel
enseignant que pour les élèves. Nous proposons ici trois pistes pour concevoir des
technologies éducatives basées sur l’IA tout en préservant, voire renforçant, l’agentivité
humaine.
Premièrement, l’IA devrait d’abord être employée non pas pour prendre des décisions, mais
plutôt pour améliorer la qualité de l’information pour permettre aux personnes de prendre des
décisions plus éclairées. Cela peut se faire par exemple en présentant les conséquences
probables de décisions (Regan et Jesse, 2019) tout en maintenant de la transparence sur ce
dont tiennent compte les prédictions et ce dont elles ne tiennent pas compte. L’utilisation de
tels systèmes devrait demeurer facultative pour les enseignants (Knox, 2017).
En éducation, l’IA devrait d’abord être employée non pas pour prendre des décisions, mais plutôt pour
améliorer la qualité de l’information pour permettre aux personnes de prendre des décisions plus éclairées.
Finalement, en ce qui concerne les aides à la tâche destinées aux élèves, elles pourraient être
développées éventuellement, mais ce terrain semble incertain pour le moment. Les intentions
pédagogiques des curricula ne permettent pas toujours, à un niveau micro, de distinguer quelle
activité intellectuelle est essentielle de celle qui est instrumentale ou déjà acquise. Les usages
de l’IA visant à engager des élèves dans des projets technocréatifs (Romero et al., 2017) et
développer eux-mêmes des compétences dans le domaine semblent plus prometteurs à court
terme et peuvent même être combinés à des usages a priori destinés à l’enseignant.
Les pistes étant certainement nombreuses, nous en avons proposé trois : (1) utiliser l’IA pour
améliorer l’information décisionnelle plutôt que prendre des décisions éducatives, (2) utiliser
l’IA pour des rétroactions formatives et non pour l’évaluation certificative, tout en entraînant
les élèves et les enseignants à un recul critique, et (3) privilégier les usages qui engagent les
élèves et leur permettent de développer un recul critique sur le fonctionnement de l’IA.
Références
Adams, C., Pente, P., Lemermeyer, G. et Rockwell, G. (2021). Artificial
Intelligence Ethics Guidelines for K-12 Education: A Review of the Global
Landscape. Dans I. Roll, D. McNamara, S. Sosnovsky, R. Luckin et V.
Dimitrova (Éds.), Artificial Intelligence in Education (Vol. 12749, p. 24-28).
Springer International Publishing.
Aiken, R. M., & Epstein, R. G. (2000). Ethical Guidelines for AI in Education:
Starting a Conversation. International Journal of Artificial Intelligence in
Education, 11, p. 163-176.
Berendt, B., Littlejohn, A. et Blakemore, M. (2020). AI in education: Learner
choice and fundamental rights. Learning, Media and Technology, 45(3),
p. 312-324.
Bulger, M. (2016). Personalized Learning: The Conversations We’re Not
Having. Data & Society, 29.
Corrin, L., Kennedy, G., French, S., Shum, S. B., Kitto, K., Pardo, A., West,
D., Mirriahi, N. et Colvin, C. (2019). The Ethics of Learning Analytics in
Australian Higher Education.
Ellul, J. (1977). Le système technicien. Calmann-Levy.
Engeström, Y. et Sannino, A. (2013). La volition et l’agentivité
transformatrice : Perspective théorique de l’activité. Revue internationale du
CRIRES : innover dans la tradition de Vygotsky, 1(1), 4-19.
Ferber, J. (1995). Les systèmes multi-agents : Vers une intelligence
collective. Intereditions.
Gras, B. (2019). Éthique des Learning Analytics. Distances et médiations
des savoirs, 26.
Holmes, W., Porayska-Pomsta, K., Holstein, K., Sutherland, E., Baker, T.,
Shum, S. B., Santos, O. C., Rodrigo, M. T., Cukurova, M., Bittencourt, I. I. et
Koedinger, K. R. (2021). Ethics of AI in Education: Towards a Community-
Wide Framework. International Journal of Artificial Intelligence in Education.
Humble, N. et Mozelius, P. (2019). Teacher-supported AI or AI-supported
teachers? 11.