0% ont trouvé ce document utile (0 vote)
69 vues11 pages

Évaluation dynamique et WISC-V : compétences

Ce document discute de deux approches pour compléter l'évaluation des performances par des tests de raisonnement: l'évaluation dynamique et l'analyse des erreurs. L'évaluation dynamique implique d'évaluer le potentiel d'apprentissage d'un enfant en l'aidant après une évaluation initiale. L'analyse des erreurs considère la qualité des réponses fausses plutôt que seulement le nombre de bonnes réponses.

Transféré par

lola
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
69 vues11 pages

Évaluation dynamique et WISC-V : compétences

Ce document discute de deux approches pour compléter l'évaluation des performances par des tests de raisonnement: l'évaluation dynamique et l'analyse des erreurs. L'évaluation dynamique implique d'évaluer le potentiel d'apprentissage d'un enfant en l'aidant après une évaluation initiale. L'analyse des erreurs considère la qualité des réponses fausses plutôt que seulement le nombre de bonnes réponses.

Transféré par

lola
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

De l’évaluation des performances à l’estimation des

compétences : l’exemple du subtest Matrices du


WISC-V
Katia Terriot, Pierre Chartier

To cite this version:


Katia Terriot, Pierre Chartier. De l’évaluation des performances à l’estimation des compétences :
l’exemple du subtest Matrices du WISC-V. A.N.A.E. Approche neuropsychologique des apprentissages
chez l’enfant, 2020, 32 (169), pp.657-663. �hal-03935009�

HAL Id: hal-03935009


https://cnam.hal.science/hal-03935009
Submitted on 11 Jan 2023

HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est


archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non,
lished or not. The documents may come from émanant des établissements d’enseignement et de
teaching and research institutions in France or recherche français ou étrangers, des laboratoires
abroad, or from public or private research centers. publics ou privés.
Article ANAE Terriot & Chartier « De l’évaluation des performances à l’estimation des
compétences : l’exemple du subtest Matrices du WISC V »
Version V11 16/07/2020 avec résumé & mots clefs
25 000 signes maxi (espaces non compris). Cette version = 22 358 (sans espaces)

Résumé
Dans les tests de raisonnement, l’évaluation ne prend en compte le plus souvent que le seul
score total, indicateur d’un niveau de performance. Nous proposons deux approches
permettant de recueillir des informations complémentaires afin de rapprocher l’évaluation
de la notion de compétence : l’évaluation dynamique et l’analyse des erreurs. Les limites et
intérêts de ces approches font l’objet de la discussion.
Abstract
In reasoning tests, the assessment most often takes into account only the total score, which
is an indicator of a level of performance. We propose two approaches to collect additional
information in order to approximate the assessment of competence: dynamic assessment and
error analysis. The limitations and interests of these approaches are discussed.

Mots clefs : WISC V ; matrices ; potentiel ; évaluation dynamique ; analyse des erreurs
Keyswords: WISC V ; matrices ; potential ; dynamic testing ; error analysis

Introduction
Le score observé à une épreuve de raisonnement logique, ici le subtest matrice du WISC-V,
reflète-il bien toujours les réelles capacités d’un enfant ? C’est l’un des principaux problèmes
qui se posent au.à la psychologue. Dans un article, assez peu connu, Flieller pose à sa manière
la même question : dans quelle mesure une différence de performance reflète-t-elle une
différence de compétence ? (1999). En effet, ce qu’un enfant1 est capable de faire à un
moment donné et à partir d’un contexte spécifique, dans l’ici et maintenant, ce que l’on
nomme le score observé (la performance), rend-t-il (toujours) bien compte de ses réelles
potentialités (ses compétences) ? C’est un questionnement particulièrement pertinent dans
le cas, par exemple, d’un élève en difficulté scolaire, d’un dossier présenté à la MDPH (Maison
départementale des personnes handicapées) ou encore d’un.e élève peu familier.ère avec la
situation de test ou présentant des spécificités de fonctionnement ou de comportement.

1
Nous limitons ici notre propos aux enfants mais la réflexion peut tout a fait s’apllquer également aux adultes.
Une première réponse consiste à entourer le score observé d’un intervalle de confiance, et
cette pratique a été largement diffusée dans les pratiques d’évaluation avec les échelles de
Wechsler. Une seconde réponse, plus complexe, consiste à rechercher des indicateurs
complémentaires au score observé de manière à pouvoir mieux rendre compte des réelles
potentialités de la personne et, éventuellement, nuancer le score observé, voire le remettre
en cause. C’est l’approche que nous proposons dans cet article à partir de deux pistes
d’application : l’évaluation dynamique et l’analyse des erreurs.

1. L’évaluation dynamique
Pour les tests d’intelligence de manière générale et le WISC-V (Wechsler, 2016) en particulier,
la forme de passation la plus classique en France est l’évaluation statique qui garantit les
conditions de standardisation. L’enfant ou l’adolescent.e gère seul les problèmes posés et ne
reçoit pas d’aide de la part de la.du psychologue sur sa performance en cours de tâche. Une
des limites fréquemment mises en avant des tests d’intelligence est qu’ils ne permettent pas
de comprendre le fonctionnement cognitif des individus, les processus cognitifs sous-jacents
(Chartier & Loarer, 2008). D'autre part, l’évaluation statique ne serait pas favorable aux
enfants qui ont manqué d’opportunités d’apprentissage (Grégoire, 2019). En effet,
l’intelligence est en partie déterminée par l’éducation, les expériences d’apprentissage. Que
se passe-t-il quand les résultats d’un enfant ayant manqué d’opportunités d’apprentissage
sont comparés aux performances d’enfants ayant évolué dans des conditions plus favorables
? L’évaluation dynamique permettrait de répondre à cette limite de l’évaluation statique en
évaluant, le potentiel d’apprentissage de l'enfant. Elle est “censée surmonter les biais
culturels puisque tous les sujets sont placés dans des conditions d’apprentissage
équivalentes” (Grégoire, 2019, p.330). Enfin, elle offrirait, selon certains auteurs (Dauvier &
Perret, 2016) un contexte qui influence la représentation naïve de l’enfant concernant la
modifiabilité de l’intelligence, ce qu’on appelle les théories implicites de l’intelligence
(Dauvier & Perret, 2016). Deux principales conceptions existent (Dweck, 2002) : la croyance
en l’entité de l’intelligence et la théorie incrémentielle. Dans la première, l’intelligence est
vue comme une qualité intrinsèque, stable, qui ne peut être changée. Dans la seconde,
l’intelligence est vue comme améliorable et contrôlable grâce aux apprentissages. Plusieurs
études ont montré les effets de la représentation naïve de l’enfant ou adolescent de
l’intelligence sur son rapport aux apprentissages, sur les stratégies et efforts déployés. Perret
et ses collaborateurs (2011) énoncent que les enfants qui croient en la théorie de l’entité ont
plutôt des buts de performance, c’est-à-dire qu’ils visent davantage l’obtention de bonnes
notes, ont un système d’attribution causale global ou dispositionnel, une motivation
extrinsèque, un sentiment de compétence fragilisé par les évaluation négatives et voient
l’effort comme le signe d’un défaut de capacité ; alors que ceux qui croient en la théorie
incrémentielle ont davantage des buts d’apprentissage, c’est-à-dire tournés vers l’accès aux
savoirs et au développement des compétences. ; un système d’attribution causale temporaire
et spécifique, une motivation intrinsèque, un sentiment de compétence plus résistant aux
évaluations négatives et voient l’effort comme un moyen pour surmonter les difficultés. Ils
sont ainsi plus persévérants et réalisent davantage de progrès (Blackwell, Trzesniewski &
Dweck, 2007). Offrir ce contexte de l’évaluation dynamique permettrait ainsi d’agir sur le
système d’attribution causale et donc potentiellement sur le rapport aux apprentissages, la
motivation, le sentiment de compétence, la persévérance et la performance scolaire.
Le principe de l’évaluation dynamique appliquée aux échelles de Wechsler est de proposer,
suite à la passation classique selon les règles strictes de standardisation, certains items ou
épreuves non réussis. Cette fois, le.la psychologue interagit, pose des questions, propose des
aides. L’objectif de cette seconde passation serait de mettre en exergue la Zone proximale de
développement de Vygotsky (1934). Elle est définie comme la distance entre ce que l’enfant
est capable de faire seul et ce qu’il est capable de faire lorsqu’il est aidé par des pairs initiés
ou des adultes. Les résultats obtenus lors de cette seconde passation seraient le reflet du
potentiel d’apprentissage de l’enfant. Il manque actuellement d’études sur les preuves de sa
validité prédictive (Grégoire, 2019). Il faudrait, en effet, pouvoir montrer que les scores issus
de l’évaluation dynamique prédisent mieux que les scores classiques, la performance future,
en particulier les performances académiques.
Ainsi, l’évaluation dynamique permet de compléter l’évaluation classique par des
informations qualitatives précieuses notamment sur les processus cognitifs de l’enfant, ce qui
peut enrichir les hypothèses de travail initiales, mais aussi aider à la conception
d’aménagements ou de remédiations adaptées à l’enfant.

2. La prise en compte de la qualité des réponses « fausses » : l’analyse des erreurs


Dans un test de raisonnement logique, le score total est déterminé par le nombre total de
réponses correctes. La cotation classique consiste le plus souvent à attribuer 1 point par
bonne réponse et 0 à toute autre réponse. C’est le cas par exemple de la plupart des subtests
du WISC. Pourtant, dans le cas de réponses de type Q.C.M, lorsqu’on analyse les réponses
“distracteurs”2 , on peut observer que la proximité de chacun de ces distracteurs par rapport
à la bonne réponse attendue peut varier. Ainsi on peut considérer qu’il y a des réponses
fausses très éloignées de la bonne réponse attendue et, à l’inverse, certaines plus proches,
voire très proches de la bonne réponse. Ces réponses diffèrent donc au niveau de leur qualité.
Pourtant on leur attribue le même score de 0. La question est donc alors la suivante : 0 est-il
toujours égal à 0 ?
Cette analyse de l’erreur, fréquente en sciences de l’éducation (Favre, 2010) est à notre
connaissance assez rare en psychologie dans le domaine de l’évaluation des capacités
cognitives. Nous avons déjà eu l’occasion de présenter quelques pistes de réflexion à ce
propos. Rappelons que dans le test Matrice de Raven, première version, des propositions
d’analyse figurent bien dans le manuel avec la possibilité d’appliquer dans la cotation une «
approche plus fine, avec un éventail de notes plus étendu que la simple notation juste/faux
traditionnelle » (Raven, Court & Raven, 1998, p. 36). Si les auteurs proposent les grandes
lignes de ce qui pourrait consister en une cotation de ce type ils ne fournissent pas, et nous
pouvons le regretter, au.à la praticien.ne des indications directement opérationnelles
(auteur, 2013).

2
les réponses fausses
Bien que cette approche de l’erreur soit, nous l’avons déjà signalé, très rare nous l’illustrerons
à travers deux exemples concrets.
Dans leur article portant sur l’analyse des erreurs dans les tests de raisonnement, les auteurs,
s’inspirant de l’approche développée par Chartier dans le test RCC (Chartier, 2012),
envisagent le calcul d’un score “potentiel”, complémentaire au score classique, à partir de la
prise en compte de certaines réponses considérées habituellement comme “fausses” mais,
au final, de meilleure qualité que les autres réponses fausses. Ces réponses “pourraient être
la trace de compétences latentes de raisonnement non prises en compte par les scores
classiques des épreuves (car centrés uniquement sur les items réussis), la trace de la présence
d’un “potentiel” de progression” (Chartier et al., 2014, p. 84).
Dans un autre test récent Desigma, évaluant également le raisonnement logique, les auteurs
proposent également le calcul de deux scores : le score classique et le score partiel, tenant
compte des solutions “partiellement correctes” réalisées par le.la participant.e (Baratheon,
2018).
Ces deux exemples illustrent bien la seconde approche que nous allons présenter ici qui vise
à caractériser un enfant par son score classique au WISC V mais également par un score
“potentiel” calculé à partir d’une analyse rigoureuse de la qualité de toutes ses réponses
fausses. Ces informations pouvant nous fournir une idée plus précise et/ou plus complète de
l’ensemble de ses capacités de raisonnement.

3. Illustrations des deux approches sur le subtest Matrices du WISC V


En raison de la situation sanitaire pour l’année scolaire 2019/20 (COVID 19), nous ne pouvons
présenter ici que des propositions sans avoir pu recueillir de données d’expérimentations (qui
étaient pourtant prévues en amont de l’article...). Il ne s’agit donc que de pistes, qui
s’appuient certes par des travaux antérieurs portant sur la même approche (auteurs), mais
dont les résultats demandent encore à être confirmés par des études complémentaires.
Néanmoins, les pistes esquissées ici nous paraissent être facilement opérationnalisables dans
les pratiques d’évaluation.
Dans le subtest Matrices, troisième épreuve lors de la passation, il est demandé à l’enfant de
choisir l’image, parmi cinq propositions, qui complète logiquement la série. Pour la réussir, il
faut comprendre les relations entre les éléments présentés visuellement. Cette épreuve
évalue le raisonnement fluide selon le modèle de Cattell-Horn-Carroll (CHC ; Newton &
McGrew, 2010), c’est-à-dire la capacité de saisir les relations conceptuelles implicites qui
unissent des objets (visuels) et à utiliser le raisonnement pour identifier et appliquer des
règles. Cette épreuve sollicite la perception visuelle et l’analyse perceptive, les capacités
d’association et de différenciation entre les éléments, la catégorisation, la mémoire de travail
(l'individu doit décomposer les figures et conserver certains éléments en mémoire pour
découvrir la règle), la flexibilité mentale, et la concentration.
L’épreuve comprend 32 items, cotés 0 ou 1. Le score brut total peut donc être compris entre
0 et 32.
Dans les parties suivantes nous allons présenter les deux approches appliquées au subtest
Matrices au WISC-V : la passation accompagnée qui s’inscrit dans le cadre de la passation
dynamique et l’analyse des erreurs.
3.1. Une passation accompagnée (l’approche de l’évaluation dynamique)
Comme indiqué précédemment, il s’agit dans un premier temps de faire passer l’échelle de
Wechsler selon les règles de standardisation. Dans un second temps (une à deux semaines
après au maximum), le.la psychologue reprend chaque item non réussi du subtest Matrices
et procède à la démarche de passation accompagnée. Il s’agit de proposer quatre types
d’aides graduées jusqu’à la réussite de l’item. Il est possible que cet objectif ne soit pas atteint
pour certains d’entre eux. Des règles d’arrêt sont donc envisagées au bout de cinq échecs
consécutifs. Dès que le niveau de réussite est atteint ou que la bonne réponse n’est pas
trouvée suite à la présentation des quatre types d’aides, le.la psychologue doit passer à l’item
non réussi suivant. Nous proposons la consigne de départ suivante : “Nous allons maintenant
reprendre certains exercices ensemble. Si tu rencontres des difficultés, je pourrais un peu
t’aider.”
Le premier niveau d’aide est une nouvelle présentation de l’item non réussi lors de la
première passation, sans rien ajouter à la consigne. Dans le deuxième niveau, le.la
psychologue propose une aide dans la recherche de la loi de progression en amenant l’enfant
à verbaliser, à décrire les figures, à trouver les points communs et différences entre les divers
éléments, à formuler la ou les règle.s de progression trouvé.es, à réfléchir aux caractéristiques
que doit présenter la bonne réponse puis à choisir sa réponse parmi les propositions. Dans le
troisième niveau d’aide, le.la psychologue reprend la description des divers éléments
composant les figures, explique les modifications entre ces éléments pour enfin formuler la
ou les règle.s de progression. Il.elle demande ensuite à l'enfant de reformuler cette ou ces
loi.s avec ses propres mots et d’appliquer cette loi afin de trouver les caractéristiques de la
bonne réponse. Il.elle lui propose, si besoin, de s’appuyer aussi sur les différentes
propositions de réponses comme des éléments qui peuvent l’aider dans la recherche de la
bonne réponse. Enfin, pour le quatrième et dernier niveau d’aide, le.la psychologue reprend
la formulation de la ou des règle.s de progression pour aboutir à l’identification des
caractéristiques de la bonne réponse. Il.elle reprend pas à pas l’ensemble des éléments de
l’item. Il.elle demande ensuite à l’élève de reformuler cette.ces loi.s avec ses propres mots et
de lui indiquer quelles doivent être alors les caractéristiques de la bonne réponse et de choisir
ensuite sa réponse parmi les réponses possibles.
Plusieurs indicateurs sont à la disposition du ou de la psychologue :
1/ le score Réussite initiale (RI) qui correspond au nombre total d’items réussis dans la
passation initiale classique. Il s’agit de la performance initiale de l’enfant réalisée en condition
standardisée.
2/ le score “Aide” (A) qui est le nombre d’items réussis dans cette phase de passation
accompagnée quel que soit le niveau d’aides proposées. Ce score permet d’évaluer la
sensibilité de la personne à la situation d’apprentissage, son potentiel d’apprentissage.
3/ le score “Réussite avec Aide” (RA), qui correspond à la somme des scores RI et A. En
comparant RA à RI, il permet là aussi de situer un niveau potentiel de réussite.
4/ le pourcentage de réussite pour chaque niveau d’aide proposé. Il s‘agit ici de regarder si ce
pourcentage varie selon le type d’aide. On s’attend à observer des différences entre jeunes.
Certains auront besoin d’arriver jusqu’aux aides de type 3 ou 4 pour trouver la bonne réponse
alors que d’autres pourront y arriver à la suite d’une simple aide de type 1.
5/ il est enfin possible d’analyser également de manière qualitative les erreurs commises par
l’enfant lors de la première passation. Certaines erreurs sont plus proches de la bonne
réponse que d’autres (voir tableau 1). En les cotant 0,5 point, il est alors possible de calculer
un score potentiel en additionnant le score initial avec ces bonnes réponses partielles.
Ces indicateurs, non standardisés actuellement, sont à confronter à toutes les observations
relevées par le.la psychologue sur le comportement verbal et non verbal de l’enfant et
également à la demande initiale. Ils sont qualitatifs et permettent de compléter les données
quantitatives. Comme indiqué précédemment, des études sont nécessaires pour montrer les
preuves de leur validité, notamment prédictive, en particulier avec la réussite académique.

3.2. Le score Matrices Potentiel (l’approche de l’analyse des erreurs)


Nous avons repris la logique du principe du score “potentiel” ou “réussite partielle” que nous
avons présenté plus haut en procédant à une analyse cognitive de toutes les réponses
proposées pour chaque item du subtest Matrices. A partir de l’identification des règles de
résolution nécessaires pour arriver à la bonne réponse nous avons pu ainsi différencier pour
chaque item des “réponses partielles” de réponses plus éloignées de la bonne réponse
attendue (voir tableau 1).
Nous ne pouvons pas développer ici tous les critères qui nous ont permis d’élaborer ce
tableau mais, par exemple, pour l’item 14 la réponse 5 est considérée comme réponse
partielle car la logique de résolution est correcte mais seule l’inversion de couleur n’a pas été
appliquée tandis que la réponse 3 ne contient aucun élément de la bonne réponse, elle est
donc plus éloignée de la bonne réponse attendue.
Deux scores sont ainsi calculables pour chaque enfant : le score classique Matrices (composé
des réponses codées 1) et un score partiel (composé des réponses codées 0,5). A partir de ces
deux scores il est alors possible de créer le score Matrices Potentiel selon la formule suivante
:
Matrices Potentiel = Matrices + score partiel.
Au niveau intra individuel, nous pouvons analyser l’écart éventuel entre ces deux scores
Matrices avec l’hypothèse suivante : plus l’écart est important, plus le score classique aura
tendance à sous évaluer les réelles capacités de raisonnement de l’enfant. Le score Matrices
Potentiel peut permettre de nuancer certains scores observés surtout lorsqu’on observe un
écart important entre score Matrices et score Matrices Potentiel. Dans ce cas, il faut
s’interroger sur les raisons de cet écart, sur l’éventualité de la présence de compétences
latentes de raisonnement qui restent invisibles avec le score classique.
Au niveau inter individuel, il est possible de différencier deux enfants qui auraient le même
score Matrice mais des scores Matrices Potentiel différents.
Enfin, cette approche cognitive des réponses peut permettre de mieux comprendre le
raisonnement adopté par l’enfant et donc élaborer des démarches de remédiation adaptées.
Tableau 1 : proposition de catégorisation des réponses au subtest Matrices du WISC-V
Items BR (1 point) Réponse Réponse éloignée
partielle (0,5) (0 point)
1 3 1/2/4/5
2 4 1/2/3/5
3 4 3/5 1/2
4 3 2/5 1/4
5 5 1/3 2/4
6 2 1/3/4/5
7 2 3/4/5 1
8 1 2 3/4/5
9 5 1/3/4 2
10 5 1/3/4 2
11 1 2/3/4/5
12 2 1/3/4/5
13 4 2 1/2/5
14 1 4/5 2/3
15 5 1/2/3/4
16 2 1/4 3/5
17 3 5 1/2/4
18 2 1/3/4/5
19 1 2/3/4/5
20 5 1/2/3/4
21 3 4/5 2/1
22 4 2/3 1/5
23 5 2 1/3/4
24 2 4 1/3/5
25 1 2/4 3/5
26 3 5/1 2/4
27 3 2 1/4/5
28 4 5 1/2/3
29 3 1/2/4/5
30 1 2/3/4/5
31 5
32 4 1/2/3/5
Total Score Score partiel
Matrices

Prenons l’exemple d’un jeune de 12 ans, scolarisé en classe de 5ème. Il n’a jamais redoublé.
Ses résultats scolaires sont corrects, mais en deçà, selon les parents, de ses capacités
intellectuelles. Il possède une excellente mémoire et de grandes capacités de raisonnement.
Dès son plus jeune âge, il était capable, par exemple, de réaliser mentalement des calculs
complexes. Les parents évoquent également une très grande imagination, un très bon sens
de l’orientation. Il travaille très vite, peut obtenir de très bonnes notes. Lors de la passation
du WISC-V, on note des difficultés d’attention auditive lors des épreuves cognitives, une
grande fatigabilité (baille tout au long de l’épreuve). Quand il ne connaît pas la réponse, il
répond très vite qu’il ne sait pas sans chercher davantage. Nous percevons une faible
motivation sur l’ensemble des exercices cognitifs.
Ce jeune a obtenu un score brut de 26 points à Matrices (NS=14) avec six échecs à la première
passation. En reprenant ses six échecs, nous pouvons observer que ses réponses à trois items
peuvent être considérées comme des réponses “partielles” (score Matrices Partielles alors de
27,5) selon nos propositions de catégorisation : pour ces items sa réponse est très proche de
la bonne réponse attendue. Reste à comprendre pourquoi il n’aboutit pas aux bonnes
réponses. Mais ces observations rejoignent les propos des parents : les résultats observés par
le score standard paraissent bien en deçà de ses réelles capacités intellectuelles.

Une limite de notre approche concerne le déséquilibre entre les items sur les possibilités de
réponse partielle. Pour certains items, la proportion de réponses partielles est élevée (voir
par exemple l’item 7 avec 3 réponses partielles) alors que pour d’autres, elle est plus limitée
voire inexistante (ainsi pour 14 items, il n’existe pas de réponse partielle selon notre
catégorisation). Mais, en l’état, ces propositions de catégorisations peuvent permettre un
éclairage sur les potentialités réelles d’un enfant.

Conclusion
Rappelons que l’objectif principal de cet article est de proposer des pistes d’analyse du
subtest Matrices permettant de caractériser les capacités d’une personne par plusieurs
indicateurs. Deux approches ont été présentées, l’une apportant des indicateurs de sa
sensibilité à des situations d’aide et d’apprentissage (le courant de l’évaluation dynamique) ;
la seconde proposant des indicateurs sur la qualité de ses réponses considérées comme «
fausses » (le courant de l’analyse des erreurs). Comme nous l’avons indiqué, ces propositions
de scores complémentaires doivent encore être mises à l’épreuve pour confirmer leur intérêt.
Une limite importante est l’absence actuelle de normes de comparaison dans une perspective
inter-individuelle : l’idéal serait de pouvoir disposer de valeurs de comparaison, de type
étalonnage, afin de pouvoir mieux interpréter les valeurs de ces indicateurs. Nous
développerons nos futures recherches dans cet objectif. Une autre piste à développer est
celle de leur validité prédictive, notamment par rapport à la réussite scolaire. Il faut pouvoir
démontrer que ces indicateurs sont de meilleurs prédicteurs des performances scolaires
futures que le score classique obtenu à Matrices, qui n’est déjà pas le meilleur prédicteur
comparé à d'autres épreuves comme Similitudes ou Vocabulaire (Grégoire, 2019).
Mais le.la psychologue peut, dès à présent, mettre en œuvre ces propositions afin d’obtenir
des informations complémentaires qu’il.elle interprétera alors de manière plus descriptive et
qualitative, en les confrontant aux indicateurs chiffrés mais également aux observations
recueillies, aux éléments d’anamnèse et à la demande initiale. Ces indicateurs ne visent pas à
remplacer le score classique Matrices mais peuvent permettre au.à la psychologue de
recueillir des informations supplémentaires lui permettant de formuler des hypothèses sur
les conditions de réalisation de la performance, sur les difficultés rencontrées dans l’épreuve
et/ou sur l’existence de capacités de raisonnement peu visibles à travers le score classique.
Dans certaines conditions - par exemple, dans l’approche dynamique dans le cas d’un score
élevé de réussite à une simple représentation des items non réussis, ou, dans l’approche du
score potentiel d’un écart important avec le score entre les deux scores Matrices – ces
informations complémentaires peuvent ainsi inciter le.la psychologue à (s’)interroger la
fiabilité du score Matrices comme reflet des réelles capacités de raisonnement d’un enfant.
Enfin, ces approches, appliquées ici au subtest Matrices, pourraient convenir pour d’autres
subtests et d’autres épreuves cognitives. Elles sont d’ailleurs développées dans la nouvelle
version de l’Utilisation du nombre (UDN-3 ; Meljac, Eynard, Bernardeau, Terriot, & Wierzbicki,
à paraitre), en particulier l’approche accompagnée avec des aides progressives proposées à
l’enfant lors de la passation.

Références
Baratheon, R. (2018). Desigma-A. Hogrefe France.
Blackwell, L., Trzesniewski, K., & Dweck, C.S. (2007). Implicit theories of intelligence predict
achievement across an adolescent transition : A longitudinal study and an intervention. Child
Development, 78, 246-263.
Chartier, P., Barbot, H., & Ozenne, R. (2014). L’analyse des erreurs dans les tests de
raisonnement logique : principes et illustrations. L'Orientation Scolaire et Professionnelle,
43(1), 69-95.
Chartier, P. (2012). Evaluer les capacités de raisonnement avec les tests RCC. Paris : Eurotests
éditions.
Chartier, P., & Loarer, E. (2008). Évaluer l’intelligence logique. Paris : Dunod.
Dauvier, B., & Perret, P. (2016). Psychologie de l’intelligence à l’école. In C. Bailleux (Ed.),
Psychologie et scolarités (pp. 17-35). Aix-en-Provence : Presses Universitaires de Provence.
Dweck, C. S. (2002). The development of ability conceptions. In A. Wigfield & J. Eccles (Eds.),
Development of achievement motivation (p. 57-88). San Diego, CA : Academic Press.
Favre, D. (2010). Conception de l’erreur et rupture épistémologique. Revue française de
pédagogie, 111, 85-94.
Flieller, A. (1999), Les compétences et les performances cognitives dans l’évaluation scolaire,
In Bourdon, J. et Thélot, C. Education et formation. L’apport de la recherche aux politiques
éducatives. CNRS édition.
Grégoire, J. (2019). L’examen clinique de l’intelligence de l’enfant. Bruxelles : Mardaga.
Meljac, C., Eynard, L.A., Bernardeau, C., Terriot, K., & Wierzbicki, C. (A paraitre). UDN-3. Une
évaluation dynamique de la pensée logique. Hogrefe France
Newton, J.H., & Mcgrew, K.S. (2010). Introduction to the special issue: Current research in
Cattell-Horn-Carroll based assessment. Psychology in the Schools, 47(7), 621-634.
Perret, P., Dumesny, M., Grandjean, D., & Muonghane, V-S. (2011). Troubles des
apprentissages et théories implicites de l’intelligence. Développements, 8, 35-42.
Terriot, K. & Chartier, P. (2018). L’évaluation des capacités cognitives. In P. Chartier, K. Terriot,
& P. Vrignaud (Eds.), L’orientation scolaire et professionnelle. Pratiques d’évaluation.
Bruxelles : Mardaga, 133-178.
Vygotski, L. S. (1934). Pensée et langage. Paris : La Dispute.
Wechsler, D. (2016). WISC-V : Échelle d’Intelligence de Wechsler pour Enfants – Cinquième
édition. Paris : ECPA.

Vous aimerez peut-être aussi