Évaluation dynamique et WISC-V : compétences
Évaluation dynamique et WISC-V : compétences
Résumé
Dans les tests de raisonnement, l’évaluation ne prend en compte le plus souvent que le seul
score total, indicateur d’un niveau de performance. Nous proposons deux approches
permettant de recueillir des informations complémentaires afin de rapprocher l’évaluation
de la notion de compétence : l’évaluation dynamique et l’analyse des erreurs. Les limites et
intérêts de ces approches font l’objet de la discussion.
Abstract
In reasoning tests, the assessment most often takes into account only the total score, which
is an indicator of a level of performance. We propose two approaches to collect additional
information in order to approximate the assessment of competence: dynamic assessment and
error analysis. The limitations and interests of these approaches are discussed.
Mots clefs : WISC V ; matrices ; potentiel ; évaluation dynamique ; analyse des erreurs
Keyswords: WISC V ; matrices ; potential ; dynamic testing ; error analysis
Introduction
Le score observé à une épreuve de raisonnement logique, ici le subtest matrice du WISC-V,
reflète-il bien toujours les réelles capacités d’un enfant ? C’est l’un des principaux problèmes
qui se posent au.à la psychologue. Dans un article, assez peu connu, Flieller pose à sa manière
la même question : dans quelle mesure une différence de performance reflète-t-elle une
différence de compétence ? (1999). En effet, ce qu’un enfant1 est capable de faire à un
moment donné et à partir d’un contexte spécifique, dans l’ici et maintenant, ce que l’on
nomme le score observé (la performance), rend-t-il (toujours) bien compte de ses réelles
potentialités (ses compétences) ? C’est un questionnement particulièrement pertinent dans
le cas, par exemple, d’un élève en difficulté scolaire, d’un dossier présenté à la MDPH (Maison
départementale des personnes handicapées) ou encore d’un.e élève peu familier.ère avec la
situation de test ou présentant des spécificités de fonctionnement ou de comportement.
1
Nous limitons ici notre propos aux enfants mais la réflexion peut tout a fait s’apllquer également aux adultes.
Une première réponse consiste à entourer le score observé d’un intervalle de confiance, et
cette pratique a été largement diffusée dans les pratiques d’évaluation avec les échelles de
Wechsler. Une seconde réponse, plus complexe, consiste à rechercher des indicateurs
complémentaires au score observé de manière à pouvoir mieux rendre compte des réelles
potentialités de la personne et, éventuellement, nuancer le score observé, voire le remettre
en cause. C’est l’approche que nous proposons dans cet article à partir de deux pistes
d’application : l’évaluation dynamique et l’analyse des erreurs.
1. L’évaluation dynamique
Pour les tests d’intelligence de manière générale et le WISC-V (Wechsler, 2016) en particulier,
la forme de passation la plus classique en France est l’évaluation statique qui garantit les
conditions de standardisation. L’enfant ou l’adolescent.e gère seul les problèmes posés et ne
reçoit pas d’aide de la part de la.du psychologue sur sa performance en cours de tâche. Une
des limites fréquemment mises en avant des tests d’intelligence est qu’ils ne permettent pas
de comprendre le fonctionnement cognitif des individus, les processus cognitifs sous-jacents
(Chartier & Loarer, 2008). D'autre part, l’évaluation statique ne serait pas favorable aux
enfants qui ont manqué d’opportunités d’apprentissage (Grégoire, 2019). En effet,
l’intelligence est en partie déterminée par l’éducation, les expériences d’apprentissage. Que
se passe-t-il quand les résultats d’un enfant ayant manqué d’opportunités d’apprentissage
sont comparés aux performances d’enfants ayant évolué dans des conditions plus favorables
? L’évaluation dynamique permettrait de répondre à cette limite de l’évaluation statique en
évaluant, le potentiel d’apprentissage de l'enfant. Elle est “censée surmonter les biais
culturels puisque tous les sujets sont placés dans des conditions d’apprentissage
équivalentes” (Grégoire, 2019, p.330). Enfin, elle offrirait, selon certains auteurs (Dauvier &
Perret, 2016) un contexte qui influence la représentation naïve de l’enfant concernant la
modifiabilité de l’intelligence, ce qu’on appelle les théories implicites de l’intelligence
(Dauvier & Perret, 2016). Deux principales conceptions existent (Dweck, 2002) : la croyance
en l’entité de l’intelligence et la théorie incrémentielle. Dans la première, l’intelligence est
vue comme une qualité intrinsèque, stable, qui ne peut être changée. Dans la seconde,
l’intelligence est vue comme améliorable et contrôlable grâce aux apprentissages. Plusieurs
études ont montré les effets de la représentation naïve de l’enfant ou adolescent de
l’intelligence sur son rapport aux apprentissages, sur les stratégies et efforts déployés. Perret
et ses collaborateurs (2011) énoncent que les enfants qui croient en la théorie de l’entité ont
plutôt des buts de performance, c’est-à-dire qu’ils visent davantage l’obtention de bonnes
notes, ont un système d’attribution causale global ou dispositionnel, une motivation
extrinsèque, un sentiment de compétence fragilisé par les évaluation négatives et voient
l’effort comme le signe d’un défaut de capacité ; alors que ceux qui croient en la théorie
incrémentielle ont davantage des buts d’apprentissage, c’est-à-dire tournés vers l’accès aux
savoirs et au développement des compétences. ; un système d’attribution causale temporaire
et spécifique, une motivation intrinsèque, un sentiment de compétence plus résistant aux
évaluations négatives et voient l’effort comme un moyen pour surmonter les difficultés. Ils
sont ainsi plus persévérants et réalisent davantage de progrès (Blackwell, Trzesniewski &
Dweck, 2007). Offrir ce contexte de l’évaluation dynamique permettrait ainsi d’agir sur le
système d’attribution causale et donc potentiellement sur le rapport aux apprentissages, la
motivation, le sentiment de compétence, la persévérance et la performance scolaire.
Le principe de l’évaluation dynamique appliquée aux échelles de Wechsler est de proposer,
suite à la passation classique selon les règles strictes de standardisation, certains items ou
épreuves non réussis. Cette fois, le.la psychologue interagit, pose des questions, propose des
aides. L’objectif de cette seconde passation serait de mettre en exergue la Zone proximale de
développement de Vygotsky (1934). Elle est définie comme la distance entre ce que l’enfant
est capable de faire seul et ce qu’il est capable de faire lorsqu’il est aidé par des pairs initiés
ou des adultes. Les résultats obtenus lors de cette seconde passation seraient le reflet du
potentiel d’apprentissage de l’enfant. Il manque actuellement d’études sur les preuves de sa
validité prédictive (Grégoire, 2019). Il faudrait, en effet, pouvoir montrer que les scores issus
de l’évaluation dynamique prédisent mieux que les scores classiques, la performance future,
en particulier les performances académiques.
Ainsi, l’évaluation dynamique permet de compléter l’évaluation classique par des
informations qualitatives précieuses notamment sur les processus cognitifs de l’enfant, ce qui
peut enrichir les hypothèses de travail initiales, mais aussi aider à la conception
d’aménagements ou de remédiations adaptées à l’enfant.
2
les réponses fausses
Bien que cette approche de l’erreur soit, nous l’avons déjà signalé, très rare nous l’illustrerons
à travers deux exemples concrets.
Dans leur article portant sur l’analyse des erreurs dans les tests de raisonnement, les auteurs,
s’inspirant de l’approche développée par Chartier dans le test RCC (Chartier, 2012),
envisagent le calcul d’un score “potentiel”, complémentaire au score classique, à partir de la
prise en compte de certaines réponses considérées habituellement comme “fausses” mais,
au final, de meilleure qualité que les autres réponses fausses. Ces réponses “pourraient être
la trace de compétences latentes de raisonnement non prises en compte par les scores
classiques des épreuves (car centrés uniquement sur les items réussis), la trace de la présence
d’un “potentiel” de progression” (Chartier et al., 2014, p. 84).
Dans un autre test récent Desigma, évaluant également le raisonnement logique, les auteurs
proposent également le calcul de deux scores : le score classique et le score partiel, tenant
compte des solutions “partiellement correctes” réalisées par le.la participant.e (Baratheon,
2018).
Ces deux exemples illustrent bien la seconde approche que nous allons présenter ici qui vise
à caractériser un enfant par son score classique au WISC V mais également par un score
“potentiel” calculé à partir d’une analyse rigoureuse de la qualité de toutes ses réponses
fausses. Ces informations pouvant nous fournir une idée plus précise et/ou plus complète de
l’ensemble de ses capacités de raisonnement.
Prenons l’exemple d’un jeune de 12 ans, scolarisé en classe de 5ème. Il n’a jamais redoublé.
Ses résultats scolaires sont corrects, mais en deçà, selon les parents, de ses capacités
intellectuelles. Il possède une excellente mémoire et de grandes capacités de raisonnement.
Dès son plus jeune âge, il était capable, par exemple, de réaliser mentalement des calculs
complexes. Les parents évoquent également une très grande imagination, un très bon sens
de l’orientation. Il travaille très vite, peut obtenir de très bonnes notes. Lors de la passation
du WISC-V, on note des difficultés d’attention auditive lors des épreuves cognitives, une
grande fatigabilité (baille tout au long de l’épreuve). Quand il ne connaît pas la réponse, il
répond très vite qu’il ne sait pas sans chercher davantage. Nous percevons une faible
motivation sur l’ensemble des exercices cognitifs.
Ce jeune a obtenu un score brut de 26 points à Matrices (NS=14) avec six échecs à la première
passation. En reprenant ses six échecs, nous pouvons observer que ses réponses à trois items
peuvent être considérées comme des réponses “partielles” (score Matrices Partielles alors de
27,5) selon nos propositions de catégorisation : pour ces items sa réponse est très proche de
la bonne réponse attendue. Reste à comprendre pourquoi il n’aboutit pas aux bonnes
réponses. Mais ces observations rejoignent les propos des parents : les résultats observés par
le score standard paraissent bien en deçà de ses réelles capacités intellectuelles.
Une limite de notre approche concerne le déséquilibre entre les items sur les possibilités de
réponse partielle. Pour certains items, la proportion de réponses partielles est élevée (voir
par exemple l’item 7 avec 3 réponses partielles) alors que pour d’autres, elle est plus limitée
voire inexistante (ainsi pour 14 items, il n’existe pas de réponse partielle selon notre
catégorisation). Mais, en l’état, ces propositions de catégorisations peuvent permettre un
éclairage sur les potentialités réelles d’un enfant.
Conclusion
Rappelons que l’objectif principal de cet article est de proposer des pistes d’analyse du
subtest Matrices permettant de caractériser les capacités d’une personne par plusieurs
indicateurs. Deux approches ont été présentées, l’une apportant des indicateurs de sa
sensibilité à des situations d’aide et d’apprentissage (le courant de l’évaluation dynamique) ;
la seconde proposant des indicateurs sur la qualité de ses réponses considérées comme «
fausses » (le courant de l’analyse des erreurs). Comme nous l’avons indiqué, ces propositions
de scores complémentaires doivent encore être mises à l’épreuve pour confirmer leur intérêt.
Une limite importante est l’absence actuelle de normes de comparaison dans une perspective
inter-individuelle : l’idéal serait de pouvoir disposer de valeurs de comparaison, de type
étalonnage, afin de pouvoir mieux interpréter les valeurs de ces indicateurs. Nous
développerons nos futures recherches dans cet objectif. Une autre piste à développer est
celle de leur validité prédictive, notamment par rapport à la réussite scolaire. Il faut pouvoir
démontrer que ces indicateurs sont de meilleurs prédicteurs des performances scolaires
futures que le score classique obtenu à Matrices, qui n’est déjà pas le meilleur prédicteur
comparé à d'autres épreuves comme Similitudes ou Vocabulaire (Grégoire, 2019).
Mais le.la psychologue peut, dès à présent, mettre en œuvre ces propositions afin d’obtenir
des informations complémentaires qu’il.elle interprétera alors de manière plus descriptive et
qualitative, en les confrontant aux indicateurs chiffrés mais également aux observations
recueillies, aux éléments d’anamnèse et à la demande initiale. Ces indicateurs ne visent pas à
remplacer le score classique Matrices mais peuvent permettre au.à la psychologue de
recueillir des informations supplémentaires lui permettant de formuler des hypothèses sur
les conditions de réalisation de la performance, sur les difficultés rencontrées dans l’épreuve
et/ou sur l’existence de capacités de raisonnement peu visibles à travers le score classique.
Dans certaines conditions - par exemple, dans l’approche dynamique dans le cas d’un score
élevé de réussite à une simple représentation des items non réussis, ou, dans l’approche du
score potentiel d’un écart important avec le score entre les deux scores Matrices – ces
informations complémentaires peuvent ainsi inciter le.la psychologue à (s’)interroger la
fiabilité du score Matrices comme reflet des réelles capacités de raisonnement d’un enfant.
Enfin, ces approches, appliquées ici au subtest Matrices, pourraient convenir pour d’autres
subtests et d’autres épreuves cognitives. Elles sont d’ailleurs développées dans la nouvelle
version de l’Utilisation du nombre (UDN-3 ; Meljac, Eynard, Bernardeau, Terriot, & Wierzbicki,
à paraitre), en particulier l’approche accompagnée avec des aides progressives proposées à
l’enfant lors de la passation.
Références
Baratheon, R. (2018). Desigma-A. Hogrefe France.
Blackwell, L., Trzesniewski, K., & Dweck, C.S. (2007). Implicit theories of intelligence predict
achievement across an adolescent transition : A longitudinal study and an intervention. Child
Development, 78, 246-263.
Chartier, P., Barbot, H., & Ozenne, R. (2014). L’analyse des erreurs dans les tests de
raisonnement logique : principes et illustrations. L'Orientation Scolaire et Professionnelle,
43(1), 69-95.
Chartier, P. (2012). Evaluer les capacités de raisonnement avec les tests RCC. Paris : Eurotests
éditions.
Chartier, P., & Loarer, E. (2008). Évaluer l’intelligence logique. Paris : Dunod.
Dauvier, B., & Perret, P. (2016). Psychologie de l’intelligence à l’école. In C. Bailleux (Ed.),
Psychologie et scolarités (pp. 17-35). Aix-en-Provence : Presses Universitaires de Provence.
Dweck, C. S. (2002). The development of ability conceptions. In A. Wigfield & J. Eccles (Eds.),
Development of achievement motivation (p. 57-88). San Diego, CA : Academic Press.
Favre, D. (2010). Conception de l’erreur et rupture épistémologique. Revue française de
pédagogie, 111, 85-94.
Flieller, A. (1999), Les compétences et les performances cognitives dans l’évaluation scolaire,
In Bourdon, J. et Thélot, C. Education et formation. L’apport de la recherche aux politiques
éducatives. CNRS édition.
Grégoire, J. (2019). L’examen clinique de l’intelligence de l’enfant. Bruxelles : Mardaga.
Meljac, C., Eynard, L.A., Bernardeau, C., Terriot, K., & Wierzbicki, C. (A paraitre). UDN-3. Une
évaluation dynamique de la pensée logique. Hogrefe France
Newton, J.H., & Mcgrew, K.S. (2010). Introduction to the special issue: Current research in
Cattell-Horn-Carroll based assessment. Psychology in the Schools, 47(7), 621-634.
Perret, P., Dumesny, M., Grandjean, D., & Muonghane, V-S. (2011). Troubles des
apprentissages et théories implicites de l’intelligence. Développements, 8, 35-42.
Terriot, K. & Chartier, P. (2018). L’évaluation des capacités cognitives. In P. Chartier, K. Terriot,
& P. Vrignaud (Eds.), L’orientation scolaire et professionnelle. Pratiques d’évaluation.
Bruxelles : Mardaga, 133-178.
Vygotski, L. S. (1934). Pensée et langage. Paris : La Dispute.
Wechsler, D. (2016). WISC-V : Échelle d’Intelligence de Wechsler pour Enfants – Cinquième
édition. Paris : ECPA.