Choix des approches et données en recherche
Choix des approches et données en recherche
ISBN 9782100711093
Résumé
Ce chapitre traite du choix dont dispose le chercheur en matière de données empi-
riques et d’approches permettant leur recueil et leur analyse. Le chapitre montre tout
d’abord que la donnée est une représentation. Sa constitution passe par un processus
de découverte-invention qui exige un positionnement épistémologique de la part du
chercheur. La donnée est également subjective car soumise à la réactivité de sa
source à l’égard du chercheur. En distinguant leur nature primaire ou secondaire, les
données sont ensuite évaluées en termes de validité, d’accessibilité et de flexibilité,
ainsi qu’en perspective de leur recueil et de leur analyse.
Le chapitre évalue ensuite la distinction entre les approches qualitative et quantita-
tive en fonction de la nature de la donnée, de l’orientation de la recherche, du carac-
tère objectif ou subjectif des résultats obtenus et de la flexibilité de la recherche.
Enfin, la complémentarité entre l’approche qualitative et l’approche quantitative est
mise en évidence dans la perspective d’un processus séquentiel et d’une
triangulation.
SOMMAIRE
Section 1 Le choix des données
Section 2 Le choix d’une approche : qualitative et/ou quantitative ?
Partie 1 Concevoir
L
■
’un des choix essentiels que le chercheur doit opérer est celui d’une approche et
de données adéquates avec sa question de recherche. Il s’agit bien entendu d’une
question à double entrée. D’une part, il y a la finalité poursuivie : explorer,
construire, tester, améliorer ce qui est connu, découvrir ce qui ne l’est pas. D’autre
part, il y a l’existant ; ce qui est disponible et accessible, ce qui est faisable – et qui
a déjà été fait – et ce qui ne l’est pas. Cette seconde entrée possède deux volets :
celui de la donnée et celui de l’approche, qui peut être qualitative ou quantitative.
C’est donc une triple adéquation que le chercheur poursuit entre finalité, approche
et donnée. Intervenant très tôt dans le processus de recherche, cet agencement est
coûteux, non seulement parce qu’il va engager le chercheur à long terme, mais sur-
tout parce que toutes les dimensions implicites dans un tel choix ne sont pas réver-
sibles. Dans ce chapitre, nous essaierons de donner au lecteur les moyens de choisir,
en l’éclairant sur les possibles incompatibilités entre certaines approches et certaines
données, mais surtout en estimant le coût de chaque décision en termes de temps,
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)
106
Quelles approches avec quelles données ? ■ Chapitre 4
Section
1 Le choix des données
Les « données » sont traditionnellement perçues comme les prémisses des théories.
Les chercheurs recherchent et rassemblent des données dont le traitement par une
instrumentation méthodique va produire des résultats et améliorer, ou renouveler, les
théories existantes.
Deux propositions non posées et contestables se cachent derrière cette acception de
bon sens. La première est que les données précèdent les théories. La seconde,
découlant de la première, est que les données existent en dehors des chercheurs,
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)
puisqu’ils les « trouvent » et les « rassemblent » afin de leur infliger des traitements.
La grammaire de la recherche ne fait que valider de telles suppositions, puisqu’on
distingue traditionnellement les phases de recueil, de traitement, et d’analyse des
données, comme si tout naturellement les « données » étaient des objets indépendants
de leur recueil, de leur traitement et de leur analyse.
Bien évidemment, cette proposition est tout à la fois fausse et vraie. Elle est fausse
car les données ne précèdent pas les théories, mais en sont à la fois le médium et la
finalité permanente. « Le terrain ne parle jamais de lui-même » (Czarniawska, 2005 :
359). On utilise tout autant que l’on produit des données, que l’on soit au point de
départ de la réflexion théorique ou proche de son achèvement. Les données sont à la
fois des réceptacles et des sources de théorisation.
Avant toutes choses, la donnée est un postulat : une déclaration au sens mathématique,
ou une supposition acceptée. Cette acceptation peut se faire par voie déclarative, ou
implicitement, en présentant une information de telle façon qu’elle prend implicitement
le statut de vérité. Il s’agit avant tout d’une convention permettant de construire ou de
tester une proposition. Le fait que cette convention soit vraie ou fausse, au sens
commun, n’a rien à voir avec sa vérité scientifique. Comme le soulignait Caroll, « sur
la question de savoir si une proposition doit, ou ne doit pas, être comprise comme
affirmant l’existence de son sujet, je soutiens que tout auteur a le droit d’adopter ses
règles propres – pourvu, bien sûr, que celles-ci soient cohérentes avec elles-mêmes et
conformes aux données logiques habituellement reçues » (Caroll, 1992 : 192). Ainsi,
les « données » ont avant tout un statut d’assertion permettant au chercheur de
poursuivre son travail sans avoir à lutter avec le statut de vérité des propositions qu’il
émet. La donnée permet d’éviter au chercheur de se résoudre à croire dans chaque
proposition qu’il émet. Elle lui permet d’évacuer de son espace de travail la question
ontologique, du moins de la reléguer en arrière-plan afin d’opérationnaliser sa
–
démarche.
©
107
Partie 1 ■ Concevoir
pertinence un accident de voiture, mais ceux qui l’ont vécu possèdent une dimension
supplémentaire qui ne peut être exprimée. Deux personnes ayant vécu le même
accident auront toutefois deux expériences différentes de ce même événement, que
l’on peut considérer comme une réalité partagée. Cependant, l’expérimentation
commune d’un même événement a produit deux ensembles de données distincts,
mutuellement différents, et encore plus différents de la représentation de l’événement
par une personne ne l’ayant pas vécu.
On pourrait facilement contredire cet exemple en suggérant qu’il s’agit de données
qualitatives, c’est-à-dire constituées de récits, de descriptions, de retranscriptions de
sensations qui rendent cette différence évidente. Cependant, le caractère quantitatif
ou qualitatif de la donnée ne change pas fondamentalement le problème. Si l’on
demandait aux deux accidentés d’évaluer sur des échelles de 1 à 5 les différentes
sensations de l’accident, on aboutirait également à des perceptions différentes d’une
même réalité, qui peut vouloir dire (1) que la réalité de l’accident était différente
pour les deux acteurs, ou que (2) la traduction d’une même réalité sur une échelle
par deux acteurs peut donner des résultats différents. Dans les deux cas, le chercheur
aura réuni des « données », c’est-à-dire qu’il aura accepté l’idée que l’une ou l’autre
façon de représenter le phénomène (échelles ou récit) constitue une méthode
acceptable de constitution de données. Ainsi, le statut de « donnée » est partiellement
laissé au libre arbitre du chercheur. Celui-ci pourra considérer qu’un événement
directement observable peut constituer une donnée, sans l’intermédiaire d’une
instrumentation transformant les stimuli en codes ou en chiffres (par exemple, via
une catégorisation ou l’utilisation d’échelles). Dans une seconde modalité, le
chercheur fait face à des phénomènes non directement observables, comme des
attitudes. Il va avoir recours à une instrumentation lui permettant de transformer ces
« attitudes » en un ensemble de mesures, par exemple en utilisant des échelles où les
acteurs pourront qualifier leur attitude. Cette instrumentation néanmoins peut
108
Quelles approches avec quelles données ? ■ Chapitre 4
Données
Instrumentation
Instrumentation
OBSERVABLE
Comportements Événements
Attitudes
NON-OBSERVABLE
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)
ces croyances.
©
109
Partie 1 ■ Concevoir
110
Quelles approches avec quelles données ? ■ Chapitre 4
matière pense notamment à nous. Elle nous attribue des intentions qui, peut-être, ne
sont pas les nôtres, mais qui vont conditionner la manière dont elle va nous parler,
ce qu’elle va choisir de nous montrer ou de nous cacher. » (Girin, 1989 : 3).
Si la réactivité de la source peut facilement être mise en évidence dans le cadre du
recueil de données primaires dans les recherches qualitatives, elle n’y est pas
exclusivement attachée. Le fait que la donnée soit de source primaire (c’est-à-dire de
« première main ») ou secondaire (c’est-à-dire de « seconde main ») ne constitue pas
un critère suffisamment discriminant en termes de réactivité de la source. Le chercheur
peut collecter directement des données comportementales par l’observation non
participante sans que les sujets observés soient conscients de cette observation et
puissent affecter la donnée par leur réactivité (Bouchard, 1976). A contrario, les acteurs
d’organisation donnant accès à des données secondaires internes, rapport ou document,
peuvent en fait intervenir sur le processus de construction de la base de données, tant
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)
par ce qu’ils auront mis en exergue que par ce qu’ils auront omis ou dissimulé. S’il est
courant, à juste titre, de souligner la réactivité de la source de données primaires, les
données secondaires ne sont pas exemptes de ce type de phénomène.
L’approche méthodologique à l’égard de la donnée, qualitative ou quantitative,
n’est pas un élément satisfaisant pour cerner les situations d’interactivité avec les
sources de données. Les données collectées au travers d’enquêtes par questionnaires
ou grâce à des entretiens en profondeur peuvent toutes deux être affectées par la
rétention d’information ou son orientation dans un sens voulu par les sujets qui en
sont les sources. Quelle que soit l’approche, qualitative ou quantitative, le chercheur
est contraint de qualifier et de maîtriser sa présence dans le dispositif de collecte et
de traitement des données (cf. chapitre 9).
La question déterminante est plutôt la suivante : « La donnée est-elle affectée par
la réactivité de sa source à l’égard du chercheur ? » En d’autres termes, il est utile
de distinguer les données obtenues de façon « ouverte » (« obstrusive », soit
« indiscrète » dans la terminologie anglo-saxonne), c’est-à-dire au su des sujets-
sources, ou de façon « dissimulée » (« unobstrusive »), c’est-à-dire à l’insu des
sujets-sources. Les données collectées de façon « dissimulée » permettent de
compléter, de recouper les données collectées de façon « ouverte » empreintes d’une
certaine subjectivité, due à la distorsion provoquée par les filtres perceptuels des
sujets (Starbuck et Milliken, 1988) ou à la sélectivité de leur mémoire, ou encore
d’interpréter des contradictions dans les données issues de sources réactives (Webb
et Weick, 1979).
–
©
111
Partie 1 ■ Concevoir
112
Quelles approches avec quelles données ? ■ Chapitre 4
audience scientifique peut avoir sur le statut d’une recherche selon la nature des
données sur lesquelles elle se fonde. La tentation est grande de céder à l’idéologie et
de se contraindre à produire des données même lorsque celles-ci sont disponibles, par
souci de se conformer aux attentes de son audience. La première idée reçue à propos
des données primaires concerne leur statut ontologique. On aura tendance à accorder
un statut de vérité plus grande à une recherche fondée sur des données primaires, parce
que son auteur pourra « témoigner » de phénomènes qu’il a vus de ses propres yeux.
Ce syndrome de « saint Thomas » peut cependant entraîner un excès de confiance dans
les déclarations des acteurs et amener le chercheur à produire des théories qui ne sont
pas assez abouties parce qu’elles n’ont pas su prendre suffisamment de distance avec
le terrain. De même, les données primaires sont généralement considérées comme une
source de validité interne supérieure car le chercheur aura établi un dispositif adapté au
projet et à la réalité empirique étudiée. Cette croyance dans une validité interne
supérieure vient du fait que le chercheur, en recueillant ou produisant lui-même les
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)
données, est censé avoir évacué les explications rivales en contrôlant d’autres causes
possibles. Cependant, la relative liberté dont dispose le chercheur pour mener ces
contrôles, et la relative opacité qu’il peut générer dans son instrumentation, doivent
relativiser une telle croyance. L’excès de confiance qui provient de l’autonomie dans la
production de la donnée peut au contraire pousser le chercheur à se contenter
d’esquisses peu robustes et à ignorer des variables explicatives ou intermédiaires.
À l’opposé, il est courant d’attribuer un effet négatif des données primaires sur la
validité externe de la recherche poursuivie. Parce que le chercheur sera le seul à
avoir « interagi » avec « sa » réalité empirique, un travail de recherche uniquement
fondé sur des données primaires pourra susciter des doutes de l’audience. Il s’agit
également d’une idée reçue qui amènera généralement le chercheur à « compenser »
ses données primaires par un excès de données secondaires « ad hoc » qu’il aura
introduites pour « colmater » la validité externe de son travail, réalisant en quelque
sorte un cautère sur une jambe de bois.
Dans le même ordre d’idée, les données primaires sont souvent considérées comme
difficilement accessibles mais très flexibles. Ce n’est pas toujours le cas ! Mais parce
que le chercheur va considérer qu’il ne peut accéder aux données primaires dont il a
besoin, il privilégiera des données secondaires disponibles alors que le projet poursuivi
aurait mérité une instrumentation et la production de données spécifiques.
De même, l’excès de confiance dans une supposée « flexibilité » des données
primaires peut amener le chercheur à s’embourber dans un terrain se révélant
beaucoup moins flexible que ne le suggérait la littérature : les acteurs vont lui résister,
vont faire de la figuration, lui fournir les réponses dont ils s’imaginent qu’elles
pourront lui faire plaisir, et ainsi continuellement, mais de bonne foi, biaiser sa
recherche. Le tableau suivant résume ces quelques idées reçues sur les données
primaires, et les implications directes ou indirectes qu’elles peuvent avoir sur une
–
113
Partie 1 ■ Concevoir
Quant à leur difficilement accessibles. accessibles mais incomplètes, alors que l’objet
accessibilité de la recherche mériterait le recueil de données
primaires (heuristique du disponible).
• Les données primaires sont très • On s’embourbe dans le terrain par le manque
flexibles. de disponibilité des acteurs.
Quant à leur flexibilité • Travestissement des données primaires en les
détournant de l’objet pour lequel elles ont été
recueillies.
114
Quelles approches avec quelles données ? ■ Chapitre 4
(1987), seulement 4,48 % des auteurs fournissent des preuves de la validité de leur
construit dans les articles publiés examinés. Ainsi, la formalisation peut être à tort
assimilée à une robustesse intrinsèque de la donnée secondaire. Cette dernière idée
reçue amène le chercheur à croire que sa recherche sera « sécurisée » par le recours
à des données secondaires, tandis qu’en fait, il ne fait « qu’externaliser », confier à
d’autres, les risques liés à la validité interne de ses travaux en attribuant un degré de
confiance a priori aux données secondaires qu’il manipule.
L’utilisation de données secondaires pour étendre la validité des résultats et
produire leur généralisation est affectée des mêmes travers. La validité externe est
aussi conditionnée par la validité des travaux à l’origine de la donnée secondaire.
Une autre idée reçue concerne la plus grande accessibilité des données secondaires.
Une telle croyance peut donner au chercheur le sentiment de complétude de sa
recherche car il aura l’impression d’avoir eu accès « à tout ce qui était accessible ».
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)
L’apparente facilité d’accès aux données secondaires peut amener le chercheur soit
à être vite débordé de données en quantité trop importante, soit à croire qu’il a fait
« le tour de la question ».
Parallèlement, un autre idée reçue, celle d’une croyance positive dans la faible
flexibilité des données secondaires (donc peu manipulables) peut amener le
chercheur à croire que les données secondaires sont plus fiables. Il s’agit là d’une
croyance naïve car le fait que les données secondaires soient stabilisées et formalisées
ne signifie aucunement que les phénomènes qu’elles décrivent se soient figés ou
stabilisés à l’instar des données disponibles qui les décrivent. En d’autres termes, le
recours aux données secondaires peut entraîner une plus grande exposition à un biais
de maturation (cf. chapitre 10).
Le tableau 4.2 résume ces quelques idées reçues sur les données secondaires.
Tableau 4.2 – Idées reçues sur les données secondaires
Idées reçues Implications directes et indirectes
• Les données secondaires ont un • On ne s’interroge pas sur la finalité et les
statut de vérité supérieur aux conditions des recueil et traitement initiaux.
données primaires car elles ont • On oublie les limitations que les auteurs
Quant à leur statut
été formalisées et publiées. avaient attachées aux données qu’ils avaient
ontologique
produites.
• On reprend des propositions et on leur attribut
le statut de vérité.
• Le statut ontologique de • L’intégration de données disponibles peut
Quant à leur impact véracité des données secondaires conduire à négliger la robustesse des construits
sur la validité interne offre une maîtrise de la validité de la recherche. Le chercheur « externalise » le
interne. risque de validité interne (excès de confiance).
• L’établissement de la validité • L’établissement de la validité externe peut être
externe de la recherche est biaisé par l’excès de confiance dans les données
Quant à leur impact
facilitée par la comparaison avec secondaires.
–
115
Partie 1 ■ Concevoir
☞
Idées reçues Implications directes et indirectes
• Les données secondaires sont • La plus grande accessibilité peut donner au
Quant à leur
disponibles et facilement chercheur le sentiment de complétude, tandis
accessibilité
accessibles. que sa base de données est incomplète.
• Les données secondaires sont • Croyance naïve : la formalisation des données
Quant à leur peu flexibles, donc plus fiables secondaires ne gage pas de leur pérennité. Les
flexibilité car moins manipulables. données manquent d’actualisation et subissent
un biais de maturation.
Nous avons mis en avant les dangers qui pouvaient résider dans un choix fondé sur
des idées reçues sur des qualités que posséderaient les données primaires et les
données secondaires. Il est donc fallacieux de bâtir un projet de recherche sur des
qualités que posséderaient a priori ces deux types de données. L’utilisation de
données primaires ou secondaires va entraîner un certain nombre de contraintes dans
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)
116
Quelles approches avec quelles données ? ■ Chapitre 4
Suffisantes ?
Non
Oui
Oui
Non Suffisantes ?
–
117
Partie 1 ■ Concevoir
utilement appuyée par des données primaires (par exemple, des entretiens avec des
investisseurs). La difficulté réside dans l’évaluation de sa propre base d’information par
le chercheur. Il est fort possible qu’il s’aperçoive que sa base d’information était
insuffisante lors de l’analyse des données, ce qui impliquera un retour à une phase de
recueil de données, soit primaires soit secondaires (cf. figure 4.2).
Section
2 Le choix d’une approche : qualitative et/ou
quantitative ?
118
Quelles approches avec quelles données ? ■ Chapitre 4
K catégories Exemples
Non
Ordonnées? Nominales : Relation d’identification secteur
ou d’appartenance à une classe d’activité
Oui
Intervalles
? Ordinales : Relation d’ordre entre les objets petite < moyenne
entre
catégories? < grande entreprise
Égaux
Y a-t-il Non
un zéro Intervalle : Comparaison d’intervalles indice de satisfaction
naturel? ou de différences des salariés
de 1 à 10
Oui
119
Partie 1 ■ Concevoir
Comme le montre la figure 4.3, les variables mesurées sur des échelles nominales
ne permettent que d’établir des relations d’identification ou d’appartenance à une
classe. Que ces classes soient constituées de nombres ne change rien à leur propriété
(exemple : un numéro de département ou encore un numéro arbitraire pour identifier
la classe). « Pour ce type de mesure, aucune des trois propriétés des nombres n’est
rencontrée : l’ordre est arbitraire, l’unité de mesure peut être variable et l’origine des
nombres utilisés est également arbitraire » (Lambin, 1990 : 128). Le seul calcul
statistique permis est celui de la fréquence. Avec les variables mesurées sur des
échelles ordinales, on peut obtenir un classement mais l’origine de l’échelle reste
arbitraire. Les intervalles entre catégories étant inégaux, les calculs statistiques se
limitent à des mesures de position (médiane, quartiles, déciles…). On ne pourra
effectuer des opérations arithmétiques sur ces données. Dès lors que les intervalles
entre catégories deviennent égaux, on peut parler d’échelles d’intervalles. Les
variables mesurées sur ce type d’échelle peuvent être soumises à plus de calculs
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)
120
Quelles approches avec quelles données ? ■ Chapitre 4
121
Partie 1 ■ Concevoir
réfuter une théorie au travers d’une approche qualitative, en montrant son insuffisance
à expliquer des faits de gestion d’organisation. C’est ainsi que Whyte (1955) a réfuté,
au travers d’une approche qualitative menée sur un seul site essentiellement par
observation participante, le modèle dominant de « désorganisation sociale » mis en
avant par l’école sociologique de Chicago pour rendre compte de la vie sociale dans
les quartiers pauvres des grandes villes américaines. Il faut cependant souligner que les
chercheurs choisissent rarement une approche qualitative avec la seule perspective de
tester une théorie. En général, ce choix est accompagné également d’une orientation
encore plus marquée vers la construction. Cette tendance s’explique par le coût,
notamment en temps, d’une approche qualitative qui ne serait destinée qu’à tester une
théorie. Imaginons que le test s’avère positif. Le chercheur n’aura d’autre choix que de
reconduire une autre campagne de recueil et d’analyse. En effet, l’approche qualitative
enferme le chercheur dans une démarche de falsification : le seul objectif ne peut être
que de réfuter la théorie et en aucun cas de la valider. Le rôle de l’approche qualitative
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)
n’est pas de produire la généralisation d’une théorie existante. Stake souligne à propos
de l’étude de cas, qu’il positionne dans l’approche qualitative, que tout au plus « par le
contre-exemple, l’étude de cas invite à la modification d’une généralisation » (1995 :
8). Cette modification implique une construction. La limite de l’approche qualitative
réside dans le fait qu’elle s’inscrit dans une démarche d’étude d’un contexte particulier.
Bien sûr, le recours à l’analyse de plusieurs contextes permet d’accroître la validité
externe d’une recherche qualitative selon une logique de réplication (cf. chapitre 10).
Cependant, « les constats ont toujours un contexte qui peut être désigné mais non
épuisé par une analyse finie des variables qui le constituent, et qui permettrait de
raisonner toutes choses égales par ailleurs » (Passeron, 1991 : 25). Ces limites de
l’approche qualitative en terme de généralisation conduisent à accorder plus de validité
externe aux approches quantitatives. À l’opposé, l’approche qualitative offre plus de
garantie sur la validité interne des résultats. Les possibilités d’évaluation d’explications
rivales du phénomène étudié sont plus grandes que dans l’approche quantitative car le
chercheur peut mieux procéder à des recoupements entre les données. L’approche
qualitative accroît l’aptitude du chercheur à décrire un système social complexe
(Marshall et Rossman, 1989).
Le choix entre une approche qualitative et une approche quantitative apparaît donc
plus dicté par des critères d’efficience par rapport à l’orientation de la recherche,
construire ou tester. Bien que les garanties de validité interne et de validité externe
doivent être envisagées conjointement quel que soit le type de recherche, le chercheur
doit se déterminer sur la priorité qu’il accorde à la qualité des liens de causalité entre
les variables ou à la généralisation des résultats pour choisir entre une approche
qualitative et une approche quantitative. L’idéal serait évidemment de garantir au
mieux la validité des résultats en menant conjointement les deux approches.
122
Quelles approches avec quelles données ? ■ Chapitre 4
peut permettre, mais c’est surtout le postulat d’une relation de fait entre l’approche
qualitative et une position épistémologique particulière qui peut être remis en question
(Hammersley, 1999). Il convient donc d’analyser plus finement ce critère. Nous
verrons qu’il existe plusieurs subjectivités des résultats de la recherche qui peuvent
qualifier différentes approches qualitatives. Nous montrerons également que certains
partisans de l’approche qualitative ont entamé une réflexion pour réduire la subjectivité,
historiquement attachée à cette tradition de recherche.
c Focus
Objectivisme versus subjectivisme
« L’objectivisme isole l’objet de la recherche, conceptions : l’objet n’est plus une entité
introduit une séparation entre observateurs isolée, il est toujours en interrelation avec
et observés, relègue le chercheur dans une celui qui l’étudie ; il n’y a pas de coupure
position d’extériorité, cette coupure épisté- épistémologique, la nécessaire objectiva-
mologique étant jugée nécessaire à l’objec- tion de la pratique prend en compte les
tivité de l’observation. […] La tradition implications de toute nature du chercheur,
objectiviste se donne des objets de dont la subjectivité est rétablie et analysée
recherche qui acceptent les contraintes des comme appartenant de plein droit au
méthodes d’observation et de production champ considéré. […] Les méthodes
qui sont les plus souvent assises sur la quan- employées relèvent davantage de l’analyse
tification, ou tout au moins sur l’obsession qualitative, l’unique pouvant être significatif
horlogère de la mesure. […] Le subjecti- comme le non mesurable. » (Coulon,
visme prend le contre-pied de ces 1987 : 50-51.)
123
Partie 1 ■ Concevoir
terrain étudié, même si sa propre interprétation peut être plus appuyée que celle des
sujets (Stake, 1995 : 8). L’approche qualitative admet tout à la fois, la subjectivité du
chercheur et celle des sujets. Elle offre l’opportunité d’une confrontation avec des
réalités multiples car elle « expose plus directement la nature de la transaction » entre
l’investigateur et le sujet (ou l’objet), et permet une meilleure évaluation de sa
posture d’interaction avec le phénomène décrit (Lincoln et Guba, 1985 : 40).
Un positionnement constructiviste n’implique pas non plus que le critère d’objectivité
soit éludé. Ce critère d’objectivité peut être envisagé comme un « agrément intersubjectif ».
« Si de multiples observateurs sont en mesure d’émettre un jugement collectif sur un
phénomène, on peut dire qu’il est objectif. » (Lincoln et Guba, 1985 : 292)
L’approche qualitative n’exclut pas une posture épistémologique d’objectivité de
la recherche par rapport au monde qu’elle étudie. Certains promoteurs de l’approche
qualitative, Glaser et Strauss (1967) notamment, en ont développé une conception
positiviste. Dans leur ouvrage de référence sur l’approche qualitative, Miles et
Huberman postulent « que les phénomènes sociaux existent non seulement dans les
esprits mais aussi dans le monde réel et que des relations légitimes et raisonnablement
stables peuvent y être découvertes (2003 : 16). Les deux auteurs plaident pour un
« positivisme aménagé » et suggèrent la « construction d’une chaîne logique
d’indices et de preuves » à des fins d’objectivité des résultats. Le « Focus » suivant
précise en quoi consiste et quel est le rôle d’une chaîne de preuves.
En définitive, la collecte et l’analyse des données doivent rester cohérentes avec
un positionnement épistémologique explicite du chercheur. Si l’approche qualitative
permet d’introduire une subjectivité peu compatible avec l’approche quantitative,
elle ne peut cependant être circonscrite à une épistémologie constructiviste.
124
Quelles approches avec quelles données ? ■ Chapitre 4
c Focus
La chaîne de preuves
« Le chercheur de terrain construit peu à aux « corroborations structurales », ils
peu cet enchaînement de preuves, identi- adoptent un mode de travail plus proche de
fiant en premier lieu les principaux facteurs, l’induction par élimination. La logique du
ébauchant les relations logiques qui les « modus operandi » utilisé comme outil de
unissent, les confrontant aux informations localisation de problèmes dans plusieurs
issues d’une nouvelle vague de recueil de professions – médecins légistes, garagistes,
données, les modifiant et les affinant en cliniciens, officiers de police, enseignants –
une nouvelle représentation explicative reflète bien ce va-et-vient entre l’induction
qui, à son tour, est testée sur de nouveaux par énumération et l’induction par élimina-
sites ou dans des situations nouvelles. […] tion. » (Miles et Huberman, 2003 : 468.)
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)
Dans sa forme la plus achevée, la méthode Yin assigne une autre fonction à la chaîne
combine deux cycles imbriqués. Le premier de preuves : « Le principe (du maintien de
s’intitule « induction par énumération » qui la chaîne de preuves) est de permettre à un
consiste à recueillir des exemples nombreux observateur externe – le lecteur de l’étude
et variés allant tous dans la même direc- de cas, par exemple – de suivre le chemi-
tion. Le second est l’« induction par élimi- nement de n’importe quelle preuve
nation », où l’on teste son hypothèse en la présentée, des questions de recherche
confrontant à d’autres et où l’on recherche initiales aux conclusions ultimes du cas.
soigneusement les éléments pouvant limiter De plus, cet observateur externe doit être
la généralité de sa démonstration. Quand capable de retracer les étapes dans n’im-
les chercheurs qualitatifs évoquent la porte quelle direction (des conclusions en
« centration progressive », ils parlent en fait arrière vers les questions de recherche
d’induction par énumération et lorsqu’ils initiales, ou des questions vers les conclu-
passent aux « comparaisons constantes » et sions). » (Yin, 2014 : 127.)
La question de la flexibilité dont dispose le chercheur pour mener à bien son projet
de recherche est elle aussi un élément crucial dans le choix d’une approche
qualitative ou quantitative. « Dans le domaine de la recherche sur la gestion et les
organisations, il est clair que les événements inattendus et dignes d’intérêt sont
propres à bouleverser n’importe quel programme, et que la vraie question n’est pas
celle du respect du programme, mais celle de la manière de saisir intelligemment les
possibilités d’observation qu’offrent les circonstances » (Girin, 1989 : 2).
Avec l’approche qualitative, le chercheur bénéficie en général d’une grande
flexibilité. La question de recherche peut être modifiée à mi-parcours afin que les
résultats soient vraiment issus du terrain (Stake, 1995). Le chercheur peut également
–
125
Partie 1 ■ Concevoir
intérêt à ne pas trop structurer sa stratégie pour conserver une capacité à prendre en
compte l’imprévu et pouvoir changer de direction, le cas échéant (Bryman, 1999).
L’approche quantitative n’offre pas cette souplesse car elle implique généralement
un calendrier plus rigide. Quand il s’agit d’enquêtes, l’échantillonnage et la
construction du questionnaire sont effectués avant que ne commence le recueil de
données. De même, dans la recherche avec expérimentation, la définition des
variables indépendantes et dépendantes, ainsi que celle des groupes d’expérience et
de contrôle, fait partie d’une étape préparatoire (Bryman, 1999). Il est évidemment
très difficile de modifier la question de recherche dans la démarche plus structurée
au préalable de l’approche quantitative, compte tenu du coût qu’une telle
modification entraînerait. Il est le plus souvent exclu d’envisager d’évaluer de
nouvelles explications rivales, à moins de remettre en chantier le programme de
recherche.
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)
126
Quelles approches avec quelles données ? ■ Chapitre 4
Objet de la recherche
Méthodes Méthodes
qualitatives quantitatives
Utiliser des données complémentaires ne constitue pas en soi une triangulation, mais
un fait naturel propre à la plupart des recherches (Downey et Ireland, 1979). C’est une
erreur de croire que le chercheur « qualitatif » n’utilise pas de données quantitatives et
qu’il est en quelque sorte opposé à la mesure (Miles, 1979). Le fait qu’un chercheur
utilise un système symbolique numérique pour traduire la réalité observée, ou un
système symbolique verbal, ne définit pas fondamentalement le type d’approche. Dans
leur manuel d’analyse qualitative, Miles et Huberman suggèrent de procéder à un
comptage des items pour cerner leur récurrence : « les chiffres […] sont plus
économiques et plus manipulables que les mots ; on « voit » plus vite et plus facilement
la tendance générale des données en examinant leur distribution » (2003 : 453).
La conjugaison des approches qualitatives et quantitatives, c’est-à-dire leur
utilisation complémentaire et dialectique permet au chercheur d’instaurer un
dialogue différencié entre ce qui est observé (l’objet de la recherche) et les deux
façons de le symboliser. L’objectif de la triangulation est de tirer partie de ce que les
deux approches peuvent offrir : « Les méthodes qualitatives représentent un mélange
de rationalité, de sérendipité et d’intuition dans lequel les expériences personnelles
du chercheur sont souvent des événements clés à être interprétés et analysés comme
des données. Les investigateurs qualitatifs tendent à dévoiler les processus sociaux
plutôt que les structures sociales qui sont souvent les points de focalisation des
chercheurs quantitativistes » (Van Maanen, 1979 : 520). Ainsi, la triangulation
permet au chercheur de bénéficier des atouts des deux approches en contrebalançant
les défauts d’une approche par les qualités de l’autre (Jick, 1979).
–
©
127
Partie 1 ■ Concevoir
Conclusion
L’articulation entre données, approches et finalités de la recherche est une étape
essentielle du processus de recherche. Les choix du chercheur sont cependant en partie
déterminés par des facteurs extérieurs à l’objet de la recherche lui-même. La limite des
ressources temporelles peut en effet amener le chercheur à faire des compromis entre
l’exhaustivité nécessaire (en termes de validité interne et externe) et la volonté de
produire des résultats. Le chercheur peut opter pour un « opportunisme méthodique ».
En se concentrant sur les unités d’analyse les plus accessibles, il va réviser ses
ambitions et adapter sa question de recherche. Il peut, à ce titre, réduire les échantillons,
préférer des populations exemplaires pour construire une théorie ou encore tester
seulement une partie des théories initialement envisagées. À l’opposé, il peut adopter
une démarche plus systématique et plus ambitieuse, en recourant à une triangulation à
la fois des méthodes et des données sollicitées. Entre ces deux extrêmes, le chercheur
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)
128