0% ont trouvé ce document utile (0 vote)
16 vues26 pages

Choix des approches et données en recherche

Ce chapitre explore les choix des chercheurs en matière de données empiriques et d'approches d'analyse, en soulignant que la donnée est une représentation subjective influencée par la réactivité de sa source. Il distingue les données primaires et secondaires, évaluant leur validité et accessibilité, tout en analysant les approches qualitative et quantitative selon la nature des données et l'orientation de la recherche. Enfin, il met en avant la complémentarité de ces deux approches dans un processus de recherche séquentiel et de triangulation.

Transféré par

seyemaame
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
16 vues26 pages

Choix des approches et données en recherche

Ce chapitre explore les choix des chercheurs en matière de données empiriques et d'approches d'analyse, en soulignant que la donnée est une représentation subjective influencée par la réactivité de sa source. Il distingue les données primaires et secondaires, évaluant leur validité et accessibilité, tout en analysant les approches qualitative et quantitative selon la nature des données et l'orientation de la recherche. Enfin, il met en avant la complémentarité de ces deux approches dans un processus de recherche séquentiel et de triangulation.

Transféré par

seyemaame
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre 4. Quelles approches avec quelles données ?

Philippe Baumard, Jérôme Ibert

To cite this version:


Philippe Baumard, Jérôme Ibert. Chapitre 4. Quelles approches avec quelles données ?. Méthodes
de recherche en management, Dunod, pp.105-128, 2014, �10.3917/dunod.thiet.2014.01.0105�. �hal-
03218200�

HAL Id: hal-03218200


https://hal.science/hal-03218200v1
Submitted on 19 May 2021

HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est


archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non,
lished or not. The documents may come from émanant des établissements d’enseignement et de
teaching and research institutions in France or recherche français ou étrangers, des laboratoires
abroad, or from public or private research centers. publics ou privés.
CHAPITRE 4. QUELLES APPROCHES AVEC QUELLES DONNÉES ?

Philippe Baumard, Jérôme Ibert


in Raymond-Alain Thiétart, Méthodes de recherche en management

Dunod | « Management Sup »

2014 | pages 105 à 128


© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

ISBN 9782100711093

Powered by TCPDF (www.tcpdf.org)


Chapitre
Quelles approches
4 avec quelles
données ?
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

Philippe Baumard, Jérôme Ibert

Résumé
 Ce chapitre traite du choix dont dispose le chercheur en matière de données empi-
riques et d’approches permettant leur recueil et leur analyse. Le chapitre montre tout
d’abord que la donnée est une représentation. Sa constitution passe par un processus
de découverte-invention qui exige un positionnement épistémologique de la part du
chercheur. La donnée est également subjective car soumise à la réactivité de sa
source à l’égard du chercheur. En distinguant leur nature primaire ou secondaire, les
données sont ensuite évaluées en termes de validité, d’accessibilité et de flexibilité,
ainsi qu’en perspective de leur recueil et de leur analyse.
 Le chapitre évalue ensuite la distinction entre les approches qualitative et quantita-
tive en fonction de la nature de la donnée, de l’orientation de la recherche, du carac-
tère objectif ou subjectif des résultats obtenus et de la flexibilité de la recherche.
Enfin, la complémentarité entre l’approche qualitative et l’approche quantitative est
mise en évidence dans la perspective d’un processus séquentiel et d’une
triangulation.

SOMMAIRE
Section 1 Le choix des données
Section 2 Le choix d’une approche : qualitative et/ou quantitative ?
Partie 1 Concevoir

L

’un des choix essentiels que le chercheur doit opérer est celui d’une approche et
de données adéquates avec sa question de recherche. Il s’agit bien entendu d’une
question à double entrée. D’une part, il y a la finalité poursuivie : explorer,
construire, tester, améliorer ce qui est connu, découvrir ce qui ne l’est pas. D’autre
part, il y a l’existant ; ce qui est disponible et accessible, ce qui est faisable – et qui
a déjà été fait – et ce qui ne l’est pas. Cette seconde entrée possède deux volets :
celui de la donnée et celui de l’approche, qui peut être qualitative ou quantitative.
C’est donc une triple adéquation que le chercheur poursuit entre finalité, approche
et donnée. Intervenant très tôt dans le processus de recherche, cet agencement est
coûteux, non seulement parce qu’il va engager le chercheur à long terme, mais sur-
tout parce que toutes les dimensions implicites dans un tel choix ne sont pas réver-
sibles. Dans ce chapitre, nous essaierons de donner au lecteur les moyens de choisir,
en l’éclairant sur les possibles incompatibilités entre certaines approches et certaines
données, mais surtout en estimant le coût de chaque décision en termes de temps,
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

d’impact sur la recherche et d’irréversibilité.


Notre analyse est organisée en deux sections.
Dans la première, nous nous interrogerons sur le statut de la « donnée ». Que
peut-on appeler une « donnée » ? Nous verrons que le statut ontologique que l’on
accorde à nos données dénote une position épistémologique qu’il s’agit de ne pas
trahir par une approche qui supposerait une position contraire. Ce sera surtout
l’occasion de distinguer les données primaires des données secondaires, pour
évaluer ce que chacune peut apporter à une recherche. Nous explorerons les idées
reçues quant à ces données de natures différentes, afin de fournir au lecteur les clés
de l’arbitrage. Nous examinerons également les contraintes qui pèsent sur le recueil
et l’analyse des données primaires et secondaires. Nous montrerons enfin en quoi
ces deux types de données sont tout à fait complémentaires.
Dans la seconde section, nous analyserons les caractéristiques censées permettre
la distinction entre l’approche qualitative et l’approche quantitative. Le premier
critère que nous évaluerons consiste en la nature de la donnée. Il s’agira en quelque
sorte de préciser si l’on peut donner une acception déterministe de la question :
« quelles approches avec quelles données ? » Nous évaluerons également l’influence
sur le choix d’une approche qualitative ou quantitative que peuvent avoir l’orientation
de la recherche – construction ou test de la théorie –, la position épistémologique du
chercheur à l’égard de l’objectivité ou de la subjectivité des résultats qu’il peut
attendre de la recherche et la flexibilité dont il désire disposer. Enfin, nous
montrerons en quoi ces deux approches sont complémentaires, soit d’un point de
vue séquentiel, soit dans la perspective d’une triangulation.

106
Quelles approches avec quelles données ? ■ Chapitre 4

Section
1 Le choix des données

1 Qu’est-ce qu’une « donnée » ?

Les « données » sont traditionnellement perçues comme les prémisses des théories.
Les chercheurs recherchent et rassemblent des données dont le traitement par une
instrumentation méthodique va produire des résultats et améliorer, ou renouveler, les
théories existantes.
Deux propositions non posées et contestables se cachent derrière cette acception de
bon sens. La première est que les données précèdent les théories. La seconde,
découlant de la première, est que les données existent en dehors des chercheurs,
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

puisqu’ils les « trouvent » et les « rassemblent » afin de leur infliger des traitements.
La grammaire de la recherche ne fait que valider de telles suppositions, puisqu’on
distingue traditionnellement les phases de recueil, de traitement, et d’analyse des
données, comme si tout naturellement les « données » étaient des objets indépendants
de leur recueil, de leur traitement et de leur analyse.
Bien évidemment, cette proposition est tout à la fois fausse et vraie. Elle est fausse
car les données ne précèdent pas les théories, mais en sont à la fois le médium et la
finalité permanente. « Le terrain ne parle jamais de lui-même » (Czarniawska, 2005 :
359). On utilise tout autant que l’on produit des données, que l’on soit au point de
départ de la réflexion théorique ou proche de son achèvement. Les données sont à la
fois des réceptacles et des sources de théorisation.
Avant toutes choses, la donnée est un postulat : une déclaration au sens mathématique,
ou une supposition acceptée. Cette acceptation peut se faire par voie déclarative, ou
implicitement, en présentant une information de telle façon qu’elle prend implicitement
le statut de vérité. Il s’agit avant tout d’une convention permettant de construire ou de
tester une proposition. Le fait que cette convention soit vraie ou fausse, au sens
commun, n’a rien à voir avec sa vérité scientifique. Comme le soulignait Caroll, « sur
la question de savoir si une proposition doit, ou ne doit pas, être comprise comme
affirmant l’existence de son sujet, je soutiens que tout auteur a le droit d’adopter ses
règles propres – pourvu, bien sûr, que celles-ci soient cohérentes avec elles-mêmes et
conformes aux données logiques habituellement reçues » (Caroll, 1992 : 192). Ainsi,
les « données » ont avant tout un statut d’assertion permettant au chercheur de
poursuivre son travail sans avoir à lutter avec le statut de vérité des propositions qu’il
émet. La donnée permet d’éviter au chercheur de se résoudre à croire dans chaque
proposition qu’il émet. Elle lui permet d’évacuer de son espace de travail la question
ontologique, du moins de la reléguer en arrière-plan afin d’opérationnaliser sa

démarche.
©

107
Partie 1 ■ Concevoir

1.1 La donnée comme représentation


Ainsi, les « données » sont des représentations acceptées d’une réalité que l’on ne
peut ni empiriquement (par les sensations), ni théoriquement (par l’abstraction),
embrasser. La première raison est que la réalité n’est pas réductible à une partie
moindre qui peut toute entière l’exprimer. Ainsi, dans le courant de l’étude du
storytelling et de la narration, Rouleau (2005) plaide pour l’étude des micro-
pratiques et des discours dans les organisations. Pour Czarniawska, « l’étude des
organisations affronte un univers qui est et restera polyphonique, où de multiples
langages s’élèvent, s’affrontent et se confrontent » (2005 : 370).
Le fait d’avoir « vécu » une réalité ne signifie pas que l’on est porteur de celle-ci,
mais tout au plus qu’on en a étreint certains aspects, avec une intensité plus ou
moins grande. La métaphore de l’accident de voiture peut permettre ici de mieux
comprendre ce paradoxe. Tout un chacun peut « décrire » avec plus ou moins de
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

pertinence un accident de voiture, mais ceux qui l’ont vécu possèdent une dimension
supplémentaire qui ne peut être exprimée. Deux personnes ayant vécu le même
accident auront toutefois deux expériences différentes de ce même événement, que
l’on peut considérer comme une réalité partagée. Cependant, l’expérimentation
commune d’un même événement a produit deux ensembles de données distincts,
mutuellement différents, et encore plus différents de la représentation de l’événement
par une personne ne l’ayant pas vécu.
On pourrait facilement contredire cet exemple en suggérant qu’il s’agit de données
qualitatives, c’est-à-dire constituées de récits, de descriptions, de retranscriptions de
sensations qui rendent cette différence évidente. Cependant, le caractère quantitatif
ou qualitatif de la donnée ne change pas fondamentalement le problème. Si l’on
demandait aux deux accidentés d’évaluer sur des échelles de 1 à 5 les différentes
sensations de l’accident, on aboutirait également à des perceptions différentes d’une
même réalité, qui peut vouloir dire (1) que la réalité de l’accident était différente
pour les deux acteurs, ou que (2) la traduction d’une même réalité sur une échelle
par deux acteurs peut donner des résultats différents. Dans les deux cas, le chercheur
aura réuni des « données », c’est-à-dire qu’il aura accepté l’idée que l’une ou l’autre
façon de représenter le phénomène (échelles ou récit) constitue une méthode
acceptable de constitution de données. Ainsi, le statut de « donnée » est partiellement
laissé au libre arbitre du chercheur. Celui-ci pourra considérer qu’un événement
directement observable peut constituer une donnée, sans l’intermédiaire d’une
instrumentation transformant les stimuli en codes ou en chiffres (par exemple, via
une catégorisation ou l’utilisation d’échelles). Dans une seconde modalité, le
chercheur fait face à des phénomènes non directement observables, comme des
attitudes. Il va avoir recours à une instrumentation lui permettant de transformer ces
« attitudes » en un ensemble de mesures, par exemple en utilisant des échelles où les
acteurs pourront qualifier leur attitude. Cette instrumentation néanmoins peut

108
Quelles approches avec quelles données ? ■ Chapitre 4

également être appliquée à des phénomènes observables, comme des comportements.


Il s’agit d’une troisième modalité de « constitution » des données (cf. figure 4.1).

Données

Instrumentation
Instrumentation
OBSERVABLE

Comportements Événements

Attitudes

NON-OBSERVABLE
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

Figure 4.1 – Trois modalités de constitution des données

Toutefois, même la retranscription des discussions d’un conseil d’administration


reste un « ensemble de représentations ». En ce sens, une donnée peut être définie
comme « une représentation qui permet de maintenir une correspondance
bidirectionnelle entre une réalité empirique et un système symbolique » (Stablein,
2006 : 353). Par exemple, on peut utiliser des études de cas réalisées par d’autres
chercheurs comme des « données ». Les études de cas sont alors utilisées comme
des représentations qui pourront être confrontées à d’autres représentations
recensées, assemblées ou construites par le chercheur à propos de l’objet de
recherche. Les représentations issues d’études de cas appartiennent à l’ensemble des
« données », tandis que les autres appartiennent au système symbolique permettant
la théorisation. Dès lors, on comprend que si toutes les données sont des
représentations, toute représentation n’est pas systématiquement une donnée
(Stablein, ibid.). Considérer qu’une représentation est ou n’est pas une donnée tient
plus à un positionnement épistémologique qu’à une méthodologie particulière de la
recherche. De façon traditionnelle, la recherche scientifique considère que le monde
empirique existe en dehors du chercheur, et que celui-ci a pour objet de le
« découvrir » (Lakatos, 1974). Ceci implique que le chercheur croit dans l’existence
d’un monde objectif qui existe malgré lui, et possède un statut objectif. Kuhn
(1970), en étudiant la structure des révolutions scientifiques, a pourtant su montrer
que les paradigmes scientifiques sont des ensembles de croyances partagées par des
communautés de chercheurs. Les données utilisées par les chercheurs, dans le cadre
de la défense ou de la promotion de leur paradigme, sont autant de « conceptions »,
c’est-à-dire de représentations nées de l’intersubjectivité des chercheurs partageant

ces croyances.
©

109
Partie 1 ■ Concevoir

1.2 Le positionnement épistémologique du chercheur à l’égard de la


donnée
On ne peut donc trancher de manière définitive ce qui appartient au positionnement
épistémologique de chaque chercheur. Toutefois, on peut considérer qu’une donnée
est en même temps une « découverte » et une « invention ». Établir une dichotomie
entre découverte et invention peut introduire un biais dans la construction de la
théorie. Si le chercheur, en voulant absolument s’en tenir à l’objectivité de sa
recherche, décide de ne considérer que les « découvertes », il peut entraver la partie
créative de sa recherche en s’autocontraignant, c’est-à-dire en éludant volontairement
une partie des données qu’il considérera trop subjective. A contrario, une position
considérant qu’il n’existe aucune donnée objective, aucune réalité en dehors de
l’interaction entre le chercheur et ses sources, c’est-à-dire que la réalité observée
n’est qu’invention, risque de bloquer la progression de la recherche dans des
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

impasses paradoxales où « tout est faux, tout est vrai ».


La constitution des données (leur découverte-invention) est de fait un travail
d’évaluation, de sélection, de choix très impliquants pour le devenir de la recherche,
et au-delà, va signer son positionnement épistémologique. Si l’accent a été mis dans
cet ouvrage de façon transversale sur les positionnements épistémologiques des
chercheurs, c’est que cette question ne peut être éludée. Il ne s’agit pas d’un choix
pris une seule fois et acquis pour l’ensemble de la recherche. Le processus de
construction des données de la recherche s’inscrit dans un aller-retour incessant
entre la théorie et ses fondements empiriques. À chaque aller-retour, la question
d’établir ce qui constitue, ou ne constitue pas, une donnée va reposer au chercheur
la question de son positionnement épistémologique. Faute de cette interrogation
constante, on risque de retrouver dans le travail final des contradictions
épistémologiques : des recherches s’affichant constructivistes, mais traitant les
données de manière positive ; ou vice versa, des recherches s’affirmant positivistes,
mais considérant des représentations intersubjectives comme des réalités objectives.

1.3 La subjectivité de la donnée due à la réactivité de sa source


Le terme « donnée » est un faux ami. Il sous-entend la préexistence, ou l’existence
objective en dehors du chercheur, d’un ensemble d’informations et de connaissances
formelles disponibles et prêtes à être exploitées. En fait, rien n’est moins « donné »
qu’une donnée ! Les données peuvent être produites au travers d’une relation
observateur/observé. Lorsque le sujet est conscient de l’observation de ses
comportements ou des événements qui l’impliquent ou encore de l’évaluation de ses
attitudes, il devient une source de données « réactive » dans le processus de
constitution de la base de données que nous avons décrit dans la figure 4.1. Comme
l’a fort justement écrit Girin, la « matière » étudiée en management est non
seulement « mouvante » mais « elle pense ». « C’est très embêtant, parce que la

110
Quelles approches avec quelles données ? ■ Chapitre 4

matière pense notamment à nous. Elle nous attribue des intentions qui, peut-être, ne
sont pas les nôtres, mais qui vont conditionner la manière dont elle va nous parler,
ce qu’elle va choisir de nous montrer ou de nous cacher. » (Girin, 1989 : 3).
Si la réactivité de la source peut facilement être mise en évidence dans le cadre du
recueil de données primaires dans les recherches qualitatives, elle n’y est pas
exclusivement attachée. Le fait que la donnée soit de source primaire (c’est-à-dire de
« première main ») ou secondaire (c’est-à-dire de « seconde main ») ne constitue pas
un critère suffisamment discriminant en termes de réactivité de la source. Le chercheur
peut collecter directement des données comportementales par l’observation non
participante sans que les sujets observés soient conscients de cette observation et
puissent affecter la donnée par leur réactivité (Bouchard, 1976). A contrario, les acteurs
d’organisation donnant accès à des données secondaires internes, rapport ou document,
peuvent en fait intervenir sur le processus de construction de la base de données, tant
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

par ce qu’ils auront mis en exergue que par ce qu’ils auront omis ou dissimulé. S’il est
courant, à juste titre, de souligner la réactivité de la source de données primaires, les
données secondaires ne sont pas exemptes de ce type de phénomène.
L’approche méthodologique à l’égard de la donnée, qualitative ou quantitative,
n’est pas un élément satisfaisant pour cerner les situations d’interactivité avec les
sources de données. Les données collectées au travers d’enquêtes par questionnaires
ou grâce à des entretiens en profondeur peuvent toutes deux être affectées par la
rétention d’information ou son orientation dans un sens voulu par les sujets qui en
sont les sources. Quelle que soit l’approche, qualitative ou quantitative, le chercheur
est contraint de qualifier et de maîtriser sa présence dans le dispositif de collecte et
de traitement des données (cf. chapitre 9).
La question déterminante est plutôt la suivante : « La donnée est-elle affectée par
la réactivité de sa source à l’égard du chercheur ? » En d’autres termes, il est utile
de distinguer les données obtenues de façon « ouverte » (« obstrusive », soit
« indiscrète » dans la terminologie anglo-saxonne), c’est-à-dire au su des sujets-
sources, ou de façon « dissimulée » (« unobstrusive »), c’est-à-dire à l’insu des
sujets-sources. Les données collectées de façon « dissimulée » permettent de
compléter, de recouper les données collectées de façon « ouverte » empreintes d’une
certaine subjectivité, due à la distorsion provoquée par les filtres perceptuels des
sujets (Starbuck et Milliken, 1988) ou à la sélectivité de leur mémoire, ou encore
d’interpréter des contradictions dans les données issues de sources réactives (Webb
et Weick, 1979).

©

111
Partie 1 ■ Concevoir

2 L’utilisation des données primaires et secondaires


2.1 Quand les privilégier ?
Si les données sont des représentations, un chercheur doit-il forcément créer son
propre système de représentations – ses propres données –, ou peut-il se contenter
des représentations disponibles ? La théorisation qui est issue de données uniquement
secondaires a-t-elle un statut scientifique moindre de celle qui est « ancrée » dans le
terrain par le chercheur lui-même ? À dire vrai, beaucoup de chercheurs en sciences
sociales ont tendance à répondre par l’affirmative en critiquant vertement leurs
collègues qui « théorisent » à partir des données des autres. Ainsi, il est très souvent
admis qu’on ne peut pas théoriser à partir d’études de cas que l’on n’a pas soi-même
conduites sur le terrain. Un tel jugement est avant tout une idée reçue. Comme le
souligne Kœnig (1996 : 63), un chercheur comme K.E. Weick « affectionne, en dépit
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

d’une médiocre réputation, l’utilisation de données de seconde main. Webb et Weick


observent que c’est un principe souvent considéré comme allant de soi que les
données ne peuvent pas être utilisées en dehors du projet qui en a justifié leur
collecte. Ayant estimé qu’une telle prévention était tout à la fois naïve et contre-
productive (Webb et Weick, 1979 : 652), Weick ne s’est pas privé d’exploiter les
possibilités qu’offrent des données secondaires. L’article qu’il a écrit sur l’incendie
de Mann Gulch (1993) illustre bien les potentialités de la méthode ». Pour sa
recherche, K.E. Weick a utilisé comme source secondaire l’ouvrage de MacLean,
Young Men and Fire (1993), qui décrit à force d’archives, d’entretiens et d’observations,
la mort de treize pompiers dans un incendie dont on avait sous-estimé l’ampleur. La
théorisation réalisée par Weick fut une contribution importante dans les sciences de
l’organisation, sans que Weick ait lui-même assisté aux événements. Il faut bien sûr
relativiser de telles expériences. La théorisation que Weick affine dans son article est
le fruit d’une longue maturation, et on pourrait considérer que l’exploitation de
l’ouvrage utilisé comme une source de données secondaires constitue une pierre
supplémentaire à une œuvre beaucoup plus large et progressive. On ne peut conseiller
à un jeune chercheur de s’engager directement dans ce type de recherche, sans avoir
acquis sur le terrain une maturité importante vis-à-vis des données et de leur
constitution. À cet égard, le recueil de données primaires offre l’opportunité au
chercheur de se confronter directement à la « réalité » qu’il a choisi d’étudier.
En définitive, le choix entre données primaires ou données secondaires doit être
ramené à un ensemble de dimensions simples : leur statut ontologique, leur possible
impact sur la validité interne et externe de la recherche, leur accessibilité et leur
flexibilité.

■■ Quelques idées reçues sur les données primaires…


L’exemple de la théorisation menée par Karl Weick sur l’incendie de Mann Gulch, et
l’accueil qu’elle reçut lors de sa publication, témoignent des idées reçues qu’une

112
Quelles approches avec quelles données ? ■ Chapitre 4

audience scientifique peut avoir sur le statut d’une recherche selon la nature des
données sur lesquelles elle se fonde. La tentation est grande de céder à l’idéologie et
de se contraindre à produire des données même lorsque celles-ci sont disponibles, par
souci de se conformer aux attentes de son audience. La première idée reçue à propos
des données primaires concerne leur statut ontologique. On aura tendance à accorder
un statut de vérité plus grande à une recherche fondée sur des données primaires, parce
que son auteur pourra « témoigner » de phénomènes qu’il a vus de ses propres yeux.
Ce syndrome de « saint Thomas » peut cependant entraîner un excès de confiance dans
les déclarations des acteurs et amener le chercheur à produire des théories qui ne sont
pas assez abouties parce qu’elles n’ont pas su prendre suffisamment de distance avec
le terrain. De même, les données primaires sont généralement considérées comme une
source de validité interne supérieure car le chercheur aura établi un dispositif adapté au
projet et à la réalité empirique étudiée. Cette croyance dans une validité interne
supérieure vient du fait que le chercheur, en recueillant ou produisant lui-même les
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

données, est censé avoir évacué les explications rivales en contrôlant d’autres causes
possibles. Cependant, la relative liberté dont dispose le chercheur pour mener ces
contrôles, et la relative opacité qu’il peut générer dans son instrumentation, doivent
relativiser une telle croyance. L’excès de confiance qui provient de l’autonomie dans la
production de la donnée peut au contraire pousser le chercheur à se contenter
d’esquisses peu robustes et à ignorer des variables explicatives ou intermédiaires.
À l’opposé, il est courant d’attribuer un effet négatif des données primaires sur la
validité externe de la recherche poursuivie. Parce que le chercheur sera le seul à
avoir « interagi » avec « sa » réalité empirique, un travail de recherche uniquement
fondé sur des données primaires pourra susciter des doutes de l’audience. Il s’agit
également d’une idée reçue qui amènera généralement le chercheur à « compenser »
ses données primaires par un excès de données secondaires « ad hoc » qu’il aura
introduites pour « colmater » la validité externe de son travail, réalisant en quelque
sorte un cautère sur une jambe de bois.
Dans le même ordre d’idée, les données primaires sont souvent considérées comme
difficilement accessibles mais très flexibles. Ce n’est pas toujours le cas ! Mais parce
que le chercheur va considérer qu’il ne peut accéder aux données primaires dont il a
besoin, il privilégiera des données secondaires disponibles alors que le projet poursuivi
aurait mérité une instrumentation et la production de données spécifiques.
De même, l’excès de confiance dans une supposée « flexibilité » des données
primaires peut amener le chercheur à s’embourber dans un terrain se révélant
beaucoup moins flexible que ne le suggérait la littérature : les acteurs vont lui résister,
vont faire de la figuration, lui fournir les réponses dont ils s’imaginent qu’elles
pourront lui faire plaisir, et ainsi continuellement, mais de bonne foi, biaiser sa
recherche. Le tableau suivant résume ces quelques idées reçues sur les données
primaires, et les implications directes ou indirectes qu’elles peuvent avoir sur une

recherche quand on s’est résolu à y croire (cf. tableau 4.1).


©

113
Partie 1 ■ Concevoir

Tableau 4.1 – Idées reçues sur les données primaires


Implications
Idées reçues…
directes et indirectes
• Les données primaires ont un • Excès de confiance dans les déclarations des
Quant à leur statut statut de vérité parce qu’elles acteurs.
ontologique proviennent directement du • Théories trop intuitives ou tautologiques.
terrain.
• Les données de « première • L’excès de confiance dans la validité interne
Quant à leur impact main » (ex. : interviews) ont une des données primaires pousse à éluder des
sur la validité interne validité interne immédiate. explications rivales ou à ignorer des variables
intermédiaires.
• L’utilisation de données • On compense par des données secondaires
Quant à leur impact
essentiellement primaires diminue qui n’ont pas de rapport avec la question de
sur la validité externe
la validité externe des résultats. recherche.
• Les données primaires sont • On privilégie des données secondaires
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

Quant à leur difficilement accessibles. accessibles mais incomplètes, alors que l’objet
accessibilité de la recherche mériterait le recueil de données
primaires (heuristique du disponible).
• Les données primaires sont très • On s’embourbe dans le terrain par le manque
flexibles. de disponibilité des acteurs.
Quant à leur flexibilité • Travestissement des données primaires en les
détournant de l’objet pour lequel elles ont été
recueillies.

■■ Quelques idées reçues sur les données secondaires…


Les données secondaires font également l’objet d’un certain nombre d’idées
reçues quant à leur statut ontologique, leur impact sur la validité interne ou externe,
leur accessibilité et leur flexibilité. La plus tenace d’entre elles concerne sans doute
leur statut ontologique. Parce qu’elles sont formalisées et publiées, les données
secondaires se voient attribuer un statut de « vérité » souvent exagéré. Leur
objectivité est prise pour argent comptant, et leur fiabilité est assimilée à la réputation
de leur support. Ainsi, on accorde une intégrité plus grande à une information
institutionnelle qu’à une information privée de source discrétionnaire, sans même
s’interroger sur les conditions de production de ces différentes données. Ce
phénomène est accentué par l’utilisation de média électroniques qui fournissent les
données dans des formats directement exploitables. La formalisation des données
dans un format prêt à l’exploitation peut amener le chercheur à considérer pour
acquis le caractère valide des données qu’il manipule.
Il en est de même pour leur impact sur la validité interne de la recherche.
L’apparente robustesse de l’organisation des données disponibles peut faire croire
qu’il sera plus facile de maîtriser la validité interne de la recherche ainsi menée.
Cependant, comme le rappelle Stablein (2006), la validité interne de la recherche
doit être démontrée à travers la validité des construits qu’elle utilise, c’est-à-dire en
éclairant et en justifiant les liens qui existent entre le construit et la procédure
opérationnelle qui permet de le manipuler. Selon une étude de Podsakoff et Dalton

114
Quelles approches avec quelles données ? ■ Chapitre 4

(1987), seulement 4,48 % des auteurs fournissent des preuves de la validité de leur
construit dans les articles publiés examinés. Ainsi, la formalisation peut être à tort
assimilée à une robustesse intrinsèque de la donnée secondaire. Cette dernière idée
reçue amène le chercheur à croire que sa recherche sera « sécurisée » par le recours
à des données secondaires, tandis qu’en fait, il ne fait « qu’externaliser », confier à
d’autres, les risques liés à la validité interne de ses travaux en attribuant un degré de
confiance a priori aux données secondaires qu’il manipule.
L’utilisation de données secondaires pour étendre la validité des résultats et
produire leur généralisation est affectée des mêmes travers. La validité externe est
aussi conditionnée par la validité des travaux à l’origine de la donnée secondaire.
Une autre idée reçue concerne la plus grande accessibilité des données secondaires.
Une telle croyance peut donner au chercheur le sentiment de complétude de sa
recherche car il aura l’impression d’avoir eu accès « à tout ce qui était accessible ».
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

L’apparente facilité d’accès aux données secondaires peut amener le chercheur soit
à être vite débordé de données en quantité trop importante, soit à croire qu’il a fait
« le tour de la question ».
Parallèlement, un autre idée reçue, celle d’une croyance positive dans la faible
flexibilité des données secondaires (donc peu manipulables) peut amener le
chercheur à croire que les données secondaires sont plus fiables. Il s’agit là d’une
croyance naïve car le fait que les données secondaires soient stabilisées et formalisées
ne signifie aucunement que les phénomènes qu’elles décrivent se soient figés ou
stabilisés à l’instar des données disponibles qui les décrivent. En d’autres termes, le
recours aux données secondaires peut entraîner une plus grande exposition à un biais
de maturation (cf. chapitre 10).
Le tableau 4.2 résume ces quelques idées reçues sur les données secondaires.
Tableau 4.2 – Idées reçues sur les données secondaires
Idées reçues Implications directes et indirectes
• Les données secondaires ont un • On ne s’interroge pas sur la finalité et les
statut de vérité supérieur aux conditions des recueil et traitement initiaux.
données primaires car elles ont • On oublie les limitations que les auteurs
Quant à leur statut
été formalisées et publiées. avaient attachées aux données qu’ils avaient
ontologique
produites.
• On reprend des propositions et on leur attribut
le statut de vérité.
• Le statut ontologique de • L’intégration de données disponibles peut
Quant à leur impact véracité des données secondaires conduire à négliger la robustesse des construits
sur la validité interne offre une maîtrise de la validité de la recherche. Le chercheur « externalise » le
interne. risque de validité interne (excès de confiance).
• L’établissement de la validité • L’établissement de la validité externe peut être
externe de la recherche est biaisé par l’excès de confiance dans les données
Quant à leur impact
facilitée par la comparaison avec secondaires.

sur la validité externe


des données secondaires. • Le chercheur conclut à une généralisation
excessive de ses résultats.

©

115
Partie 1 ■ Concevoir


Idées reçues Implications directes et indirectes
• Les données secondaires sont • La plus grande accessibilité peut donner au
Quant à leur
disponibles et facilement chercheur le sentiment de complétude, tandis
accessibilité
accessibles. que sa base de données est incomplète.
• Les données secondaires sont • Croyance naïve : la formalisation des données
Quant à leur peu flexibles, donc plus fiables secondaires ne gage pas de leur pérennité. Les
flexibilité car moins manipulables. données manquent d’actualisation et subissent
un biais de maturation.

Nous avons mis en avant les dangers qui pouvaient résider dans un choix fondé sur
des idées reçues sur des qualités que posséderaient les données primaires et les
données secondaires. Il est donc fallacieux de bâtir un projet de recherche sur des
qualités que posséderaient a priori ces deux types de données. L’utilisation de
données primaires ou secondaires va entraîner un certain nombre de contraintes dans
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

le processus de recherche. Ces contraintes sont pour la plupart d’ordre logistique. Le


caractère primaire ou secondaire des données implique un ensemble de précautions
spécifiques dans les phases de recueil et d’analyse.

2.2 Les contraintes inhérentes à leur utilisation


■■ Les contraintes de recueil des données
Les données primaires posent des difficultés de recueil importantes. D’abord, il
faut accéder à un terrain, puis maintenir ce terrain, c’est-à-dire protéger cet accès et
gérer l’interaction avec les répondants (que les données primaires soient collectées
par questionnaire, par entretiens ou par observation) (cf. chapitre 9). L’utilisation de
données primaires nécessite donc de maîtriser un système d’interaction complexe
avec le terrain, dont la gestion défaillante peut avoir des conséquences sur l’ensemble
de la recherche. À l’opposé, le recours à des données secondaires permet de limiter
l’interaction avec le terrain, mais offre moins de latitude au chercheur pour constituer
une base de données adaptée à la finalité de sa recherche. Ce travail peut être long
et laborieux. Il peut nécessiter la collaboration d’acteurs autorisant l’accès à
certaines bases de données externes ou facilitant l’orientation du chercheur dans les
archives d’organisation.

■■ Les contraintes d’analyse des données


De même, les données primaires et secondaires impliquent des difficultés d’analyse
qui leur sont spécifiques. Les distorsions dans l’analyse vont se situer à différents
niveaux selon le caractère primaire ou secondaire des données. L’utilisation de
données primaires pose essentiellement des problèmes de contrôle des interprétations
réalisées. Le chercheur est en effet « juge et partie » dans la mesure où il recueille
lui-même les données qu’il va plus tard analyser. Il peut arriver qu’il poursuive
implicitement son « modèle » ou son « construit » à la fois dans le recueil des

116
Quelles approches avec quelles données ? ■ Chapitre 4

données (biais d’instrumentation) et dans leur analyse (non-évacuation des autres


causalités possibles, focalisation sur le construit désiré). L’analyse de données
secondaires implique un autre type de contrainte. Si le chercheur est confronté à des
données secondaires partielles, ambiguës ou contradictoires, il ne peut que rarement
remonter à la source pour les compléter ou les clarifier. Le chercheur est en effet
contraint d’interroger des personnes citées dans des archives ou ayant collecté les
données, c’est-à-dire de recourir à des données primaires ad hoc. Cette démarche est
coûteuse. L’accès aux individus concernés n’est qu’exceptionnellement possible.
Le tableau 4.3 reprend les contraintes que nous venons d’exposer quant à
l’utilisation des données primaires et secondaires.
Tableau 4.3 – Les contraintes inhérentes aux données primaires et secondaires
Données primaires Données secondaires
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

• Il est essentiel de maîtriser un système • Le chercheur dispose d’une moins


d’interaction complexe avec le terrain. grande latitude pour constituer sa base
Difficultés de recueil de données.
• Le recueil implique l’accès à des
bases de données existantes.
• Le fait d’être « juge et partie » peut • Le chercheur ne peut que rarement
introduire des distorsions dans l’analyse compléter ou clarifier des données
Difficultés d’analyse
des données produites (poursuite d’un partielles, ambiguës ou contradictoires.
modèle implicite dans l’analyse).

2.3 Leur complémentarité


Les données primaires et secondaires sont complémentaires tout au long du processus
du recherche. L’incomplétude des données primaires peut être corrigée par des données
secondaires, par exemple historiques, pour mieux comprendre l’arrière-plan ou
confronter le terrain avec des informations qui lui sont externes. À l’inverse, une
recherche dont le point de départ est constitué de données secondaires (par exemple,
sur une base de donnée statistiques d’investissements directs à l’étranger) pourra être

Suffisantes ?
Non

Oui

Données retour Données


Analyse
primaires retour secondaires

Oui

Non Suffisantes ?

Figure 4.2 – Des allers-retours entre données primaires et secondaires


©

117
Partie 1 ■ Concevoir

utilement appuyée par des données primaires (par exemple, des entretiens avec des
investisseurs). La difficulté réside dans l’évaluation de sa propre base d’information par
le chercheur. Il est fort possible qu’il s’aperçoive que sa base d’information était
insuffisante lors de l’analyse des données, ce qui impliquera un retour à une phase de
recueil de données, soit primaires soit secondaires (cf. figure 4.2).

Section
2 Le choix d’une approche : qualitative et/ou

quantitative ?

La question qui se pose au chercheur réside dans le choix de l’approche qu’il va


mettre en œuvre pour collecter et analyser les données. En d’autres termes, comment
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

va-t-il aborder la dimension empirique de sa recherche ? Nous examinerons tout


d’abord dans cette section ce qui distingue l’approche qualitative de l’approche
quantitative. Nous montrerons ensuite comment ces deux approches peuvent se
révéler complémentaires.

1 Distinction entre approche qualitative et approche quantitative

Il est de tradition en recherche de faire une distinction entre le qualitatif et le


quantitatif (Grawitz, 2000). Nous avons d’ailleurs observé la distinction entre
recherches qualitatives et recherches quantitatives pour structurer notre propos
consacré à la collecte des données dans le chapitre 4 du présent ouvrage. Pourtant
cette distinction est à la fois équivoque et ambiguë, ce qui conduit Brabet à
s’interroger : « Faut-il encore parler d’approche qualitative et d’approche quantitative ? »
(1988). Comme le montre cet auteur, la distinction est équivoque car elle repose sur
une multiplicité de critères. Lorsqu’on consulte des ouvrages de méthodologie de
recherche à la rubrique portant sur la distinction entre le qualitatif et le quantitatif, on
peut y trouver des références aux « données qualitatives et quantitatives » (Evrard et
al., 2009 ; Glaser et Strauss, 1967 ; Miles et Huberman, 2003 ; Silverman, 2006), aux
« variables qualitatives et quantitatives » (Evrard et al., 2009 ; Lambin, 1990), aux
« méthodes qualitatives et quantitatives » (Grawitz, 2000) et enfin aux « études
qualitatives » (Lambin, 1990 ; Evrard et al., 2009). La distinction entre le qualitatif et
le quantitatif est, de plus, ambiguë car aucun de ces critères ne permet une distinction
absolue entre l’approche qualitative et l’approche quantitative. Nous nous livrerons à
présent à un examen critique des différents critères que sont la nature de la donnée,
l’orientation de la recherche, le caractère objectif ou subjectif des résultats obtenus et
la flexibilité de la recherche.

118
Quelles approches avec quelles données ? ■ Chapitre 4

1.1 Distinction selon la nature de la donnée


La distinction entre qualitatif et quantitatif passe-t-elle par la nature même de la
donnée ?
Il est courant de distinguer les données qualitatives et les données quantitatives.
Pour Miles et Huberman (2003 : 11), « les données qualitatives […] se présentent
sous forme de mots plutôt que de chiffres ». Toutefois, la nature de la donnée ne
dicte pas forcément un mode de traitement identique. Le chercheur peut très bien
procéder, par exemple, à un traitement statistique et, par conséquent, quantitatif avec
des variables nominales.
Selon Evrard et al. (2009 : 28), les données qualitatives correspondent à des variables
mesurées sur des échelles nominales et ordinales (c’est-à-dire non métriques), tandis
que les données quantitatives sont collectées avec des échelles d’intervalles (ou
cardinales faibles) et de proportion (cardinales fortes ou encore ratio). Ces échelles
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

peuvent être hiérarchisées en fonction de la qualité de leurs propriétés mathématiques.


Comme le montre la figure 4.3, cette hiérarchie va de l’échelle nominale, la plus pauvre
d’un point de vue mathématique, à l’échelle de proportion, l’élite des échelles de
mesure.

K catégories Exemples

Non
Ordonnées? Nominales : Relation d’identification secteur
ou d’appartenance à une classe d’activité

Oui

Intervalles
? Ordinales : Relation d’ordre entre les objets petite < moyenne
entre
catégories? < grande entreprise

Égaux

Y a-t-il Non
un zéro Intervalle : Comparaison d’intervalles indice de satisfaction
naturel? ou de différences des salariés
de 1 à 10

Oui

Proportion : Rapport entre deux valeurs indépendantes de l’unité chiffre


de mesure, passage d’une échelle à une autre d’affaires
en appliquant une constante multiplicative appropriée
(1 $ = n Francs)

D’après Évrard et al. (2009 : 28)


Figure 4.3 – La hiérarchie des échelles de mesure


©

119
Partie 1 ■ Concevoir

Comme le montre la figure 4.3, les variables mesurées sur des échelles nominales
ne permettent que d’établir des relations d’identification ou d’appartenance à une
classe. Que ces classes soient constituées de nombres ne change rien à leur propriété
(exemple : un numéro de département ou encore un numéro arbitraire pour identifier
la classe). « Pour ce type de mesure, aucune des trois propriétés des nombres n’est
rencontrée : l’ordre est arbitraire, l’unité de mesure peut être variable et l’origine des
nombres utilisés est également arbitraire » (Lambin, 1990 : 128). Le seul calcul
statistique permis est celui de la fréquence. Avec les variables mesurées sur des
échelles ordinales, on peut obtenir un classement mais l’origine de l’échelle reste
arbitraire. Les intervalles entre catégories étant inégaux, les calculs statistiques se
limitent à des mesures de position (médiane, quartiles, déciles…). On ne pourra
effectuer des opérations arithmétiques sur ces données. Dès lors que les intervalles
entre catégories deviennent égaux, on peut parler d’échelles d’intervalles. Les
variables mesurées sur ce type d’échelle peuvent être soumises à plus de calculs
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

statistiques. On passe donc à des données dites « quantitatives » ou à des échelles


« métriques ». On peut dès lors opérer des comparaisons d’intervalles, des rapports
de différence ou de distance. Les calculs de moyenne et d’écarts types sont autorisés.
Toutefois le zéro est défini de façon arbitraire. L’exemple le plus connu d’échelle
d’intervalles est celui de la mesure des températures. On sait que le zéro degré de
l’échelle Celsius, température de solidification de l’eau, correspond au 32 degrés de
l’échelle Farenheit. On peut donc convertir une donnée d’une échelle à une autre,
moyennant une transformation linéaire positive (y = ax + b, avec a > 0). Par contre,
en l’absence d’un zéro naturel, on ne peut effectuer des rapports entre grandeurs
absolues. Par exemple, on ne peut dire « qu’hier, il faisait deux fois plus chaud
qu’aujourd’hui », mais que « la température était du double de degré Celsius
qu’hier ». Si on convertit les deux températures en degrés Farenheit, on se rend
compte que ce « deux fois » est inapproprié. Le rapport entre les deux mesures n’est
donc pas indépendant du choix arbitraire du zéro de l’échelle de mesure. Avec
l’existence d’un zéro naturel, on passe à des échelles de proportion. C’est le cas des
mesures monétaires, de longueur ou de poids. Ces données sont donc les plus riches
en termes de calcul statistiques puisque le chercheur pourra analyser des rapports de
grandeurs absolues sur des variables telles que l’ancienneté dans l’entreprise, les
salaires… Le tableau 4.4 présente un bref résumé des opérations mathématiques
permises sur les différentes données correspondant à des variables mesurées sur les
différents types d’échelle.
Les éléments que nous venons d’exposer sur les données qualitatives et sur les
données quantitatives montrent bien que la nature de la donnée ne dicte pas une
approche de recherche quantitative ou qualitative. Du reste, Evrard et al. (2009)
précisent bien qu’il ne faut pas confondre les données qualitatives et les données
quantitatives avec les études portant le même vocable. Pour distinguer l’approche
qualitative et l’approche quantitative, il nous faut évaluer d’autres critères.

120
Quelles approches avec quelles données ? ■ Chapitre 4

Tableau 4.4 – Types d’opérations et types de données collectées


Données qualitatives Données quantitatives
Échelles non métriques Échelles métriques
Opérations permises Nominales Ordinales Intervalles Proportion
Comparaison de base
Identification, appartenance Oui Oui Oui Oui
Classement ordonné – Oui Oui Oui
Rapport de différences – – Oui Oui
Rapport de grandeurs absolues – – – Oui
Tendance centrale
Mode Oui Oui Oui Oui
Médiane – Oui Oui Oui
Moyenne – – Oui Oui
Dispersion
Écarts interfractiles – Oui Oui Oui
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

Variance, écart type – – Oui Oui


Adapté de Peeters in Lambin (1990 : 132).

1.2 Distinction selon l’orientation de la recherche


La recherche en science de gestion est caractérisée par deux grandes orientations :
la construction ou le test d’un objet théorique. S’il s’oriente vers la vérification, le
chercheur a une idée claire et établie de ce qu’il cherche. À l’opposé, si le chercheur
s’oriente vers une démarche exploratoire, caractéristique de la construction
théorique, le chercheur ignore en grande partie la teneur de ce qu’il va mettre à jour
(cf. chapitre 3). Comme l’a dit sans fard Coombs, « le problème du psychologue
social, pour le dire carrément, consiste à se demander s’il sait ce qu’il cherche ou
s’il cherche à savoir » (1974 ; cité par Brabet, 1988).
Il est courant de lier l’exploration à une approche qualitative et la vérification à une
approche quantitative (Brabet, 1988), voire d’opposer la démarche inductive des
recherches qualitatives et la démarche hypothécodéductive des recherches quantitatives
(Hammersley, 1999). Ainsi, Silverman distingue deux « écoles » en science sociale,
l’une orientée sur le test quantitatif d’hypothèses et l’autre tournée vers la génération
qualitative d’hypothèses (2006). Il s’agit pourtant encore une fois d’une idée reçue,
d’une « sur-simplification » (Hammersley, ibid. :77), d’une démarcation exagérée
(Bryman, 1999), car pour construire ou pour tester, le chercheur peut adopter tout aussi
bien une approche quantitative qu’une approche qualitative (cf. chapitre 3). « Il n’y a
pas de conflit fondamental entre les buts et les potentialités des méthodes ou des
données qualitatives et quantitatives. […] Chacune des formes de données est utile
pour la vérification et la génération de théorie » (Glaser et Strauss, 1967 : 17-18).
L’évolution des possibilités de traitement statistique obtenue grâce aux progrès de

l’informatique a accru les potentialités de l’approche quantitative dans les démarches


exploratoires (Brabet, 1988). De manière symétrique, rien n’empêche un chercheur de
©

121
Partie 1 ■ Concevoir

réfuter une théorie au travers d’une approche qualitative, en montrant son insuffisance
à expliquer des faits de gestion d’organisation. C’est ainsi que Whyte (1955) a réfuté,
au travers d’une approche qualitative menée sur un seul site essentiellement par
observation participante, le modèle dominant de « désorganisation sociale » mis en
avant par l’école sociologique de Chicago pour rendre compte de la vie sociale dans
les quartiers pauvres des grandes villes américaines. Il faut cependant souligner que les
chercheurs choisissent rarement une approche qualitative avec la seule perspective de
tester une théorie. En général, ce choix est accompagné également d’une orientation
encore plus marquée vers la construction. Cette tendance s’explique par le coût,
notamment en temps, d’une approche qualitative qui ne serait destinée qu’à tester une
théorie. Imaginons que le test s’avère positif. Le chercheur n’aura d’autre choix que de
reconduire une autre campagne de recueil et d’analyse. En effet, l’approche qualitative
enferme le chercheur dans une démarche de falsification : le seul objectif ne peut être
que de réfuter la théorie et en aucun cas de la valider. Le rôle de l’approche qualitative
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

n’est pas de produire la généralisation d’une théorie existante. Stake souligne à propos
de l’étude de cas, qu’il positionne dans l’approche qualitative, que tout au plus « par le
contre-exemple, l’étude de cas invite à la modification d’une généralisation » (1995 :
8). Cette modification implique une construction. La limite de l’approche qualitative
réside dans le fait qu’elle s’inscrit dans une démarche d’étude d’un contexte particulier.
Bien sûr, le recours à l’analyse de plusieurs contextes permet d’accroître la validité
externe d’une recherche qualitative selon une logique de réplication (cf. chapitre 10).
Cependant, « les constats ont toujours un contexte qui peut être désigné mais non
épuisé par une analyse finie des variables qui le constituent, et qui permettrait de
raisonner toutes choses égales par ailleurs » (Passeron, 1991 : 25). Ces limites de
l’approche qualitative en terme de généralisation conduisent à accorder plus de validité
externe aux approches quantitatives. À l’opposé, l’approche qualitative offre plus de
garantie sur la validité interne des résultats. Les possibilités d’évaluation d’explications
rivales du phénomène étudié sont plus grandes que dans l’approche quantitative car le
chercheur peut mieux procéder à des recoupements entre les données. L’approche
qualitative accroît l’aptitude du chercheur à décrire un système social complexe
(Marshall et Rossman, 1989).
Le choix entre une approche qualitative et une approche quantitative apparaît donc
plus dicté par des critères d’efficience par rapport à l’orientation de la recherche,
construire ou tester. Bien que les garanties de validité interne et de validité externe
doivent être envisagées conjointement quel que soit le type de recherche, le chercheur
doit se déterminer sur la priorité qu’il accorde à la qualité des liens de causalité entre
les variables ou à la généralisation des résultats pour choisir entre une approche
qualitative et une approche quantitative. L’idéal serait évidemment de garantir au
mieux la validité des résultats en menant conjointement les deux approches.

122
Quelles approches avec quelles données ? ■ Chapitre 4

1.3 Distinction selon le caractère objectif ou subjectif des résultats


Il est généralement reconnu que l’approche quantitative offre une plus grande
garantie d’objectivité. Les impératifs de rigueur et de précision qui caractérisent les
techniques statistiques plaident en ce sens. Il n’est donc pas surprenant que l’approche
quantitative soit ancrée dans le paradigme positiviste (Silverman, 1993). Dans la
comparaison entre les méthodes qualitatives et quantitatives, Grawitz pose, de façon
presque caricaturale, une interrogation fondamentale : « Vaut-il mieux trouver des
éléments intéressants dont on n’est pas certain, ou être sûr que ce que l’on trouve est
vrai, même si ce n’est pas très intéressant ? » (1993 : 321.) La question suggère que
le caractère objectif ou subjectif des résultats constitue une ligne de séparation entre
l’approche qualitative et l’approche quantitative. Cette dichotomie n’est pourtant pas
pertinente. Non seulement les chercheurs quantitatifs n’ont pas tous prôné l’existence
d’une réalité objective, indépendante de la conception que la connaissance scientifique
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

peut permettre, mais c’est surtout le postulat d’une relation de fait entre l’approche
qualitative et une position épistémologique particulière qui peut être remis en question
(Hammersley, 1999). Il convient donc d’analyser plus finement ce critère. Nous
verrons qu’il existe plusieurs subjectivités des résultats de la recherche qui peuvent
qualifier différentes approches qualitatives. Nous montrerons également que certains
partisans de l’approche qualitative ont entamé une réflexion pour réduire la subjectivité,
historiquement attachée à cette tradition de recherche.

c Focus
Objectivisme versus subjectivisme
« L’objectivisme isole l’objet de la recherche, conceptions : l’objet n’est plus une entité
introduit une séparation entre observateurs isolée, il est toujours en interrelation avec
et observés, relègue le chercheur dans une celui qui l’étudie ; il n’y a pas de coupure
position d’extériorité, cette coupure épisté- épistémologique, la nécessaire objectiva-
mologique étant jugée nécessaire à l’objec- tion de la pratique prend en compte les
tivité de l’observation. […] La tradition implications de toute nature du chercheur,
objectiviste se donne des objets de dont la subjectivité est rétablie et analysée
recherche qui acceptent les contraintes des comme appartenant de plein droit au
méthodes d’observation et de production champ considéré. […] Les méthodes
qui sont les plus souvent assises sur la quan- employées relèvent davantage de l’analyse
tification, ou tout au moins sur l’obsession qualitative, l’unique pouvant être significatif
horlogère de la mesure. […] Le subjecti- comme le non mesurable. » (Coulon,
visme prend le contre-pied de ces 1987 : 50-51.)

Sur la subjectivité plusieurs positions sont mises en avant. En premier lieu, le


développement de l’approche qualitative a été caractérisé par la prise en compte de


la subjectivité du chercheur. Le « Focus » suivant montre en quoi l’objectivisme et
©

123
Partie 1 ■ Concevoir

le subjectivisme s’opposent quant à la posture et à l’approche du chercheur vis-à-vis


de l’objet de recherche.
Selon Erickson (1986), la caractéristique la plus distinctive de l’enquête qualitative
réside dans la mise en exergue de l’interprétation. Cette interprétation ne doit pas être
celle du chercheur mais celles des individus qui sont étudiés. Ce positionnement de
l’approche qualitative s’apparente aux préceptes des tenants de l’interactionnisme
symbolique qui considèrent que « l’authentique connaissance sociologique » nous est
livrée « dans le point de vue des acteurs, quel que soit l’objet de l’étude, puisque c’est
à travers le sens qu’ils assignent aux objets, aux situations, aux symboles qui les
entourent, que les acteurs fabriquent leur monde social » (Coulon, 1987 : 11).
L’approche qualitative ne limite pas l’interprétation à l’identification de variables, au
développement d’instruments de collecte de données et à l’analyse pour établir des
résultats. Il s’agit plutôt pour le chercheur de se positionner comme un interprète du
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

terrain étudié, même si sa propre interprétation peut être plus appuyée que celle des
sujets (Stake, 1995 : 8). L’approche qualitative admet tout à la fois, la subjectivité du
chercheur et celle des sujets. Elle offre l’opportunité d’une confrontation avec des
réalités multiples car elle « expose plus directement la nature de la transaction » entre
l’investigateur et le sujet (ou l’objet), et permet une meilleure évaluation de sa
posture d’interaction avec le phénomène décrit (Lincoln et Guba, 1985 : 40).
Un positionnement constructiviste n’implique pas non plus que le critère d’objectivité
soit éludé. Ce critère d’objectivité peut être envisagé comme un « agrément intersubjectif ».
« Si de multiples observateurs sont en mesure d’émettre un jugement collectif sur un
phénomène, on peut dire qu’il est objectif. » (Lincoln et Guba, 1985 : 292)
L’approche qualitative n’exclut pas une posture épistémologique d’objectivité de
la recherche par rapport au monde qu’elle étudie. Certains promoteurs de l’approche
qualitative, Glaser et Strauss (1967) notamment, en ont développé une conception
positiviste. Dans leur ouvrage de référence sur l’approche qualitative, Miles et
Huberman postulent « que les phénomènes sociaux existent non seulement dans les
esprits mais aussi dans le monde réel et que des relations légitimes et raisonnablement
stables peuvent y être découvertes (2003 : 16). Les deux auteurs plaident pour un
« positivisme aménagé » et suggèrent la « construction d’une chaîne logique
d’indices et de preuves » à des fins d’objectivité des résultats. Le « Focus » suivant
précise en quoi consiste et quel est le rôle d’une chaîne de preuves.
En définitive, la collecte et l’analyse des données doivent rester cohérentes avec
un positionnement épistémologique explicite du chercheur. Si l’approche qualitative
permet d’introduire une subjectivité peu compatible avec l’approche quantitative,
elle ne peut cependant être circonscrite à une épistémologie constructiviste.

124
Quelles approches avec quelles données ? ■ Chapitre 4

c Focus
La chaîne de preuves
« Le chercheur de terrain construit peu à aux « corroborations structurales », ils
peu cet enchaînement de preuves, identi- adoptent un mode de travail plus proche de
fiant en premier lieu les principaux facteurs, l’induction par élimination. La logique du
ébauchant les relations logiques qui les « modus operandi » utilisé comme outil de
unissent, les confrontant aux informations localisation de problèmes dans plusieurs
issues d’une nouvelle vague de recueil de professions – médecins légistes, garagistes,
données, les modifiant et les affinant en cliniciens, officiers de police, enseignants –
une nouvelle représentation explicative reflète bien ce va-et-vient entre l’induction
qui, à son tour, est testée sur de nouveaux par énumération et l’induction par élimina-
sites ou dans des situations nouvelles. […] tion. » (Miles et Huberman, 2003 : 468.)
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

Dans sa forme la plus achevée, la méthode Yin assigne une autre fonction à la chaîne
combine deux cycles imbriqués. Le premier de preuves : « Le principe (du maintien de
s’intitule « induction par énumération » qui la chaîne de preuves) est de permettre à un
consiste à recueillir des exemples nombreux observateur externe – le lecteur de l’étude
et variés allant tous dans la même direc- de cas, par exemple – de suivre le chemi-
tion. Le second est l’« induction par élimi- nement de n’importe quelle preuve
nation », où l’on teste son hypothèse en la présentée, des questions de recherche
confrontant à d’autres et où l’on recherche initiales aux conclusions ultimes du cas.
soigneusement les éléments pouvant limiter De plus, cet observateur externe doit être
la généralité de sa démonstration. Quand capable de retracer les étapes dans n’im-
les chercheurs qualitatifs évoquent la porte quelle direction (des conclusions en
« centration progressive », ils parlent en fait arrière vers les questions de recherche
d’induction par énumération et lorsqu’ils initiales, ou des questions vers les conclu-
passent aux « comparaisons constantes » et sions). » (Yin, 2014 : 127.)

1.4 Distinction selon la flexibilité de la recherche

La question de la flexibilité dont dispose le chercheur pour mener à bien son projet
de recherche est elle aussi un élément crucial dans le choix d’une approche
qualitative ou quantitative. « Dans le domaine de la recherche sur la gestion et les
organisations, il est clair que les événements inattendus et dignes d’intérêt sont
propres à bouleverser n’importe quel programme, et que la vraie question n’est pas
celle du respect du programme, mais celle de la manière de saisir intelligemment les
possibilités d’observation qu’offrent les circonstances » (Girin, 1989 : 2).
Avec l’approche qualitative, le chercheur bénéficie en général d’une grande
flexibilité. La question de recherche peut être modifiée à mi-parcours afin que les
résultats soient vraiment issus du terrain (Stake, 1995). Le chercheur peut également

intégrer des explications alternatives et modifier son recueil de données. Il a tout


©

125
Partie 1 ■ Concevoir

intérêt à ne pas trop structurer sa stratégie pour conserver une capacité à prendre en
compte l’imprévu et pouvoir changer de direction, le cas échéant (Bryman, 1999).
L’approche quantitative n’offre pas cette souplesse car elle implique généralement
un calendrier plus rigide. Quand il s’agit d’enquêtes, l’échantillonnage et la
construction du questionnaire sont effectués avant que ne commence le recueil de
données. De même, dans la recherche avec expérimentation, la définition des
variables indépendantes et dépendantes, ainsi que celle des groupes d’expérience et
de contrôle, fait partie d’une étape préparatoire (Bryman, 1999). Il est évidemment
très difficile de modifier la question de recherche dans la démarche plus structurée
au préalable de l’approche quantitative, compte tenu du coût qu’une telle
modification entraînerait. Il est le plus souvent exclu d’envisager d’évaluer de
nouvelles explications rivales, à moins de remettre en chantier le programme de
recherche.
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

2 Les stratégies de complémentarité : séquentialité et


triangulation
Le chercheur peut tout d’abord avoir intérêt à utiliser la complémentarité des
approches qualitative et quantitative dans la perspective d’un processus séquentiel.
Une étude exploratoire, menée au travers d’une approche qualitative, constitue
souvent un préalable indispensable à toute étude quantitative afin de délimiter la
question de recherche, de se familiariser avec cette question ou avec les opportunités
et les contraintes empiriques, de clarifier les concepts théoriques ou d’expliciter des
hypothèses de recherche (Lambin, 1990). Dans ce cas, l’approche qualitative
constitue une étape nécessaire à la conduite d’une approche quantitative dans les
meilleures conditions. Rappelons que l’approche quantitative par son important
degré d’irréversibilité nécessite des précautions qui conditionneront le succès du
projet de recherche.
Dans une toute autre perspective, le chercheur peut associer le qualitatif et le
quantitatif par le biais de la triangulation. Il s’agit d’utiliser simultanément les deux
approches pour leurs qualités respectives. « L’achèvement de construits utiles et
hypothétiquement réalistes dans une science passe par l’utilisation de méthodes
multiples focalisées sur le diagnostic d’un même construit à partir de points
d’observation indépendants, à travers une sorte de triangulation » (Campbell et
Fiske, 1959 : 81). L’idée est d’attaquer un problème formalisé selon deux angles
complémentaires dont le jeu différentiel sera source d’apprentissages pour le
chercheur. La triangulation a donc pour objectif d’améliorer à la fois la précision de
la mesure et celle de la description (cf. figure 4.4).

126
Quelles approches avec quelles données ? ■ Chapitre 4

Objet de la recherche

Méthodes Méthodes
qualitatives quantitatives

Figure 4.4 – La triangulation

La triangulation permet de mettre le dispositif de recherche à l’épreuve en s’assurant


que les découvertes ne sont pas le seul reflet de la méthodologie (Bouchard, 1976). Il
ne s’agit pas pour autant de confondre la nature des données et celle des méthodes.
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

Utiliser des données complémentaires ne constitue pas en soi une triangulation, mais
un fait naturel propre à la plupart des recherches (Downey et Ireland, 1979). C’est une
erreur de croire que le chercheur « qualitatif » n’utilise pas de données quantitatives et
qu’il est en quelque sorte opposé à la mesure (Miles, 1979). Le fait qu’un chercheur
utilise un système symbolique numérique pour traduire la réalité observée, ou un
système symbolique verbal, ne définit pas fondamentalement le type d’approche. Dans
leur manuel d’analyse qualitative, Miles et Huberman suggèrent de procéder à un
comptage des items pour cerner leur récurrence : « les chiffres […] sont plus
économiques et plus manipulables que les mots ; on « voit » plus vite et plus facilement
la tendance générale des données en examinant leur distribution » (2003 : 453).
La conjugaison des approches qualitatives et quantitatives, c’est-à-dire leur
utilisation complémentaire et dialectique permet au chercheur d’instaurer un
dialogue différencié entre ce qui est observé (l’objet de la recherche) et les deux
façons de le symboliser. L’objectif de la triangulation est de tirer partie de ce que les
deux approches peuvent offrir : « Les méthodes qualitatives représentent un mélange
de rationalité, de sérendipité et d’intuition dans lequel les expériences personnelles
du chercheur sont souvent des événements clés à être interprétés et analysés comme
des données. Les investigateurs qualitatifs tendent à dévoiler les processus sociaux
plutôt que les structures sociales qui sont souvent les points de focalisation des
chercheurs quantitativistes » (Van Maanen, 1979 : 520). Ainsi, la triangulation
permet au chercheur de bénéficier des atouts des deux approches en contrebalançant
les défauts d’une approche par les qualités de l’autre (Jick, 1979).

©

127
Partie 1 ■ Concevoir

Conclusion
L’articulation entre données, approches et finalités de la recherche est une étape
essentielle du processus de recherche. Les choix du chercheur sont cependant en partie
déterminés par des facteurs extérieurs à l’objet de la recherche lui-même. La limite des
ressources temporelles peut en effet amener le chercheur à faire des compromis entre
l’exhaustivité nécessaire (en termes de validité interne et externe) et la volonté de
produire des résultats. Le chercheur peut opter pour un « opportunisme méthodique ».
En se concentrant sur les unités d’analyse les plus accessibles, il va réviser ses
ambitions et adapter sa question de recherche. Il peut, à ce titre, réduire les échantillons,
préférer des populations exemplaires pour construire une théorie ou encore tester
seulement une partie des théories initialement envisagées. À l’opposé, il peut adopter
une démarche plus systématique et plus ambitieuse, en recourant à une triangulation à
la fois des méthodes et des données sollicitées. Entre ces deux extrêmes, le chercheur
© Dunod | Téléchargé le 12/05/2021 sur www.cairn.info via Conservatoire National des Arts et Métiers (IP: 163.173.128.143)

dispose d’une variété d’articulations entre données, approches et finalités. Nous


n’avons pas, à cet égard, décrit toutes les possibilités. Il nous a semblé plus pertinent
de souligner certaines incompatibilités afin d’inviter à un certain réalisme.
Le chercheur se préoccupe le plus souvent de sa « contribution à la littérature ».
Cette formule laisse entendre que l’essentiel d’un travail de recherche est de
produire de nouveaux résultats. Il est pourtant une autre contribution à la recherche
en management, qui n’exclut pas celle que nous venons de désigner. Il s’agit des
innovations que le chercheur peut apporter dans l’articulation entre données,
approches et finalités. En montrant comment il faut aller à l’encontre des idées
reçues tant sur les différents types de données, que sur la portée des différentes
approches, nous espérons avoir fait un apport utile. Enfin, il nous semble plus
constructif de prendre en compte la complémentarité, plutôt que l’opposition, entre
les différents types de données et les différentes approches permettant leur recueil et
leur analyse.

Pour aller plus loin


Campbell D.T., Fiske D.W., « Convergent and Discriminent Validation by the
Multitrait-Multimethod Matrix », Psychological Bulletin, 56, 1959, pp. 81-105.
Évrard Y., Pras B., Roux E., Market. Fondements et méthodes de recherches en
marketing, Paris, Dunod, 2009.
Lincoln Y.S., Guba E.G., Naturalistic Inquiry, Beverly Hills, CA, Sage, 1985.
Miles A.M., Huberman A.M., Analysing Qualitative Data : an Expanded Source,
Bervely Hills, CA, Sage, 1984. (Traduction française : Analyse des données quali-
tatives, Bruxelles, De Boeck, 2003.)
Stablein, R., « Data in Organization Studies », in Clegg S., Hardy C., Lawrence
T., Nord W. (eds.), The SAGE Handbook of Organization Studies, 2nd ed., Londres :
Sage, 2006, p. 347-370.

128

Vous aimerez peut-être aussi