0% ont trouvé ce document utile (0 vote)
35 vues15 pages

Disc Methodologique

Transféré par

Mariem Dll
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
35 vues15 pages

Disc Methodologique

Transféré par

Mariem Dll
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

I.

discussion méthodologiques :

La méthodologie propre à cette étude réfère, dans un premier temps, au développement des

questionnaires et, par la suite, à l’appréciation de leur validité linguistique et fidélité de

chacune de sous sections.

1. Développement de questionnaire :

Le développement des questionnaires s’est réalisé en plusieurs étapes :

1) la création et la sélection des items;

2) la formulation des énoncés;

3) le classement des énoncés;

4) la formulation de la consigne de base

5) le choix de l’échelle de mesure. (j)

1.1. Création et sélection, formulation et classement des items.

La création des items a d’abord été effectuée à partir de données préliminaires issues

d’entrevues (j) réalisées auprès des stagiaires instrumentistes. Ces entrevues semi dirigées,

réalisées dans le cadre d’un projet antérieur auprès de stagiaires et même pendant notre

constatations pendant notre passage de stage au bloc operatoire , ont permis d’identifier les

risques physiques et psychiques des stagiaires au bloc opératoire . Ces risques ont été

consignés en conservant les termes utilisés par les participants dans le but d’assurer une bonne

validité de contenu.(j) De plus, quelques analyses des risques fréquemment rapportés dans la

littérature comme ayant une influence sur les personnelles du bloc et les stagiaires a bonifié

la création des items.

[Link] des items.


Lors de la formulation des items, une attention particulière était accordée à la clarté, à la

pertinence et à la neutralité (Mayer et Ouellet, 1991).(j)

Pour garantir cette clarté, des énoncés concis et unidimensionnels utilisant une terminologie

générique et comportant un vocabulaire simple et familier pour les répondants visés ont été

formulés. Les termes utilisés par les répondants dans l’étude précédente ont d’ailleurs été

privilégiés et le contexte francophone a été considéré.(j)

1.3. Classement et ordre des items.

Une fois les items sélectionnés et formulés, ils ont été classés en regroupant tous les énoncés

se rapportant à un même aspect pour que le répondant puisse mieux s’y retrouver (Mayer et

Ouellet, 1991). (j)

L’ordre des sections a été établi de façon à favoriser la collaboration des répondants. Les

questionnaires débutent ainsi par les sections les plus générales ou objectives (par exemple, la

definitions, connaissances).(j)

Les sections plus délicates, portant par exemple sur les préventions, sont placées vers la fin

de chacune des sections. Pour le reste, l’ordre des sections respecte la logique des liens les

unissant.

Les mêmes préoccupations prévalent pour l’ordre des items à l’intérieur de chaque sous-

section (Mayer et Ouellet, 1991).(j)

2. Discussion de la procédure de validation linguistique et fidélité du questionnaire :

La validation des échelles de mesure est une condition nécessaire de la qualité des résultats de

la recherche. Elle se décline en deux principales préoccupations: Mesure-t-on ce que l’on

entend mesurer? La mesure obtenue est-elle de qualité? Ici, il est fait référence à deux notions

clés de la théorie de la mesure psychométrique : la fiabilité et la validité (j)


2.1. Validation linguistique :

La validité d’un instrument de mesure réfère au degré auquel l’instrument mesure ce

qu’il est supposé mesurer, c’est-à-dire le concept [19].

a. Validité d’apparence :

La validité d’apparence est basée sur l’opinion subjective d’utilisateurs. Les experts

estiment si l’outil considéré mesure bien ce qu’il est supposé mesurer. Pour Fermanian(2005),

seuls les aspects visibles de l’outil sont ici considérés (Fermanian, 2005).

Cette méthode d’analyse de la validité s’avère indispensable pour toutes les échelles et tests

même si elle est insuffisante en raison du caractère subjectif de l’évaluation.(a)

Plusieurs experts ont émis un jugement sur la validité apparente de notre questionnaire. Nous

leur avons ainsi demandé d’exprimer leur avis sur cet outil à partir d’une série de questions :

« L’énoncé de la question est-il bien formule? » « L’énoncé de la question vous apparait –il

pertinent ? » « est ce que les choix de réponses qui sont offerts vous apparaissent, pouvant

prêter a confusion (risque qu’ils ne soient interprètes de la même façon par tout le monde) »

Par ailleurs, dès les premiers essais pilotes, puis lors de l’utilisation de notre questionnaire,

les réactions et commentaires sur les questions, ont montré l’intérêt de l’énoncé.

La validité d’apparence apparaît donc satisfaisante compte tenu des avis récoltés lors de sa

mise en pratique.

b. Validité de contenu :
La validité de contenu réfère à la représentation adéquate de l’échantillon d’items utilisés pour

mesurer un comportement ou une caractéristique [19].

Pour cela, il est nécessaire de décrire l’univers du phénomène mesuré et de le fractionner en

domaines, ou caractéristiques principales semblant constituer ce phénomène (Laveault &

Grégoire, 2002).(a)

Dans le cas de notre questionnaire, deux caractéristiques principales ont été considérées pour

représenter les risques physique et psychologique rencontrés par les stagiaires instrumentistes

tunisiens pendant leur période de stage au bloc opératoire: les risques physiques (Rx ; AES ;

Fumées chirurgicales) et les risques psychiques (Stress ; Burnout ; harcèlements ; violence)

Ces caractéristiques ont été reprises et adaptées de différents travaux antérieurs et études des

littératures (par exemple Kyung Mi Kim, et coll., 2015;M. Isabel Ríos-Risquez,et coll,

2016, ; DUPONT Séverine, 2010 ; May Karam, 2015…ect).

Le processus de validation du contenu d’un questionnaire conduit des experts à examiner les

items, les instructions données au sujet, les modalités de présentation des stimuli, les

contraintes de temps, les modalités de réponse, les critères de cotation en regard du

phénomène censé être mesuré et doit mener à un consensus entre experts (Laveault

&Grégoire, 2002).(a)

Étant donné la série de recherches menées par les trois chercheures sur

lesquelles se base ce questionnaire (types de risques, fréquences d’exposition et résultats,

critères de préventions), on peut raisonnablement supposer que la validité de contenu de cet

outil est bonne.

Cependant, elle devra être démontrée formellement en la soumettant à l’appréciation


d’experts.

c. Validité de critères

La validité de critère représente le degré d’association entre un instrument de mesure ou une

technique et un autre instrument indépendant susceptible de mesurer le même phénomène ou

concept [19].

d. Validité de construit

La validité de construit tente de valider le corps théorique sous-jacent à la mesure et de

vérifier des hypothèses d’associations [19].

Cette définition théorique génère des hypothèses quant aux liens entre le concept mesuré et

d’autres concepts. La validité de construit consiste à infirmer ou

confirmer ces hypothèses d’existence ou d’absence de liens par l’expérimentation et

l’analyse statistique (Anastasi, 1994). Il faut donc établir la corrélation ou l’absence de

corrélation entre la variable censée mesurer le concept voulu et des variables reflétant d’autres

concepts, supposés plus ou moins proches de la mesure d’intérêt (Fermanian,1996).(a)

Dans la présente étude, nous n’avons pas intéressé a ce type de validité de même pour la

validité de construit.

En conclusion, le concept de validité a pour but d’objectiver ce que l’instrument

mesure. Lors de l’élaboration d’un outil d’évaluation, la constitution d’un cadre théorique

clair et rigoureux définissant les caractéristiques et les frontières du phénomène que l’on

souhaite mesurer est indispensable.(a)


2.1.1. Pré-test :

Le recours à un pré-test permet de détecter un certain nombre d’erreurs passées jusque-

là inaperçues, de s’assurer de la clarté des questions et de vérifier s’ils ont été énoncées dans

un langage accessible pour la population cible. C’est aussi un moyen efficace pour évaluer la

procédure de codage de données et la durée de passation de l’instrument de mesure [20].

2.1.2. Avis des experts :

L’avis des experts représente une étape fondamentale dans le processus de validation du

contenu. Plusieurs auteurs soulignent l’importance de cette étape aussi bien dans la

formulation et la structure des questions, les réponses alternatives que dans l’ordre des

questions (Groves et al. 2004Matsumoto, van de Vijver ,2001) [21].

Le choix des experts ainsi que leur nombre dépend de plusieurs critères. En effet, ils

sont déterminés par le type et la qualité des données ainsi que par la disponibilité de la

population des experts en question (Bruce, Langley, Tjale, 2008) [22].

Il est également nécessaire que les experts aient une bonne connaissance de la mesure,

du sujet étudié ainsi que de la population étudiée (Guillemin, 1993) [23].

Le comité d’experts qui ont participé à l’analyse de notre instrument de mesure a été

composé de quatre médecins et six encadrants de stage. Il leur a été demandé de vérifier la

clarté et la pertinence des questions et de noter leurs remarques sur une grille de cotation qui a

été associée à la fin de l’échelle.


2.2. Fidélité (fiabilité) du questionnaire:

La vérification de la fiabilité des outils de mesure passe par la vérification de principales

propriétés psychométriques : la stabilité (test-retest), la cohérence interne, (corrélations

interitems, alpha de Cronbach et Kuder-Richardson) et l’équivalence (formes alternatives).

a . L’évaluation de la stabilité par la méthode du test-retest

Cette méthode consiste à administrer deux fois la même échelle psychométrique auprès d’un

même échantillon, à deux instants différents mais dans des conditions identiques. En vue de

comparer de comparer les réponses des sujets interrogés, on étudie la corrélation entre les

scores obtenus la première fois et les scores obtenus la deuxième fois (R de Pearson). Cette

technique permet de s’assurer que l’instrument de mesure utilisé est stable et ne dépend pas

des changements d’humeur ou d’opinion des personnes interrogées (Hendrickson et al.,

1993).(j)

Plus le coefficient est proche de 1, plus l’échelle psychométrique est considérée comme

fiable. De façon opérationnelle, on a tendance à considérer comme fiables toutes les échelles

où les coefficients de corrélation sont supérieurs à 0,70. La difficulté de cette méthode réside

dans le choix de la période séparant les deux enquêtes. Si cette période est longue, il risque

alors d’y avoir un effet de test : les réponses au deuxième questionnaire peuvent être biaisées

du fait de la connaissance préalable de l’échelle de mesure et de l’impression de connaître les

réponses (le répondant ne réfléchit donc plus vraiment aux réponses qu’il fournit) ou du fait

de la volonté d’être cohérent avec soi-même (et donc d’essayer à tout prix de répondre de la

même manière plutôt que d’essayer de répondre selon l’impression du moment).(j)

Dans la pratique, les chercheurs adoptent une période allant de deux semaines à 2 mois,

sachant que plus la période séparant le test du retest est coûte, plus les coefficients de
corrélation auront tendance à être élevés. Ce type de test dépend fortement de l’effet de

mortalité expérimentale : si des individus qui au répondu au premier questionnaire

disparaissent lors du retest, cela peut compromettre les résultats obtenus. Pour éviter cela, il

est d’abord conseillé de recourir à un échantillon suffisamment large pour que la

représentativité soit quand même assurée. De plus, il est conseillé d’adjoindre des questions

supplémentaires (ouvertes et dont les réponses sont personnelles) permettant d’identifier les

répondants.(j)

b . L’ Alpha de Cronbach

Cet un instrument de mesure sert à évaluer les corrélations entre les énoncés d’une échelle qui

mesure un concept. Il s’interprète comme un coefficient de corrélation classique: plus il est

proche de 1, plus l’échelle est fiable (0,6 et 0,8). C’est sans doute l’instrument de fiabilité le

plus utilisé par les chercheurs (Cronbach, 1951).(j)

Il faut noter que l’alpha de Cronbach dépend du nombre d’items, les échelles de 2 ou 3 items

affichant généralement des alphas particulièrement petits par rapport aux échelles à plus de 3

items. Et indicateur dépend également du mode d’administration du questionnaire :

l’autoadministration permet d’aboutir à des alphas supérieurs à ceux obtenus par une

administration en face à face (Peterson, 1995). Par ailleurs, le calcul de l’alpha de Cronbach

n’est pertinent que lorsque l’échelle utilisée est unidimensionnelle (Gerbing et Anderson,

1988) : il faut donc préalablement procéder à des analyses en composantes principales sur

l’échelle psychométrique pour s’enquérir de sa dimensionnalité et calculer l’alpha de

Cronbach pour chaque dimension.(j)

Pour conclure sur cette notion de fiabilité, il faut noter que la grande majorité des recherches

se contente de calculer l’Alpha de Cronbach. (j)


3. Forces et limites de l’étude :

 À notre connaissance, aucune étude tunisienne n’a été réalisée à propos de ce

sujet. Il s’agit alors, du premier travail de recherche à l’avoir soulever.

 Une autre force, cette étude a visée 179 étudiants inscrits en 2éme ou 3éme

années en instrumentation opératoire dans les trois écoles de santé tunisienne, le

taux de participation était de 100% ce qui pourrait donner la possibilité de

généraliser les résultats.

 Nous avons abouti dans notre étude l'échantillonnage non probabiliste, ou la

distribution des caractéristiques à l'intérieur de la population est égale, n’importe quel

échantillon serait représentatif et que les résultats, par conséquent, seront exacts. Et pour

assurer cela, nous étions très rigoureux lors de la construction du questionnaire qui était

formulé en recensant la littérature et en validant linguistiquement (pré-test + avis des experts),

toujours dans le but ultime d’obtenir une version du questionnaire la plus complète et valide

possible. Il importe également de rappeler que l’équipe de recherche était très vigilante à

l’égard des principes méthodologiques qui ont fondé la présente étude, et elle a essayé de les

respecter dans la mesure du possible

 Notre étude a présenté une enquête généralisé a propos les principaux risques

exposés aux stagiaires tunisiens au bloc opératoire.

 Nous estimons que le volume d’étude et leurs différentes rubriques peuvent

influencer sur la qualité de l’étude. Egalement, a cause de limitation des études a propos les

risques exposes aux stagiaires nous avons trouvé une sorte de petite problème en discussion

de cote comparaison notre étude avec la littérature.

 Les délimitations sont des décisions prises par le chercheur sur les éléments qui

ne seront pas recherché (Leedy & Ormrod, 2010)( i) . L'étude a été limitée aux stagiaires des

écoles publiques dans le État tunisienne, où les stagiaires des écoles privées et les stagiaires
des écoles publiques dans d'autres États ont été exclus. Une délimitation supplémentaire

inclus l'utilisation d'items de sondage fermés, limitant ainsi les réponses des participants

 Les limites sont des faiblesses ou des problèmes potentiels qui existent dans

une étude (Creswell,2008) qui peut, cependant, aider à d'autres répétitions d'études en tant

que besoin la recherche existera.(i) Cette étude comprenait les quatre limites suivantes.

D'abord, les stagiaires de l'échantillon étaient des participants volontaires et pouvaient se

retirer à tout moment étude, qui pourrait affecter la taille de l'échantillon et la validité

statistique. Une autre limitation est que Les résultats peuvent ne pas être généralisés aux

enseignants d'autres pays, en

régissant les lois et les règlements. Un limitation supplémentaire était la méthode de collecte

de données, en tant que données quantitatives, bien que ne contribue pas à des explications

approfondies des émotions ou des réponses.

4. La taille de l’échantillon :

L’échantillon de notre étude comptait 179 stagiaires instrumentistes répondant aux critères

d’inclusion.

La taille de l’échantillon de notre étude corrobore avec celle de l’étude de M. Isabel

Ríos-Risquez,et al. (c) réalisée en 2016 et qui avait comme objectif de déterminer

les relations entre la résilience, le burn-out scolaire et la santé psychologique des

stagiaires infirmiers. La taille de l’échantillon de cette étude était de N= 113

stagiaires (c). En outre, dans une étude similaire réalisée par DEARY I . Jet al. (d)

en 2003 dont était une étude de cohorte longitudinale sur l'épuisement

professionnel et l'attrition chez les étudiantes infirmières, la taille de l’échantillon

était de N= 124 stagiaires (d). Egalement, dans une étude menée en 2010 par

DUPONT Séverine. (e) et qui visait aux les constats des connaissances à propos de

fumées chirurgicales, la taille de l’échantillon était de N= 95 participants (e).


5. Caractéristiques sociodémographiques des participants :

1) Genre

La prédominance féminine était remarquée à partir de nos résultats : 86% (n=154) des

participants étaient des femmes. Les échantillons de plusieurs études recensées dans la

littérature et menées auprès des stagiaires ou même personnelles de sante étaient également à

prédominance féminine.

Le tableau qui suit soutient ce qu’on vient d’énoncer concernant la prédominance féminine au

sein des échantillons des études recensées.

Tableau XVII : Récapitulation des résultats concernant le genre des populations

d’études rapportées dans la littérature

Auteurs (années) Genre

Masculin

(%)

Féminin

(%)

K. Djeriri (2005) (f) 61 % 39%

M. Isabel Ríos-Risquez,(2016) 75.2 % 24.8%

(c)

66.6% 33.4%
Moya Nicolás (2013) (g)

Yadollah Fathi (2017) (h) 68.8% 31.2%

Notre étude (2018) 86% 14%

2) Âge

Dans notre étude, la tranche d’âge prédominante était celle comprise entre 20 et 21 ans.

Elle représente 79.9% (n=143) de l’ensemble des participants. L’âge moyen des répondants

était de 20.8 ans.

3) écoles et niveaux d’étude

Notre étude est spécialisée essentiellement les étudiants 3 eme années et 2eme années en

instrumentation opératoire, des écoles supérieures de sante et technique de sante de Tunis ;

Sousse et Sfax.

À cet égard, le tableau qui suit récapitule les résultats retrouvés.

Tableau croisé Niveau d’étude * Ecole de santé

Ecole de santé Total

Sousse Sfax Tunis


Niveau 2ème année 17 34 43 94

d’étude 3ème année 25 33 27 85

Total 42 67 70 179
References:

(a) [Link]

(b) [Link]

( 19) hethi min el 5idma mete3 wassim wali choufha

( c) DOI:10.1080/10376178.2016.1213648

(d) [Link] ( itha matla3likch 7ilou bel site

sci_hub )

(e) [Link]

(f) [Link]

(g) [Link]

(h) [Link]

(i)[Link]

&httpsredir=1&article=2339&context=etd

(j)[Link]

Paper_3_CJSLPA_Summer_2015_Vol_39_No_2_Croteau_et_al.pdf

Vous aimerez peut-être aussi