I.
discussion méthodologiques :
La méthodologie propre à cette étude réfère, dans un premier temps, au développement des
questionnaires et, par la suite, à l’appréciation de leur validité linguistique et fidélité de
chacune de sous sections.
1. Développement de questionnaire :
Le développement des questionnaires s’est réalisé en plusieurs étapes :
1) la création et la sélection des items;
2) la formulation des énoncés;
3) le classement des énoncés;
4) la formulation de la consigne de base
5) le choix de l’échelle de mesure. (j)
1.1. Création et sélection, formulation et classement des items.
La création des items a d’abord été effectuée à partir de données préliminaires issues
d’entrevues (j) réalisées auprès des stagiaires instrumentistes. Ces entrevues semi dirigées,
réalisées dans le cadre d’un projet antérieur auprès de stagiaires et même pendant notre
constatations pendant notre passage de stage au bloc operatoire , ont permis d’identifier les
risques physiques et psychiques des stagiaires au bloc opératoire . Ces risques ont été
consignés en conservant les termes utilisés par les participants dans le but d’assurer une bonne
validité de contenu.(j) De plus, quelques analyses des risques fréquemment rapportés dans la
littérature comme ayant une influence sur les personnelles du bloc et les stagiaires a bonifié
la création des items.
[Link] des items.
Lors de la formulation des items, une attention particulière était accordée à la clarté, à la
pertinence et à la neutralité (Mayer et Ouellet, 1991).(j)
Pour garantir cette clarté, des énoncés concis et unidimensionnels utilisant une terminologie
générique et comportant un vocabulaire simple et familier pour les répondants visés ont été
formulés. Les termes utilisés par les répondants dans l’étude précédente ont d’ailleurs été
privilégiés et le contexte francophone a été considéré.(j)
1.3. Classement et ordre des items.
Une fois les items sélectionnés et formulés, ils ont été classés en regroupant tous les énoncés
se rapportant à un même aspect pour que le répondant puisse mieux s’y retrouver (Mayer et
Ouellet, 1991). (j)
L’ordre des sections a été établi de façon à favoriser la collaboration des répondants. Les
questionnaires débutent ainsi par les sections les plus générales ou objectives (par exemple, la
definitions, connaissances).(j)
Les sections plus délicates, portant par exemple sur les préventions, sont placées vers la fin
de chacune des sections. Pour le reste, l’ordre des sections respecte la logique des liens les
unissant.
Les mêmes préoccupations prévalent pour l’ordre des items à l’intérieur de chaque sous-
section (Mayer et Ouellet, 1991).(j)
2. Discussion de la procédure de validation linguistique et fidélité du questionnaire :
La validation des échelles de mesure est une condition nécessaire de la qualité des résultats de
la recherche. Elle se décline en deux principales préoccupations: Mesure-t-on ce que l’on
entend mesurer? La mesure obtenue est-elle de qualité? Ici, il est fait référence à deux notions
clés de la théorie de la mesure psychométrique : la fiabilité et la validité (j)
2.1. Validation linguistique :
La validité d’un instrument de mesure réfère au degré auquel l’instrument mesure ce
qu’il est supposé mesurer, c’est-à-dire le concept [19].
a. Validité d’apparence :
La validité d’apparence est basée sur l’opinion subjective d’utilisateurs. Les experts
estiment si l’outil considéré mesure bien ce qu’il est supposé mesurer. Pour Fermanian(2005),
seuls les aspects visibles de l’outil sont ici considérés (Fermanian, 2005).
Cette méthode d’analyse de la validité s’avère indispensable pour toutes les échelles et tests
même si elle est insuffisante en raison du caractère subjectif de l’évaluation.(a)
Plusieurs experts ont émis un jugement sur la validité apparente de notre questionnaire. Nous
leur avons ainsi demandé d’exprimer leur avis sur cet outil à partir d’une série de questions :
« L’énoncé de la question est-il bien formule? » « L’énoncé de la question vous apparait –il
pertinent ? » « est ce que les choix de réponses qui sont offerts vous apparaissent, pouvant
prêter a confusion (risque qu’ils ne soient interprètes de la même façon par tout le monde) »
Par ailleurs, dès les premiers essais pilotes, puis lors de l’utilisation de notre questionnaire,
les réactions et commentaires sur les questions, ont montré l’intérêt de l’énoncé.
La validité d’apparence apparaît donc satisfaisante compte tenu des avis récoltés lors de sa
mise en pratique.
b. Validité de contenu :
La validité de contenu réfère à la représentation adéquate de l’échantillon d’items utilisés pour
mesurer un comportement ou une caractéristique [19].
Pour cela, il est nécessaire de décrire l’univers du phénomène mesuré et de le fractionner en
domaines, ou caractéristiques principales semblant constituer ce phénomène (Laveault &
Grégoire, 2002).(a)
Dans le cas de notre questionnaire, deux caractéristiques principales ont été considérées pour
représenter les risques physique et psychologique rencontrés par les stagiaires instrumentistes
tunisiens pendant leur période de stage au bloc opératoire: les risques physiques (Rx ; AES ;
Fumées chirurgicales) et les risques psychiques (Stress ; Burnout ; harcèlements ; violence)
Ces caractéristiques ont été reprises et adaptées de différents travaux antérieurs et études des
littératures (par exemple Kyung Mi Kim, et coll., 2015;M. Isabel Ríos-Risquez,et coll,
2016, ; DUPONT Séverine, 2010 ; May Karam, 2015…ect).
Le processus de validation du contenu d’un questionnaire conduit des experts à examiner les
items, les instructions données au sujet, les modalités de présentation des stimuli, les
contraintes de temps, les modalités de réponse, les critères de cotation en regard du
phénomène censé être mesuré et doit mener à un consensus entre experts (Laveault
&Grégoire, 2002).(a)
Étant donné la série de recherches menées par les trois chercheures sur
lesquelles se base ce questionnaire (types de risques, fréquences d’exposition et résultats,
critères de préventions), on peut raisonnablement supposer que la validité de contenu de cet
outil est bonne.
Cependant, elle devra être démontrée formellement en la soumettant à l’appréciation
d’experts.
c. Validité de critères
La validité de critère représente le degré d’association entre un instrument de mesure ou une
technique et un autre instrument indépendant susceptible de mesurer le même phénomène ou
concept [19].
d. Validité de construit
La validité de construit tente de valider le corps théorique sous-jacent à la mesure et de
vérifier des hypothèses d’associations [19].
Cette définition théorique génère des hypothèses quant aux liens entre le concept mesuré et
d’autres concepts. La validité de construit consiste à infirmer ou
confirmer ces hypothèses d’existence ou d’absence de liens par l’expérimentation et
l’analyse statistique (Anastasi, 1994). Il faut donc établir la corrélation ou l’absence de
corrélation entre la variable censée mesurer le concept voulu et des variables reflétant d’autres
concepts, supposés plus ou moins proches de la mesure d’intérêt (Fermanian,1996).(a)
Dans la présente étude, nous n’avons pas intéressé a ce type de validité de même pour la
validité de construit.
En conclusion, le concept de validité a pour but d’objectiver ce que l’instrument
mesure. Lors de l’élaboration d’un outil d’évaluation, la constitution d’un cadre théorique
clair et rigoureux définissant les caractéristiques et les frontières du phénomène que l’on
souhaite mesurer est indispensable.(a)
2.1.1. Pré-test :
Le recours à un pré-test permet de détecter un certain nombre d’erreurs passées jusque-
là inaperçues, de s’assurer de la clarté des questions et de vérifier s’ils ont été énoncées dans
un langage accessible pour la population cible. C’est aussi un moyen efficace pour évaluer la
procédure de codage de données et la durée de passation de l’instrument de mesure [20].
2.1.2. Avis des experts :
L’avis des experts représente une étape fondamentale dans le processus de validation du
contenu. Plusieurs auteurs soulignent l’importance de cette étape aussi bien dans la
formulation et la structure des questions, les réponses alternatives que dans l’ordre des
questions (Groves et al. 2004Matsumoto, van de Vijver ,2001) [21].
Le choix des experts ainsi que leur nombre dépend de plusieurs critères. En effet, ils
sont déterminés par le type et la qualité des données ainsi que par la disponibilité de la
population des experts en question (Bruce, Langley, Tjale, 2008) [22].
Il est également nécessaire que les experts aient une bonne connaissance de la mesure,
du sujet étudié ainsi que de la population étudiée (Guillemin, 1993) [23].
Le comité d’experts qui ont participé à l’analyse de notre instrument de mesure a été
composé de quatre médecins et six encadrants de stage. Il leur a été demandé de vérifier la
clarté et la pertinence des questions et de noter leurs remarques sur une grille de cotation qui a
été associée à la fin de l’échelle.
2.2. Fidélité (fiabilité) du questionnaire:
La vérification de la fiabilité des outils de mesure passe par la vérification de principales
propriétés psychométriques : la stabilité (test-retest), la cohérence interne, (corrélations
interitems, alpha de Cronbach et Kuder-Richardson) et l’équivalence (formes alternatives).
a . L’évaluation de la stabilité par la méthode du test-retest
Cette méthode consiste à administrer deux fois la même échelle psychométrique auprès d’un
même échantillon, à deux instants différents mais dans des conditions identiques. En vue de
comparer de comparer les réponses des sujets interrogés, on étudie la corrélation entre les
scores obtenus la première fois et les scores obtenus la deuxième fois (R de Pearson). Cette
technique permet de s’assurer que l’instrument de mesure utilisé est stable et ne dépend pas
des changements d’humeur ou d’opinion des personnes interrogées (Hendrickson et al.,
1993).(j)
Plus le coefficient est proche de 1, plus l’échelle psychométrique est considérée comme
fiable. De façon opérationnelle, on a tendance à considérer comme fiables toutes les échelles
où les coefficients de corrélation sont supérieurs à 0,70. La difficulté de cette méthode réside
dans le choix de la période séparant les deux enquêtes. Si cette période est longue, il risque
alors d’y avoir un effet de test : les réponses au deuxième questionnaire peuvent être biaisées
du fait de la connaissance préalable de l’échelle de mesure et de l’impression de connaître les
réponses (le répondant ne réfléchit donc plus vraiment aux réponses qu’il fournit) ou du fait
de la volonté d’être cohérent avec soi-même (et donc d’essayer à tout prix de répondre de la
même manière plutôt que d’essayer de répondre selon l’impression du moment).(j)
Dans la pratique, les chercheurs adoptent une période allant de deux semaines à 2 mois,
sachant que plus la période séparant le test du retest est coûte, plus les coefficients de
corrélation auront tendance à être élevés. Ce type de test dépend fortement de l’effet de
mortalité expérimentale : si des individus qui au répondu au premier questionnaire
disparaissent lors du retest, cela peut compromettre les résultats obtenus. Pour éviter cela, il
est d’abord conseillé de recourir à un échantillon suffisamment large pour que la
représentativité soit quand même assurée. De plus, il est conseillé d’adjoindre des questions
supplémentaires (ouvertes et dont les réponses sont personnelles) permettant d’identifier les
répondants.(j)
b . L’ Alpha de Cronbach
Cet un instrument de mesure sert à évaluer les corrélations entre les énoncés d’une échelle qui
mesure un concept. Il s’interprète comme un coefficient de corrélation classique: plus il est
proche de 1, plus l’échelle est fiable (0,6 et 0,8). C’est sans doute l’instrument de fiabilité le
plus utilisé par les chercheurs (Cronbach, 1951).(j)
Il faut noter que l’alpha de Cronbach dépend du nombre d’items, les échelles de 2 ou 3 items
affichant généralement des alphas particulièrement petits par rapport aux échelles à plus de 3
items. Et indicateur dépend également du mode d’administration du questionnaire :
l’autoadministration permet d’aboutir à des alphas supérieurs à ceux obtenus par une
administration en face à face (Peterson, 1995). Par ailleurs, le calcul de l’alpha de Cronbach
n’est pertinent que lorsque l’échelle utilisée est unidimensionnelle (Gerbing et Anderson,
1988) : il faut donc préalablement procéder à des analyses en composantes principales sur
l’échelle psychométrique pour s’enquérir de sa dimensionnalité et calculer l’alpha de
Cronbach pour chaque dimension.(j)
Pour conclure sur cette notion de fiabilité, il faut noter que la grande majorité des recherches
se contente de calculer l’Alpha de Cronbach. (j)
3. Forces et limites de l’étude :
À notre connaissance, aucune étude tunisienne n’a été réalisée à propos de ce
sujet. Il s’agit alors, du premier travail de recherche à l’avoir soulever.
Une autre force, cette étude a visée 179 étudiants inscrits en 2éme ou 3éme
années en instrumentation opératoire dans les trois écoles de santé tunisienne, le
taux de participation était de 100% ce qui pourrait donner la possibilité de
généraliser les résultats.
Nous avons abouti dans notre étude l'échantillonnage non probabiliste, ou la
distribution des caractéristiques à l'intérieur de la population est égale, n’importe quel
échantillon serait représentatif et que les résultats, par conséquent, seront exacts. Et pour
assurer cela, nous étions très rigoureux lors de la construction du questionnaire qui était
formulé en recensant la littérature et en validant linguistiquement (pré-test + avis des experts),
toujours dans le but ultime d’obtenir une version du questionnaire la plus complète et valide
possible. Il importe également de rappeler que l’équipe de recherche était très vigilante à
l’égard des principes méthodologiques qui ont fondé la présente étude, et elle a essayé de les
respecter dans la mesure du possible
Notre étude a présenté une enquête généralisé a propos les principaux risques
exposés aux stagiaires tunisiens au bloc opératoire.
Nous estimons que le volume d’étude et leurs différentes rubriques peuvent
influencer sur la qualité de l’étude. Egalement, a cause de limitation des études a propos les
risques exposes aux stagiaires nous avons trouvé une sorte de petite problème en discussion
de cote comparaison notre étude avec la littérature.
Les délimitations sont des décisions prises par le chercheur sur les éléments qui
ne seront pas recherché (Leedy & Ormrod, 2010)( i) . L'étude a été limitée aux stagiaires des
écoles publiques dans le État tunisienne, où les stagiaires des écoles privées et les stagiaires
des écoles publiques dans d'autres États ont été exclus. Une délimitation supplémentaire
inclus l'utilisation d'items de sondage fermés, limitant ainsi les réponses des participants
Les limites sont des faiblesses ou des problèmes potentiels qui existent dans
une étude (Creswell,2008) qui peut, cependant, aider à d'autres répétitions d'études en tant
que besoin la recherche existera.(i) Cette étude comprenait les quatre limites suivantes.
D'abord, les stagiaires de l'échantillon étaient des participants volontaires et pouvaient se
retirer à tout moment étude, qui pourrait affecter la taille de l'échantillon et la validité
statistique. Une autre limitation est que Les résultats peuvent ne pas être généralisés aux
enseignants d'autres pays, en
régissant les lois et les règlements. Un limitation supplémentaire était la méthode de collecte
de données, en tant que données quantitatives, bien que ne contribue pas à des explications
approfondies des émotions ou des réponses.
4. La taille de l’échantillon :
L’échantillon de notre étude comptait 179 stagiaires instrumentistes répondant aux critères
d’inclusion.
La taille de l’échantillon de notre étude corrobore avec celle de l’étude de M. Isabel
Ríos-Risquez,et al. (c) réalisée en 2016 et qui avait comme objectif de déterminer
les relations entre la résilience, le burn-out scolaire et la santé psychologique des
stagiaires infirmiers. La taille de l’échantillon de cette étude était de N= 113
stagiaires (c). En outre, dans une étude similaire réalisée par DEARY I . Jet al. (d)
en 2003 dont était une étude de cohorte longitudinale sur l'épuisement
professionnel et l'attrition chez les étudiantes infirmières, la taille de l’échantillon
était de N= 124 stagiaires (d). Egalement, dans une étude menée en 2010 par
DUPONT Séverine. (e) et qui visait aux les constats des connaissances à propos de
fumées chirurgicales, la taille de l’échantillon était de N= 95 participants (e).
5. Caractéristiques sociodémographiques des participants :
1) Genre
La prédominance féminine était remarquée à partir de nos résultats : 86% (n=154) des
participants étaient des femmes. Les échantillons de plusieurs études recensées dans la
littérature et menées auprès des stagiaires ou même personnelles de sante étaient également à
prédominance féminine.
Le tableau qui suit soutient ce qu’on vient d’énoncer concernant la prédominance féminine au
sein des échantillons des études recensées.
Tableau XVII : Récapitulation des résultats concernant le genre des populations
d’études rapportées dans la littérature
Auteurs (années) Genre
Masculin
(%)
Féminin
(%)
K. Djeriri (2005) (f) 61 % 39%
M. Isabel Ríos-Risquez,(2016) 75.2 % 24.8%
(c)
66.6% 33.4%
Moya Nicolás (2013) (g)
Yadollah Fathi (2017) (h) 68.8% 31.2%
Notre étude (2018) 86% 14%
2) Âge
Dans notre étude, la tranche d’âge prédominante était celle comprise entre 20 et 21 ans.
Elle représente 79.9% (n=143) de l’ensemble des participants. L’âge moyen des répondants
était de 20.8 ans.
3) écoles et niveaux d’étude
Notre étude est spécialisée essentiellement les étudiants 3 eme années et 2eme années en
instrumentation opératoire, des écoles supérieures de sante et technique de sante de Tunis ;
Sousse et Sfax.
À cet égard, le tableau qui suit récapitule les résultats retrouvés.
Tableau croisé Niveau d’étude * Ecole de santé
Ecole de santé Total
Sousse Sfax Tunis
Niveau 2ème année 17 34 43 94
d’étude 3ème année 25 33 27 85
Total 42 67 70 179
References:
(a) [Link]
(b) [Link]
( 19) hethi min el 5idma mete3 wassim wali choufha
( c) DOI:10.1080/10376178.2016.1213648
(d) [Link] ( itha matla3likch 7ilou bel site
sci_hub )
(e) [Link]
(f) [Link]
(g) [Link]
(h) [Link]
(i)[Link]
&httpsredir=1&article=2339&context=etd
(j)[Link]
Paper_3_CJSLPA_Summer_2015_Vol_39_No_2_Croteau_et_al.pdf