Expérience des utilisateurs de l'outil de qualité des questions d'examen écrit pour la rédaction de nouvelles questions d'examen écrit

Auteurs-es

DOI :

https://doi.org/10.36834/cmej.72320

Résumé

Contexte : La création de nouvelles questions d'examen écrit est une tâche lourde pour les membres du corps enseignant. Bien qu'il existe plusieurs lignes directrices, aucune tentative antérieure n'a été faite pour les rationaliser dans un outil convivial. Nous avons créé l'outil de qualité des questions d'examen écrit (WEQQ - Written Exam Question Quality tool) et exploré la perception de cet outil par les utilisateurs potentiels lors de la rédaction de leurs questions d'examen.

Méthodes : Nous avons mené une étude descriptive pour explorer comment quatre membres de facultés canadiennes ont utilisé le WEQQ. Nous avons réalisé des entretiens structurés qui ont été analysés au sein des participants et entre eux afin de comprendre l'utilité et l'acceptabilité perçues du WEQQ. Des données quantitatives provenant d'un court questionnaire sur la création de questions d'examen et leurs propriétés psychométriques ont également été recueillies.

Résultats et conclusions : Les participants ont eu une perception positive du WEQQ et étaient favorables à son utilisation. Le WEQQ semble représenter un moyen convivial et simple d'aider les enseignants à créer des questions à choix multiples ou à réponses courtes. Le temps consacré à la tâche est resté inchangé lors de l'utilisation du WEQQ. Nous avons pu identifier deux profils d'utilisateurs, passif et actif, qui indiquent comment les enseignants utilisent le WEQQ pour rédiger leurs questions d'examen. Les prochaines étapes consisteront à étudier davantage si le WEQQ peut améliorer la qualité des questions d'examen écrit et à comprendre comment promouvoir une utilisation active du WEQQ lors de sa mise en œuvre.

Téléchargements

Les données relatives au téléchargement ne sont pas encore disponibles.

Références

Haladyna TM, Downing SM, Rodriguez MC. A review of multiple-choice item-writing guidelines for classroom assessment. Appl Meas Educ. 2002;15(3):309–33. https://doi.org/10.1207/S15324818AME1503_5 DOI: https://doi.org/10.1207/S15324818AME1503_5

Paniagua M, Swygert KA, Downing SM. Written tests: writing high-quality constructed-response and selected-response items. Assess Health Prof Educ. 2019;109–26. DOI: https://doi.org/10.4324/9781315166902-7

Vachon Lachiver É, St-Onge C, Cloutier J, Farand P. La rédaction de questions à choix multiple et de questions à réponse ouverte et courte pour les examens écrits dans les programmes de formation en santé : une étude docimologique des consignes de rédaction. Pédagogie Médicale. 2017;18(2):55–64. https://doi.org/10.1051/pmed/2018002 DOI: https://doi.org/10.1051/pmed/2018002

Denzin NK, Lincoln YS, Denzin NK, Lincoln YS. Handbook of qualitative research. Handb Qual Res. 1994; Available from: https://search.ebscohost.com/login.aspx?direct=true&db=snh&AN=COMP0998985617&site=ehost-live

Denzin NK, Lincoln YS (Eds). The Sage handbook of qualitative research. Thousand Oaks, CA: SAGE; 2011.

Young ME, Ryan A. Postpositivism in health professions education scholarship. Acad Med J Assoc Am Med Coll. 2020;95(5):695–9. https://doi.org/10.1097/ACM.0000000000003089 DOI: https://doi.org/10.1097/ACM.0000000000003089

Dedoose Version D Version 7.0.2, web application for managing, analyzing, and presenting qualitative and mixed method research data (2016). Los Angeles, CA: SocioCultural Research Consultants, LLC. www.dedoose.com. 2016

Carroll JB. Correcting point-biserial and biserial correlation coefficients for chance success. Educ Psychol Meas. 1987;47(2):359–60. https://doi.org/10.1177/0013164487472007 DOI: https://doi.org/10.1177/0013164487472007

DeMars CE. Classical test theory and item response theory. Wiley Handb Psychom Test Multidiscip Ref Surv Scale Test Dev. 2018;49–73. DOI: https://doi.org/10.1002/9781118489772.ch2

IBM Corp. Released 2016. IBM SPSS Statistics for Windows, Version 24.0. Armonk, NY: IBM Corp.; 2016.

Thomas A, Bussières A. Knowledge Translation and Implementation Science in Health Professions Education: Time for clarity? Acad Med J Assoc Am Med Coll. 2016;91(12):e20. https://doi.org/10.1097/ACM.0000000000001396 DOI: https://doi.org/10.1097/ACM.0000000000001396

Téléchargements

Publié-e

2024-09-24

Comment citer

1.
Vachon Lachiver E, St-Onge C. Expérience des utilisateurs de l’outil de qualité des questions d’examen écrit pour la rédaction de nouvelles questions d’examen écrit. Can. Med. Ed. J [Internet]. 24 sept. 2024 [cité 5 déc. 2025];16(1):83-8. Disponible à: https://journalhosting.ucalgary.ca/index.php/cmej/article/view/72320

Numéro

Rubrique

Communications brèves