Ceci est une version obsolète publiée le 2024-06-24. Consulter la version la plus récente.

Cinq façons de prendre en main la mise en place d'un modèle d'évaluation de programmes dans les académies vouées au développement professionnel des formateurs en sciences de la santé

Auteurs-es

  • Rebecca D Blanchard University of Kansas Medical Center
  • Katherine E McDaniel Duke University School of Medicine
  • Deborah L Engle Duke University School of Medicine

DOI :

https://doi.org/10.36834/cmej.77995

Résumé

La prolifération des écoles (« académies ») vouées au développement professionnel des formateurs en sciences de la santé au Canada et aux États-Unis témoigne de l’importance que leur accordent le corps enseignant et les établissements d’enseignement.  Pourtant, il peut s'avérer difficile d'établir et d'évaluer leur efficacité au moyen d'une évaluation de programme. De plus, les responsables de ces écoles manquent souvent de temps, de compétences et de personnel pour entreprendre une évaluation rigoureuse de leurs programmes. Nous présentons un guide étape par étape pour évaluer les écoles vouées au développement professionnel des formateurs en sciences de la santé. L'élaboration d'un plan d'évaluation des programmes avant toute nouvelle initiative de l’école permet de s'assurer que celle-ci s’ajuste et se réajuste pour obtenir des résultats et répondre aux attentes des personnes concernées. Ce plan fournit également un mécanisme de suivi des retombées de l'école et ainsi renforcer ses demandes de financement, favoriser sa pérennité et encourager l'adhésion et le soutien continus des partenaires institutionnels. Pour toutes ces raisons, nous présentons les recommandations suivantes : appliquer le(s) cadre(s) d'évaluation de programme pertinent(s); identifier les ressources pour l'évaluation de programme; se préparer à raconter l'histoire de votre école; dresser la liste des résultats de programme souhaités; établir un plan de collecte de données et obtenir l'approbation du comité d'examen institutionnel.

Références

Uijtdehaage S, Ho MJ, Harvey E, Dorris CS, Huggett KN. Academies in health professions education: a scoping review. Acad Med. 2021;96(10):1476-1483. https://doi.org/10.1097/ACM.0000000000004161 DOI: https://doi.org/10.1097/ACM.0000000000004161

Fernandez N, Audétat MC. Faculty development program evaluation: a need to embrace complexity. Adv Med Educ Pract. 2019;10:191-199. Published 2019 Apr 16. https://doi.org/10.2147/AMEP.S188164 DOI: https://doi.org/10.2147/AMEP.S188164

Corral J, Guiton G, Aagaard E. The impact of an academy of medical educators on the culture of an American health sciences campus. Acad Med. 2017; 92(8):1145–1150. https://doi.org/10.1097/ACM.0000000000001508 DOI: https://doi.org/10.1097/ACM.0000000000001508

Blanchard, Rebecca, PhD, MEd, Belforti, Raquel, DO, MS. Evaluation of a health professions teaching academy through the lens of social capital. J Contin Educ Health Prof. 2022;42(1):53-59. https://doi.org/10.1097/CEH.0000000000000357. DOI: https://doi.org/10.1097/CEH.0000000000000357

Thoma B, Gottlieb M, Boysen-Osborn M, et al. Curated collections for educators: five key papers about program evaluation. Cureus. 2017 May 4;9(5):e1224. https://doi.org/10.7759/cureus.1224 DOI: https://doi.org/10.7759/cureus.1224

Fallis D, Irwin S, Cervero R, Durning S. Frameworks to guide faculty development for health professions education: a scoping review. J Contin Educ Health Prof. 2022;42(3):180-189. https://doi.org/10.1097/CEH.0000000000000376. DOI: https://doi.org/10.1097/CEH.0000000000000376

Alexandraki I, Rosasco RE, Mooradian AD. An evaluation of faculty development programs for clinician–educators: a scoping review. Acad Med. 2021;96(4): e10-e10e11. https://doi.org/10.1097/ACM.0000000000004009 DOI: https://doi.org/10.1097/ACM.0000000000003813

Haas M, Triemstra J, Tam M. et al. A decade of faculty development for health professions educators: lessons learned from the Macy Faculty Scholars Program. BMC Med Educ. 2023 Mar 27;23(1):185. https://doi.org/10.1186/s12909-023-04155-x DOI: https://doi.org/10.1186/s12909-023-04155-x

Searle NS, Thompson BM, Friedland J, et al. The prevalence and practice of academies of medical educators: a survey of U.S. medical schools. Acad Med 85(1):p 48-56, Jan 2010. https://doi.org/10.1097/ACM.0b013e3181c4846b DOI: https://doi.org/10.1097/ACM.0b013e3181c4846b

Oermann MH, Reynolds SS, Granger BB. Using an implementation science framework to advance the science of nursing education. J Prof Nurs. 2022 Mar-Apr;39:139-145. https://doi.org/10.1016/j.profnurs.2022.01.014 DOI: https://doi.org/10.1016/j.profnurs.2022.01.014

Hamza DM, Regehr G. Eco-normalization: evaluating the longevity of an innovation in context. Acad Med. 96(11S):p S48-S53, Nov 2021. https://doi.org/10.1097/ACM.0000000000004318 DOI: https://doi.org/10.1097/ACM.0000000000004318

Kirkpatrick DL, Kirkpatrick JD. Evaluating training programs: the four levels. 3rd ed. San Francisco, CA: Berrett-Koehler; 2006.

Téléchargements

Publié-e

2024-06-24

Versions

Comment citer

1.
Blanchard RD, McDaniel KE, Engle DL. Cinq façons de prendre en main la mise en place d’un modèle d’évaluation de programmes dans les académies vouées au développement professionnel des formateurs en sciences de la santé. Can. Med. Ed. J [Internet]. 24 juin 2024 [cité 18 déc. 2024];15(5). Disponible à: https://journalhosting.ucalgary.ca/index.php/cmej/article/view/77995

Numéro

Rubrique

Terrain glissant