Published on 21.08.2024
Repenser l'évaluation à l'ère des IA génératives
Dans l'enseignement supérieur, l'émergence des intelligences artificielles (IA) génératives soulève des questions sur les méthodes d’évaluation, sur l'intégrité académique et la mesure effective des compétences étudiantes. Cet article propose des pistes de solutions et des références pour repenser les évaluations académiques afin de s’assurer que les productions des étudiant·e·s sont le fruit de leur propre travail.
L'utilisation croissante des IA par les étudiant·e·s pour accomplir des tâches académiques pose un défi significatif : comment distinguer le travail authentique de celui assisté par IA ? De plus, la facilité d'accès à ces technologies augmente les risques de fraude et compromet certaines méthodes d'évaluation des connaissances et des compétences. Par exemple, les IA peuvent rédiger des essais sur une multitude de sujets, en structurant logiquement les arguments et en intégrant des informations pertinentes. Les IA peuvent également générer des contenus multimédias, des scripts pour des vidéos, choisir des images pertinentes et même synthétiser des voix off pour expliquer des concepts complexes.
La littérature scientifique récente (Luo, 2024 ; Xia, Weng, Ouyang, Lin & Chiu, 2024) souligne la nécessité d'adapter les méthodes d'évaluation pour répondre à cette nouvelle réalité.
Proposition de solutions
Une approche consiste à développer des tâches d'évaluation authentiques, qui reflètent les activités réelles des étudiant·e·s hors de l'institution éducative et dans leur vie future. Ces tâches devraient inclure des performances réelles plutôt que de simples réponses à des questions, et encourager la collaboration, l'auto-évaluation et la présentation des résultats dans divers formats.
Les stratégies d'évaluation incluent des démonstrations par les étudiant·e·s, des recherches empiriques, et la présentation de leurs découvertes à un public réel. D'autres activités comme les jeux de rôles, les reconstitutions, les études de cas, et les expositions permettent également de mettre en valeur les compétences et les intérêts divers des étudiant·e·s.
De plus, les enseignant·e·s devraient inclure des instructions claires sur l'usage des IA dans les syllabus, aligner les évaluations avec les objectifs pédagogiques du cours, et concevoir les évaluations comme des parties intégrantes du processus d'apprentissage. Diverses méthodes d'évaluation devraient être proposées aux étudiant·e·s.
Il est aussi fondamental de sensibiliser les étudiant·e·s aux avantages et aux limites des IA, et demander une transparence totale dans l'utilisation de ces outils dans les travaux académiques, lorsqu’elles sont autorisées.
Pour se former sur ces thématiques, le service DIDANUM propose des ateliers et des cours pour ses enseignant·e·s :
- Action Lab - Repenser l'évaluation des étudiant·e·s à l'ère du numérique : un accompagnement pratique
- Évaluation des apprentissages et des enseignements
Pour s’informer et approfondir ces sujets :
Al Amoush S. & Farhat A. (2023). The Power of Authentic Assessment in the Age of AI. Faculty focus.
Boucher, J.P. (2023). ChatGPT : la riposte doit être pédagogique. Pédagogie Collégiale, 36(3), printemps-été 2023.
Castell, P. & Petiteau, L. (2023). 10 stratégies pour éviter le plagiat lors de l’utilisation d’un agent conversationnel (ChatGPT) dans les évaluations. Le Carrefour [Enseigner.uqam.ca].
Lez, A., Dubé, E. & Beaulieu, M. (2023). Évaluer à l’ère des IA : Combattre la bête ou l’apprivoiser. Un guide de réflexion. Service de soutien à la formation, Université de Sherbrooke.
Références
Luo, J. (2024). A critical review of GenAI policies in higher education assessment: A call to reconsider the “originality” of students' work. Assessment & Evaluation in Higher Education, 49(5), 651-664. https://doi.org/10.1080/02602938.2024.2309963
Xia, Q., Weng, X., Ouyang, F., Lin, T. J., & Chiu, T. K. F. (2024). A scoping review on how generative artificial intelligence transforms assessment in higher education. International Journal of Educational Technology in Higher Education, 21(40). https://doi.org/10.1186/s41239-024-00468-z