Repenser la conception des outils d’évaluation et les compétences à viser
À l’approche des examens, de nombreux enseignants se trouvent confrontés à un double défi : concevoir des évaluations pertinentes tout en intégrant, de manière raisonnée, les outils numériques désormais omniprésents. Parmi eux, l’intelligence artificielle générative (IAg) s’impose comme une aide à la création de contenus pédagogiques – y compris dans
l’élaboration de questions d’évaluation. Mais cette automatisation interroge profondément nos pratiques : que mesurons-nous
réellement lorsque l’IA intervient dans la conception des évaluations ? Et surtout, quelles compétences souhaitons-nous encore évaluer nous-mêmes, à l’heure où certaines tâches cognitives peuvent être déléguées à des machines ?
Outils génératifs : gain de temps... et vigilance pédagogique
Des outils comme Quiz Wizard ou ChatGPT, pour n'en citer que quelques-uns, permettent aujourd’hui de générer en quelques clics des QCM, des questions ouvertes, des mises en situation, etc. Ces dispositifs sont utiles pour gagner du temps et varier les formats, mais ils génèrent par défaut des questions de bas niveau cognitif, souvent limitées à la restitution de faits ou à la vérification de compréhension immédiate.Cependant, les IA peuvent être orientées à l’aide de prompts spécifiques pour produire des questions plus complexes – à condition de bien maîtriser leurs paramètres (Oregon State University, 2024).
Une taxonomie à réinterroger avec l’IA
La taxonomie de Bloom reste un repère utile pour structurer les niveaux d’apprentissage. Mais à l’ère de l’IA, certaines tâches traditionnellement situées en haut de la pyramide, comme créer ou évaluer, peuvent désormais être partiellement automatisées. Cela ne signifie pas qu’elles perdent leur valeur, mais qu’il devient essentiel de s’intéresser au raisonnement et à la démarche de l’apprenant. Inversement, des compétences comme justifier un choix, critiquer une réponse générée, ou expliquer une démarche deviennent des indicateurs clés de la pensée autonome, qui repose sur des mécanismes métacognitifs complexes. Autrement dit, il ne s’agirait peut-être plus seulement de s’intéresser à ce que l’apprenant a produit, mais de prêter davantage attention à la manière dont il y est arrivé. C’est peut-être là que réside, aujourd’hui, une piste importante pour faire évoluer nos pratiques d’évaluation à l’ère de l’IA.
Vers une évaluation résiliente à l’ère de l’IA générative
Les travaux du groupe « Utilisation responsable de l’intelligence artificielle générative » de l’UCLouvain (2024) proposent des pistes concrètes pour garantir la validité, la fiabilité et l’éthique des évaluations. Voici quelques recommandations à adapter selon les contextes :
Réduire l’influence directe de l’IA
● Proposer des examens en présentiel avec une durée limitée
● Privilégier les productions manuscrites
● Favoriser les activités pratiques, orales ou démonstratives
● Utiliser des questions fermées ou à développement court dans des contextes encadrés
Formuler des consignes contextualisées
● S’appuyer sur des cas concrets ou des situations professionnelles
● Demander des justifications personnelles ou une réflexion critique
● Exiger la diversité des sources et une argumentation sur leur choix
Mettre en valeur le processus d’apprentissage
● Concevoir des tâches en lien avec le réel : terrain, expérience, projet
● Intégrer des journaux de bord, des traces intermédiaires, ou une rétroaction continue
● Co-construire certaines évaluations avec les apprenants, en valorisant la
métacognition et l’autonomie.
🤔 Et si on évaluait autrement ?
À l’heure où l’IA peut produire des travaux aboutis, faut-il encore évaluer uniquement le livrable final ? Ou serait-il plus pertinent de s’intéresser au processus, aux choix faits par l’apprenant, et à sa capacité à expliquer sa démarche ?
Ces questions seront approfondies dans la partie 2 de cet article, à paraître en juin. Elle portera sur les enjeux éthiques, la transparence dans les évaluations, et les nouvelles compétences à valoriser dans un monde où l’IA devient un outil de plus en plus courant.
Références
● Anderson, L. & Krathwohl, D. (2001). A Taxonomy for Learning, Teaching and Assessing
● Biggs, J. & Tang, C. (2011). Teaching for Quality Learning at University
● Dehaene, S. (2018). Apprendre ! Les talents du cerveau, le défi des machines
● Oregon State University (2024). Bloom’s Taxonomy Revisited – AI Tools
● UCLouvain (2024). Les défis de l’évaluation à l’ère de l’IA générative
Article écrit par Aicha Benali