Face à la prolifération des travaux générés par l'IA, de nombreux enseignants se tournent vers les détecteurs de fraude. Pourtant, ces outils sont un mirage : peu fiables, biaisés et facilement contournables, ils créent plus de problèmes qu'ils n'en résolvent. Plutôt que de traquer l'IA, ne devrions-nous pas plutôt repenser notre façon d'évaluer ?
En tant que technopédagogue, une observation récurrente émerge de mes conversations avec les enseignants des EAFC WBE : la frustration grandissante face à l'utilisation non critique de l'intelligence artificielle par les apprenants. Nombreux sont ceux qui se plaignent de travaux qui ressemblent à de simples copier-coller trop parfaits, où toute trace de réflexion ou de démarche personnelle semble inexistante. Pour y remédier, la tentation est forte de se tourner vers des logiciels de détection anti-IA, présentés comme la panacée pour identifier la fraude. Or, je pense que ces outils sont une fausse bonne idée et, pire encore, qu'ils pourraient créer plus de problèmes qu'ils n'en résolvent.
Un marché en pleine expansion mais aux fondations fragiles
Le marché des détecteurs de contenu IA est en plein boom, avec des acteurs comme zerogpt.com et TextGuard.ai, des outils d'accès libre et grand public qui se positionnent comme des solutions de référence par les moteurs de recherche. Ces outils fonctionnent sur des principes similaires : ils analysent le texte pour y déceler des schémas, des structures et des choix lexicaux typiques de l'IA. Les développeurs affirment que l'IA a tendance à utiliser une "écriture plate", avec une faible variabilité de phrases et une prévisibilité statistique. En théorie, cela devrait permettre de distinguer un texte généré par l'IA d'un texte écrit par un humain.
Pourtant, la réalité est beaucoup plus complexe, et mon expérience personnelle le confirme. J'ai mené mes propres tests en utilisant ces outils. Un texte que j'ai intégralement généré avec Gemini a été soumis à l'analyse de deux détecteurs. Le premier, zerogpt, a affiché un résultat de 0% d'IA, classant le texte comme "entièrement écrit par un humain". Le second, TextGuard.ai, a pour sa part détecté une fraude à 90%, identifiant une intervention flagrante de l'IA. Cette divergence de résultats entre deux outils gratuits, censés faire la même chose, est à la fois déconcertante et révélatrice du manque de standardisation et de fiabilité.
Un constat alarmant : des outils biaisés et dangereux
Ces outils sont non seulement instables, mais aussi profondément biaisés. Une étude de l'Université de Stanford a démontré qu'ils classent à tort les écrits d'étudiants non-anglophones comme étant de l'IA. Plus de la moitié des essais de ces apprenants ont été faussement identifiés, alors que les travaux d'étudiants natifs passaient le test sans problème. Ce biais est alarmant : il met en péril l'intégrité de l'évaluation et mine la confiance de nos apprenants. Il est inacceptable d'accuser un étudiant de fraude sur la base d'un outil aussi peu fiable.
De plus, il existe une véritable "course aux armements" entre les développeurs d'IA et les créateurs d'outils de détection. De nouveaux logiciels et services émergent pour "humaniser" le texte généré par l'IA. Par exemple, des outils comme QuillBot ou Smodin sont capables de paraphraser et de reformuler un texte pour le rendre indétectable, en modifiant la structure des phrases et le vocabulaire. D'autres, comme Undetectable.ai, promettent de passer outre les contrôles anti-IA en quelques clics. Cette dynamique est d'autant plus préoccupante qu'elle incite les étudiants, une fois leur texte identifié, à chercher des moyens pour tromper le système, sans pour autant se lancer dans un travail de fond.
Conclusion : une réflexion nécessaire et urgente
Face à ces constats, il est clair que les logiciels de détection anti-IA ne sont pas la solution miracle. Au contraire, ils peuvent nous détourner du cœur de notre mission d'enseignant : éduquer et guider. Il est tentant de se focaliser sur l'outil, mais nous devons nous concentrer sur la pédagogie et le degré de maîtrise des acquis d’apprentissage.
Plutôt que de dépenser de l'énergie à détecter ce qui a été généré par l'IA, il est bien plus pertinent de repenser nos méthodes d'évaluation. Les enseignants des EAFC ont un rôle crucial à jouer en créant des évaluations qui ne se prêtent pas à la simple requête d'IA :
- Travaux oraux : Demander aux apprenants d'expliquer leur démarche via une “promptographie” (bibliothèque de prompts qui permet de vérifier le raisonnement de l’étudiant) et de justifier leurs réponses à l'oral.
- Production créative : Encourager des projets de groupe, des présentations, des études de cas qui nécessitent une interaction et une réflexion uniques.
- Évaluation de processus : Demander de documenter les différentes étapes du travail, des ébauches aux versions finales, pour montrer la progression.
L'IA est un outil que nos apprenants utilisent, que nous le voulions ou non. Notre rôle n'est pas de l'interdire, mais de les accompagner pour qu’ils en fassent, comme tout un chacun, un usage critique et éthique. C'est ainsi que nous pourrons réellement lutter contre l’utilisation de l’IA sans discernement et favoriser un apprentissage profond et durable.
Sitographie
Outils de détection d'IA : Zerogpt.com et TextGuard.ai
Description : Ces deux logiciels sont des exemples concrets et vérifiables d'outils de détection d'IA. Ils sont utilisés dans l'article pour démontrer, par un test pratique mené sur leurs versions gratuites, le manque de cohérence et la fiabilité aléatoire du marché des détecteurs.
Outils pour contourner la détection : quillbot.com , smodin.io et Undetectable.ai
Description : Ces logiciels illustrent la "course aux armements" technologique qui rend les détecteurs inefficaces. Ils sont utilisés par les apprenants pour reformuler et "humaniser" le texte généré par une IA afin de le rendre indétectable aux logiciels anti-fraude. Ces services sont généralement proposés avec une période d'essai gratuite, après laquelle ils deviennent payants.
Études et rapports académiques :
Stanford University. "GPT detectors are biased against non-native English writers." Publié en 2023. https://hai.stanford.edu/news/ai-detectors-biased-against-non-native-english-writers
Description : Cette étude académique de l'Université de Stanford démontre le biais des détecteurs d'IA. Elle a révélé que ces outils classent à tort comme générés par l'IA les écrits de personnes dont l'anglais n'est pas la langue maternelle, avec un taux d'erreur élevé, tout en étant fiables pour les locuteurs natifs.
Article rédigé par Pierre-Philippe QUINET ...