Début du contenu principal.
Les preuves s'accumulent montrant que les chatbots ont modifié les habitudes d'étude et la façon dont les étudiants recherchent de l'information.
Lorsque le professeur de philosophie Darren Hick a découvert un autre cas de tricherie dans sa classe à l'Université Furman le semestre dernier, il a publié une mise à jour à ses abonnés sur les médias sociaux : «Eeeet voilà, j'ai attrapé mon deuxième plagiaire ChatGPT.»
Des amis et des collègues ont réagi, certains avec des émojis écarquillés. D'autres ont exprimé leur surprise.
«Seulement 2 ?! J'en ai attrapé des dizaines», a déclaré Timothy Main, professeur de rédaction au Collège Conestoga au Canada. «Nous sommes en mode crise total.»
En l'espace de pratiquement une nuit, ChatGPT et d'autres chatbots d'intelligence artificielle sont devenus la source privilégiée de tricherie à l'université.
Maintenant, les enseignants repensent la manière dont ils enseigneront leurs cours cet automne, de l'écriture 101 à l'informatique. Les enseignants affirment vouloir exploiter le potentiel de la technologie pour enseigner et apprendre de nouvelles manières, mais en ce qui concerne l'évaluation des étudiants, ils voient la nécessité de rendre les questions d'examen et les devoirs «à l'épreuve de ChatGPT».
Pour certains instructeurs, cela signifie un retour aux examens écrits, après des années de tests uniquement numériques. Certains professeurs exigeront des étudiants qu'ils montrent l'historique de leurs modifications et leurs brouillons pour prouver leur processus de réflexion. D'autres instructeurs sont moins préoccupés. Certains étudiants ont toujours trouvé des moyens de tricher, disent-ils, et ceci n'est qu'une option de plus.
Une explosion de chatbots générés par l'IA, y compris ChatGPT, qui a été lancé en novembre, pose de nouvelles questions aux universités soucieuses de s'assurer que les étudiants puissent non seulement obtenir la bonne réponse, mais aussi comprendre comment effectuer le travail. Les éducateurs disent qu'il y a au moins un consensus sur certains des défis les plus pressants.
- Les détecteurs d'IA sont-ils fiables ?
Pas encore, déclare Stephanie Laggini Fiore, vice-rectrice associée à l'Université Temple. Cet été, Mme Fiore a fait partie d'une équipe à Temple qui a testé le détecteur utilisé par Turnitin, un service populaire de détection de plagiat, et l'a trouvé «incroyablement peu précis». Il fonctionnait mieux pour confirmer le travail humain, a-t-elle dit, mais avait des lacunes dans l'identification du texte généré par chatbot et était le moins fiable pour les travaux hybrides.
- Les étudiants seront-ils faussement accusés d'utiliser des plateformes d'intelligence artificielle pour tricher ?
Absolument. Lors d'un cas le semestre dernier, un professeur de Texas A&M a injustement accusé toute une classe d'utiliser ChatGPT pour leurs devoirs finaux. La plupart des étudiants de la classe ont ensuite été disculpés.
- Alors, comment les éducateurs peuvent-ils être certains si un étudiant a utilisé de manière malhonnête un chatbot alimenté par l'IA ?
C'est presque impossible à moins qu'un étudiant ne l'admette, comme l'ont fait les deux étudiants de Hicks. Contrairement au plagiat traditionnel où le texte correspond à la source dont il est extrait, le texte généré par l'IA est unique à chaque fois.
Dans certains cas, la tricherie est évidente, explique Timothy Main, le professeur de rédaction, qui a eu des étudiants qui ont rendu des devoirs clairement copiés-collés. «J'ai reçu des réponses qui disaient : "Je suis juste un modèle de langage IA, je n'ai pas d'opinion à ce sujet'"», a-t-il dit.
À voir également: Fraude et malaise: trop facile de créer une intelligence artificielle en 2023?
Lors de son cours de rédaction obligatoire de première année le semestre dernier, Main a enregistré 57 cas de problèmes d'intégrité académique, une explosion de malhonnêteté académique par rapport à environ huit cas au cours des deux semestres précédents. La tricherie grâce à l'IA représentait environ la moitié de ces cas.
Cet automne, M. Main et ses collègues révisent le cours de rédaction obligatoire pour les étudiants de première année. Les devoirs de rédaction seront plus personnalisés pour encourager les étudiants à écrire sur leurs propres expériences, opinions et perspectives. Tous les devoirs et les syllabus du cours auront des règles strictes interdisant l'utilisation de l'intelligence artificielle.
Les administrateurs d'université encouragent les instructeurs à établir des règles claires.
De nombreuses institutions laissent aux instructeurs la décision d'utiliser ou non des chatbots en classe, a déclaré Hiroano Okahana, responsable du Laboratoire des Futurs de l'Éducation au Conseil américain de l'Éducation.
À l'Université d'État du Michigan, les enseignants reçoivent «une petite bibliothèque d'énoncés» parmi lesquels choisir et qu'ils peuvent modifier selon leurs besoins dans les syllabus, a déclaré Bill Hart-Davidson, doyen associé de la Faculté des Arts et Lettres de l'USM, qui dirige des ateliers sur l'IA pour les enseignants afin de contribuer à la création de nouveaux devoirs et politiques.
«Poser des questions aux étudiants comme "Expliquez-moi en trois phrases ce qu'est le cycle de Krebs en chimie ?" Cela ne fonctionnera plus, car ChatGPT fournira une réponse parfaitement correcte à cette question», a déclaré Hart-Davidson, qui suggère de poser les questions différemment. Par exemple, donner une description avec des erreurs et demander aux étudiants de les repérer.
Les preuves s'accumulent montrant que les chatbots ont modifié les habitudes d'étude et la façon dont les étudiants recherchent de l'information.
Chegg Inc., une entreprise en ligne qui propose de l'aide aux devoirs et qui a été citée dans de nombreux cas de tricherie, a annoncé en mai que ses actions avaient chuté de près de 50 % au premier trimestre 2023 en raison de l'augmentation de l'utilisation de ChatGPT par les étudiants, selon le PDG de Chegg, Dan Rosensweig. Il a déclaré que les étudiants qui paient normalement pour le service de Chegg utilisaient maintenant la plateforme d'IA gratuitement.
Au printemps dernier à Temple, l'utilisation d'outils de recherche tels que les bases de données de bibliothèque a nettement diminué suite à l'apparition des chatbots, a déclaré Joe Lucia, le doyen des bibliothèques de l'université.
«Il semblait que les étudiants considéraient cela comme un moyen rapide de trouver des informations qui ne nécessitait pas l'effort ou le temps qu'il faut pour se rendre sur une ressource dédiée et y travailler», a-t-il dit.
De tels raccourcis sont une préoccupation en partie parce que les chatbots ont tendance à inventer des choses, un dysfonctionnement connu sous le nom de «hallucination». Les développeurs affirment travailler pour rendre leurs plateformes plus fiables, mais il n'est pas clair quand ou si cela se produira. Les éducateurs s'inquiètent également de ce que les étudiants perdent en sautant des étapes.
«Il va y avoir un grand retour aux tests sur papier», a déclaré Bonnie MacKellar, professeure d'informatique à l'Université St. John's à New York. Cette discipline avait déjà un «énorme problème de plagiat» avec des étudiants empruntant des codes informatiques à des amis ou les copiant depuis internet, a expliqué MacKellar. Elle craint que les étudiants de niveau introductif qui prennent des raccourcis en IA se privent des compétences nécessaires pour les cours de niveau supérieur.
«J'entends des collègues dans les cours de sciences humaines dire la même chose : c'est le retour aux cahiers bleus», a déclaré MacKellar. En plus d'exiger des étudiants de ses cours d'introduction d'écrire à la main leur code, les examens écrits compteront pour une plus grande part de la note cet automne, a-t-elle dit.
Ronan Takizawa, un étudiant de deuxième année au Colorado College, n'a jamais entendu parler d'un cahier bleu. En tant que majeur en informatique, cela lui semble un retour en arrière, mais il convient que cela obligerait les étudiants à apprendre le contenu. «La plupart des étudiants ne sont pas assez disciplinés pour ne pas utiliser ChatGPT», a-t-il déclaré. Les examens écrits «vous obligeraient vraiment à comprendre et à apprendre les concepts».
À revoir également : Entre appréhension et espoir, le ChatGPT s'installe dans nos vies
Takizawa a déclaré que les étudiants sont parfois confus sur le moment où il est acceptable d'utiliser l'IA et quand c'est de la tricherie. Utiliser ChatGPT pour aider à certains devoirs comme résumer des lectures ne semble pas différent de consulter YouTube ou d'autres sites que les étudiants utilisent depuis des années, a-t-il dit.
D'autres étudiants disent que l'arrivée de ChatGPT les rend paranoïaques quant à être accusés de tricherie alors qu'ils ne l'ont pas fait.
Nathan LeVang, un étudiant de deuxième année à l'Université d'État de l'Arizona, dit qu'il vérifie maintenant tous ses devoirs en les soumettant à un détecteur d'IA.
Pour un essai de 2 000 mots, le détecteur a signalé certains paragraphes comme étant «22 % écrits par un humain, avec principalement une voix d'IA».
«Je me suis dit : "Ce n'est certainement pas vrai, car je viens de m'asseoir ici et de l'écrire mot pour mot"», a déclaré LeVang. Mais il a quand même réécrit ces paragraphes. «Si cela me prend 10 minutes après avoir écrit mon essai pour m'assurer que tout est en ordre, c'est bien. C'est un travail supplémentaire, mais je pense que c'est la réalité dans laquelle nous vivons.»