Une citation générée par l’intelligence artificielle, attribuée à tort à Einstein, a piégé l’actuelle rectrice de l’Université de Gand. Un incident révélateur, selon Dominique Verpoorten (ULiège), des défis posés par l’IA dans la formation universitaire.

L’ancienne vice-Première ministre Petra De Sutter (Groen), aujourd’hui rectrice de l’Université de Gand, s’est fait prendre au jeu de l’intelligence artificielle. Lors de son discours d’ouverture en septembre dernier, elle a notamment attribué par erreur une citation au scientifique Albert Einstein. Le média Apache a révélé que cette citation, et d’autres, avaient en réalité été générées par une IA générative. Si la rectrice s’est aussitôt excusée, évoquant « une bonne leçon qui relancera sans aucun doute le débat autour de l’utilisation de l’IA », l’incident interroge la maîtrise de ces outils au sein même des universités, lieu de formation de la pensée critique. « Le cas est exemplatif et rejoint des préoccupations universitaires très actuelles », analyse Dominique Verpoorten, professeur de pédagogie et chargé du groupe de réflexion sur les usages de l’IA à l’Université de Liège. « Dès lors que l’IA mélange informations exactes et inexactes, la formation à l’esprit critique est plus nécessaire que jamais. »

Cet événement doit-il interroger les universités quant à l’usage de l’intelligence artificielle ?

C’est en tout cas un épisode très parlant, et un exemple à présenter aux étudiants. Voici une universitaire, et non des moindres, qui avait pourtant mis en garde contre une confiance aveugle accordée à l’IA, et qui tombe elle-même dans ce travers. Le cas est exemplatif et rejoint des préoccupations universitaires très actuelles. Dès lors que l’IA mélange informations exactes et inexactes, la formation à l’esprit critique, qui a toujours été un emblème de l’université, est plus nécessaire que jamais. Cela va se traduire dans les politiques et les formations que les universités développent pour leurs étudiants. Le message de base reste le même : vérifier ses sources. Il est ancien, mais il est réactivé avec force depuis l’arrivée d’une IA largement démocratisée.

Est-ce problématique d’utiliser l’IA pour rédiger un discours ?

Non, pas nécessairement. Mais le contrôle final doit toujours revenir à l’humain. Il est important de pouvoir tout assumer. Dans ce cas-ci, Petra De Sutter a sans doute accordé trop de confiance à l’IA, sans opérer un contrôle suffisamment approfondi, ce qui est surprenant lorsqu’il s’agit de citations. Pour autant, je ne considère pas qu’il soit problématique de recourir à l’IA pour écrire un discours, pas plus que pour aider des étudiants à structurer un texte ou à faire du brainstorming. Nous entrons dans une ère de nouvelles symbioses entre l’IA et l’intelligence biologique, une forme de travail collaboratif. Il est probable que Petra De Sutter disposait déjà d’idées et qu’elle ait sollicité l’IA pour enrichir un brouillon. Le problème n’est pas l’usage, mais l’absence de vérification suffisante des contenus générés. L’IA est aujourd’hui capable de produire des discours fluides, affirmatifs et nuancés, ce qui crée un fort sentiment de confiance chez l’utilisateur. Par ailleurs, lorsqu’on est surchargé, qu’on manque de temps, la machine nous permet d’en gagner au détriment de la qualité. L’IA vise alors uniquement à augmenter la productivité personnelle.

Les enseignants et les chercheurs sont-ils suffisamment outillés face à ces technologies ?

Il n’est pas nécessaire de suivre dix ans de formation pour formuler une requête à une IA. Là où les enseignants ont besoin d’être davantage accompagnés, c’est sur le plan pédagogique : comment intégrer l’IA dans la préparation des cours, éventuellement dans la correction – même si cela reste discuté et classé comme usage à haut risque par le règlement européen – et surtout dans les démarches d’apprentissage. Avec le danger du cognitive offloading, c’est-à-dire de déléguer à l’IA des opérations intellectuelles que l’on devrait réaliser soi-même. Ce phénomène n’est pas nouveau, mais il peut entraîner une perte de certaines capacités. Des études récentes montrent que les étudiants aidés par l’IA obtiennent de meilleurs résultats à court terme, mais pas sur le long terme. Certains usages de l’IA conduisent à des apprentissages moins durables.

À lire aussi « Avec ChatGPT, j’ai peur de ne plus savoir écrire » : quand l’IA fait gagner du temps… et perdre des réflexes

Dès lors, comment former les étudiants ?

Les universités doivent se poser une question centrale : quelles compétences les étudiants doivent-ils impérativement maîtriser par eux-mêmes pour leur futur métier ? Dans ces cas-là, ils doivent d’abord s’exercer sans recourir à l’IA. Ensuite, il faut identifier les compétences qui peuvent être développées en symbiose avec l’IA. Par exemple, la capacité de rédaction reste incontournable dans les facultés littéraires. Il est possible que du côté des facultés scientifiques, on se concentre davantage sur d’autres compétences à acquérir. L’IA rebat les cartes des profils de sortie des étudiants. Un étudiant en première année de traduction traduira certainement moins bien que l’IA. Par contre, en fin de cursus, il sera supérieur à l’IA. Ce qui ne veut pas dire qu’il ne fera plus appel à l’IA, mais il sera capable d’exercer un contrôle et d’opérer un surpassement.

Peut-on détecter facilement une erreur ou une mauvaise utilisation de l’IA ?

C’est presque impossible sur des travaux écrits. Dans une étude menée en Angleterre, les chercheurs ont glissé 80 copies générées par l’IA parmi des copies d’examen d’une université réputée. La majorité des travaux produits par l’IA n’ont pas été détectés, et beaucoup obtenaient des résultats supérieurs à la moyenne. Il n’est pas possible d’appliquer pour l’IA les méthodes utilisées contre le plagiat, qui reposent sur la comparaison avec des travaux existants. Si l’on ne met pas en place des dispositifs permettant de vérifier que l’apprentissage a bien eu lieu – par des entretiens, des évaluations orales ou des activités centrées sur le processus plutôt que sur le produit final –, il deviendra impossible de s’assurer que l’étudiant a réellement acquis les compétences attendues. Pour autant, il ne faut pas voir des tricheurs partout. La grande majorité des étudiants veulent apprendre.

SOURCE :

Entretien – Journaliste au pôle Société

Par Charlotte Hutin

 

Inscrivez-vous dans le groupe de discussion WhatsApp Debout Congolaises :

Suivez ce lien pour intégrer le Groupe WhatsApp  Debout Congolaises :  https://chat.whatsapp.com/Ba30AwVSdfU5IpznsbTdVy?mode=wwc

Partagez les publications de Debout Congolaises autour de vous via vos réseaux sociaux et WhatsApp :