Marine Ernoult / IJL – Réseau.Presse – La Voix acadienne
Le philosophe Frédérick Bruneault, professeur à l’École des médias de l’Université du Québec à Montréal, également chercheur à l’Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique, revient sur les avantages et les inconvénients de l’intelligence artificielle (IA) générative dans l’enseignement supérieur.
À l’arrivée de Wikipédia, de nombreux débats avaient traversé le monde universitaire. Les enseignants s’inquiétaient que les étudiants copient l’encyclopédie en ligne. Est-ce que vous voyez certaines similarités avec les craintes actuelles?
C’est toujours un débat qui revient. Mais, par rapport à Wikipedia, on est dans un autre niveau, on parle d’outils qui, sur simple requête, peuventgénérer un texte inédit. À mon avis, les IA génératives comme ChatGPT perturbent de façon plus importante le développement des compétences et des apprentissages des étudiants.
Justement, faut-il interdire l’utilisation de ChatGPT dans les établissements postsecondaires ou l’envisager comme un outil pédagogique?
Simplement l’interdire ne fonctionnera pas, car c’est extrêmement compliqué, voire impossible, de détecter des contenus créés par des IA génératives.
Il y a des outils qui se sont développés, mais ce n’est pas de la science exacte. Le mieux qu’ils peuvent faire est de donner un taux de probabilité que les contenus ont été écrits par une IA générative. C’est un casse-tête infini, on ne peut pas démontrer de façon certaine qu’il s’agit d’un plagiat.
Ça ne veut pas dire que les établissements postsecondaires ne doivent pas se doter de politiques claires. Au contraire, une forme d’encadrement est essentielle. Ils doivent réussir à naviguer sur le fil entre les possibilités offertes par l’IA générative et ses risques.
L’IA permet de faire plein de choses intéressantes au niveau pédagogique. Elle peut faciliter la préparation d’un cours ou d’un examen. On peut imaginer en faire un sujet pédagogique et enseigner, dans les cours, la force et les limites de l’outil.
Les politiques ne vont pas non plus régler tous les problèmes. Les collèges et les universités doivent aussi avoir une approche préventive.
Toute la communauté académique, les étudiants, le personnel, les professeurs doivent être informés et formés de façon appropriée à ces nouveaux outils. Ils doivent savoir comment ils fonctionnent, quels enjeux éthiques ils soulèvent. L’idée n’est pas d’en faire des experts, mais d’améliorer leur compréhension et leurs connaissances, de développer une culture commune d’intégrité académique.
Dans quelle mesure le travail d’un étudiant produit avec l’aide de l’IA est-il toujours sa création?
C’est encore très difficile de répondre. Si un étudiant pose une question relativement simple à ChatGPT et copie-colle la réponse fournie, c’est clairement une utilisation inappropriée que l’on peut qualifier de plagiat.
Mais il y a une multitude d’autres utilisations beaucoup plus nuancées. La zone grise est très vaste. Si un étudiant génère un texte avec l’intelligence artificielle, puis le modifie, ajoute ou enlève des références, à partir de quel moment ça devient son texte ? L’enseignement supérieur doit se pencher sur cette question.
Entre-temps, est-ce que la présence accrue de l’IA doit amener à revoir le contenu et la forme des examens?
L’arrivée de l’IA est une remise en question assez fondamentale de la façon dont on faisait les choses jusqu’alors. Depuis des siècles, on s’appuie énormément sur la production de textes écrits pour évaluer les compétences et les apprentissages. À l’avenir, sans les supprimer totalement, il faut repenser ce type d’évaluations, elles ne peuvent plus prendre autant de place qu’avant.