•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

IA à l’université : le passage de la réflexion à l’action tarde

Aucune politique sur ChatGPT et ses semblables, aucun code de conduite pour encadrer leur usage, forte réticence à sanctionner le plagiat : un an après l’arrivée en trombe des agents conversationnels sur les campus, très peu de gestes concrets ont été faits pour encadrer le recours à l’IA générative dans les universités.

Un doigt humain et le doigt d'un robot se touchent sur un écran.

Un an après la Journée sur l'IA en enseignement supérieur, la ministre Pascale Déry dit attendre le rapport du Conseil supérieur de l'éducation pour décider des prochaines étapes en ce qui a trait à « l'accompagnement des établissements, des enseignants et des étudiants pour qu'ils s'adaptent à cette nouvelle réalité ».

Photo : getty images/istockphoto / David Gyung

Au printemps 2023, les universités étaient en mode « branle-bas de combat ». L’IA générative débarquait avec ses gros sabots dans les salles de cours comme ailleurs, soulevant tantôt la crainte, tantôt l'enthousiasme, dans le corps professoral.

Des comités de réflexion étaient mis sur pied, des forums de partage, créés. Pour marquer le coup, la ministre de l’Enseignement supérieur Pascale Déry avait organisé en mai une grande journée de réflexion commune sur les impacts de l’intelligence artificielle en enseignement postsecondaire.

Près de 1000 personnes ont participé à l’événement. La ministre disait alors se mettre en mode écoute. On va attendre d’avoir un état des lieux plus clair pour être capable d’intervenir après, car il faut se positionner, concluait-elle.

Un an plus tard, 17 universités ont répondu à une demande d’accès à l’information lancée par Radio-Canada pour savoir où en était le réseau dans son adaptation à cette nouvelle réalité.

Grands constats : la majorité des universités ne sanctionnent pas ou sanctionnent très peu les cas de plagiat liés à l’IA, et aucune d’entre elles ne s’est dotée d’une véritable politique ni d’un code de conduite pour encadrer le recours à l’IA générative par les professeurs.

Le Bureau de coopération interuniversitaire (BCI), qui regroupe toutes les universités québécoises, indique que le dossier de l'intelligence artificielle est en pleine ébullition au sein des établissements universitaires.

Tous nos comités sont en réflexion sur la question. [...] Les retombées de cette effervescence [...] se feront sentir à court et moyen termes.

Une citation de Ginette Legault, directrice générale du Bureau de coopération interuniversitaire (BCI)

Voilà justement ce que différents intervenants consultés par Radio-Canada critiquent : au-delà de la réflexion, force est de conclure que peu de gestes concrets ont été posés jusqu'à présent, tant par les universités que par la ministre Déry, pour prendre le taureau par les cornes.

Une réflexion qui ne se traduit pas en action

La réflexion est toujours en attente de résultats, résume Jonathan Roberge, spécialiste de la sociologie de l’intelligence artificielle. On sent qu’il y a un essoufflement de la controverse autour de l’IA générative, perçoit-il, un essoufflement qui se traduit par une certaine inaction, une attitude d’ambivalence et de guerre lasse dans le milieu universitaire, à son avis.

On ne cherche pas à éviter le problème, mais on ne cherche pas non plus à y faire face. On est dans une espèce d’état d’apesanteur, ajoute le professeur à l’Institut national de la recherche scientifique du Québec (INRS).

Un chercheur expert de l'intelligence artificielle

Jonathan Roberge est très critique au sujet de la gestion de l'épineux dossier de l'intelligence artificielle par les universités et le gouvernement.

Photo : Radio-Canada / Karl Boulanger

On en parle, on suppute, on réfléchit, mais pour ce qui est de l'action, très peu se fait. On a l'impression que la réflexion a été faite à moitié et qu'il n'y a pas de volonté de donner suite.

Une citation de Jonathan Roberge, spécialiste de la sociologie de l’intelligence artificielle, professeur à l’Institut national de la recherche scientifique du Québec

Très peu de choses ont été réalisées, tant au niveau universitaire que gouvernemental, corrobore Benoît Lacoursière, secrétaire général de la Fédération nationale des enseignantes et enseignants du Québec (FNEEQ-CSN), qui représente la majorité des chargés de cours universitaires au Québec.

Son organisation avait appelé à un moratoire sur le développement de l’IA au printemps dernier. Il ne se passe rien, déplore-t-il.

Madeleine Pastinelli, de la Fédération québécoise des professeures et professeurs d’université (FQPPU), pense aussi que la situation est très problématique. Tout le monde tâtonne actuellement. Les universités sont encore beaucoup en train de réfléchir à la manière d’établir des balises. 

Toujours pas de politique sur l’IA dans les universités

Aucune université ne s’est dotée jusqu’à présent d’une politique claire et complète sur l’IA.

Il y a tout de même trois universités qui ont proposé quelque chose. L'Université de Montréal a publié des balises pour encadrer l’utilisation de l’IA générative dans les activités d’enseignement. L’Université Concordia a publié en ligne des lignes directrices générales à l'intention du corps professoral. Et l’Université de Sherbrooke a adopté un court énoncé de principe faisant état de sa position générale.

C’est problématique que les universités aient tardé à adopter des cadres, indique Andréane Sabourin Laflamme, spécialiste de l’éthique de l’intelligence artificielle. À l’international, en Europe par exemple, des choses ont été faites afin de déterminer des lignes directrices pour une utilisation responsable de l’IA. Au Québec, il n’y a pas de mécanisme de ce genre.

La tâche est loin d’être simple, reconnaît-elle. On a des étudiants qui utilisent l’IA, on a des profs qui utilisent l’IA, les services administratifs des universités peuvent utiliser l’IA pour optimiser leurs processus, énumère-t-elle. Le travail à faire, c’est de définir les utilisations possibles et d'encadrer chacune de manière différente.

Pour certains, comme à la FNEEQ, la solution réside dans une action menée par le gouvernement.

Le secrétaire général de la FNEEQ-CSN.

Benoît Lacoursière, secrétaire général de la FNEEQ-CSN, a piloté le comité qui a produit un rapport recommandant un moratoire sur le développement de l'IA au printemps 2023.

Photo : Gracieuseté : FNEEQ-CSN

Il faut un signal clair du gouvernement, de grandes balises communes pour forcer les établissements à se doter de politiques.

Une citation de Benoît Lacoursière, secrétaire général de la Fédération nationale des enseignantes et enseignants du Québec (FNEEQ-CSN)

Pour d’autres, il faut à tout prix éviter de menacer l’autonomie des universités.

On ne veut pas que la ministre se mêle de nos affaires en disant aux professeurs et aux universités quoi faire, rétorque la présidente de la FQPPU, Mme Pastinelli.

La chercheuse spécialisée dans le dossier du plagiat Catherine Déri reconnaît de son côté que l’on est encore dans une zone grise par rapport à l’établissement de politiques claires, mais elle ne trouve pas ça inquiétant. Les institutions hésitent à mettre en place des politiques tant que les choses ne sont pas stabilisées.

Et vous, comment l’intelligence artificielle vous affecte-t-elle?

ICI Première prépare une émission spéciale pilotée par Chloé Sondervorst sur le thème de l’intelligence artificielle. Participez à la discussion ici.

Le plagiat, ignorer l’éléphant dans la pièce?

Pour Andréane Sabourin Laflamme, qui enseigne au cégep, il est clair que l’accessibilité sans frein à des outils permettant le plagiat fait en sorte que davantage d’étudiants aux études supérieures y ont recours pour tricher. On ne peut pas se mettre la tête dans le sable puis penser que cette situation n'existe pas.

Un constat corroboré par Benoît Lacoursière, de la FNEEQ. Nos membres nous disent que le recours à l’IA est fréquent et que l’accompagnement pour les aider à maîtriser tout ça n’est pas suffisant.

Il y a une banalisation du recours à l’IA. On est pris dans le paradoxe du "laisser-faire". Les établissements voient principalement ces nouvelles technologies comme un vecteur d’innovation et ils leur font trop confiance.

Une citation de Benoît Lacoursière, secrétaire général de la Fédération nationale des enseignantes et enseignants du Québec (FNEEQ-CSN)

Catherine Déri, cochercheuse pour le Partenariat universitaire de prévention du plagiat, qui compte 30 universités dans le monde, tient pour sa part à prévenir qu’il ne faut pas voir du plagiat partout. Il y a plusieurs moyens d’utiliser l’IA de manière responsable et non abusive; à son avis, de plus en plus d’étudiants semblent l’employer dans un cadre acceptable.

Plagier, c’est demander au robot conversationnel de rédiger en partie ou en totalité un travail et soumettre ce texte tel quel. Utiliser la technologie pour s’aider à réaliser certaines tâches, tout en s’assurant que l’objectif d’apprentissage visé est atteint, ça s’appelle plutôt du "délestage cognitif", explique-t-elle.

Sanctionner ou non?

Deux approches se dégagent dans la gestion des cas de plagiat liés à l’IA, selon les informations colligées par Radio-Canada : il y a les universités qui sévissent et celles qui ne le font tout simplement pas.

Dans la dernière année, une majorité d’universités (9 sur 17) n’ont pas sanctionné du tout le plagiat lié à l’IA ou l'ont très peu fait.

Sanction de cas de plagiat avec recours à l’IA générative

Plagiat lié à l'IAUniversités
Pas de sanctionUQAT, UQAR, ENAP, Bishop’s, HEC
Peu de sanctions (-10% du total de cas de plagiat)UQO (1 cas), Polytechnique (1 cas), Teluq (2 cas), UQAM (7 cas)
Beaucoup de sanctions (+10% du total des cas de plagiat)Université Laval (101 cas), Université de Montréal (55 cas), ETS (20 cas)
Pas de recensementUQTR, Université de Sherbrooke*, McGill, Concordia**

* Les infractions liées au recours abusif à l’IA seront répertoriées à l'Université de Sherbrooke dès que les modifications au règlement sur l'intégrité intellectuelle seront adoptées, ce qui est prévu en avril 2024.** Seule la John Molson School of Business à l'Université Concordia dispose de statistiques à ce sujet. Depuis l'automne 2022, 25 étudiants de cette faculté ont été soupçonnés d'avoir été impliqués dans une utilisation illicite de l'IA.

Source : Les directions responsables des demandes d’accès à l'information ou des communications des 17 universités mentionnées

Comment expliquer que tant d’universités n’aient pas agi pour punir ce nouveau type de plagiat?

Catherine Déri pense que plusieurs hésitent à donner le mot d’ordre à leurs professeurs de sévir contre le plagiat avec l’IA, notamment par crainte d’accuser à tort un étudiant qui pourrait par la suite se retourner contre l’établissement d’enseignement.

Monter des dossiers disciplinaires pour tous les cas soupçonnés, sachant qu’il est complexe, voire hasardeux, de prouver un recours abusif à l’IA, est énergivore et chronophage pour les enseignants, ajoute Andréane Sabourin Laflamme.

Sauf si l’étudiant reconnaît avoir utilisé un agent conversationnel pour tricher, il est en effet difficile, voire impossible, de faire la preuve hors de tout doute qu'il a eu recours à l’IA pour rédiger à sa place un travail ou un examen. Notamment parce que les outils de détection de l’IA sur le marché ne sont pas suffisamment fiables, ce qui incite même certaines universités à décourager leurs professeurs d’y avoir recours, rappelle Mme Sabourin Laflamme.

Cependant, une minorité d’universités (3 sur 17) ne semblent pas hésiter à dénoncer et à pénaliser le recours à l’IA. À l’Université Laval, près de 30 % des cas de plagiat sanctionnés étaient liés à l’IA dans la dernière année. À l’École de technologie supérieure, c’est 20 %, et à l’Université de Montréal, 10 % (20 % à la session d’automne 2023).

Détail intéressant, dans la moitié des cas investigués à l’Université Laval, l’étudiant a admis sa faute. À l’Université de Montréal aussi : Bien souvent, avant même de se rendre au bout du processus disciplinaire, l’étudiant finit par avouer sa faute, indique sa porte-parole Geneviève O’Meara.

Difficile d’expliquer la disparité d’approche entre les universités. Toutefois, Mme O’Meara indique que l’Université de Montréal est à l'aise de sanctionner lorsque cela s’applique puisque sa politique est claire : l’IA générative est interdite à moins qu’elle fasse partie intégrante de l’évaluation. Elle précise par ailleurs que les outils de détection, étant imparfaits, sont utilisés de pair avec d’autres stratégies avant de conclure à une infraction punissable.

À l’Université Laval, on indique tout simplement appliquer le règlement disciplinaire en place. Ce n’est pas un choix. L’intégrité intellectuelle est une valeur fondamentale et une priorité, écrit le porte-parole Jérôme Pelletier. 

Peu de changement dans les politiques sur l’intégrité intellectuelle

Par ailleurs, 9 universités n’ont apporté aucune modification à leur politique sur l’intégrité intellectuelle ou le plagiat, plusieurs indiquant que le libellé en place était suffisant pour inclure la nouvelle réalité du plagiat avec l’IA et traiter ces cas comme les autres.

Quatre universités ont cependant modifié leur règlement sur les infractions de ce type et trois s’apprêtent à le faire.

Politiques sur l’intégrité intellectuelle dans les universités

Politique sur l'intégrité intellectuelleUniversités
Pas de changementUQAM, UQTR, Université Laval, McGill, Concordia, Polytechnique, École de technologie supérieure, École nationale d’administration publique, Bishop’s
Modification du règlementUQAT, UQAC, UQO, Université de Montréal, HEC Montréal
Modification en cours UQAR, Université de Sherbrooke, TÉLUQ

Source : Les directions responsables des demandes d’accès à l'information ou des communications dans les 17 universités mentionnées

Pour Jonathan Roberge, les universités sont prises entre l’arbre et l’écorce. La capacité technique d’épingler les tricheurs n’étant pas là, ça refroidit les ardeurs pour l’élaboration de politiques visant à lutter contre ce type de plagiat, explique-t-il. Les universités sont devant une forme d’incapacité de se motiver elles-mêmes pour trouver des solutions.

Andréane Sabourin Laflamme pense pour sa part que la répression par la sanction n’est pas la méthode à privilégier.

Une chercheuse en éthique de l'IA.

Andréane Sabourin Laflamme s'intéresse de près aux questions éthiques liées à l'intelligence artificielle.

Photo : Gracieuseté : Andréane Sabourin Laflamme

Il faut qu’on agisse de manière urgente, mais je ne pense pas que les accusations de plagiat vont régler le problème.

Une citation de Andréane Sabourin Laflamme, professeure de philosophie au Cégep André-Laurendeau, candidate au doctorat en droit de l’intelligence artificielle à l’Université de Sherbrooke

La clé réside davantage dans la prévention d’une utilisation illégitime de ces outils au moyen d'une révision des méthodes pédagogiques et des méthodes d’évaluation, selon elle.

Et l’exercice est à faire dans chaque faculté, afin d’avoir des stratégies adaptées aux réalités qui ne sont pas les mêmes en chimie et en philosophie, dit Mme Sabourin Laflamme. Selon la discipline d'enseignement, la définition d'une utilisation légitime ou illégitime peut être extrêmement différente.

Ce travail tarde toutefois à être fait à bien des endroits et l’accompagnement des professeurs est bien souvent déficient, selon plusieurs.

Les professeurs laissés à eux-mêmes

Nos membres ont encore mille questions et préoccupations. Les professeurs sentent qu’ils sont laissés pour compte, selon Madeleine Pastinelli, de la FQPPU.

Selon la chercheuse Catherine Déri, deux profils principaux se dégagent de ses récentes recherches. Il y a les professeurs résistants, qui se sentent dépassés ou menacés par l’arrivée de l’IA générative, et il y a les enthousiastes, ceux qui sont en pleine acceptation et qui intègrent ces nouvelles technologies dans leur enseignement pour les tester avec leurs étudiants.

Photo de la chercheuse Catherine Déri.

Catherine Déri est postdoctorante au Département des sciences de l'éducation à l'Université du Québec en Outaouais (UQO).

Photo : Gracieuseté : Catherine Déri

Tout le monde a besoin de plus de formation pour mieux comprendre les outils, apprendre à les intégrer dans l’enseignement et aider les étudiants à les utiliser de façon responsable.

Une citation de Catherine Déri, cochercheuse au Partenariat universitaire pour la prévention du plagiat

Pour Andréane Sabourin Laflamme, il est urgent de mettre en place, au-delà de petites formations à la pièce très inégales d’une université à une autre, une véritable structure de formation continue pour les professeurs sur le plan de la littératie numérique et, surtout, de l’éthique de l’intelligence artificielle.

Les professeurs ne sont pas suffisamment outillés, pas suffisamment accompagnés, et ils n’ont pas les ressources et surtout le temps pour mener cette réflexion et adapter leur enseignement et leurs évaluations, dit-elle.

Rien pour encadrer l’utilisation de l’IA par les professeurs

Aucune université n’a adopté un code de conduite encadrant le recours à l’IA par son corps professoral. Seules les balises fournies par l’Université de Montréal exigent des professeurs de déclarer leur usage d'outils d’IA générative.

Il est donc en théorie possible pour les professeurs d’utiliser ces nouveaux outils dans la préparation de leurs cours, de leurs évaluations, voire dans la correction de celles-ci, et ce, sans même avoir à en informer leurs étudiants ou leur employeur.

Selon les entrevues récentes menées par le Partenariat universitaire de prévention du plagiat, les professeurs utilisent l’IA générative pour rédiger des courriels, des demandes de bourses et autres documents, dans la planification de leurs cours, mais encore peu pour les évaluations, car ils estiment que ça demande un jugement analytique qui n’est pas assez développé dans l’IA, explique la chercheuse Catherine Déri.

La porte est tout de même grande ouverte à de possibles dérives, alerte Jonathan Roberge, non seulement dans le cadre des activités d’enseignement des professeurs, mais aussi dans leur travail comme chercheurs. La question du plagiat est la pointe de l’iceberg ou l’arbre qui cache la forêt, image-t-il.

Épargner du temps dans la charge d’enseignement, épargner du temps dans le travail de recherche, ça va être tentant pour l’entièreté du corps professoral, prévient M. Roberge.

C’est l’entièreté du travail intellectuel qui est amené à être automatisé sous prétexte de gains de productivité. Tout le monde est conscient de ce problème-là. Si ça n’a pas émergé sur la place publique, c’est parce que c’est relativement tabou.

Une citation de Jonathan Roberge, spécialiste de la sociologie de l’intelligence artificielle, professeur à l’Institut national de la recherche scientifique du Québec (INRS)

On n’est absolument pas prêts à faire face à ces difficultés. On n’est même pas près d’avoir une réflexion satisfaisante sur l’influence que ces outils-là vont avoir sur la vie intellectuelle, la création de connaissances, ajoute-t-il.

La première étape à franchir serait, selon Jonathan Roberge, d’exiger la transparence de la part du corps professoral. Manifestement, il y a un manque de leadership et de volonté de la part des institutions universitaires qui ne demandent pas à leurs professeurs de dire clairement qu’ils ont généré des contenus à l’aide de l’IA.

Étant de ceux qui promeuvent une régulation forte de l’IA, il va même plus loin : Je suis en faveur d’une loi qui encadrerait les responsabilités des professeurs à la grandeur du Québec.

Andréane Sabourin Laflamme est plus frileuse à ce sujet et rappelle qu’il faut protéger l’autonomie professionnelle des professeurs.

Il va falloir repenser les politiques institutionnelles, mais il y a un équilibre très délicat à trouver entre ce besoin d’encadrement et le respect de l’autonomie professionnelle des professeurs, selon l'enseignante, qui appelle à mettre en place des règles à la fois claires et flexibles.

L’action de la ministre Déry se fait attendre

La ministre Déry aurait pu faire plus que simplement se mettre en mode écoute. Là, ça fait un an qu'on est en mode écoute, ça fait un an qu'on attend, critique Jonathan Roberge.

Depuis la fameuse journée de réflexion sur l’IA l’an dernier, pas de son, pas d’image de la part de la ministre Déry, renchérit Benoît Lacoursière, de la FNEEQ.

Il faut un signal clair du gouvernement pour dire qu’on s’en va vers quelque chose. C’est le far west en ce moment pour ainsi dire.

Une citation de Benoît Lacoursière, secrétaire général de la Fédération nationale des enseignantes et enseignants du Québec

Madeleine Pastinelli, qui a demandé au printemps dernier qu’un véritable forum national sur l’intelligence artificielle soit mis en place dans la foulée de la Journée sur l’IA en enseignement supérieur, abonde dans le même sens : Un an plus tard, on a répondu à quelques questions du Conseil supérieur de l’éducation et c’est tout.

La ministre de l'Enseignement supérieur du Québec, Pascale Déry, le 28 septembre 2023.

La ministre de l'Enseignement supérieur du Québec, Pascale Déry

Photo : La Presse canadienne / Jacques Boissinot

Interpellé au sujet de ces critiques, le cabinet de la ministre Déry répond que la Journée sur l’intelligence artificielle en enseignement supérieur de mai dernier a permis d’encourager nos établissements à se mettre en mode solution pour s’adapter à ces outils émergents.

Le rapport du Conseil supérieur de l’éducation, mandaté conjointement avec la Commission de l’éthique en science et en technologie pour se pencher sur ce dossier, doit guider les actions de la ministre, assure-t-on.

À la lumière de ces travaux, nous serons en mesure de mieux accompagner les établissements, les enseignants et les étudiants pour qu’ils s’adaptent à cette nouvelle réalité.

Une citation de Cabinet de la ministre de l’Enseignement supérieur, Pascale Déry

Ce rapport devait d’abord aboutir à la fin de 2023, mais il est maintenant attendu vers la fin d'avril.

Vous souhaitez signaler une erreur?Écrivez-nous (Nouvelle fenêtre)

Vous voulez signaler un événement dont vous êtes témoin?Écrivez-nous en toute confidentialité (Nouvelle fenêtre)

Vous aimeriez en savoir plus sur le travail de journaliste?Consultez nos normes et pratiques journalistiques (Nouvelle fenêtre)

Infolettre Info nationale

Nouvelles, analyses, reportages : deux fois par jour, recevez l’essentiel de l’actualité.

Formulaire pour s’abonner à l’infolettre Info nationale.