Publicité
La bourse est fermée
  • Dow Jones

    37 767,43
    +14,12 (+0,04 %)
     
  • Nasdaq

    15 601,71
    -81,66 (-0,52 %)
     
  • Nikkei 225

    38 079,70
    +117,90 (+0,31 %)
     
  • EUR/USD

    1,0647
    -0,0027 (-0,26 %)
     
  • HANG SENG

    16 385,87
    +134,03 (+0,82 %)
     
  • Bitcoin EUR

    59 569,02
    +2 105,80 (+3,66 %)
     
  • CMC Crypto 200

    885,54
    0,00 (0,00 %)
     
  • S&P 500

    5 010,23
    -11,98 (-0,24 %)
     

Comment ChatGPT force les universités à repenser leurs méthodes d’examen

Face à ChatGPT, les universités réfléchissent à changer leurs méthodes d’examen mais aussi à sensibiliser aux intelligences artificielles.
Face à ChatGPT, les universités réfléchissent à changer leurs méthodes d’examen mais aussi à sensibiliser aux intelligences artificielles.

ÉDUCATION - À Lyon, à Strasbourg… Plusieurs cas de triche chez les étudiants ont été repérés depuis l’arrivée de ChatGPT. Lancé en novembre 2022 par la société OpenAI, cet agent conversationnel, capable de générer un texte à partir de simples questions, suscite autant d’intérêt que d’inquiétude. À tel point que le monde de l’enseignement s’engage dans des réflexions autour des intelligences artificielles et songe à revoir ses méthodes d’évaluation.

« Les étudiants doivent nous montrer qu’ils ont appris quelque chose et qu’ils sont arrivés au niveau de compétence attendu », explique Sophie Kennel, la Vice-présidente déléguée à la transformation pédagogique de l’UNISTRA, l’université de Strasbourg, où un cas de triche a largement été médiatisé. « Ce contrat est rompu quand les étudiants trichent avec ChatGPT. Ils montrent seulement qu’ils savent l’utiliser », estime-t-elle.

Alors que les étudiants concernés – qui avaient utilisé le chatbot lors d’un questionnaire à choix multiples (QCM) à distance – ont repassé leur examen en présentiel, l’UNISTRA organise courant avril un séminaire avec les différents acteurs de l’université, afin de réfléchir à la meilleure manière d’adapter les modalités d’évaluation face aux IA.

PUBLICITÉ

« Un des grands enjeux de l’apprentissage est que les étudiants soient capables de structurer leur pensée et d’avoir un jugement critique. Sur ChatGPT, en l’utilisant de façon primaire, on n’a pas ça. Le risque est qu’ils ne réfléchissent pas et qu’ils ne confrontent pas les sources », estime Sophie Kennel, qui rappelle que les enseignants ont toujours été confrontés aux nouvelles façons d’apprendre : « Ça fait partie de notre métier de nous adapter. Pour que les étudiants ne soient pas tentés de tricher, il faut des épreuves qui ne le permettent pas. D’une façon ou d’une autre. »

Changer les modalités d’examens

Science Po Paris a été la première école française à anticiper le problème en interdisant l’utilisation de ChatGPT, sans mention explicite, dans la production d’évaluations écrites ou orales. Contactée par Le HuffPost, la direction de l’établissement nous assure avoir engagé une réflexion autour de l’utilisation des intelligences artificielles.

« ChatGPT interroge évidemment les acteurs de l’éducation et de la recherche dans le monde entier sur les méthodes d’enseignement, de transmission, d’évaluation. (...) Sciences Po a donc préparé des guides et fiches à destination des enseignants pour intégrer des IA dans la préparation des cours, les activités pédagogiques ou les modes d’évaluation », précise la direction.

ChatGPT peut effectivement avoir une incidence sur le lieu et la forme de l’examen. Si le chatbox n’a pas d’impact sur le déroulement de certaines évaluations – comme les dissertations sur table –, il en a un sur les devoirs à faire à la maison. Pour y remédier, Sophie Kennel propose par exemple d’inclure « plus de critères sur l’originalité dans un devoir maison en demandant aux étudiants de justifier leur réponse par une expérience personnelle ».

Mais Eirick Prairat, professeur de philosophie de l’éducation à l’université de Lorraine, note que « certains considèrent déjà les devoirs faits à la maison comme une modalité d’évaluation ’éculée’ ».

« Les professeurs devraient donc opter pour d’autres types d’évaluation comme des QCM chronométrés ou des examens oraux d’une durée limitée. Mais c’est une réduction du spectre incroyable, condamne-t-il. Ces deux modalités jouent sur la vitesse. Penser, définir, élaborer et argumenter sont des compétences majeures qui requièrent du temps. Les mémoires, les thèses… Ça se fait à la maison », rappelle-t-il.

« Protéger les examens »

Eirick Prairat suggère plutôt de renforcer la surveillance des étudiants et des examens : « Plus la triche est sophistiquée, plus la réponse technologique doit être sophistiquée. » Pour cela, il donne des pistes : « On peut déjà verrouiller l’environnement de travail des élèves, bloquer l’accès à certaines applications. Il existe aussi des plateformes d’examen en ligne. »

Mais s’il faut « protéger les examens », pour le professeur de philosophie, il ne faut pas non plus tomber dans « un univers du contrôle » au risque de voir la confiance du professeur envers l’élève s’effriter.

« Le professeur doit renoncer au contrôle absolu pour permettre à l’élève de grandir en se sentant capable. Si cette confiance est brisée, il n’y a plus de relation de transmission », avertit Eirick Prairat. Un risque cependant minime pour Sophie Kennel. « Il y a toujours eu de la triche. Si on surveille les examens depuis toujours, c’est que cette confiance n’est pas totale depuis toujours. Elle ne l’a jamais été. »

C’est pour cela qu’il existe des sanctions en cas de triche. D’après Théo Clerc, avocat en droit de l’éducation, la technologie a toujours fait évoluer les sanctions dans les universités. « Les logiciels IA risquent d’être visés dans les règlements intérieurs pour sanctionner autant leur utilisation dans les examens mais aussi pour les cours et les travaux », estime-t-il. Mais la qualification juridique de la triche via ChatGPT est encore sujette à débat.

« On peut la sanctionner comme on sanctionne l’utilisation d’un ordinateur ou d’une calculette quand ce n’est pas autorisé. Il s’agirait là d’une fraude classique. La jurisprudence ne l’a pas encore définie mais semble avoir rejeté le plagiat. On ne peut pas plagier une intelligence artificielle. ChatGPT n’a pas de droit d’auteur. Même si, dans les faits, certaines écoles et universités considèrent encore que c’est du plagiat », explique-t-il.

Sanctions et sensibilisation

Alors que risque l’étudiant ? En cas de fraude, « à l’université, les sanctions les plus courantes sont l’exclusion de l’établissement et l’interdiction de passer un examen pendant un ou deux ans. Les deux avec sursis », précise l’avocat. Si des poursuites pénales sont engagées, pour tout diplôme d’État, la peine maximale est de 3 ans de prison et 9 000 euros d’amende. Mais ces poursuites ne sont engagées « que dans le cas d’une fraude massive ».

Mais limiter la triche passe aussi par la sensibilisation à l’intelligence artificielle. Selon Laurence Devillers, professeure d’informatique appliquée aux sciences sociales à l’université de la Sorbonne, ChatGPT est d’ailleurs un mauvais outil de triche : « C’est un système qui peut donner des réponses très ridicules. Il n’a pas de raisonnement logique. C’est une machine à donner des lieux communs. Il fait des erreurs qui sont triviales pour nous. »

Éduquer les élèves et les étudiants à ChatGPT est donc primordial. « Les profs vont s’habituer très vite au type de réponses de ce système. S’ils n’avaient pas de mal à débusquer ChatGPT dans sa première version, cela risque d’être plus compliqué dans les versions suivantes », estime celle qui souhaite que la nouvelle génération s’intéresse à ChatGPT. « Il faut montrer aux étudiants qu’ils vont se faire attraper. »

Comment ? En leur faisant « découvrir les capacités de l’outil et travailler sur ces rapports afin qu’ils ne l’utilisent pas comme des consommateurs ». Un regard critique qui permettrait aux étudiants de développer leurs propres capacités de réflexions plutôt que de se servir d’une IA.

À voir également sur Le HuffPost :

ChatGPT a failli réussir cet examen de médecine très difficile

Google lance son propre « ChatGPT », baptisé Bard