Ce matin, La Presse a publié le reportage" "L’électrochoc de l’IA", qui présente de façon accessible et fascinante les impacts de l'IA dans le monde de l'éducation. Le début de l'article présente les usages et bienfaits possibles des nouveaux algorithmes en salle de classe, avec des intervenants plus "techno-optimistes" sur les les possibilités en termes d'apprentissage (comme Dave Anctil), et se conclut avec des réflexions plus sombres, critiques et "techno-pessimistes" de Sébastien Mussi et Eric Martin, auteurs du livre Bienvenue dans la machine: Enseigner à l'ère du numérique. Comment y voir clair dans tout ceci?
Pour ma part, ma position n'est pas arrêtée et cette réflexion me laisse perplexe. Bien que je reste sceptique et prudent vis-à-vis les dernières innovations du capitalisme algorithmique dans lequel nous vivons, je me pose tout de même la question pratique de savoir comment agir vis-à-vis tout ceci, concrètement, en salle de classe, ici et maintenant. Y a-t-il une alternative entre l'adaptation (enthousiaste ou résignée) à ChatGPT, ou le refus pur et simple de ces développements? Si des positions si divergentes se côtoient aujourd'hui dans le débat public, qui a raison au final? Peut-on combiner différentes positions pour avoir un portrait plus nuancé?
Voici en résumé comment je vois les choses. À l'échelle micro, à court terme, je suis d'accord avec les techno-optimistes qu'il existe des façons pertinentes d'utiliser les machines algorithmiques de manière pédagogique, pour certains exercices en classe, pour la préparation de cours, pour le mentorat, etc., lesquelles n'ont pas nécessairement des effets aliénants. Il y a aussi des façons créatives de modifier nos évaluations et méthodes d'enseignement, d'innover en quelque sorte (ou de revenir au bon vieux "papier-crayon" dans certains cas), de manière à mieux "vivre avec" ces développements technologiques. Bref, l'adaptation n'est toujours uniquement une simple adaptation passive et mécanique; il peut y avoir une "adaptation dynamique et créative" qui laisse une plus grande place à l'agentivité humaine, et qui sait, à une amélioration possible des pratiques face à cette "crise de l'éducation" qui nous force à sortir de nos routines et méthodes préétablies.
Mais, il y a un gros "mais", je suis d'accord avec les techno-sceptiques sur le fait qu'à l'échelle macrosociale, à moyen et long terme, la direction générale que prend le système d'éducation est inquiétante, en laissant entrevoir non pas un progrès, mais une régression potentielle.
Par exemple, ce que soulignent Eric Martin et Sébastien Mussi dans l'article, c'est la tendance générale à miser sur l'enseignement à distance qui s'est accélérée pendant la pandémie et qui continue encore suite au confinement et aux pressions des administrations. Pour ceux et celles qui croient que la pandémie représente une exception ou un "cas extrême" qui ferait place à un "retour à la normale", détrompez-vous. Comme le souligne Éric: "Un bon exemple de ça, c’est l’UQAM. Avant la pandémie, il y avait une cinquantaine de cours en ligne, c’était très niché. Maintenant, il y en a 850! Ça ne s’est pas résorbé avec la fin de la pandémie, au contraire! Il y a une volonté, aussi bien à l’OCDE que chez les GAFAM, d’aller de l’avant avec une société du télé-everything, où tout se fait à distance, y compris l’éducation."
On peut objecter ici qu'on semble confondre deux sujets différents: des assistants algorithmiques comme ChatGPT, puis la généralisation de l'enseignement à distance. Il est possible théoriquement d'être contre un enseignement à distance généralisé et "imposé", mais ouvert à la possibilité d'utiliser de façon modérée des algorithmes en salle de classe, ou bien encore de miser sur des méthodes d'enseignement avec un minimum d'écrans et d'ordinateurs en classe, tout en prenant pour acquis que les élèves auront accès à ChatGPT et d'autres outils du genre à la maison (à l'instar d'Internet, Google et Wikipédia).
Mais les enjeux liés à la numérisation globale de l'enseignement (que critique Éric Martin et son collègue) et la multiplication rapide de nouveaux types de robots aux possibilités inouïes (qui semble susciter l'enthousiasme des technophiles) sont tout de même liés. Ainsi, on ne peut analyser de façon disjointe ou isolée les usages au niveau micro (ex: utiliser ChatGPT dans un cours) et les tendances lourde à l'échelle macrosociale: capitalisme, crise des services publics, course aux armements algorithmiques, opacité des firmes, rôle croissant des plateformes capitalistes dans l'éducation.
C'est pourquoi, au final, je crois que les deux discours (enthousiastes et alarmistes) peuvent être combinés de façon dialectique, car ce bouleversement dans le monde d'éducation suscite à la fois des effets d'étonnement, de l'inquiétude, de l'ambivalence, de la perplexité, des craintes de remplacement par les machines, des espoirs de productivité décuplée, etc. Mais loin de tomber dans un "juste milieu" tiède et non-critique, qui se contenterait de dire "tout le monde a une part de vérité", "il faut en prendre et en laisser", il faut éviter le "hype" et le "catastrophisme" pour retrouver la "raison" avec une approche apaisée, je crois qu'il faut prendre au sérieux l'accélération en cours, les angoisses, le sentiment de vertige, la fébrilité et d'autres émotions contradictoires qui traversent les milieux de l'éducation et l'espace public actuellement.
De mon côté, la trajectoire que nous prenons actuellement ne m'inspire pas confiance, et voici quelques raisons pourquoi.
1) Le manque de temps bien réel pousse les profs et les élèves à utiliser des outils algorithmiques pour en faire plus en un moins de temps. Comme le souligne un professeur d'anglais au secondaire dans le reportage: "Jonathan Laberge a d’abord demandé au robot conversationnel d’OpenAI de lui rédiger un plan de cours à partir de thèmes qu’il lui a fournis. En quelques secondes, tout était là. Puis, il a demandé au robot de lui proposer des questions de discussion sur la série Alice in Borderland, dont les élèves avaient regardé un premier épisode. « Les questions de discussion produites étaient excellentes. Si j’avais dû faire ça moi-même, j’aurais réécouté l’épisode, pensé à des questions, ça m’aurait pris une bonne heure. Là, ça m’a pris 30 secondes. » [...] Ce qu’y gagne le prof, c’est du temps, témoigne l’enseignant. « Le temps qu’on peut gagner, c’est phénoménal. [...]. C’est l’équivalent de deux têtes pensantes pour planifier ». Et pendant qu’il n’est pas occupé à corriger, planifier, imaginer comment stimuler ses élèves, le prof peut se consacrer… à l’enseignement."
Or, comme le souligne Hartmut Rosa, l'accélération technique dans le monde moderne et la société capitaliste contribue à l'accélération du rythme de vie, les individus étant davantage pressés face à la vitesse croissante du monde social, la liste de tâches à faire, la rapidité des moyens de communication, le nombre de sollications, etc. Face à ce manque de temps, les individus demandent des technologies plus performantes afin de pouvoir rester dans la course, ce qui contribue paradoxalement à alimenter la dynamique d'accélération sur le plan technologique. Au final, nous n'atteignons jamais l'utopie de la société des loisirs, le temps libre consacré à la pure créativité, car les gains d'efficacité sont rapidement remplacés par davantage d'exigences, de choses à faire et à accomplir de façon plus productive, etc. Les technologies algorithmiques s'inscrivent entièrement dans cette dynamique d'accélération sociale.
On voit la même chose avec la correction, cette lourde tâche pouvait être "accélérée" par ces assistants algorithmiques qui se transforment en "aide à l'évaluation" pour les profs. Comme le souligne le reportage: "Et puis, test ultime, la machine était-elle en mesure de corriger les résumés critiques des élèves ? Jonathan Laberge a entré dans ChatGPT le texte d’un élève. À la demande du prof, la machine a souligné chacune de ses erreurs, classé les fautes par thèmes, et indiqué à l’élève la règle grammaticale qui s’appliquait. « C’est malade ! » Note finale de ChatGPT pour le résumé critique de l’élève en question : 75 %. Note finale du prof : 82 %. « Disons qu’on n’était pas à une stratosphère de différence… » Le robot pouvait même fournir à l’élève des conseils pour améliorer la qualité de son travail. Varier les structures de phrase, donner plus d’exemples concrets dans la partie sur les forces et faiblesses de l’œuvre…"
Le résultat, c'est qu'on peut désormais automatiser en bonne partie les tâches d'auxiliaires d'enseignement, effectuer le travail de mentorat classique par des robots conversationnels et d'autres applications (tuteurs virtuels), et même soutenir les élèves en difficulté avec des "contenus personnalisés".
2) À première vue, on pourrait dire qu'il s'agit d'une "bonne nouvelle", car cela permet aux profs de se libérer de lourdes tâches, surtout dans un contexte de pénurie d'enseignants, de sous-financement du système d'éducation, de déclin du français, de ressources limitées dans plusieurs milieux d'enseignement, etc. Or, ce contexte socioéconomique plus large risque plutôt d'accélérer ces tendances: au lieu de réinvestir de façon massive dans le milieu de l'éducation pour les infrastructures et le corps enseignant, le gouvernement et les directions d'établissements trouvent ici de nouveaux arguments pour demander "d'en faire plus avec moins", d'utiliser davantage les algorithmes pour accomplir leurs tâches et répondre aux demandes des étudiant·e·s, en investissant davantage de ressources dans les solutions technologiques plutôt qu'en s'attaquant aux problèmes de fond (solutionnisme technologique).
Comme la plupart des organisations dans un système capitaliste, l'augmentation de la productivité ne conduit pas à une augmentation du temps libre pour les travailleurs et travailleuses, mais par une rationalisation accrue du procès de production pour réduire les coûts du travail. Bien sûr, il faudra toujours garder des êtres humains dans la boucle (human-in-the-loop, pour reprendre le jargon dans le milieu de l'IA), mais ceux-ci seront de plus en plus appelés à devenir des surveillants de systèmes automatisés chargés de générer du contenu, avec un rôle qui consiste à corriger les imperfections de la machine, à adapter le contenu au besoin, à régler les problèmes techniques, etc.
3) On a parlé autrefois du rôle de l'enseignant qui serait passé du rôle de "maître d'école" à celui d'accompagnateur pour l'apprentissage autonome des élèves. Parallèlement, on passe du rôle central de la transmission de connaissances à celui des "compétences", lesquelles seraient essentielles pour "bien vivre" et mieux s'adapter au marché du travail. Or, avec la révolution algorithmique aujourd'hui, le rôle d'accompagnateur est en voie d'être automatisé par des agents conversationnels; les profs ne deviennent pas superflus, mais sont incités à devenir des médiateurs entre les élèves et les machines.
Simultanément, la dévalorisation des "connaissances" au profit de l'enseignement exclusif de "compétences" semble devenir un paradigme désuet. Avec le progrès rapide de l'automatisation, une série de tâches complexes peuvent désormais être effectuées par des machines, le tout à travers quelques requêtes simples en langage naturel. Le fait de "coder", de "créer" des images, de faire des calculs mathématiques complexes, de rédiger des livres, romans et essais philosophiques, tout ceci peut être réalisé en partie par des algorithmes. Pourquoi est-il nécessaire d'apprendre dans ce cas, lorsqu'une bonne partie des emplois actuels n'existeront plus dans cinq, dix ou vingt ans?
Paradoxalement, c'est là qu'on retrouve le rôle central de la culture générale, des connaissances, de la compréhension holistique du monde, de l'art du dialogue, du besoin d'aiguiser son esprit critique. Les personnes qui ont peu de formation générale et de connaissances sur le monde auront plus de difficulté à départager le contenu véridique et faux, à interpréter des contextes d'interaction, à utiliser des machines algorithmiques qui demandent plus que des questions simples pour produire des résultats pertinents. La fonction humaniste de l'enseignement comme "formation de l'esprit" redevient ainsi essentiel, alors qu'une partie de tâches cognitives peuvent désormais être automatisées, avec un niveau de performance rivalisant avec l'humain ou surpassant celui-ci dans certains secteurs d'activité. La question est de savoir quel genre de cerveau, quelle vision du monde, quel type d'intelligence (éthique ou stratégique, altruiste ou égoïste) nous valoriserons comme "modèle culturel de pratiques" à transmettre dans le système d'éducation, afin de former des citoyennes et citoyens informés qui prendront un ensemble de décisions politiques, économiques, sociales et autres, dans un monde peuplé de machines.
Le problème dans tout ça, c'est que le modèle humaniste de l'enseignement, alors qu'il retrouve une actualité inouïe à l'ère des algorithmes, se retrouve plutôt marginalisée par un discours techno-solutionniste borné qui milite en faveur de l'adaptation fonctionnelle des professions et des organisations aux transformations du capital et des machines. Alors que nous sommes façons par la perfectionnement toujours plus sophistiqué des machines, nous avons arrêté de réfléchir activement aux conditions sociales et économiques permettant de contribuer à la perfectibilité humaine sur le plan moral, social, intellectuel, émotionnel et culturel. Alors que les robots occupent une place toujours plus importante dans nos vies, l'éducation ne peut être prise en charge par un nombre accru de robots qui nous enseigneront comment mieux les utiliser.
4) À moyen et long terme, et ce n'est plus un scénario de science-fiction à mon avis, on risque d'assister à une amplification des inégalités au sein d'un système d'éducation qui fonctionne déjà à deux (ou trois) vitesses. D'un côté, les écoles privées et les programmes publics à caractère sélectif miseront sur un enseignement personnalisé, pourront faire un usage pédagogique et mesuré des algorithmes (avec un modèle de classe inversée par exemple), alors que les écoles publiques "ordinaires" continueront d'être délaissées, avec davantage de robots et de tuteurs algorithmiques s'occupant de la prise en charge des élèves en difficulté. Les assistants personnels seront omniprésents, mais la façon dont ils seront utilisés et les personnes qui en subiront les effets seront différenciées en fonction des contextes, des ressources disponibles, des inégalités sociales, etc.
L'enjeu ici n'est l'IA en soi, mais l'usage de technologies algorithmiques dans le contexte socioéconomique actuel, lequel est marqué par une crise de l'éducation, une vision néolibérale et solutionniste de l'enseignement, des décisions d'un gouvernement "techno-twit" comme la CAQ. Notons au passage que nos élites politiques au pouvoir manquent cruellement d'expertise sur le plan numérique dans leurs ministères, et prennent des décisions à l'aveuglette sur les enjeux technologiques, en déléguant toujours plus de décisions et projets au secteur privé, en misant sur la sous-traitance et les GAFAM, qui proposent maintenant des solutions peu coûteuse et "clé-en-main" pour répondre aux multiples défis du système d'éducation.
Si je fais personnellement confiance à l'intelligence des profs et des acteurs de terrain quant aux usages et mésusages d'algorithmes en classe, j'ai beaucoup plus de doutes sur les décisions de hauts fonctionnaires, de gestionnaires d'établissement guidés par une grille d'analyse comptable, et de gouvernements qui rêvent de créer une "Silicon Valley québécoise" (dixit Legault), sans avoir aucun recul face aux problèmes éthiques et politiques de l'industrie technologique.
5) Pour terminer, l'élément qui inspire le moins confiance actuellement, c'est la vitesse du déploiement des technologies algorithmiques basées sur l'apprentissage automatique, qui a commencé il y a une vingtaine d'années, mais qui a récemment changé de vitesse avec les larges modèles de langage et les applications d'IA générative depuis 2022. Pendant ce temps, Microsoft qui intègre GPT4 à sa suite Office tout en mettant à la porte son équipe d'éthiciens (IA responsable), tout le monde se lance dans la course pour arriver premier, les pressions à la numérisation globale et le "tout-à-distance" (tele-everything) persistent même après la pandémie, les GAFAM se branchent toujours plus aux milieux de travail, à l'éducation, en misant sur l'extraction de données et l'entraînement d'algorithmes qui pourront toujours plus automatiser des tâches spécifiques, le tout avec la double intention de nous rendre plus "productifs" et de générer davantage de profits.
Pendant ce temps, tout le monde embarque dans cette dynamique, avec un mélange d'enthousiasme et/ou de méfiance, les profs se mettent à transformer leurs pratiques de travail et d'enseignement, les élèves se mettent à jouer avec ces technologies, pendant qu'émerge une nouvelle vague de startups, avec des innovations plus ou moins hallucinantes, utiles et/ou impertinentes. Les profs modifient la structure de leur cours, intègrent ces machines dans la préparation de leur travail, la coordination de leurs activités et le suivi avec leurs étudiant·e·s, des exercices en classe, donnant ainsi, aux algorithmes et aux entreprises qui les produisent et les contrôlent, de plus grandes capacités de calcul, toujours plus de données personnelles, et de nouvelles parts de marché.
À court terme, les profs pourraient effectivement gagner en productivité, en flexibilité, voire en "créativité" avec ces machines ; mais avec la généralisation des algorithmes, l'automatisation d'une partie des tâches liées à l'enseignement, la course à la productivité, les pressions en matière de restrictions budgétaires au niveau du système d'éducation, avec le rapide progrès technologique des assistants qui intégreront le texte, la voix, la vision, la vidéo et la robotique, l'automatisation de l'enseignement ne sera pas de tout repos, et ne se fera pas nécessairement au bénéfice des profs et des élèves. Croit que le progrès moral et social découle spontanément ou magiquement du progrès technologique relève du techno-utopisme.
S'il peut y avoir une part de créativité ici et là dans l'appropriation intelligente et critique des technologies à l'échelle micro, je crains que les tendances macrosociales du capitalisme algorithmique ne feront qu'amplifier la vitesse de ce changement, tout en conservant la même trajectoire globale. À l'époque, Lénine affirmait de manière ironique: "les capitalistes nous vendront la corde avec laquelle nous les pendrons". Aujourd'hui, j'ai bien peur que les entreprises de la Silicon Valley nous vendront la corde avec laquelle nous nous pendrons.
Cela peut sembler un peu catastrophiste, mais tout ce que je demande, c'est qu'on prenne un temps pour s'arrêter, réfléchir et mieux étudier cette "corde", pour savoir qui l'utilise, qui en tire bénéfice, qui pourrait être pénalisé, blessé ou remplacé par celle-ci, s'il sera possible effectivement de la produire et de l'utiliser par nous-mêmes, ou si elle sera balancée à la va-vite dans nos milieux de travail et salles de classe, en nous demandant d'improviser avec celle-ci, sans avoir si nous en avons vraiment besoin, et si oui, à quel prix.
C'est pourquoi, au final, bien qu'un moratoire sur l'usage des technologies numériques et algorithmiques en éducation soit difficile ou impossible à décréter, un moratoire sur leur imposition par les autorités publiques ou les directions d'établissement semble nécessaire et urgent, et la mise en place d'états généraux sur l'avenir de l'éducation, abordant de front la "question numérique", les risques et défis posés par les machines algorithmiques, s'avère un passage incontournable. Sans cette réflexion collective, le devenir algorithmique de l'éducation se fera de façon approximative, irréfléchie, improvisée et potentiellement dangereuse. Comme le disait Rabelais: « Science sans conscience n'est que ruine de l'âme »
https://www.lapresse.ca/contexte/2023-03-26/education/l-electrochoc-de-l-ia.php