L’école face à la révolution numérique: le discours de la méthode.

BigDataComme l’ont montré Descartes ainsi que le grand débat national sur l’Ecole organisé il y a une dizaine d’années par Claude Thélot, qui avait recueilli pas moins de 50 000 contributions, « le bon sens est, avec les opinions sur l’école, la chose au monde la mieux partagée ».

Au nom de leurs visions respectives sur l’école, les nombreux ministres de l’Education Nationale n’ont eux-mêmes cessé, depuis 30 ans, de secouer l’Education Nationale.

Pour l’un, la clé est dans l’apprentissage de la lecture. Pour l’autre, c’est le soutien individualisé. Pour un troisième, il s’agit de la motivation des professeurs, du nombre d’élèves par classe, du rythme scolaire ou bien encore de la quantité de graisse disponible sur le mammouth.

Tout y passe, donc. Mais quel est le point commun entre ces différentes « visions » ? C’est que vraies ou fausses, elles ne sont pas fondées. Elles ne s’appuient pas sur des faits scientifiquement prouvés mais sur des a priori, des préventions, selon le terme employé par Descartes.

« Considérant combien il peut y avoir de diverses opinions touchant une même matière, qui soient soutenues par des gens doctes, sans qu’il y en puisse avoir jamais plus d’une seule qui soit vraie, je réputais presque pour faux tout ce qui n’était que vraisemblable. »

« C’est pourquoi, dit Descartes, s’adressant à nos ministres avec presque 400 ans d’avance, je ne saurais aucunement approuver ces humeurs brouillonnes et inquiètes, qui, n’étant appelées ni par leur naissance ni par leur fortune au maniement des affaires publiques, ne laissent pas d’y faire toujours en idée quelque nouvelle réformation ».

La méthode expérimentale qu’invente Descartes dans le Discours de la méthode n’est pas une théorie scientifique, mais bien une façon de trancher entre les théories (par l’expérience) et d’avancer dans la découverte scientifique (en divisant un problème d’apparence complexe en plusieurs problèmes plus simples).

A partir de Descartes, le progrès scientifique est continu quel que soit le rythme des découvertes. Même la reconnaissance qu’une idée est fausse constitue souvent un progrès utile. Ainsi, si je prends le cas de l’équipement numérique des écoles, aucune étude sérieuse n’existe sur le bénéfice que les élèves peuvent retirer de cet équipement. Soit, donc, cet équipement est inutile, auquel cas des budgets peuvent être dégagés pour d’autres investissements plus intéressants, soit il est utile et il importe alors de dire en quoi il est utile, de dégager son cadre d’utilisation, les usages optimaux, les matières où il doit être utilisé, etc.

Jusqu’à aujourd’hui, la méthode décrite par Descartes est restée quasiment inapplicable dans l’enseignement pour deux raisons principales :

    • La complexité de la validation de la théorie : à l’opposé des sciences exactes où des expériences ont souvent pu rapidement déterminer la validité d’une théorie, valider une théorie portant sur la pédagogie nécessitait jusqu’à présent des évaluations lourdes, coûteuses, longues et complexes. En conséquence, ces évaluations ne pouvaient être réalisées qu’en petit nombre et ne pouvaient réellement influencer la politique des états, la durée de l’évaluation étant en général nettement supérieure à la longévité du Ministre.

 

  • Le flou des critères : là où, dans les sciences exactes, les critères sont mesurables et le plus souvent accessibles à l’expérience, les données à observer sont complexes à définir dans le cas de l’enseignement. Comment juger avec certitude le niveau d’un élève ? la qualité d’un professeur ? D’une méthode ? Ces termes mêmes ont-ils un sens ? Et si on peut apporter un début de réponse – ou une réponse imparfaite – aux questions précédentes, comment observer de façon quantitative que « l’enfant est bien dans sa peau à l’école », ce qui lui permet « d’exprimer sa créativité », comme le préconisent certains courants ?

Or, il se trouve que deux développements scientifiques récents vont permettre d’appliquer la méthode expérimentale à l’école.

Bien qu’intimement liés à la révolution numérique en cours, ils n’ont jamais, à ma connaissance, été mis en relation. Les progrès qu’ils permettent d’envisager sont immenses. La pédagogie scolaire, presque figée depuis le temps d’Aristote qui a inventé simultanément le cours magistral, les petites classes et la ressource documentaire, va pouvoir suivre un chemin d’amélioration permanent, continu et observable, comparable à celui que la science a suivi depuis l’écriture du Discours de la méthode.

Le premier est la méthode d’évaluation aléatoires mise au point par une chercheuse français, Esther Duflo.

Le second est l’avènement des « big data » autrement dit la possibilité d’utiliser des masses de données d’information récoltées sur les élèves. Ces données sont aujourd’hui exclusivement utilisées pour des besoins publicitaires par des sociétés telles que Facebook ou Google. Or elles peuvent aussi être utilisées de façon décisive pour améliorer l’enseignement.

La méthode d’évaluation aléatoire.

La méthode aléatoire repose sur des évaluations faites sur des petits groupes (quelques centaines d’élèves) dont les caractéristiques sont identiques au départ. Un de ces petits groupes adopte un “processus nouveau” (par exemple il va utiliser une méthode de lecture nouvelle jugée prometteuse). On compare ensuite, sur des critères précis, la performance de ces groupes (rapidité de lecture, compréhension, etc.).

Depuis quelques années, Esther Duflo, a utilisé la méthode aléatoire pour évaluer les effets des politiques de lutte contre la pauvreté avec des résultats remarquables. Les techniques qu’elle a développées peuvent être appliquées à l’école.

Avec des moyens très faibles, la méthode aléatoire a donné, en Inde, plus de renseignement sur les usages du numérique que dans tous les pays développés.

Lorsque l’on compare les écoles équipées en informatique avec les autres, on constate que les élèves ont de meilleurs résultats dans les premières. Mais est-ce vraiment dû aux ordinateurs ? La différence de résultats ne s’explique-t-elle pas plutôt par le fait que ce sont généralement des écoles urbaines, déjà relativement favorisées, qui sont équipées en ordinateurs ?

Une expérimentation permet d’isoler l’impact réel des ordinateurs. Dans une ville indienne, toutes les écoles en étaient équipées, mais généralement, ils restaient dans leur boîte, parce que les enseignants n’étaient pas formés ou ne disposaient pas des logiciels appropriés. Nous avons sélectionné un groupe d’écoles de manière aléatoire et avons mis à leur disposition un formateur et des logiciels de mathématique, de sorte que tous les enfants bénéficiaient de quelques heures d’informatique par semaine. Un an plus tard, nous avons comparé les performances. Les écoles qui avaient pu utiliser les ordinateurs recueillaient de meilleurs résultats en mathématique.

De nombreuses expériences peuvent être menées dans le domaine de l’éducation, permettant de tester l’impact de facteurs fort divers. Une étude a par exemple montré que l’embauche d’une personne chargée du soutien scolaire a un impact équivalent à l’achat d’ordinateurs, tout en étant bien moins onéreuse.“

Les processus d’évaluation actuels sont lourds, coûteux, longs et ne peuvent pas influencer les politiques d’éducation. En les remplaçant, ou en les complétant, par un grand nombre de micro-évaluations aléatoires peu coûteuses, rapides à effectuer, bien ciblées et déterminées avec méthode, on peut disposer d’un outil remarquablement efficace, permettant d’obtenir des premiers résultats en quelques mois, d’infléchir les politiques et de mieux dépenser l’argent public.

Avec les outils d’évaluation adéquats, l’école peut devenir un processus « optimisé sous contraintes ». Comme le processus d’évolution améliore en permanence la performance des êtres vivants, toutes les initiatives peuvent être évaluées, et les meilleures sélectionnées et généralisées.

Le facteur clé de succès de cette politique de guidage réside dans la rapidité d’exécution (de l’ordre de quelques semaines) et la quantité des évaluations mises en place – pour reprendre un terme utilisé en informatique, dans leur agilité.

Ce processus pourrait être mis en place par la Direction de l’Evaluation de l’Education Nationale, sous le contrôle éventuel d’un grand corps du Numérique, constitué en priorité d’ingénieurs sur le modèle du corps des Mines ou des Ponts et qui aurait pour objectif de mener à bien la réforme numérique dans l’administration française et à l’école.

L’utilisation des « Big Data ».

Alors que pour l’instant les principales applications numériques utilisées à l’école concernent les usages, l’évaluation à l’école est, selon moi, le facteur le plus important et le plus méconnu de la révolution numérique en cours.

Dans la dernière décennie, ordinateurs, tableaux interactifs, environnements numériques de travail ou autres cartables numériques sont rentrés à l’école, sans que l’on sache vraiment d’ailleurs, en l’absence de toute méthode, quel est leur impact réel sur le niveau des élèves. Qui plus est, ces technologies ont pour vocation presqu’unique d’améliorer l’apprentissage et non pas de l’évaluer.

Or, à partir du moment où on rassemble suffisamment de données (on parle ici en petaoctets, c’est-à-dire en million de gigaoctets), la statistique permet de dégager des “lois” générales profondes. Dans un article polémique, mais fondateur, intitulé « La fin des théories : le déluge de donnée rend la méthode scientifique obsolète », Chris Anderson a montré comment ces données peuvent être utilisées non seulement pour conquérir des marchés publicitaires, comme l’a fait Google, mais aussi peut être aussi pour se débarrasser de qui était auparavant le but de toute science, à savoir le modèle ( ce qu’on appelle en général « la théorie scientifique »).

Google ne cherche pas à modéliser le comportement des utilisateurs ou à « comprendre » le contenu des pages Web, mais utilise des outils statistiques afin de dégager des corrélations (patterns) à partir desquels les bandeaux de publicité sont proposés. Pas de modèle, la corrélation suffit.

Quel rapport avec l’école ?

Les évaluations actuelles mises en place par l’Education Nationale sont mal acceptées parce qu’exceptionnelles, complexes et lourdes et génèrent très peu de données, en quantité, par rapport aux mécanismes de captation de données mis en place par Google ou Facebook, qui sont eux volontairement – et souvent frénétiquement – utilisés par les élèves à partir de leur ordinateur, tablette numérique ou téléphone portable.

Il est grand temps d’utiliser ces données dans un objectif d’intérêt général et d’intégrer massivement ces technologies dans l’enseignement, a minima pour évaluer les élèves.

Dans le cadre des évaluations aléatoires que j’ai déjà évoquées, ces équipements numériques mobiles rendent l’évaluation des élèves et des politiques scolaires beaucoup plus rapide, facile et économique, à tel point qu’il devient possible aujourd’hui, en multipliant les micro-évaluations, de réellement diriger toute la politique scolaire.

Ensuite, l’usage de ces matériels doit être systématisé de façon à obtenir un maximum de données permettant d’évaluer les élèves et de récolter ces données d’évaluation. Dans la mesure du raisonnable, la plupart des évaluations, devoirs, questionnaires devraient être demandés aux élèves sous forme numérique, dans un format permettant aux outils statistiques de type « big data » d’être utilisés.

Les outils permettant d’interroger les élèves de façon numérique (par exemple sous forme de questionnaire à choix multiples) existent déjà mais ne sont pratiquement utilisés que dans l’enseignement supérieur, et de façon parcellaire. A partir du moment où le volume de données recueillies devient suffisant, où ils sont systématiquement mis en place partout dans les écoles, ces outils permettront non seulement de déterminer le niveau réel des élèves avec une profondeur bien supérieure aux techniques d’évaluation actuelles, mais aussi de déterminer des quantités de lois pédagogiques, ou plutôt de corrélations, nouvelles et non contestables.

Il convient de préciser, car l’objection sera évidemment faite, que « Big data » n’est pas nécessairement « Big brother ». Toutes ces données sont personnelles mais peuvent – et sans doute pour la plupart doivent – rester anonymes. La question de l’identité de l’élève qui a répondu importe peu à l’outil statistique, ce qui importe, c’est de connaître l’ensemble de ses données, sur l’ensemble de son parcours scolaire.

Il va devenir possible d’identifier les « meilleurs professeurs » (ceux qui font le plus progresser le niveau moyen de leurs élèves et non pas ceux qui, disposant probablement au départ des meilleurs élèves, obtiennent les meilleurs résultats au baccalauréat) et de s’inspirer de leurs méthodes pour former les autres professeurs. La formule « bon professeur » n’a peut être pas un grand sens dans l’absolu, mais on peut envisager aussi de déterminer, grâce à des corrélations, quel est le professeur qui conviendra le mieux à un élève déterminé, quel est l’élève qui apprend mieux en lisant qu’en écoutant, quel est celui qui est à même de profiter le plus d’un soutien personnalisé…

Bref, les « big data » vont nous fournir des renseignements très précieux permettant d’améliorer professeurs, élèves, méthodes pédagogiques, mécanismes d’orientation, etc. Il est impossible à l’heure actuelle de prédire quelle ampleur prendront ces progrès.

Il est simplement possible de prédire que le pays qui tirera le plus d’avantage de la révolution numérique sera celui qui aura su le mieux utiliser ces nouveaux outils de captation des données et d’évaluation car, nous dit Descartes:

« Ceux qui ne marchent que fort lentement peuvent avancer beaucoup davantage, s’ils suivent toujours le droit chemin, que ne font ceux qui courent et qui s’en éloignent. »

C’est bien un nouvel âge de l’école qui s’ouvre.

(9) commentaires pour "L’école face à la révolution numérique: le discours de la méthode."

  1. L’école, la droite, la gauche, la famille et l’intérêt supérieur des élèves

    […] Il me semble possible de sortir de ce double enfermement – j’y reviendrai. […]

  2. Bonjour,
    je lis souvent avec beaucoup d’intérêt vos analyses qui sont toujours extrêmement bien construites. J’adhère bien souvent à votre exposé des faits, à une grande part de l’analyse, mais il me semble que vos solutions ou perspectives dénotent malgré tout des conceptions différentes de l’éducation.

    Ce grand corps du numérique sur lequel vous revenez ici est elle vraiment la bonne solution ? Sans doute, il faut faire émerger un pôle numérique, mais pour autant doit-il être constitué d’ingénieurs, à fortiori d’un format de corps ? C’est une vision élitiste qui n’est pas en phase avec l’approche collaborative que le web permet. C’est également une vision technique du problème qui relève plutôt de la conduite du changement. Ensuite, elle a le défaut de prendre plusieurs années pour être mise en place. Une approche plus multidisciplinaires (ingénieurs, sociologue, pédagogue …) avec une lettre de mission claire apportant l’impulsion politique ne serait elle pas plus efficace.
    Il pourrait effectivement être adossé à un service assurant des analyses aléatoires permettant de constituer une base d’informations précieuses.

    Concernant les “big datas” (on pourrait parler de “learning analytics” pour coller au domaine), l’intérêt en est évident. Mais là, il faut se méfier de la manière d’exploiter ces données. Je préfère une vision “open data” qui permette à chacun d’accéder aux informations, pour en tirer les outils qui lui paraitront pertinents. Et en terme de conduite du corps professoral, qui soit exploité par les personnes concernées pour leur permettre de s’améliorer selon leurs souhaits.

    cordialement,

    • Bonjour,

      Le corps du numérique est vraiment un point périphérique du billet et de toutes les façons, j’en suis bien conscient, l’heure n’est effectivement pas à la création de nouveaux corps donc ce débat est sans doute vain. Il est vrai aussi que ce corps ne devrait sans doute pas être constitué uniquement d’ingénieurs mais majoritairement d’ingénieurs, car les aspects techniques sont nombreux. J’ai décrit les caractéristiques d’un tel corps ici.

      Le corps est effectivement une vision d’élite, mais une vision juste car les membres d’un corps sont sélectionnés au mérite (scolaire). j’ai plus de mal avec les approches “ouvertes” où les critères sont arbitraires (communication, soutien de pairs eux-mêmes peu sélectionnés, etc…). Pour la France, je préfère un mécanisme lourd, mais juste, qui colle à la réalité et au potentiel historique du pays qu’un mécanisme plus léger, mais arbitraire, un peu flou et qui dégénère en “piston”. Si j’étais aux USA, je dirais exactement le contraire. De toutes façons, les 2 approches ne s’excluent pas forcément.

      Cordialement,

  3. Bonjour,
    ce qui me gène également dans la constitution d’un “corps”, c’est le risque de voir exister une tête trop éloignée des réalités, des besoins, qui veuille avoir raison sans avoir pris la mesure des aspects non techniques (qui sont à mon avis importants aussi).

    Expertise, certes, pôle visible également, donc sans doute pas une structure complètement à plat, mais échanges aussi pour permettre un niveau d’adhésion suffisant sans lequel rien ne bougera.
    Effectivement, en France, il nous faudra mixer les 2 modèles.

  4. Bonjour,

    Petite remarque:
    vos grandes idées sur la mise en place d’usage systématique du numérique pour mieux évaluer se base sur une énorme (fragile ?) présupposition: l’usage des outils numériques est-il le mieux à même d’évaluer/former efficacement ???

    On sait bien qu’en physique une mesure perturbe toujours l’environnement de mesure; et si la méthode de mesure n’est pas adaptée, le simple fait d’effectuer la mesure peut fausser de manière inéluctable les résultats de la mesure …

    Donc … la “systématisation” d’outils numériques dans l’enseignement ne pourrait-elle pas de même perturber l’efficacité dudit enseignement ?

    Je pense qu’on est en droit de se poser la question.

    Après je ne nie pas du tout l’intérêt d’une plus grande réactivité au profit de la pertinence des orientations pédagogiques … et encore moins l’urgence de pouvoir apporter aux élèves une vraie formation concernant la culture numérique (à part bidouiller, ils ne savent rien des paramétrages/fonctionnalités avancées des ordis, smartphones ni même à propos de facebook et de la sauvegarde de leur vie privée …)

  5. Bonjour,

    (Point à part: une mesure bien faite ne perturbe nullement l’environnement de mesure, sauf dans des cas extrêmes bien précis comme la mécanique quantique… Mais dans la plupart des cas physiques bien conçus, ce n’est pas le cas. Le radar en modifie pas la vitesse de la voiture qu’il mesure, pas plus que le thermomètre ne modifie la température qu’il fait à Paris…)

    “l’usage des outils numériques est-il le mieux à même d’évaluer/former efficacement” : cette question est intéressante et peut être tranchée avec un degré de certitude raisonnable avec la méthode aléatoire.

    A l’heure actuelle, les outils permettant de noter de façon quantitative sont sous utilisés dans l’enseignement en France alors qu’ils devraient être utilisés dans la plupart des cas (à l’exception évidemment des rédactions, dissertations, exposés où leur usage n’a pas de sens). Il y a une grande méconnaissance en France de ces outils, une tendance à croire qu’ils sont “réducteurs” parce que fermés et ce n’est pas du tout le cas. Un professeur qui “sait” comment bien écrire un quiz est parfaitement à même de juger du niveau des élèves.

    il y a probablement aussi une peur de mesurer tout court, qui concerne d’ailleurs professeurs et élèves car elle est vécue comme une mise en cause personnelle alors que ce n’est pas nécessairement le cas.

    Et surtout, sans outil de mesure, que voulez vous améliorer ? Comment juger ? On est dans le débat idéologique permanent qui est en train de tuer l’enseignement.

  6. Re-bonjour,

    Auriez-vous des liens vers des articles/études traitant de la pertinence des quiz/QCM (bien écrits donc) pour l’évaluation ?
    Et tant qu’à faire sur comment construire des bons quiz … ?
    merci

    • C’est plus tiré de mon expérience personnelle. J’ai “découvert” le QCM pendant mes études supérieures, à Stanford.
      S’il est bien conçu, il propose souvent des réponses exactes, des réponses fausses et des réponses “légèrement fausses” (correspondant à une erreur fréquente, ce qui est déjà un début de correction pour un élève).
      Pendant ma scolarité à Stanford, je n’ai été pratiquement testé que par QCM, même pour des épreuves très créatives a priori, et n’ai jamais constaté de déficience dans l’évaluation par rapport à ce que j’avais vécu en France – en fait, j’étais largement aussi bien évalué, sinon mieux. le QCM supprime aussi de nombreux biais (rédaction, écriture).
      Il est souvent plus difficile, pour un enseignant, de concevoir un QCM intelligent qu’une épreuve traditionnelle.
      A noter aussi qu’évidemment, le QCM ne peut pas tout remplacer. Une dissertation de philosophie, un épreuve de dessin ne sont pas du domaine du QCM. Mais 20 à 80% des épreuves, tous niveaux confondus, sont accessibles à ce genre de technique. Et on est donc dans ce qu’on appelle le “statistiquement significatif”.
      Vous avez pas mal de contenus de cours en accès libre sur le Web (Stanford.edu et MIT). prenez un cours dans votre spécialité et allez chercher le poly. Il contient en général les évaluations formelles données aux élèves, faites sous forme de QCM.

  7. L’école face à la révolution numérique: le discours de la méthode. | Le magazine des Jeux Sérieux et des Technologies d'apprentissage

    […] aussi être utilisées de façon décisive pour améliorer l’enseignement. Lire la suite de l’article lu : 1709 […]

Laisser un commentaire sur le blog