L’éducation au numérique : quelle formation pour les formateurs ?

Par amandineb - 17 avril 2014

La journée Décodez le code a réussi sa démonstration : montrer et rassembler l’incroyable foisonnement d’initiatives portant sur la sensibilisation et développement de la culture du numérique : à l’image du « one minute Madness » époustouflant, donnant un coup de projecteur à une vingtaine d’acteurs du codage et de la création numérique.

image

Mais d’abord par culture du numérique, qu’entendons-nous ? Le terme, aussi large qu’ambigu nécessite explications. Englobe-t-il l’appropriation des réseaux et le développement des usages des outils techniques, la compréhension des fonctionnements technologiques, la conscience des enjeux des transformations sociétales en cours, permettant la participation effective de tous à la société, ou peut-être tout ça à la fois ?

image

Encadrée par l’INRIA, Cap DIGITAL et le CNAM, la journée était placée essentiellement sous l’angle du code, c’est-à-dire des langages et de leurs logiques, sous-jacents au fonctionnement de l’univers numérique. Faut-il comprendre le code pour comprendre la société dans laquelle nous vivons ? Décodez le code est-il une des conditions de l’empowerment des citoyens ? L’OCDE parle de litteratie, comme « l’aptitude à comprendre et à utiliser l’information écrite dans la vie courante, à la maison, au travail et dans la collectivité en vue d’atteindre des buts personnels et d’étendre ses connaissances et ses capacités ». Le culture numérique doit-elle désormais en faire partie ? Et dans ce cas le code en est-il une des composantes de base ?

A ces questions, ils étaient nombreux à répondre par l’affirmative, et même à donner beaucoup de leur temps à la transmission et au partage d’une culture du code qui n’a pourtant rien d’évident.

Mais ces formateurs, au juste, qui sont-ils ? Auraient-ils besoin eux-mêmes d’être formés ? de monter en compétences ? De se professionnaliser ? Et dans ce cas, comment soutenir cette dynamique ascendante sans tuer l’incroyable énergie dont elle fait preuve ?

Une trentaine de personnes réunies en atelier se sont attelées à ces questions.

QUI SONT LES FORMATEURS ?

Les initiatives de formation au code se multiplient, dans le monde anglo-saxon, comme en France, et ce grâce l’investissement passionné de bénévoles, d’associations, de développeurs-à-la-recherche-d’autre-chose, mais aussi de professeurs, des chercheurs scientifiques, militants à l’intérieur de l’institution éducative, comme à l’extérieur, ou de simples « parents » cherchant à donner les bonnes armes à leurs enfants.

En fonction de leur profil et du cadre d’intervention, ces formateurs ont des besoins disparates. A minima, un sentiment les réunit : celui de ne pas être pris suffisamment au sérieux par les institutions, les politiques, la société. Des actions de mobilisation nationale de type « one hour of code », seraient en cela bien accueillies par cette communauté, souffrant de vivre dans l’obscurité.

DE QUOI ONT-ILS BESOIN ?

Les enseignants du secondaire, les enseignants-chercheurs

Au sein de l’enseignement secondaire, des professeurs se sont mobilisés, dans le cadre de l’ISN (Informatique et science du numérique), pour développer l’apprentissage du code et de l’informatique mais cela s’est fait sans assurer les conditions de durabilité de l’expérience (pas de décharges de cours, ou de remboursement des frais de déplacement).  Au niveau de l’enseignement supérieur, il n’existe pas de CAPES ou d’agrégation d’informatique, qui permettraient de former des étudiants, car l’informatique n’est pas reconnue comme une science ou une discipline à part entière des mathématiques par exemple.

=> Ici se situe un premier niveau de revendication : former officiellement – statutairement les formateurs, et faire reconnaître la discipline.

Mais s’arrêter là serait louper la véritable dynamique du mouvement. Car les formations ont émergé essentiellement à l’extérieur de l’institution éducative : dans un « à-côté » qui ne s’explique pas seulement du fait d’une carence de l’institution…  

Les professionnels, développeurs, informaticiens… :

Une partie importante des formateurs sont des professionnels du secteur : des informaticiens, développeurs, soit « fatigués » des fonctionnements des SSII, soit simplement passionnés et à la recherche de partage et de transmission, ou encore en reconversion, donnant de leur temps pour transmettre ce qu’ils ont appris.

=> Pour ce public là de formateurs, deux besoins principaux ont été évoqués par les participants :

- le besoin de formation « pédagogique » : acquérir des compétences d’animation ;

- le besoin de sensibiliser et de mobiliser les entreprises pour qu’elles laissent du temps et prêtent des compétences (par le biais de mécénat de compétences, ou autre).

Les animateurs « BAFA »

De plus en plus de structures d’accueil des enfants émettent le souhait de développer des formations d’apprentissage du code, mais se retrouvent face à des publics d’encadrement (animateurs BAFA) peu spécialistes. Un enjeu consiste donc à former ces publics-là, comme est en train de l’initier la ville de Nanterre.

=> Besoin de formations techniques, de montée en compétences

Les formés devenus formateurs

Dans ce panorama un dernier public apparaît : les personnes formées devenues à leur tour formateurs. La pénurie de main d’œuvre est telle – et les demandes de formation étant croissantes - que les formateurs « initiaux » doivent former des personnes prenant le relais sur leurs actions. Pour que ces troupes “élargies” gagnent en autonomie, il devient  nécessaire de fournir des outils méthodologiques, de structurer les ressources.

=> Poursuivre la traduction des outils et méthodes anglo-saxons (code.org…) ;

=> Ouvrir et partager les plateformes d’exercices, et des forums d’entraide :

=> Continuer à documenter et partager les méthodologies d’animation, sur le modèle de « recettes de cuisine », ou de « parcours type », composés d’ingrédients indispensables, et manières-de-faire adaptables ;

 image

En conclusion

Cette réflexion sur les formations aux formateurs interroge la matière même à apprendre : l’informatique, dans ses dimensions évolutives, agiles, collaboratives… Aux dires des participants, elle nécessiterait avant tout « d’apprendre à apprendre » et « d’apprendre en faisant ». En cela elle remet en cause la pédagogie classique et propose des modèles plus proches de l’enseignement coopératif, du compagnonnage, du mentorat. La relation entre le formateur et l’apprenant en est transformée, brouillant les frontières classiques entre le sachant et l’apprenant, et les mettant, touts deux, dans une posture active d’apprentissage pair à pair, ou d’apprentissage réciproque.

La dernière parole de cet atelier est revenue aux concepteurs des coding-goûters  (Jonathan Perret et Raphaël Pierquin), se définissant comme de « simples parents ».  Explorer, combiner et transformer : tels sont les mots clés de cette démarche inédite, où ce sont « les enfants qui apprennent aux parents comment faire ».  Cette dernière typologie de « formateur » illustre bien la pédagogie inversée à l’œuvre dans le développement de la culture informatique.

Que cette pédagogie soit due aux spécificités de la matière informatique, ou qu’elle soit le reflet d’une époque où les rôles et les fonctions se redéfinissent (dans la famille, dans l’institution pédagogique, dans l’entreprise…), il n’en reste pas moins qu’elle pourrait conduire à des transformations pédagogiques durables. A bon entendeur…

Reblog via

Atelier d’exploration Biologie Synthétique : 3 talks inspirants

Par tmarcou - 09 avril 2014

La matinée du 14 mars était consacrée à une série de trois interventions d’Aleksandra Nivina, biologiste passée par le CRI et actuellement en PhD à l’Institut Pasteur, James King, bio-designer britannique et Rémi Sussan, journaliste à Internet Actu.

Présentation d’Aleksandra Nivina


Il n’y a pas une seule définition de la biologie synthétique. Aleksandra Nivina en a donc choisi plusieurs qu’elle a collées dans un générateur de nuage de mots.  

Au premier plan apparait “biological”, c’est normal ! “Parts” est le 2e terme, normal aussi compte tenu de la dimension “ingéniériale” de la biologie synthétique. Les “parts” sont ces fameuses bio-bricks partagées dans la communauté pour faire avancer tous les projets.  Le MIT en tient un registre à jour
Design et re-design, sont aussi des mots importants. Beaucoup de définitions insistent sur cette dimension particulière de la biologie synthétique qui consiste à comprendre les mécanismes du vivant, pour le réparer, ou créer de nouvelles formes et combinaisons à partir des connaissances ainsi acquises.

La biologie synthétique est une discipline qui conçoit, répare et fabrique des systèmes biologiques à partir de “composants” naturels, ou modifiés par elle.

On peut aussi définir la biologie synthétique par ses applications. Certaines sont réelles, d’autres en développement, et d’autres encore imaginaires. On sait produire du fuel à partir de bactéries - pour l’instant ce n’est pas rentable économiquement -, fabriquer des médicaments à partir de bactéries ou de levures, des outils pour détecter, soigner ou détruire les cellules cancéreuses. On élabore de nouveaux matériaux, par exemple du fil d’araignée synthétique (le naturel est d’une solidité remarquable). On expérimente des thérapies géniques. On teste la bio-remédiation, pour nettoyer différents types de pollution ou pour designer des bio-capteurs, de polluants dans l’environnement ou de pathologies dans le corps. On explore la reprogrammation de la microflore bactérienne pour prévenir ou traiter certaines maladies, dans le futur. On sait également avec l‘“engineering crops”, rendre les plantes plus résistantes. 

Quand on utilise le mot design, c’est que nous voulons  répondre à des enjeux , à des objectifs de façon rationnelle en poussant loin la réflexion. Par exemple designer un circuit génétique, qui est l’opération de base de la biologie synthétique. On sait aujourd’hui produire des circuits génétiques complexes, on peut aussi construire des organismes synthétiques, en leur injectant un ADN totalement synthétique. On veut designer des systèmes qui soient simples, robustes, efficaces et surs, comme ça se fait dans les autres domaines du design. A un certain point on pourrait considérer la biologie synthétique comme une nouvelle aire du design.

Présentation de James King

James King est un jeune bio-designer britannique impliqué depuis plusieurs années dans l’exploration des bio-technologies. Il nous a présenté trois projets illustrant sa démarche, qui consiste à faire du Design un élément permanent de la pratique scientifique.

Dressing the meat of tomorrow est un projet de design spéculatif qui explore les conséquences de la maitrise de la culture in vitro de la viande. En effet, si la culture des tissus vivants est un procédé de routine dans les laboratoires, que se passera-t-il lorsque ces techniques de génie tissulaire deviendront la base de la production de l’industrie alimentaire, en dépit du dégout que cette perspective peut nous inspirer ? Si la viande “in vitro” devient plus rentable, et plus humaine que l’élevage industriel, quelle sorte de viande voudrions-nous manger ? De quelle forme, dès lors que nous ne sommes plus limité par la taille et l’anatomie de l’animal ? Serions nous heureux de manger une  telle viande ? James King imagine un chef de cuisine curieux, innovant, qui se démarque en créent de nouvelles formes esthétiques pour la viande. En créant de vrais objets, James King souhaite engager autrement, plus concrètement, le débat sur le sujet de la viande “in vitro”, pour finalement répondre à cette simple question : ai-je vraiment envie d’en manger ?

E-Chromi est un autre projet de bio-design de James King et  Alexandra Daisy Ginsberg développé à l’université de Cambridge en 2009 avec la collaboration de jeunes designers et scientifiques. Les biologistes ont d’abord sélectionné différentes bactéries produisant des pigments colorés visibles à l’oeil nu, pour ensuite les associer à d’autres bio-bricks, comme des bio-senseurs, et finalement imaginer avec les designers différents usages de ces briques biologiques. Tester la qualité d’une eau, colorer autrement la nourriture et même imaginer une application “médicale” sous la forme d’un yaourt embarquant les bio-marqueurs, et permettant d’établir une série de diagnostics médicaux à partir de la couleurs de nos selles. Ce projet a remporté la compétition IGEM en 2009.

Cellularity est une réflexion sur la notion de vie et de mort en biologie synthétique, à partir d’un projet consistant à produire une nouvelle molécule qui intègre des molécules non organiques  contenant des composants médicamenteux dans une cellule. Dans des conditions spécifiques, la membrane de la cellule devient poreuse, libérant de petites quantités de ce médicament dans l’organisme. 

Par la suite, l’organisme va pourvoir récupérer ce médicament, puis l’activer en fonction de ses besoins. Il va acquérir des capacités à se répliquer dans des cellules par mitose. Il va ensuite se recombiner avec d’autres cellules “médicaments” situées dans l’organisme afin de créer de nouveaux médicaments. Certains seront fonctionnels, d’autres non. Ceux qui ne servent à rien seront reconnus par l’organisme comme des cellules pathogènes et seront détruites par le système immunitaire. La finalité est de produire des molécules médicamenteuses juste en fonction des besoins de l’organisme.

 Au-delà des applications technologiques potentielles, ces recherches pourraient conduire à une nouvelle compréhension de la façon dont la vie et les choses non vivantes diffèrent les unes des autres. Pour explorer ces impacts, James King a imaginé l’échelle de Cellularity - une définition spéculative de la vie qui pourrait s’appliquer dans un avenir où, au lieu de nous demander si quelque chose est mort ou vivant, on s’inquiéterait seulement de savoir quel est son niveau, son intensité de vie.

Présentation de Rémi Sussan

Rémi Sussan est journaliste à Internet Actu, où il couvre notamment les sujets de la biologie synthétique. Il se présente trop modestement comme un complet amateur, même s’il est par ailleurs un membre actif de La Paillasse, le premier biohackerspace français.

Quelle est la relation entre la biologie synthétique et les ordinateurs ? On observe d’abord  le même type de développement : rapide, open source, hackable, on peut être bio-hacker ou digital hacker. Ces deux technologies sont « autocatalytiques », c’est à dire qu’elles font progresser toutes les autres. Pour Stewart Brant, auteur de cette définition il y a 3 technologies de ce type : les infotech, les biotech et les nanotech, qui utilisent les mêmes processus algorithmiques. 

Dans les années 50 les ordinateurs étaient très chers, un cadre d’IBM pensait à l’époque qu’un petit nombre conviendrait pour l’ensemble des USA … La baisse des prix a produit les mêmes effets sur les biotech : n’importe qui peut en faire. L’Open PCR, une machine pour amplifier l’ADN afin de le séquencer, disponible pour moins de 600 $, a été construite sur une base arduino, et développée en ligne par une communauté de bio-punk qui font de la biotechnologie de garage et du bio-kacking. Cette communauté, diybio.org, fait de la biotech par ses propres moyens et avec peu d’argent, et c’est possible parce que les prix ont chuté, comme le montre la courbe de Carlson, l’équivalent de la loi de Moore pour les biotechs. Le séquençage, lire l’ADN, a beaucoup baissé en coût, synthétiser, écrire l’ADN, ça baisse mais moins vite, donc on peut vraiment imaginer aujourd’hui de faire de la biotech dans son garage.

C’est d’ailleurs ce que font les membres de La Paillasse. La liste de leurs réalisations ne cesse de grandir. Un bioréacteur pour cultiver les micros-organismes (un projet financé en partie par la Nasa) de l’encre bactérienne, un dispositif de barcoding “very” lowcoast pour repérer les OGM dans le contenu de votre assiette, et tous les composants organiques ou chimiques qui vont avec. 

La Paillasse applique la charte des biohackerspaces, réalisée collectivement : transparence, sécurité, etc … Les plus cyniques diront qu’on ne parle pas d’éthique. Les bio-terroristes n’ont pas besoin des hackerspaces pour fonctionner. Le danger ne viendra pas d’eux.

Il existe depuis longtemps une discipline qui s’appelle ‘Artificial Life ». Elle est l’exact contraire de la biologie synthétique. L’Artificiel Life crée la vie « in silico » comme dans ce vieux jeu en ligne des années 90, « Creatures ».  Ces créatures avaient un ADN, un réseau neural, et se reproduisaient en fonction d’un algorithme génétique, du coup les enfants étaient différents des parents, et heureusement un peu plus intelligents à chaque nouvelle génération. Une légende dit que c’est en voyant ces créatures qu’une japonaise a eu l’idée des Tamagotchi … L’Artificial Life essayait de créer de la complexité, et de nouvelles propriétés, alors que la biologie synthétique veut plus prosaïquement comprendre les mécanismes et propriétés de base, et non pas faire émerger de nouvelles propriétés. Comme le résume très bien Drew Endy : I hate emergent properties !

Le parallèle avec l’informatique fonctionne très bien : vous n’avez pas besoin de savoir comment marche votre ordinateur, ou même de le fabriquer, pour publier un billet sur un blog. Un jour vous pourrez créer tout aussi facilement de nouvelles formes de vie sur votre ordinateur, en utilisant par exemple le Genome Compiler. En attendant, 50% des logiciels de ce type sont « morts »,  et ceux qui restent ne marchent pas toujours …

Peut-on faire une synthèse des ces deux technologies ? Georges Church et ses collaborateurs ont créé une machine qui écrit des milliers de lignes d’ADN en parallèle, en essayant d’atteindre un niveau de complexité supérieur.

Et le rêve de la biologie synthétique c’est quoi ? Des maisons qui poussent toute seule ? Un Jurassic Park 2.0 comme le propose Georges Church avec son projet de ‘de-extinction” ? Ou la vision de Freeman Dyson d’une nouvelle ère post-darwinienne mise en mouvement par un Open source de tous les gènes ?

Atelier d’exploration Biologie Synthétique avec le CRI

Les ateliers d’exploration de Bodyware ont pour objectif de nous familiariser avec des terrains de recherche ou d’innovation un peu éloignés de nos bases. 

Nous avons eu la chance pour ce premier atelier consacré à la biologie synthétique de collaborer avec le CRI, le Centre de Recherches Interdisciplinaires, fondé et dirigé par François Taddéi et Ariel Lindner, et qui promeut une approche décloisonnée des sciences du vivant. 

Grâce à la complicité active de deux jeunes designers fraîchement diplômées de l’Ecole Boulle, Justine Coubard-Millot et Marguerite Benony, et d’une jeune biologiste de l’Institut Pasteur passée par le CRI, Hélèna Shomar, nous avons pu mobiliser pendant 5 jours, du 14 au 18 mars, autour de nos partenaires de l’expédition Bodyware un groupe de 21 étudiants mixant apprentis biologistes du CRI et apprentis designers de l’école Boulle, de l’Ensci, de l’école Estienne à Paris, et du Master IDEA commun à l’EM et l’Ecole Centrale de Lyon.

Pour commencer cette restitution, nous vous proposons de jeter un oeil au clip réalisé par les élèves du CRI, qui résume parfaitement l’esprit et les objectifs de ce workshop. Dernière précision, le CRI accueillant de nombreux étudiants étrangers, la langue de travail est l’anglais.

Et vous, obéiriez-vous à un robot ?

Par aurialiej - 28 mars 2014

Vous le savez déjà, au fur et à mesure des nouvelles innovations technologiques, votre emploi est de plus en plus menacé et risque donc de disparaître un jour. Les articles sur le sujet ne manquent pas et c’est même l’objet d’une controverse dans la quatrième édition de Questions Numériques (p.85) qui vient de paraître. Mais en plus de remplacer les hommes pour des tâches fastidieuses et automatisables, les robots deviennent plus autonomes, travaillent directement avec des personnes, et bientôt vont pouvoir apprendre les uns des autres, via des programmes comme RoboEarth. Ils pourront donc bien prochainement être mis en figure d’autorité et donner des ordres aux humains.

Partant de ces constats, le laboratoire de recherches sur les Interactions Homme-Machine de l’Université de Manitoba (Winnipeg, Canada) a mené une expérience intéressante, reprenant les concepts de l’expérience de Milgram sur la soumission à l’autorité et de l’expérience de Stanford, mais la figure d’autorité était représentée par un robot. La vidéo ci-dessous montre des extraits de l’expérimentation : au début, c’est un homme qui donne des ordres (cliquer sur des cibles mobiles, chanter, renommer des fichiers, …), ensuite c’est le robot.

Résultats (pdf) : 12 personnes sur 13 ont obéi aux ordres de l’homme, 6 sur 13 à ceux du robot, non sans argumenter dans les 2 cas, pour arrêter ces fastidieuses tâches. La vidéo finit en posant la question : Il s’agit seulement de renommer des fichiers, que se passerait-il s’il s’agissait de tâches moralement répréhensibles… La question a de quoi inquiéter, la musique de la vidéo y est peut être pour quelque chose.

Reblog via

Comment enseigner le numérique (et d’autres choses avec) au Royaume-Uni

Par dkaplan - 25 mars 2014
Tom Kenyon, Nesta Quelques notes de ma rencontre avec Tom Kenyon, en charge du programme “Make Things Do Stuff" au Nesta britannique. Financé en partie par les intérêts d’un fonds issu de la Lottery britannique, le Nesta a pour mission de “développer le potentiel d’innovation” des individus et des organisations - avec un intérêt particulier pour l’innovation sociale. Il poursuit cette mission en réalisant des recherches collaboratives, en menant des expérimentations et en soutenant des projets. C’est, concrètement, l’une des plus stimulantes organisations en Europe sur le thème de l’innovation.

1- A propos de Make Things Do Stuff

Soutenu par Nominet (l’Afnic britannique) et Mozilla, Make Things Do Stuff (MTDS) est “un site et une campagne pour mobiliser la prochaine génération de makers numériques" : un croisement entre le soutien du Nesta aux Fab Labs et équivalents, et son travail sur l’éducation au numérique. Le programme :
  • Soutient des projets et des programmes pour des actions dans les écoles, mobilisant dans des proportions variables électronique, modélisation 3D et programmation ;
  • Partage des réalisations et des outils communs ;
  • Cartographie les initiatives
  • Cherche à susciter de nouvelles vocations
Les valeurs derrière MTDS sont :
  • Comprendre comment fonctionne la technologique
  • Learning by doing (apprendre en faisant)
  • Collaboration et partage
image

Le succès de MTDS a été en partie obscurci par d’autres initiatives apparues un peu plus tard et mieux armées en communication telles que Year of Code (par IndexVentures, aussi derrière Codecademy) et Web for Everyone (plus orienté “littératie numérique pour tous”). Mais la vision de MTDS est a priori plus englobante, elle ne se limite en particulier pas au “code”, très à la mode ces temps-ci.
Prochaine étape : étendre l’effort de cartographie, en particulier pour détecter les trous dans la carte et passer des accords avec les collectivités afin d’amorcer des dynamiques locales.

2- Quatre projets exemplaires

Parmi les projets soutenus par le Nesta dans le cadre de MTDS, Kenyon considère que 4 d’entre eux sont vraiment les plus susceptibles de passer à l’échelle :
  • Apps for Good : un projet qui vise à construire des apps pour résoudre des problèmes concrets. Très axé sur la résolution de problèmes plutôt que la programmation (c’est pourquoi, dit-on, il réussit bien auprès des filles). Se déroule pendant le temps scolaire.
  • Code Club : un programme et un matériau pour des formations de 12 x 1 heure à l’informatique, destinés aux enfants du primaire, associant un enseignant et un professionnel volontaire. Se déroule hors temps scolaire. 1000 écoles déjà actives, 600 candidates en attente d’un volontaire.&nbsp.
  • Young Rewired State : des événements distribués un peu partout pour réunir des préados intéressés par l’informatique et les faire travailler ensemble, de manière intensive, autour d’objectifs et/ou de données.
  • Freeformers : une entreprise qui organise des “Techjams” pour les 16-23 ans (en partenariat avec Caffe Nero, une chaîne de cafés) et des ateliers gratuits pour grands ados financés par les mêmes ateliers payants pour entreprises.

3- Et l’enseignement de l’informatique dans tout cela ?

L’ajout de l’informatique dans les "curriculums" (les “programmes” britanniques, définis en termes d’objectifs et qui laissent une importante marge de liberté aux établissements et aux enseignants), qui entrera en application dès septembre 2014, résulte d’un autre effort conduit par la Royal Society et la British Computer Society. Comme en France, il est centré sur la reconnaissance de l’informatique comme discipline scientifique à part entière. Cependant, suite à certaines critiques, il intègre également plusieurs dimensions moins technologiques, 
Ce mouvement et les initiatives décrites plus haut ne sont pas convergents et Kenyon se montre critique vis-à-vis de l’ajout de l’informatique dans les programmes :
  • Il est très difficile à réaliser dans les écoles primaires ; dans le secondaire, par contre, il pourrait être effectif à peu près partout dans 2 ans, ce qui est peu.
  • En revanche il considère que la “victoire” de la Royal Society est celle d’une informatique “aride”, enseignée de manière classique (magistrale), sans intérêt particulier vis-à-vis de ses apports concrets.
  • Il contraste cela avec ce que la McArthur Foundation réalise aux Etats-Unis (Hive Learning Network) ou même avec le “Curriculum for Excellence" écossais, qui travaille beaucoup plus sur l’usage de l’informatique au sein des autres matières.
A noter qu’il y a d’autres ajouts en cours ou en discussion au “curriculum” britannique :
  • Design et technologie”, beaucoup plus proche de la logique du Nesta. Selon Kenyon, c’est plutôt une orientation possible dans le secondaire (la différence ne saute pourtant pas aux yeux à la lecture du “curriculum”). A noter qu’un nombre important d’établissements publics du primaire et du secondaire sont déjà dotés d’imprimantes 3D…
  • "Créativité et entrepreneuriat" : un effort de lobbying un peu concurrent de celui de la Royal Society sur l’informatique, mais qui n’a pour l’instant pas réussi. Selon Kenyon, le gouvernement Cameron penche plutôt en faveur d’un enseignement assez disciplinaire, rigoureux et scientifique. Il serait aussi en train de réintroduire des examens "à la française", par exemple des épreuves écrites de 3 heures.

4- La prochaine rupture : l’évaluation ?

L’autre investissement du Nesta en matière d’éducation se concentre sur l’évaluation (evidence) de méthodes et de supports d’éducation. Cet effort est largement mené en collaboration avec le canadien Michel Mullan, apparemment une figure de référence dans ce domaine. Un rapport plus récent, Decoding learning, dénonce ainsi l’inefficacité de l’investissement numérique en éducation faute d’utilisation de méthodes d’évaluation - une critique qui s’appliquerait très probablement à la France et qui rappelle celle de Stanislas Dehaene (ce qui impose aussi, par conséquent, de signaler qu’elle fait débat).
Le Nesta applique également des méthodes d’évaluation à des pratiques telles que le tutorat à distance, la classe inversée, etc.
Mais au-delà de ces mesures, Kenyon considère que l’usage d’outils numériques par les élèves permettra rapidement de disposer de montagnes de données sur leurs pratiques, rendant possible une évaluation profonde (deep learning - voir le projet “Visible Learning" de John Hattie) à la fois de méthodes, de contenus, d’outils, d’enseignants et des progrès individuels de chacun. "Les données vont transformer le paysage" - en particulier, affirme Kenyon, elles vont rendre les examens traditionnels définitivement obsolètes. On comprend en revanche pourquoi l’inquiétude monte sur l’identité de ceux qui traiteront ces données