#SpeakerLiftWithFing2014 : pourquoi venir écouter Stefana Broadbent ?

Par aurialiej - 19 août 2014

             image

L’anthropologue Stefana Broadbent (@stefanabroadben) est connue pour son ouvrage L’intimité au travail,  traitant de la porosité croissante des temps professionnel et personnel, causée par l’usage des outils numériques dans notre quotidien. Elle montre notamment l’intérêt des organisations à faciliter cette communication personnelle pendant l’activité professionnelle, du fait de son bénéfice sur le travail et l’apprentissage.

Dans un entretien accordé à Internetactu.net, elle rappelait ceci : “Or, il faut comprendre comment est organisé le travail aujourd’hui. Ces 20 dernières années, grâce aux TIC, on a isolé les travailleurs, on les a instrumentalisés, divisés… Jusqu’à l’introduction des téléphones mobiles, on pouvait encore compter sur la présence, sur l’attention de l’employé, mais depuis… Les mobiles font resurgir toutes les failles de l’organisation du travail telle qu’on l’a construite. Bien sûr, la réaction consiste trop souvent à contrôler, punir, restreindre… Alors que c’est le travail lui-même qu’il faut repenser. On ne peut pas avoir un niveau croissant d’éducation, d’autonomisation, d’habileté… et un contexte de travail aussi pauvre socialement et cognitivement !

Stefana Broadbent connaît donc très bien la thématique des mutations du travail dans une société numérique. Mais si nous l’avons invitée cette année à Lift with Fing, c’est pour qu’elle aborde son nouveau thème de recherche faisant le lien entre précarité et numérique et plus précisément sur le rôle que peut jouer les canaux de communication numérique face à la précarité et à l’instabilité des trajectoires professionnelles, de plus en plus éclatées. Un sujet très actuel, malheureusement, sur lequel elle a très peu communiqué pour le moment.


Pour venir l’écouter le 21 octobre, pensez donc à vous inscrire à cette adresse :http://liftconference.com/lift-france-14/tickets_fr

Reblog via

#SpeakerLiftWithFing2014 : pourquoi venir écouter Antonio A. Casilli ?

Par aurialiej - 23 juillet 2014

image

Les concepts d’exploitation, d’aliénation, de prolétariat sont des idées fortes de la philosophie marxiste, que l’on pourrait considérer comme dépassées voire anachroniques dans la société numérique d’aujourd’hui. Et pourtant elles sont tout à fait actuelles, mais adaptées à notre époque, comme le montre les recherches d’Antonio A. Casilli (@bodyspacesoc), maître de conférences en Digital Humanities à Telecom ParisTech, sur le digital labor, le cognitariat ou le playbor.

Voilà l’extrait d’un entretien qu’il a donné à l’Humanité le 31 mars 2014, présentant une première vision de ces concepts :

L’exemple que j’aime donner est celui de Mechanical Turk. On y trouve du travail que les machines font très mal : identifier des gens ou des objets sur des photos, organiser des listes de morceaux de musique (Playlist) par genre, ou résumer en un mot l’émotion qui se dégage d’un message. Les ouvriers d’Amazon, les turkers, sont payés quelques centimes pour le faire, mais c’est aussi exactement ce qu’on fait lorsqu’on arrange une playlist sur Deezer ou Spotify, ou qu’on « tag » un proche sur une photo Facebook. Des turkers sont aussi rémunérés pour cliquer sur des liens, « liker » sur Facebook, ce qu’on peut faire par notre usage normal d’Internet. La seule différence est l’objectivation du travail. La frontière entre l’activité travaillée et le loisir se brouille, c’est pourquoi des sociologues emploient de nouvelles notions comme Playbor, contraction de Play, le jeu, et Labor, travail.

Si vous voulez en savoir plus, venez à Lift with Fing les 21 et 22 octobre à Marseille, il interviendra dans la 3e partie “Compter, mesurer, valoriser le travail : Taylor 3.0” de la partie conférence !

» Programme : http://liftconference.com/lift-france-14/program_fr

» Inscription : http://liftconference.com/lift-france-14/tickets_fr

Source photo : Ivo Näpflin pour Lift Conférence

Reblog via

Deux visions du corps numérique : algorithmique et bionique

Par tmarcou - 05 mai 2014

Cet article de Rémi Sussan a été publié initialement sur Internet Actu

Le sport est-il en train de devenir une activité quasi scientifique ? C’est la question que l’on peut se poser en observant combien le numérique et les capteurs sont en train de transformer les pratiques sportives. On pense bien sûr aux performances de courses et d’endurances que tout à chacun mesure désormais avec son smartphone, mais pas seulement… La transformation ne touche pas que les sports individuels et les pratiques amateures, mais également les sports collectifs et les pratiques professionnelles. C’est le cas par exemple du football. C’est ce qu’on a découvert lorsque Carlo Ancelotti, l’entraîneur du PSG, a instauré le port du brassard GPS lors de l’entraînement de ses joueurs, et s’est accompagné d’un “super-nutritioniste” chargé d’optimiser les potentialités des membres de l’équipe. Ce mouvement de fond n’est d’ailleurs pas propre au football. Les cyclistes de la Team Sky, dont Bradley Wiggins et Christopher Froome sont les plus connus, optimisent tellement leur technique, à coup de mesures et de graphiques, qu’on a pu à plusieurs reprises les soupçonner de pratiquer le dopage…

Philippe Gargov (@philippegargov), conseil en prospective urbaine, animateur du blog Pop-up urbain, s’intéresse également aux stratégies footballistiques sur football totalitaire (@footalitaire). A l’occasion d’un atelier du groupe de travail Bodyware de la Fing, il est revenu sur les tenants et les aboutissements d’une telle révolution (voir également son article de fond sur l’usage de la statistique dans le football réalisé pour Les Cahiers du football).

Football et Data

Les données sont bien sûr au centre de cette nouvelle approche du sport. Mais pour en recueillir, encore faut-il disposer de capteurs adéquats. Si l’usage des brassards connectés se répand de plus en plus, il existe aussi des systèmes de capteurs plus exotiques, comme certains ballons “augmentés” (à l’image du ballon de basket 94fifty et du Smart Ball d’Adidas). Mais un ballon de foot est déjà très optimisé pour un environnement précis et ajouter des capteurs n’est pas forcément la meilleure idée… En fait, une bonne part des data qu’on peut récupérer sur un match de foot le sont par des moyens tout a fait classiques : à l’aide des caméras qui enregistrent les actions sur le stade.

Evidemment seuls les pros peuvent profiter de ces brassards ou de la présence constante de multiples caméras. Dans le domaine amateur ou semi-pro, il existe des moyens plus artisanaux de récupérer des données. Les centres de formation aux Etats-Unis sont souvent équipés de l’application Performa Sport, qui fonctionne sur iPad (vidéo). Celle-ci permet d’enregistrer les actions rapides des joueurs, soit en temps réel soit en s’aidant d’une captation vidéo. Avec un tel outil, on peut montrer à un joueur comment il peut s’améliorer, objectiver sa pratique.

Entre le semi-pro et l’amateur, il y a le domaine du “proamataeur”, qui pourrait aussi bénéficier de tels enrichissements numériques : il existe par exemple des vélos d’appartement connectés pour refaire le tour de France, d’Italie, les paramètres de l’appareil reproduisent les pentes de la vraie course : on essaie ainsi de calquer ses performances sur le niveau professionnel.
Autre exemple Nike Plus, une chaussure équipée de capteurs permettant de mesurer des données comme la vitesse, l’accélération…

Philippe Gargov nous a expliqué qu’il existe quatre générations de statistiques appliquées au foot : la première ne se préoccupe que des scores, de qui a gagné le match ; elle ne nécessite pas d’outils de mesure, ni d’êtres humains se consacrant à la tâche de récupérer des données. La seconde entre un peu plus dans les détails : elle enregistre le nombre de passes et d’actions basiques effectuées par chaque joueur. Un agent humain chargé du comptage devient nécessaire. La troisième génération prend en compte les mouvements sur le terrain : il faut donc utiliser des capteurs, pour la géolocalisation, et obtenir des données sur le mouvement, la vitesse. La quatrième génération, déjà réalisable mais pas encore effective, devrait intégrer des capteurs physiologiques. La cinquième génération est encore à imaginer…

Le métier d’une société comme Opta Sport est de travailler sur ces statistiques, qu’ils accumulent et qu’ils vendent à des partenaires externes. Trois personnes travaillent sur chaque match. Deux d’entre elles se chargent d’enregistrer les actions, la troisième vérifie les stats. En matière de capteurs, pas de brassards, encore moins de ballons connectés ; ils se contentent d’analyser en temps réel les images retransmises par les caméras.

Mais avec ces techniques on arrive assez vite aux limites du chiffre pour le chiffre. Or, ce qui intéresse Opta, c’est de déterminer les indicateurs qui permettent d’objectiver la performance, de créer des profils… C’est une chose de savoir si un joueur est bon ou mauvais, mais son rôle est-il impactant dans l’équipe, et de quelle manière ? Même si, aujourd’hui, les lecteurs sont de plus en plus capables de suivre ces tableaux et ces graphes, les statistiques nécessitent un minimum d’éditorialisation et d’explication. Une société comme Squawka.com produit de l’éditorial en grande quantité à partir des stats d’Opta.

Cet usage général de la statistique ne pose-t-il pas des questions éthiques ? Que se passe-t-il par exemple si un joueur se sent fatigué et souhaite arrêter alors que les statistiques affirment qu’il doit continuer ? Pour Philippe Gargov, les risques ne sont pas tant à craindre du milieu du sport professionnel que des milieux amateurs ou pro-amateurs, par exemple dans le cas d’une relation entre un jeune de 16 ans et un éducateur qui découvre la statistique et qui peut mettre l’adolescent en danger…

L’arrivée de ces outils mathématiques a déjà des incidences. Elle a fait naître une nouvelle génération de jeunes “blogueurs de foot” qui raisonnent à partir de ces chiffres et publient leurs pronostics et leurs avis en se basant sur eux. Ce qui ne va pas sans faire grincer les dents des analystes à l’ancienne mode, pas forcément heureux de voir de jeunes gens contredire leurs analyses basées sur plusieurs années d’expérience, à l’aide de ces colonnes de chiffres. Un Michael Cox, qui utilise de telles techniques dans son blog Zonal Marking, a aujourd’hui rejoint les grands médias et travaille au Guardian.

A quoi ressemblera un média sportif demain ? Avec Fabien Girardin et Scott Smith, Philippe Gargov a participé à un projet de Design-fiction Today Sports, un journal sportif publié en 2018. En plus de l’injection massive de stats, ce futur magazine utiliserait de nouveaux outils très inspirés par les technologies du numérique, comme “Molecula Football”, un outil d’analyse du réseau de joueurs, et inspiré par un procédé expérimental déjà existant, Footoscope, également mis au point par Fabien Girardin.


WinningFormula

Image : le projet Today Sports du Near Future Laboratory.

Aux Etats-Unis, Moneyballle livre (et le film) du journaliste Michael Lewis revenant sur les exploits de l’entraîneur de baseball Billy Beane, nous avait déjà montré combien les statistiques (lasabermétrie) ont modifié le recrutement des joueurs et l’analyse de leurs performances. Ce que nous montre Philippe Gargov, c’est que les nouvelles métriques du sport ne vont pas seulement transformer le discours sur le sport, mais d’abord et avant tout les pratiques…

Bionique open source

Mais notre rapport au corps n’est pas seulement qu’une question de performance et d’optimisation… Ou alors ces deux termes peuvent avoir un autre sens… Nicolas Huchet a eu, il y a 12 ans, un accident du travail qui a entraîné l’amputation de son avant-bras droit. Suivant l’actualité du marché, il a appris l’existence de nouvelles prothèses qui permettent d’effectuer un mouvement pour utiliser des objets. Des capteurs enregistrent la contraction des muscles qui entraînent une action de la part de la main robotique. Malheureusement, ce genre d’appareil n’est pas à la portée de toutes les bourses, et Nicolas Huchet a appris de son prothésiste que s’il désirait un tel engin, son acquisition serait à sa charge : entre 30 000 et 60 000 euros. En effet la sécurité sociale ne rembourse qu’un seul type de prothèse…

C’est alors qu’il apprit l’existence d’un Fab Lab à Rennes, le Labfab. Il a alors contacté ses membres pour leur demander s’il était possible de concevoir une main robotique. C’est ainsi qu’en février 2013, fut lancé Bionico (@bionicohand), un projet open source destiné à concevoir et fabriquer une prothèse de main accessible pour tous, même et surtout les pays du tiers monde. Il faut savoir que 10 % des amputés sont des amputés de la main et 80 % se trouvent dans les pays en voie de développement.

Nicolas Huchet et ses associés sont donc allé chercher sur thingiverse, le site de partage de créations prêtes à imprimer en 3D, les plans d’une main robot et en ont trouvé une, celle d’Inmoov,le robot humanoïde à taille humaine conçu par Gael Langevin. Ils ont acheté les pièces, téléchargé les plans, utilisé un Arduino puis ont transformé cette main robot en une prothèse à 200 euros.

bionicohand
Image : Nicolas Huchet (à gauche) avec sa main Bionico, le robot humanoïde Inmoov et Gaël Langevin.

Au mois de juin, à la fête du numérique, Hugues Aubin (@hugobiwan), chargé de mission nouvelle techno de la métropole de Rennes et l’un des ardents animateurs du LabFab, surnommé le “bras droit” du projet, est arrivé avec la main robot arrimée sur son bras et dotée de capteurs. La démonstration a eu un certain succès. Une équipe de la Makerfaire, le grand salon itinérant de la bidouille lancé à l’origine par Make Magazine, était présente, et les porteurs du projet Bionico se sont ainsi retrouvé à Rome pour l’événement Makerfaire 2013, où le projet a été primé. Ensuite, ce sont des Russes qui les ont invités à leur propre évènement, le Geek Picnic Festival.


Bionico-Tu imagines Construit par bionicohand

Au-delà du succès d’estime du projet, reste que son but n’était pas de construire une main robot mais de créer une prothèse accessible, au Cambodge comme au Ghana. Et pour y parvenir, il y a encore du travail à réaliser. D’ailleurs, la question même de la nature d’une telle prothèse se pose encore : quelles en sont les fonctions minimum ? Faut-il vraiment 5 doigts ? Doit-elle être esthétique ?…

Où en est aujourd’hui le projet Bionico ? La main robot est prête, ainsi que les capteurs musculaires. Mais il reste des obstacles à franchir, et en premier lieu, le problème de la solidité. Celle-ci doit impérativement être améliorée, et sur ce point il est possible que la technique d’impression 3D ait atteint une limite : les matériaux utilisés sont trop fragiles. Certaines fonctions, comme l’effet de pince, sont difficiles: la main robot ne peut pas saisir d’objets.

En parallèle à la main bionique, le Labfab travaille en partenariat avec l’Institut national des sciences appliquées de Rennes sur une prothèse mécanique, la Mecanicohand, plus orientée vers des travaux de force. Nicolas Huchet nomme ces deux projets en les comparant : “la prothèse des villes et la prothèse des champs”.

En tout cas, l’intérêt pour cette main bionique ne s’est pas tari. Nicolas Huchet et son groupe vont ainsi se retrouver bientôt à l’université John Hopkins pour tester une main développée là-bas pour la modique somme de… 15 millions de dollars ! Si toutes les capacités de cette prothèse ne sont pas réplicables, peut-être y’a-t-il des idées qui pourraient permettre d’améliorer les mains robotiques et mécaniques de Bionico, quitte à les interpréter très différemment. D’ailleurs, la prothèse Bionico n’est pas la seule application au corps développée par le Labfab de Rennes. Par exemple, Hugues Aubin y a créé un gant sonar pour les aveugles, là aussi une version à bas prix d’un système bien plus onéreux. Ce gant a été créé à l’aide de deux moteurs de manette de Playstation 2 et des capteurs ultrasons. Et comme toujours, un Arduino.

En conclusion, Nicolas Huchet a spéculé sur l’avenir d’une prothèse comme Bionico. Peut-être ne se limitera-t-elle pas à remplacer des mains amputées, mais sera-t-elle utilisée par les gens désirant une troisième main pour accomplir des tâches spécifiques… Quand la réparation de soi aboutit à la modification de soi. Le Body Hacking demeure visiblement porteur de bien des espoirs

Rémi Sussan

L’éducation au numérique : quelle formation pour les formateurs ?

Par amandineb - 17 avril 2014

La journée Décodez le code a réussi sa démonstration : montrer et rassembler l’incroyable foisonnement d’initiatives portant sur la sensibilisation et développement de la culture du numérique : à l’image du « one minute Madness » époustouflant, donnant un coup de projecteur à une vingtaine d’acteurs du codage et de la création numérique.

image

Mais d’abord par culture du numérique, qu’entendons-nous ? Le terme, aussi large qu’ambigu nécessite explications. Englobe-t-il l’appropriation des réseaux et le développement des usages des outils techniques, la compréhension des fonctionnements technologiques, la conscience des enjeux des transformations sociétales en cours, permettant la participation effective de tous à la société, ou peut-être tout ça à la fois ?

image

Encadrée par l’INRIA, Cap DIGITAL et le CNAM, la journée était placée essentiellement sous l’angle du code, c’est-à-dire des langages et de leurs logiques, sous-jacents au fonctionnement de l’univers numérique. Faut-il comprendre le code pour comprendre la société dans laquelle nous vivons ? Décodez le code est-il une des conditions de l’empowerment des citoyens ? L’OCDE parle de litteratie, comme « l’aptitude à comprendre et à utiliser l’information écrite dans la vie courante, à la maison, au travail et dans la collectivité en vue d’atteindre des buts personnels et d’étendre ses connaissances et ses capacités ». Le culture numérique doit-elle désormais en faire partie ? Et dans ce cas le code en est-il une des composantes de base ?

A ces questions, ils étaient nombreux à répondre par l’affirmative, et même à donner beaucoup de leur temps à la transmission et au partage d’une culture du code qui n’a pourtant rien d’évident.

Mais ces formateurs, au juste, qui sont-ils ? Auraient-ils besoin eux-mêmes d’être formés ? de monter en compétences ? De se professionnaliser ? Et dans ce cas, comment soutenir cette dynamique ascendante sans tuer l’incroyable énergie dont elle fait preuve ?

Une trentaine de personnes réunies en atelier se sont attelées à ces questions.

QUI SONT LES FORMATEURS ?

Les initiatives de formation au code se multiplient, dans le monde anglo-saxon, comme en France, et ce grâce l’investissement passionné de bénévoles, d’associations, de développeurs-à-la-recherche-d’autre-chose, mais aussi de professeurs, des chercheurs scientifiques, militants à l’intérieur de l’institution éducative, comme à l’extérieur, ou de simples « parents » cherchant à donner les bonnes armes à leurs enfants.

En fonction de leur profil et du cadre d’intervention, ces formateurs ont des besoins disparates. A minima, un sentiment les réunit : celui de ne pas être pris suffisamment au sérieux par les institutions, les politiques, la société. Des actions de mobilisation nationale de type « one hour of code », seraient en cela bien accueillies par cette communauté, souffrant de vivre dans l’obscurité.

DE QUOI ONT-ILS BESOIN ?

Les enseignants du secondaire, les enseignants-chercheurs

Au sein de l’enseignement secondaire, des professeurs se sont mobilisés, dans le cadre de l’ISN (Informatique et science du numérique), pour développer l’apprentissage du code et de l’informatique mais cela s’est fait sans assurer les conditions de durabilité de l’expérience (pas de décharges de cours, ou de remboursement des frais de déplacement).  Au niveau de l’enseignement supérieur, il n’existe pas de CAPES ou d’agrégation d’informatique, qui permettraient de former des étudiants, car l’informatique n’est pas reconnue comme une science ou une discipline à part entière des mathématiques par exemple.

=> Ici se situe un premier niveau de revendication : former officiellement – statutairement les formateurs, et faire reconnaître la discipline.

Mais s’arrêter là serait louper la véritable dynamique du mouvement. Car les formations ont émergé essentiellement à l’extérieur de l’institution éducative : dans un « à-côté » qui ne s’explique pas seulement du fait d’une carence de l’institution…  

Les professionnels, développeurs, informaticiens… :

Une partie importante des formateurs sont des professionnels du secteur : des informaticiens, développeurs, soit « fatigués » des fonctionnements des SSII, soit simplement passionnés et à la recherche de partage et de transmission, ou encore en reconversion, donnant de leur temps pour transmettre ce qu’ils ont appris.

=> Pour ce public là de formateurs, deux besoins principaux ont été évoqués par les participants :

- le besoin de formation « pédagogique » : acquérir des compétences d’animation ;

- le besoin de sensibiliser et de mobiliser les entreprises pour qu’elles laissent du temps et prêtent des compétences (par le biais de mécénat de compétences, ou autre).

Les animateurs « BAFA »

De plus en plus de structures d’accueil des enfants émettent le souhait de développer des formations d’apprentissage du code, mais se retrouvent face à des publics d’encadrement (animateurs BAFA) peu spécialistes. Un enjeu consiste donc à former ces publics-là, comme est en train de l’initier la ville de Nanterre.

=> Besoin de formations techniques, de montée en compétences

Les formés devenus formateurs

Dans ce panorama un dernier public apparaît : les personnes formées devenues à leur tour formateurs. La pénurie de main d’œuvre est telle – et les demandes de formation étant croissantes - que les formateurs « initiaux » doivent former des personnes prenant le relais sur leurs actions. Pour que ces troupes “élargies” gagnent en autonomie, il devient  nécessaire de fournir des outils méthodologiques, de structurer les ressources.

=> Poursuivre la traduction des outils et méthodes anglo-saxons (code.org…) ;

=> Ouvrir et partager les plateformes d’exercices, et des forums d’entraide :

=> Continuer à documenter et partager les méthodologies d’animation, sur le modèle de « recettes de cuisine », ou de « parcours type », composés d’ingrédients indispensables, et manières-de-faire adaptables ;

 image

En conclusion

Cette réflexion sur les formations aux formateurs interroge la matière même à apprendre : l’informatique, dans ses dimensions évolutives, agiles, collaboratives… Aux dires des participants, elle nécessiterait avant tout « d’apprendre à apprendre » et « d’apprendre en faisant ». En cela elle remet en cause la pédagogie classique et propose des modèles plus proches de l’enseignement coopératif, du compagnonnage, du mentorat. La relation entre le formateur et l’apprenant en est transformée, brouillant les frontières classiques entre le sachant et l’apprenant, et les mettant, touts deux, dans une posture active d’apprentissage pair à pair, ou d’apprentissage réciproque.

La dernière parole de cet atelier est revenue aux concepteurs des coding-goûters  (Jonathan Perret et Raphaël Pierquin), se définissant comme de « simples parents ».  Explorer, combiner et transformer : tels sont les mots clés de cette démarche inédite, où ce sont « les enfants qui apprennent aux parents comment faire ».  Cette dernière typologie de « formateur » illustre bien la pédagogie inversée à l’œuvre dans le développement de la culture informatique.

Que cette pédagogie soit due aux spécificités de la matière informatique, ou qu’elle soit le reflet d’une époque où les rôles et les fonctions se redéfinissent (dans la famille, dans l’institution pédagogique, dans l’entreprise…), il n’en reste pas moins qu’elle pourrait conduire à des transformations pédagogiques durables. A bon entendeur…

Reblog via

Atelier d’exploration Biologie Synthétique : 3 talks inspirants

Par tmarcou - 09 avril 2014

La matinée du 14 mars était consacrée à une série de trois interventions d’Aleksandra Nivina, biologiste passée par le CRI et actuellement en PhD à l’Institut Pasteur, James King, bio-designer britannique et Rémi Sussan, journaliste à Internet Actu.

Présentation d’Aleksandra Nivina


Il n’y a pas une seule définition de la biologie synthétique. Aleksandra Nivina en a donc choisi plusieurs qu’elle a collées dans un générateur de nuage de mots.  

Au premier plan apparait “biological”, c’est normal ! “Parts” est le 2e terme, normal aussi compte tenu de la dimension “ingéniériale” de la biologie synthétique. Les “parts” sont ces fameuses bio-bricks partagées dans la communauté pour faire avancer tous les projets.  Le MIT en tient un registre à jour
Design et re-design, sont aussi des mots importants. Beaucoup de définitions insistent sur cette dimension particulière de la biologie synthétique qui consiste à comprendre les mécanismes du vivant, pour le réparer, ou créer de nouvelles formes et combinaisons à partir des connaissances ainsi acquises.

La biologie synthétique est une discipline qui conçoit, répare et fabrique des systèmes biologiques à partir de “composants” naturels, ou modifiés par elle.

On peut aussi définir la biologie synthétique par ses applications. Certaines sont réelles, d’autres en développement, et d’autres encore imaginaires. On sait produire du fuel à partir de bactéries - pour l’instant ce n’est pas rentable économiquement -, fabriquer des médicaments à partir de bactéries ou de levures, des outils pour détecter, soigner ou détruire les cellules cancéreuses. On élabore de nouveaux matériaux, par exemple du fil d’araignée synthétique (le naturel est d’une solidité remarquable). On expérimente des thérapies géniques. On teste la bio-remédiation, pour nettoyer différents types de pollution ou pour designer des bio-capteurs, de polluants dans l’environnement ou de pathologies dans le corps. On explore la reprogrammation de la microflore bactérienne pour prévenir ou traiter certaines maladies, dans le futur. On sait également avec l‘“engineering crops”, rendre les plantes plus résistantes. 

Quand on utilise le mot design, c’est que nous voulons  répondre à des enjeux , à des objectifs de façon rationnelle en poussant loin la réflexion. Par exemple designer un circuit génétique, qui est l’opération de base de la biologie synthétique. On sait aujourd’hui produire des circuits génétiques complexes, on peut aussi construire des organismes synthétiques, en leur injectant un ADN totalement synthétique. On veut designer des systèmes qui soient simples, robustes, efficaces et surs, comme ça se fait dans les autres domaines du design. A un certain point on pourrait considérer la biologie synthétique comme une nouvelle aire du design.

Présentation de James King

James King est un jeune bio-designer britannique impliqué depuis plusieurs années dans l’exploration des bio-technologies. Il nous a présenté trois projets illustrant sa démarche, qui consiste à faire du Design un élément permanent de la pratique scientifique.

Dressing the meat of tomorrow est un projet de design spéculatif qui explore les conséquences de la maitrise de la culture in vitro de la viande. En effet, si la culture des tissus vivants est un procédé de routine dans les laboratoires, que se passera-t-il lorsque ces techniques de génie tissulaire deviendront la base de la production de l’industrie alimentaire, en dépit du dégout que cette perspective peut nous inspirer ? Si la viande “in vitro” devient plus rentable, et plus humaine que l’élevage industriel, quelle sorte de viande voudrions-nous manger ? De quelle forme, dès lors que nous ne sommes plus limité par la taille et l’anatomie de l’animal ? Serions nous heureux de manger une  telle viande ? James King imagine un chef de cuisine curieux, innovant, qui se démarque en créent de nouvelles formes esthétiques pour la viande. En créant de vrais objets, James King souhaite engager autrement, plus concrètement, le débat sur le sujet de la viande “in vitro”, pour finalement répondre à cette simple question : ai-je vraiment envie d’en manger ?

E-Chromi est un autre projet de bio-design de James King et  Alexandra Daisy Ginsberg développé à l’université de Cambridge en 2009 avec la collaboration de jeunes designers et scientifiques. Les biologistes ont d’abord sélectionné différentes bactéries produisant des pigments colorés visibles à l’oeil nu, pour ensuite les associer à d’autres bio-bricks, comme des bio-senseurs, et finalement imaginer avec les designers différents usages de ces briques biologiques. Tester la qualité d’une eau, colorer autrement la nourriture et même imaginer une application “médicale” sous la forme d’un yaourt embarquant les bio-marqueurs, et permettant d’établir une série de diagnostics médicaux à partir de la couleurs de nos selles. Ce projet a remporté la compétition IGEM en 2009.

Cellularity est une réflexion sur la notion de vie et de mort en biologie synthétique, à partir d’un projet consistant à produire une nouvelle molécule qui intègre des molécules non organiques  contenant des composants médicamenteux dans une cellule. Dans des conditions spécifiques, la membrane de la cellule devient poreuse, libérant de petites quantités de ce médicament dans l’organisme. 

Par la suite, l’organisme va pourvoir récupérer ce médicament, puis l’activer en fonction de ses besoins. Il va acquérir des capacités à se répliquer dans des cellules par mitose. Il va ensuite se recombiner avec d’autres cellules “médicaments” situées dans l’organisme afin de créer de nouveaux médicaments. Certains seront fonctionnels, d’autres non. Ceux qui ne servent à rien seront reconnus par l’organisme comme des cellules pathogènes et seront détruites par le système immunitaire. La finalité est de produire des molécules médicamenteuses juste en fonction des besoins de l’organisme.

 Au-delà des applications technologiques potentielles, ces recherches pourraient conduire à une nouvelle compréhension de la façon dont la vie et les choses non vivantes diffèrent les unes des autres. Pour explorer ces impacts, James King a imaginé l’échelle de Cellularity - une définition spéculative de la vie qui pourrait s’appliquer dans un avenir où, au lieu de nous demander si quelque chose est mort ou vivant, on s’inquiéterait seulement de savoir quel est son niveau, son intensité de vie.

Présentation de Rémi Sussan

Rémi Sussan est journaliste à Internet Actu, où il couvre notamment les sujets de la biologie synthétique. Il se présente trop modestement comme un complet amateur, même s’il est par ailleurs un membre actif de La Paillasse, le premier biohackerspace français.

Quelle est la relation entre la biologie synthétique et les ordinateurs ? On observe d’abord  le même type de développement : rapide, open source, hackable, on peut être bio-hacker ou digital hacker. Ces deux technologies sont « autocatalytiques », c’est à dire qu’elles font progresser toutes les autres. Pour Stewart Brant, auteur de cette définition il y a 3 technologies de ce type : les infotech, les biotech et les nanotech, qui utilisent les mêmes processus algorithmiques. 

Dans les années 50 les ordinateurs étaient très chers, un cadre d’IBM pensait à l’époque qu’un petit nombre conviendrait pour l’ensemble des USA … La baisse des prix a produit les mêmes effets sur les biotech : n’importe qui peut en faire. L’Open PCR, une machine pour amplifier l’ADN afin de le séquencer, disponible pour moins de 600 $, a été construite sur une base arduino, et développée en ligne par une communauté de bio-punk qui font de la biotechnologie de garage et du bio-kacking. Cette communauté, diybio.org, fait de la biotech par ses propres moyens et avec peu d’argent, et c’est possible parce que les prix ont chuté, comme le montre la courbe de Carlson, l’équivalent de la loi de Moore pour les biotechs. Le séquençage, lire l’ADN, a beaucoup baissé en coût, synthétiser, écrire l’ADN, ça baisse mais moins vite, donc on peut vraiment imaginer aujourd’hui de faire de la biotech dans son garage.

C’est d’ailleurs ce que font les membres de La Paillasse. La liste de leurs réalisations ne cesse de grandir. Un bioréacteur pour cultiver les micros-organismes (un projet financé en partie par la Nasa) de l’encre bactérienne, un dispositif de barcoding “very” lowcoast pour repérer les OGM dans le contenu de votre assiette, et tous les composants organiques ou chimiques qui vont avec. 

La Paillasse applique la charte des biohackerspaces, réalisée collectivement : transparence, sécurité, etc … Les plus cyniques diront qu’on ne parle pas d’éthique. Les bio-terroristes n’ont pas besoin des hackerspaces pour fonctionner. Le danger ne viendra pas d’eux.

Il existe depuis longtemps une discipline qui s’appelle ‘Artificial Life ». Elle est l’exact contraire de la biologie synthétique. L’Artificiel Life crée la vie « in silico » comme dans ce vieux jeu en ligne des années 90, « Creatures ».  Ces créatures avaient un ADN, un réseau neural, et se reproduisaient en fonction d’un algorithme génétique, du coup les enfants étaient différents des parents, et heureusement un peu plus intelligents à chaque nouvelle génération. Une légende dit que c’est en voyant ces créatures qu’une japonaise a eu l’idée des Tamagotchi … L’Artificial Life essayait de créer de la complexité, et de nouvelles propriétés, alors que la biologie synthétique veut plus prosaïquement comprendre les mécanismes et propriétés de base, et non pas faire émerger de nouvelles propriétés. Comme le résume très bien Drew Endy : I hate emergent properties !

Le parallèle avec l’informatique fonctionne très bien : vous n’avez pas besoin de savoir comment marche votre ordinateur, ou même de le fabriquer, pour publier un billet sur un blog. Un jour vous pourrez créer tout aussi facilement de nouvelles formes de vie sur votre ordinateur, en utilisant par exemple le Genome Compiler. En attendant, 50% des logiciels de ce type sont « morts »,  et ceux qui restent ne marchent pas toujours …

Peut-on faire une synthèse des ces deux technologies ? Georges Church et ses collaborateurs ont créé une machine qui écrit des milliers de lignes d’ADN en parallèle, en essayant d’atteindre un niveau de complexité supérieur.

Et le rêve de la biologie synthétique c’est quoi ? Des maisons qui poussent toute seule ? Un Jurassic Park 2.0 comme le propose Georges Church avec son projet de ‘de-extinction” ? Ou la vision de Freeman Dyson d’une nouvelle ère post-darwinienne mise en mouvement par un Open source de tous les gènes ?