Convergence NBIC : un projet de société (par Hélène Tordjman)
Ce texte est une reproduction d’un extrait du livre La croissance verte contre la nature : critique de l’écologie marchande (2021) écrit par l’économiste française Hélène Tordjman et publié aux Éditions La Découverte. Il s’agit de la première partie du premier chapitre de l’ouvrage intitulé « La convergence NBIC, un projet de société ». J’ai également retranscrit la seconde partie nommée « De la convergence NBIC à la “bioéconomie” ».
« D’entreprise visant à comprendre la nature, la science est devenue une profession qui se sent investie de la mission de comprendre la nature afin de l’améliorer. L’idée que les sciences sont une station expérimentale pour de nouveaux phénomènes naturels ou un atelier de réparation pour les anciens qui ne marchent plus très bien a eu d’étranges conséquences. Elle a mené à donner trop d’importance aux aspects mécaniques […] [ce qui] a engendré une des plaies de notre époque, le spécialiste[1]. »
– Erwin CHARGAFF
La « nouvelle économie » des années 1990, fondée sur Internet et les biotechnologies, a continué à se développer malgré le krach de 2001. La frénésie spéculative ayant trouvé d’autres objets (en l’occurrence les produits dérivés de crédit, dont les fameux subprimes), l’engouement des marchés pour ces nouvelles technologies s’est fait moindre, mais la recherche a continué d’être financée par les États-Unis, suivis du Japon, de l’Europe et des BRIC (Brésil, Russie, Inde, Chine), par des fondations comme Rockefeller ou Bill et Melinda Gates et par de grandes entreprises, au premier rang desquelles Google et sa maison mère, Alphabet. Les progrès très rapides accomplis dans ces secteurs de pointe ont laissé entrevoir des possibilités de combinaisons presque infinies entre les nanotechnologies (N) et les biotechnologies (B), les sciences de l’information (I) et de la cognition (C), unies par un même langage, celui de la « complexité ».
Le projet de « bioéconomie » aujourd’hui promu par les institutions internationales résulte de cette vision prospective. Pour retracer sa genèse et comprendre son inspiration, il faut remonter à une conférence qui a fait date. Tenue en décembre 2001 à Washington, sous l’égide de la National Science Foundation (NSF) et du ministère du Commerce (Department of Commerce ou DOC), elle appelait à la convergence entre ces diverses techniques pour construire la société de demain : « Des technologies convergentes pour améliorer la performance humaine » était son titre. Et l’ambition d’optimiser les facultés de notre espèce et sa capacité d’agir sur son environnement apparaît véritablement au cœur du projet : ces innovations promettent des avancées substantielles en matière de santé et d’apprentissage, de développement de nouveaux matériaux et de sources d’énergie moins polluantes, ainsi qu’une rationalisation de l’organisation sociale. La volonté de corriger un processus d’évolution naturelle jugé insuffisamment performant est même évoquée. Selon Ray Kurzweil, « la maladie, le vieillissement et la mort sont des problèmes que nous pouvons aujourd’hui dépasser[2] ». L’attente d’une humanité « augmentée » apparaît comme un nouvel horizon de salut.
La vision du monde proposée dans ce rapport paru en 2002[3] a depuis irrigué les cercles des décideurs, scientifiques, industriels, États et institutions internationales. Depuis une quinzaine d’années, l’Europe a adopté l’objectif de convergence technologique, tout en étant un peu plus réservée sur l’aspect proprement transhumaniste du projet. Avec la prise de conscience progressive de l’urgence écologique, la nature, quasiment absente du rapport de 2002, s’est imposée comme une autre cible de l’« amélioration de la performance ». L’évolution attendue des biotechnologies, « fertilisées » par les nanotechnologies et les sciences de l’information, pourra « offrir des solutions technologiques à beaucoup des défis en matière de santé et de ressources auxquels le monde fait face », assure l’OCDE dans un rapport de 2009[4].
« Des technologies convergentes pour augmenter la performance humaine » : une utopie en marche
Organisée par Mihail C. Roco et William S. Bainbridge, la conférence qui s’ouvre à Washington en cette fin d’année 2001 réunit politiciens et technocrates, militaires, scientifiques et industriels. Parmi les intervenants, on croise des chercheurs d’universités prestigieuses, des militaires appartenant à la National Aeronautical and Space Agency (NASA) et à la Defense Advanced Research Projects Agency (DARPA), des membres du géant informatique Hewlett-Packard, de l’entreprise de télécommunications Lucent, de l’avionneur Boeing, des représentants des administrations fédérales de soutien à la recherche et à la technologie ainsi que le sous-secrétaire d’État au commerce en charge de la technologie, et Newt Gingrich, politicien conservateur appartenant au think tank libéral American Enterprise Institute (AEI). Quant aux éditeurs du rapport, tous deux à la NSF, M. C. Roco est au début des années 2000 le coordinateur de la National Nanotechnology Initiative, et W. S. Bainbridge un sociologue des religions et militant transhumaniste en vue.
Une inspiration transhumaniste
Le transhumanisme est né dans la Silicon Valley à la fin des années 1980 autour d’un projet prométhéen : améliorer le genre humain grâce à la science et à la technique[5]. Cette perspective avait cependant été anticipée depuis bien longtemps. Aldous Huxley publie Le Meilleur des mondes en 1936, et Hannah Arendt, réfléchissant à la place de la science dans nos sociétés, note dès 1958 que « cet homme futur, que les savants produiront, nous disent-ils, en un siècle pas davantage, paraît en proie à la révolte contre l’existence humaine telle qu’elle est donnée, cadeau venu de nulle part (laïquement parlant) et qu’il veut pour ainsi dire échanger contre un ouvrage de ses propres mains[6] ». La littérature de science-fiction témoigne aussi de ce désir ou de cette peur de voir l’être humain s’instrumentaliser lui-même dans un fantasme de création toute-puissante. Aujourd’hui, ce n’est plus un fantasme mais un projet en cours de réalisation.
Selon les tenants de cette approche scientifique de l’homme, nous sommes, tels que nous a faits l’évolution naturelle, physiquement imparfaits, limités dans nos capacités d’apprentissage et de calcul, émotionnellement instables, souvent malades et inefficients, et de plus mortels. Heureusement, certains parmi nous sont quand même suffisamment intelligents pour inventer les moyens scientifiques et techniques d’« augmenter » ou d’« améliorer » (to enhance) cette intelligence et pallier ces faiblesses naturelles par toute une série d’artefacts. La liste des idées d’amélioration des transhumanistes semble sortie d’un roman de science-fiction : des prothèses branchées directement sur le cerveau, des nanorobots guidant les molécules désirées vers nos cellules malades, des dispositifs d’imagerie intracellulaire, des implants cérébraux réglant nos émotions, des drogues diverses et variées… Certains envisagent aussi sans états d’âme des interventions directes sur les génomes, pour de petites réparations préventives, toujours aux fins d’améliorer les performances humaines. Un scientifique de cette mouvance, Kevin Warwick, déclarait en 2002 : « La technologie risque de se retourner contre nous. Sauf si nous fusionnons avec elle. Ceux qui décideront de rester humains et refuseront de s’améliorer auront un sérieux handicap. Ils constitueront une sous-espèce et formeront les chimpanzés du futur[7]. »
Günther Anders avait aussi pressenti cette évolution il y a soixante ans, dans son ouvrage majeur, L’Obsolescence de l’homme, lorsqu’il parlait de la « honte prométhéenne » comme la « honte qui s’empare de l’homme devant l’humiliante qualité des choses qu’il a lui-même fabriquées[8] ». Entourés d’objets de plus en plus compliqués et fascinés par les dépassements des limites et contraintes habituelles de la condition humaine qu’ils engendrent, nous évoluons dans un monde que nous avons construit collectivement mais que nous ne comprenons plus individuellement. Sa complexité, sa sophistication et sa spécialisation sont trop grandes. Et si certains refusent de voir leurs performances évaluées à l’aune de critères d’ingénierie, c’est néanmoins de plus en plus souvent le cas, avec l’expansion de divers dispositifs appliquant à l’humain des systèmes de mesure originellement conçus pour des produits et des machines. Ainsi, sans cesse confrontés à nos imperfections, certains d’entre nous seront tentés de s’augmenter. Nous le faisons d’ailleurs déjà : psychotropes en tout genre pour être réveillé le jour et dormir la nuit – ou l’inverse –, dopage dans le sport, la politique, la finance et le spectacle… La suite n’est-elle qu’une question de degré ou y a-t-il un changement qualitatif ? Quelles sont les frontières ?
Le rapport de la NSF est organisé comme suit. L’executive summary, de rigueur dans les cercles technocratiques, présente les opportunités de croissance, de richesse, de compétitivité, de pouvoir et de bien-être pour les populations concernées, pose la question des « stratégies de transformation » techniques et sociales et finit par une série de recommandations. Ensuite viennent une vue d’ensemble, quintessence du projet, et six chapitres principaux. Dans le premier, Roco et Bainbridge donnent la parole aux représentants des grandes agences concernées (NASA, NSF, National Institutes of Health [NIH]) ainsi qu’à quelques voix privées dont Hewlett-Packard et l’AEI. Ils formulent ce qui ressemble à une lettre de mission pour refonder la compétitivité de l’économie américaine et renforcer sa suprématie militaire et géopolitique grâce à la convergence NBIC. Puis les cinq chapitres suivants s’attachent chacun à un domaine où cette convergence technologique pourrait et devrait jouer un rôle important dans le futur : la cognition humaine, la santé et les capacités physiques, les technologies de « groupe » et sociales, la sécurité nationale, et l’éducation.
Ce document faisant presque cinq cents pages, en rendre compte en quelques paragraphes est obligatoirement partial et partiel. Néanmoins, l’idée générale et la « philosophie » de l’exercice sont les mêmes tout au long du rapport, ce qui facilite un peu l’exposé.
L’idée est la suivante : en tant qu’espèce humaine, nous serions aujourd’hui à la croisée des chemins, bientôt capables d’intervenir sur notre propre évolution. Cette puissance scientifique et technique nouvelle se présente comme une « cascade » résultant des interactions entre les quatre grandes spécialités scientifiques que sont les NBIC. Ces sciences sont unifiées par la taille des objets sur lesquelles elles portent (certains critiques les appellent BANG, pour Bits, Atoms, Neurons and Genes) et le développement d’un paradigme transdisciplinaire issu des recherches sur les systèmes complexes. Comme il est dit dans le résumé, « la convergence des sciences peut initier une nouvelle Renaissance, intégrant une approche holistique des technologies, fondée sur des outils de transformation, les mathématiques des systèmes complexes, et une compréhension unifiée des causes et des effets dans le monde physique, de l’échelle nanométrique à l’échelle planétaire[9] ». Après plusieurs siècles de pensée analytique et de cloisonnement des sciences, voici revenu le temps de l’interdisciplinarité et des approches globalisantes et unifiées.
Les différentes sciences se sont en effet rejointes dans leur compréhension de l’infiniment petit, puisqu’on comprend par exemple comment les molécules sont formées d’atomes, comment leurs assemblages peuvent être codés par des gènes ou des bits. Cela tend à rendre floues certaines frontières conceptuelles traditionnelles, comme par exemple entre l’organique et l’inorganique, qui peuvent aujourd’hui se fondre en un même objet « nanobiotechnologique » (un « quasi-organisme »), ou encore le codage génétique et le fonctionnement du cerveau envisagés comme de purs processus informationnels[10]. La compréhension du cerveau est tout en haut de l’agenda de recherche. En particulier, le Human Cognome Project vise à cartographier les fonctions du cerveau sur le modèle du décodage du génome humain, c’est-à-dire établir une « carte » répertoriant toutes les activités et fonctions cérébrales et les transcrivant dans les termes d’une nouvelle théorie de l’information. Cela toujours dans le but d’instrumentaliser ces connaissances sur le cerveau humain pour améliorer nos performances.
La place des sciences et des techniques dans cette utopie
Les fertilisations croisées explorées sont multiples, et il semble bien qu’il se produise en ce moment une révolution scientifique. De quelle ampleur ? L’avenir le dira, mais les choses vont très vite. En 2002, l’enchaînement envisagé était globalement le suivant. La compréhension de l’unité de la matière au niveau nanométrique devait permettre, anticipaient les éditeurs du rapport, de construire des technologies intégrées à cette échelle, débouchant sur l’élaboration d’« outils de transformation » (NBIC transforming tools), « incluant des instruments scientifiques, des méthodologies analytiques et des systèmes matériels radicalement nouveaux[11] ». Par « instruments scientifiques », il faut par exemple entendre des dispositifs d’imagerie nanobiotechnologiques, des logiciels plus « intelligents », capables d’apprendre et de s’adapter dans des contextes d’interaction avec d’autres logiciels ou avec des êtres humains (le deep learning ou machine learning), ou encore l’augmentation de la puissance des ordinateurs rendant possibles l’intégration et le croisement de monceaux de données (le Big Data). Les « méthodologies analytiques » font principalement référence aux diverses approches de la complexité qui se sont développées depuis plusieurs décennies. Les « systèmes matériels » renvoient quant à eux aux nouvelles perspectives ouvertes par les nanotechnologies, qui permettent de créer des matériaux aux propriétés surprenantes, comme la capacité de produire de l’énergie utilisable en tirant parti du réchauffement et/ou des vibrations dans l’action d’une aile d’avion ou d’un pneu, ou en utilisant les différences thermiques et lumineuses entre le jour et la nuit, d’envisager de se passer des fameuses terres rares pour l’instant indispensables à l’industrie informatique et numérique, ou encore d’inventer de nouveaux processus de production comme l’impression 3-D.
D’autres « avancées » sont attendues dans les biotechnologies, dont la biologie de synthèse (ou biologie synthétique) est le nouvel avatar. Les biotechnologies contemporaines visent à « améliorer » les processus naturels, en créant de nouveaux gènes, de nouvelles cellules, de nouveaux micro-organismes aux « fonctionnalités » inexistantes dans la nature (voir infra, chapitre 2). Par exemple, dans l’interview précitée, R. Kurzweil mentionne un collègue qui a créé le « design conceptuel » d’un nouveau type de globules rouges, les « respirocytes ». Ces derniers, s’ils étaient mélangés à hauteur de 10 % aux globules rouges résultant de l’évolution naturelle, autoriseraient un être humain à rester quatre heures sous l’eau. Même le sang sera amélioré ! Certains des projets contenus dans le rapport sont aujourd’hui, en 2020, sur le point de passer à la phase industrielle.
La recherche de nouveaux outils de transformation doit se poursuivre et le moment crucial dans lequel nous sommes doit être « exploité[12] ». Les auteurs le notent : « Le progrès peut devenir autocatalytique si nous allons agressivement de l’avant ; mais si nous hésitons, les entraves au progrès risquent de se cristalliser et de devenir plus difficiles à surmonter[13]. » On le voit, c’est un projet clairement affirmé et assumé, dont la dimension stratégique est loin d’être absente. Les entraves dont il s’agit concernent surtout son acceptabilité sociale. Très souvent, dans ce rapport comme dans d’autres, l’exemple de Monsanto et des réactions européennes aux OGM est montré du doigt pour illustrer ce qu’il ne faut pas faire : s’aliéner les foules. Il faut au contraire « éduquer » les enfants dès le plus jeune âge, leur faire aimer la science et les former de manière appropriée pour qu’ils puissent entrer dans le monde technique de demain. La généralisation de l’usage des tablettes numériques et des tableaux interactifs à l’école relève de cette volonté[14]. Le dernier chapitre du rapport, intitulé « Unifier la science et l’éducation », insiste fortement sur la nécessité de préparer les esprits pour ne pas effaroucher le peuple.
Complexité et incertitude
Développer de tels outils de transformation suppose de penser dans un même mouvement la matière, le vivant, la cognition, les écosystèmes, la biosphère et les galaxies. Sans les unifier encore, le paradigme de la complexité crée des passerelles entre les disciplines permettant de les intégrer progressivement. D’où la « nouvelle Renaissance » grâce à laquelle l’être humain réalisera enfin son plein potentiel, aidé par les artefacts que sa puissance et son intelligence lui ont permis de créer.
Les approches de la complexité, très schématiquement, s’opposent à la vision analytique cartésienne qui décompose et isole les problèmes pour les étudier et en distinguer les causes et les effets. Le monde, aussi bien naturel que social, est beaucoup trop compliqué pour qu’on puisse analyser séparément les multiples causalités en jeu, qui s’entremêlent et interagissent les unes avec les autres pour des résultats toujours transitoires et souvent imprévisibles. Pour l’appréhender, il vaut mieux raisonner en termes de systèmes dynamiques et complexes : un système est composé d’un ensemble d’éléments en interaction, le comportement global du système résultant de ces interactions. Il s’agit alors d’étudier les propriétés générales du comportement de ces systèmes, plutôt que d’essayer de démêler les multiples causalités à l’œuvre. Par exemple, la matière est formée d’un ensemble d’atomes liés par des chaînes et réactions chimiques et s’auto-organisant en différentes formes ; le cerveau peut être vu comme un ensemble de neurones, hiérarchiquement structurés, en interaction ; une société peut aussi être appréhendée au travers de ces catégories très générales, tout comme un organisme vivant ou un écosystème.
Dans tous les cas, la multiplicité d’interactions de toutes natures et la complexité des architectures ouvrent une infinité de possibles. Prévoir les chemins qui seront pris est un exercice impossible. On parle de ce fait de « dynamiques à l’avenir ouvert » (open-ended dynamics). Ces multiples interactions engendrent des propriétés nouvelles, qualifiées d’émergentes, des effets de système. De plus, ces systèmes font preuve de capacités d’auto-organisation, c’est-à-dire que l’interaction entre les différents éléments du système produit des structures de niveau supérieur.
Enfin, pour ajouter à l’incertitude quant aux résultats agrégés de ces multiples interactions, les éléments du système eux-mêmes évoluent : les espèces animales et végétales qui interagissent dans un biotope se transforment au contact de celles des biotopes voisins et de pressions environnementales elles-mêmes changeantes. Il en va de même des sociétés humaines et de leurs interactions avec leurs milieux. Toutes ces évolutions sont source de nouveauté, ouvrent perpétuellement de nouvelles trajectoires possibles. Puisque, par définition, il est à peu près impossible de prévoir les trajectoires des systèmes complexes, l’ambition d’instrumentaliser par la science et la technique les processus biologiques, les dynamiques climatiques et géologiques ou les institutions sociales avec l’intention d’en maîtriser les résultats agrégés devrait apparaître vaine.
C’est néanmoins ce que projettent les auteurs du rapport de 2002 et ce qu’ont entrepris de faire les nanotechnologies avec les atomes, les biotechnologies avec les gènes et les neurosciences avec les circuits neuronaux. Les NBIC célèbrent la complexité tout en élaborant des dispositifs physiques, biologiques et écosystémiques contrôlables et reproductibles qui nient l’essence même des dynamiques complexes : leur caractère ouvert, provenant de l’introduction continue de nouveauté. Une partie des industries qui se développent dans le sillage de la convergence NBIC sont construites sur la volonté d’assujettir les processus naturels aux besoins de l’économie. Dans les industries des biotechnologies, l’idée est d’exploiter et de détourner des mécanismes naturels comme la fermentation ou la photosynthèse pour leur faire servir des buts de production industrielle. La géo-ingénierie cherche quant à elle à peser sur les grandes interactions de la biosphère pour limiter le réchauffement climatique, en déversant du fer et de l’urée dans les océans pour stimuler la croissance du phytoplancton, qui absorbe du CO2 , en envoyant des nanoparticules de soufre dans l’atmosphère pour réfléchir le rayonnement solaire ou en fabriquant des plantes réfléchissantes pour jouer sur l’albédo[15]. Quant aux conséquences adventices de ces manipulations, elles n’entrent pas en considération.
Ne reculant devant aucun réductionnisme, les adeptes de cette complexité mal comprise n’hésitent pas à assimiler le fonctionnement d’un organisme à celui d’un écosystème, ou celui du corps humain au « corps » social. Le rapport NBIC de 2002 utilise d’ailleurs souvent ce type d’analogies, par exemple dans le chapitre de présentation, où il est dit que « l’humanité pourrait devenir un unique “cerveau” distribué et interconnecté[16] ».
Comme l’illustre un tableau récapitulant les progrès de l’être humain depuis Homo sapiens, la philosophie de l’histoire des auteurs n’a rien de complexe. Intitulé « Histoire de quelques augmentations très significatives de la performance humaine : améliorer notre capacité à collectivement nous améliorer[17] », il décrit l’histoire de l’humanité comme un progrès continu depuis l’agriculture néolithique jusqu’aux NBIC aujourd’hui, que seule aurait interrompu la triste période du Moyen Âge, marquée par « un chaos sanglant et une ignorance généralisée ». Chaque étape de cette marche triomphale – « invention de l’agriculture, universités, imprimerie, Renaissance, révolution industrielle, téléphone, radio, télévision, ordinateur, nanosciences et biotechnologies » – aurait préparé la suivante pour nous permettre de converger vers ce moment unique de notre histoire où nous pourrons véritablement prendre notre destin en main.
Vers une société eugéniste : quelques projets représentatifs
Les cinq domaines où les NBIC sont appelés à jouer un rôle majeur se ramènent en réalité à deux grands objectifs. Le premier est typiquement transhumaniste, puisqu’il s’agit de l’« augmentation » de l’être humain, sur les plans biologique et cognitif, avec des applications principalement médicales et militaires. L’utopie est affirmée d’emblée : « Le corps humain sera plus durable, en meilleure santé, plus énergique, plus facile à réparer, et plus résistant à différents types de stress, de menaces biologiques, et aux processus de vieillissement[18]. »
Un grand nombre de recherches portent sur la mise au point de capteurs microscopiques capables de surveiller (to monitor – un terme dont les occurrences sont très fréquentes aussi) une infinité de variables et de transmettre ces informations. Ces capteurs pourront par exemple être implantés dans le corps d’un diabétique pour contrôler une pompe à insuline ; de même, un patient et/ou son médecin pourra être prévenu par une alerte informatique en cas d’« anomalie » du taux de cholestérol, de sucre, d’albumine ou de toute autre substance à surveiller, vingt-quatre heures sur vingt-quatre.
Un autre domaine en pleine ébullition est celui de la recherche concernant les interfaces homme/machine, dont les applications sont extrêmement étendues. Il peut s’agir des différents niveaux d’interface nécessaires au fonctionnement d’une prothèse de main ou de jambe (muscles, tendons, nerfs, os pour l’aspect physique, et, plus compliqué, implants connectés directement reliés au cortex[19]). De nombreux projets concernent la mise au point d’organes artificiels, certains à visée réparatrice (remplacer un cœur ou un foie défectueux, greffer une peau artificielle), d’autres à visée d’amélioration, en particulier dans le domaine des sens et des capacités cognitives. Imaginez le monde qui s’ouvrirait à vous si vous aviez des yeux artificiels (greffés à demeure) ayant l’acuité visuelle d’un lynx, une vision à infrarouges ou aux rayons X, une ouïe surpuissante ou des « barrettes de mémoire » additionnelles dans le cerveau qui vous doteraient d’une mémoire d’éléphant…
Il y a aussi d’importantes recherches autour des thérapies géniques, qui vont du rétablissement d’un circuit métabolique qui dysfonctionne (version douce) à l’introduction de nouvelles caractéristiques et capacités (version dure). Par exemple, la perspective de renforcer la résistance à la privation de sommeil ou d’accélérer la vitesse de cicatrisation intéresse beaucoup les militaires. L’exploitation des connaissances en génomique pourrait aussi permettre d’adapter les traitements à chaque individu en fonction de ses particularités génétiques, pour accroître l’efficacité des médicaments et en limiter les effets secondaires. Cette « médecine personnalisée » ou de « précision » suscite tous les espoirs et attire beaucoup d’argent, comme on peut le vérifier en allant par exemple sur le site du Génopole d’Évry ou sur celui de Biopolis à Grenoble[20].
La seconde grande problématique recouvre les différents aspects d’une nouvelle ingénierie sociale à la fois permise et rendue nécessaire par les évolutions technologiques. Il s’agit tout d’abord de mieux « communiquer », pour améliorer les interactions sociales dans l’entreprise, l’école et l’armée. Un projet appelé le « Communicateur » imagine une plateforme permettant de franchir les frontières linguistiques (via la traduction automatique), culturelles et géographiques. Cette plateforme serait sans cesse alimentée par des données concernant les idées des uns et des autres, mais aussi par des informations sur leur état émotionnel et affectif (là encore mesuré par des capteurs). Des langages « visuels » permettant de synthétiser beaucoup plus d’informations bien plus rapidement y seraient inclus, et le tout serait mis en réseau avec de multiples bases de données pour une meilleure « connaissance » des problèmes à résoudre.
Il est aussi question de transformer nos environnements, qui deviendront eux aussi « intelligents » : des capteurs seront disséminés partout pour surveiller l’état de l’air, des eaux et des sols, pour repérer les substances dangereuses et invisibles en cas d’attaque chimique ou bactériologique, ou bien simplement pour mesurer les niveaux de pollution ambiants et, si besoin, sonner l’alerte. Les nanotechnologies permettent par exemple de confectionner des tissus qui changent de couleur en présence d’une substance donnée : si votre pull devient jaune citron, il y a une attaque à l’anthrax, tous aux abris ; s’il est vert foncé, la pollution aux particules fines dépasse les seuils officiellement permis, sortez vos masques ; s’il est bleu ciel, respirez tranquillement, tout va bien !
L’économie au sens large n’est pas oubliée : l’organisation de la production et des échanges, la valorisation des richesses et leur répartition figurent en bonne place. La convergence NBIC laisse augurer de la multiplication de « systèmes intelligents » à tous les étages, qui pourront remplacer l’homme, sa tendance à revendiquer et ses difficultés à prendre des décisions rapides et adéquates, de façon à améliorer la performance collective des sociétés.
Depuis la publication de ce rapport, les choses évoluent très vite, en particulier dans l’automatisation et la communication. Les progrès de l’intelligence artificielle permettent aujourd’hui de construire des logiciels capables d’apprendre et de s’adapter à différents environnements et situations, ce qui ouvre de nouvelles perspectives dans le monde de la production. Comme l’ont montré les récents succès des ordinateurs dans des compétitions d’échecs et de jeu de Go, des décisions de plus en plus complexes peuvent être prises par des algorithmes : l’automatisation ne concerne plus seulement les « tâches manuelles pénibles », mais un spectre de plus en plus étendu de procédures touchant au recueil et à l’analyse de l’information. Les outils d’aide à la décision (OAD) et les « assistants artificiels » foisonnent dans tous les domaines. L’automatisation de la spéculation financière par le trading algorithmique en offre un bon exemple.
Le développement de l’« internet des objets » (Internet of Things ou IoT) démultiplie les possibilités. Ce dernier est le système composé des ensembles d’objets connectés entre eux, c’est-à-dire interopérables, et des infrastructures nécessaires à ces connexions croissantes.
De fait, il s’agit de croiser et d’analyser les milliards de données générées par tous ces objets connectés, des smartphones aux réfrigérateurs en passant par les montres, les compteurs électriques et les voitures « autonomes », objets qui enregistrent automatiquement toute une série de données productives, physiologiques, affectives et environnementales, et de les mettre en réseau avec d’autres objets connectés, par exemple les ordinateurs des médecins, les services de livraison des supermarchés ou les agences de publicité, via Google, Facebook et consorts. D’où l’importance stratégique de la 5G, sans laquelle ces milliards de données ne circuleront pas assez rapidement[21].
Dans la sphère de la production, cet internet des objets procède de même. Prenons une chaîne de valeur, c’est-à-dire l’ensemble des opérations et des firmes aboutissant à la création et à la production d’une marchandise, de la conception et des matières premières en amont à la distribution en aval. Si les diverses entreprises intervenant dans ce processus ont peu ou prou automatisé leur production et leur distribution, ce qui est en général le cas, la plupart des données d’activité seront automatiquement envoyées aux fournisseurs, acheteurs et sous-traitants, pour être traitées par les programmes informatiques de ces différents acteurs sans nécessiter d’intervention humaine. Par exemple, les logiciels de gestion des stocks de produits intermédiaires informeront les fournisseurs de l’état des stocks en temps réel, les logiciels de ces derniers « anticiperont » la demande de leurs clients et enverront des ordres de production aux logiciels gérant les quantités produites. Notons que ces chaînes de valeur se déploient au niveau mondial, ce qui accroît considérablement les interdépendances entre les pays, comme on a pu le voir pendant le confinement imposé par la crise du coronavirus.
Autrement dit, de plus en plus et bien au-delà de la seule production, ce sont toutes les activités de coordination qui sont prises en charge par ces « cyber-objets », activités en expansion à la mesure de celle de la division du travail. Comme le résume l’article de Wikipédia qui leur est consacré, « les cyber-objets sont des acteurs potentiels des chaînes de valeur qui agissent sous le contrôle des opérationnels ou en partenariat avec eux. En accédant ainsi au statut d’assistants, de conseillers, de décideurs ou encore d’organisateurs (selon les cas), ils deviennent de véritables agents économiques et contribuent à la mutation des modèles économiques ou de gestion existants ». Les cols bleus ne sont plus les seuls à être remplacés par des machines, le mouvement s’étend maintenant aux cols blancs[22].
Enfin, un bon nombre de recherches sont dédiées aux nouveaux matériaux et processus de production et intéressent différentes industries, civiles et militaires. Les nanomatériaux sont en effet riches de promesses pour le secteur militaire. Ces matériaux sont beaucoup plus solides et légers, ce qui permettra aux soldats de porter leurs exosquelettes plus facilement. Munies des capteurs adéquats, ces prothèses conféreront aux combattants des capacités perceptives et cognitives leur donnant l’avantage sur le champ de bataille. Les imprimantes 3-D autoriseront la production des pièces de rechange sur place. Quant à la robotique, elle fabriquera des véhicules « inhabités » (« unmanned »), des robots tueurs (« à action létale », dans la terminologie militaire) et autres drones.
La question environnementale n’est que peu abordée de manière directe dans ce rapport pourtant très imaginatif. En 2002, les Américains avaient oublié l’existence du changement climatique, et ces préoccupations étaient lointaines. Le seul article directement consacré à l’environnement donne une idée de la manière dont les NBIC peuvent nous aider à résoudre la crise écologique[23]. Par un croisement entre géosciences, nanosciences et biologie moléculaire, la convergence devrait permettre d’appréhender la « nature complexe et interconnectée des processus qui maintiennent l’habitabilité de la planète pour utiliser les ressources de la Terre de manière appropriée, et prévoir, surveiller et gérer le changement global ». On pourrait en particulier exploiter les microbes, « qui ont inventé des façons d’opérer des transformations chimiques via des chemins enzymatiques à basse température » (c’est-à-dire nécessitant peu d’énergie). Comprendre et reproduire ces chemins pour faire faire ou produire quelque chose à des microbes ouvrirait de nombreuses perspectives. L’autrice de cette section du rapport anticipe ce qui commence à se faire aujourd’hui dans le secteur des agrocarburants et de la « chimie verte », suite aux développements de la biologie synthétique (voir chapitre 2). Il faudra aussi étudier « des communautés entières de micro-organismes au niveau génétique », dans l’optique d’en identifier les traits les plus prometteurs pour les tâches qu’on désire leur faire accomplir, ce qui, là aussi, se fait déjà. De manière plus générale, les approches de la complexité conduiront à définir l’« environnement terrestre comme un système biogéochimique complexe, qui change de manière définie et prévisible en réponse aux activités humaines ». Cette phrase est typique de la contradiction majeure évoquée plus haut : par définition, les systèmes complexes engendrent de la nouveauté et prévoir leur comportement est difficile, voire impossible.
L’idée générale est donc toujours la même : grâce à l’amélioration de nos performances, nous parviendrons à comprendre et maîtriser les interactions naturelles et les interactions entre ces dernières et les activités humaines. Le dirigeant d’une start-up de la Silicon Valley (Nootroo) produisant des pilules censées améliorer nos capacités cognitives définit ainsi son activité : œuvrer à l’avènement d’une « population plus intelligente pour résoudre tous les problèmes que nous avons créés ». Le monde que nous avons construit est devenu tellement compliqué que seuls des humains augmentés parviendront à le comprendre. Si nous choisissons d’être des chimpanzés du futur, cette connaissance nous restera inaccessible, et nous ne pourrons pas sauver la planète. CQFD.
Trois remarques pour finir sur ce rapport dont la lecture laisse dans un état où l’incrédulité le dispute à l’angoisse. Premièrement, la grande majorité des technologies et des projets dont il est question sont « duaux ». La « dualité » en matière technologique est un euphémisme pour qualifier des techniques dont les applications sont à la fois civiles et militaires. Il n’est ainsi pas étonnant de voir les grandes agences de défense américaines parties prenantes du projet, et en particulier la DARPA. La Defense Advanced Research Projects Agency, l’agence de recherche militaire américaine fondée en 1958 en réponse au vol surprise du Spoutnik, a pour but affirmé le changement technique radical, qu’on qualifie aujourd’hui de disruptif. Les recherches financées par cette agence ne visent pas des améliorations incrémentales de ce qui existe déjà, mais le développement de technologies révolutionnaires. C’est à la DARPA qu’on doit par exemple Arpanet, l’ancêtre d’Internet dont la mise au point a commencé dès les années 1960, ainsi que le GPS[24].
Deuxièmement, la compréhension des phénomènes sociaux dont témoignent les différents auteurs est dans l’ensemble aussi pauvre que leur philosophie de l’histoire. Les sociétés sont vues comme des agrégats d’individus libres et volontaires, cherchant de façon légitime confort, richesse et toute-puissance. Il n’y a pas de classes ni d’institutions, pas de rapports de pouvoir, et la culture est envisagée comme un ensemble de traits évoluant selon des mécanismes similaires à ceux d’une certaine vision de la sélection naturelle, par une combinaison de variations et d’éliminations optimisatrices[25]. Les valeurs ultimes, à l’aune desquelles toutes les autres sont jugées, sont l’efficacité, la performance, la productivité, le rendement.
Enfin, ce projet est celui d’une société eugéniste, séparée en deux groupes bien distincts. En caricaturant à peine, le premier groupe, celui de l’humanité « augmentée », donc supérieurement intelligente, réfléchira aux grandes options sociétales et veillera à leur mise en œuvre. Les individus appartenant à ce groupe privilégié vivront cent cinquante ans en bonne santé, auront leur résidence secondaire sur la Lune (la Terre commence à être trop peuplée, trop sale et dangereuse) et choisiront les caractéristiques de leurs enfants en fonction des critères qui marquent l’appartenance à l’élite. Le second groupe, celui des chimpanzés du futur, largement majoritaire, devra vivre dans un monde où il n’y a plus de travail car la richesse collective y sera produite par des robots. Les peuples n’auront accès qu’à des soins médicaux de base, une éducation sommaire et une survie rudimentaire elle aussi, dont le degré de confort sera déterminé par le montant du revenu universel[26].
Malgré sa misère conceptuelle et philosophique et son potentiel totalitaire, ce projet de société technoscientifique a rencontré un écho dans un bon nombre de pays, de l’Europe à la Chine, et les rapports prospectifs de l’OCDE et de la Commission européenne visant à guider l’investissement et la recherche et développement parus ces dernières années ont largement repris le thème de la convergence NBIC, y voyant le socle de la croissance de demain, une croissance « verte » évidemment.
- Erwin CHARGAFF, Le Feu d’Héraclite. Scènes d’une vie devant la nature, trad. Chantal Philippe, Viviane Hamy, Paris, 2006 [1979], p. 195. ↑
- < http://entretiensdufutur.com/humanite-2-0-singularite/ >, consulté le 19 juillet 2015. Ray Kurzweil, un informaticien, a écrit de multiples livres sur l’« intelligence » des machines et a cofondé l’Université de la singularité, une des institutions transhumanistes les plus actives aux États-Unis. Depuis 2012, il est le directeur de la recherche de Google. ↑
- Mihail C. R OCO et William S. B AINBRIDGE (dir.), Converging Technologies for Improving Human Performance, NSF-DOC Report, juin 2002. ↑
- OECD, The Bioeconomy to 2030 : Designing a Policy Agenda, 2009, < http://www.oecd.org >. Sur cette recherche effrénée de « solutions », voir Evgeny MOROZOV, Pour tout résoudre, cliquez ici. L’aberration du solutionnisme technologique, Fyp Éditions, Limoges, 2014. ↑
- Voir Fabien BENOIT, The Valley. Une histoire politique de la Silicon Valley, Les Arènes, Paris, 2019. ↑
- Hannah ARENDT, Condition de l’homme moderne, trad. Georges Fradier, Calmann-Lévy, Paris, 1961 [1958], p. 35. ↑
- Cité dans Frédérique ROUSSEL et Marion LECHNER, « Transhumanistes sans gêne », Libération, 18 juin 2011, < http://www.liberation.fr/culture/2011/06/18/transhumanistes-sans-gene_743496 >, consulté le 21 juillet 2015. Pour une présentation plus précise et une discussion critique, on peut se reporter à Nicolas LE DEVEDEC et Fany GUIS, « L’humain augmenté, un enjeu social », et les références citées dans cet article, SociologieS , mis en ligne le 19 novembre 2013, < http://sociologies.revues.org/4409 >, consulté le 21 juillet 2015. L’association Pièces et Main-d’Œuvre a publié plusieurs textes sur l’ « inhumanité du transhumanisme », et est à l’origine d’un « Appel des chimpanzés du futur », < http://www.piecesetmaindœuvre.com >. Enfin, le site Sciences critiques propose un bon dossier sur le sujet, consultable sur < https://sciences-critiques.fr/ >. ↑
- Günther ANDERS, L’Obsolescence de l’homme. Sur l’âme à l’époque de la deuxième révolution industrielle, trad. Christophe David, L’Encyclopédie des nuisances, Paris, 2002 [1956], p. 37 (souligné par l’auteur). ↑
- M. C. ROCO et W. S. BAINBRIDGE (dir.), Converging Technologies for Improving Human Performance, op. cit. , p. X ↑
- Un indice de la pénétration de cette vision dans la société est fourni entre autres par l’envahissement du langage par les mots de logiciel et d’ADN : « c’est dans mon ADN » ou le « logiciel de la gauche », contribuant à l’extension d’une vision mécaniste des humains et des sociétés. ↑
- M. C. ROCO et W. S. BAINBRIDGE (dir.), Converging Technologies for Improving Human Performance, op. cit., p. 3. ↑
- Harnessed, mot qui revient aussi souvent que performance et enhancement. ↑
- M. C. ROCO et W. S. BAINBRIDGE (dir.), Converging Technologies for Improving Human Performance, op. cit., p. 3. ↑
- À ce propos, voir l’Appel de Beauchastel, lancé en 2016 par un groupe de professeurs mettant en garde contre les dangers représentés par la généralisation du numérique à l’école, pour l’apprentissage des enfants mais aussi pour le métier d’enseignant. Cet appel est consultable sur le site de PMO, < www.piecesetmaindœuvre.com >. ↑
- L’albédo est la fraction de rayons lumineux que réfléchit une surface. Ainsi, les surfaces sombres absorbent la chaleur, alors que les surfaces claires la réfléchissent. ↑
- M. C. ROCO et W. S. BAINBRIDGE (dir.), Converging Technologies for Improving Human Performance, op. cit., p. 6. ↑
- Ibid., p. 23. ↑
- Ibid., p. 23. ↑
- Voir le bracelet de Control Labs et Clinatech, < https://www.franceculture.fr/numerique/demain-lhumain-connecte-que-preparent-vraiment-les-gafam >. ↑
- < http://www.genopole.fr > et < http://www.biopolis.fr >. ↑
- Shoshana Zuboff met bien en lumière les dangers de cette prolifération de données contrôlées par quelques grandes plateformes numériques pour la vie privée et l’autonomie des êtres humains. Voir L’Âge du capitalisme de surveillance, trad. Bee Formentelli et Anne-Sylvie Homassel, Zulma, Paris, 2020 [2019]. ↑
- La question des liens entre automatisation et chômage est de toute première importance, mais elle est compliquée, et ses estimations empiriques varient grandement. La discussion de cette question dépasse le cadre de ce livre. ↑
- Jill BANFIELD, « Making sense of the world : Convergent technologies for environmental science », in M. C. ROCO et W. S. BAINBRIDGE (dir.), Converging Technologies for Improving Human Performance, op. cit., p. 294-300. ↑
- < http://www.darpa.mil/our-research >. ↑
- Voir Gary W. STRONG et William S. BAINBRIDGE, « Memetics : A potential new science », in M. C. ROCO et W. S. BAINBRIDGE (dir.), Converging Technologies for Improving Human Performance, op. cit., p. 318-325, d’après Richard Dawkins. ↑
- Une illustration de cette position peut être trouvée dans les discours de Laurent Alexandre, un des promoteurs en France du transhumanisme. ↑