Des ordinateurs presque vivants

Demain, les ordinateurs presque vivants

Par Jean-Bernard Desfayes
et la rédaction du Temps stratégique

Jean-Bernard Desfayes, journaliste indépendant à la Radio romande, ancien rédacteur en chef du Matin (Lausanne), est connu notamment pour ses ouvrages de vulgarisation de la conquête de l’espace, Espace Nicollier (Lausanne, Desfayes, 1992) et L’année Hubble (Lausanne, LEP, 1994).

Le Temps stratégique, No 82Savez-vous que la puce (ou microprocesseur) de votre ordinateur personnel est une puce à tout faire? Une puce généraliste? Elle n’a en effet pas été dessinée spécifiquement pour utiliser le programme Word avec lequel est écrit ce texte, mais s’en accommode fort bien. Elle n’a pas non plus été dessinée spécifiquement pour faire fonctionner un programme de simulation de vol, un programme de dessin, ou un programme de retouche photographique, mais elle s’en accommode également. Bref, la puce de votre ordinateur est admirable sans rien dire du fait que, vendue chaque année à des millions d’exemplaires, son prix s’est effondré.

Votre puce généraliste a cependant un gros un inconvénient: elle est relativement lente; elle sait tout faire, mais ne sait rien faire vite.
C’est pourquoi, il existe d’autres puces aussi: les puces spécialisées, dessinées pour n’accomplir qu’une seule tâche, mais à très grande vitesse. Une puce spécialisée dans la graphisme, par exemple, va pouvoir tracer des lignes sur l’écran de votre ordinateur, ou y produire des images, 10 ou 100 fois plus vite qu’une puce à tout faire. En outre, la puce spécialisée est plus petite, et consomme moins de courant que la puce généraliste. Pourtant elle a deux défauts majeurs.
Le premier défaut tient à son hyper-spécialisation: si elle exécute parfaitement et à une vitesse imbattable la tâche précise pour laquelle on l’a dessinée, en revanche elle se plante dès que cette tâche est modifiée fût-ce d’un chouïa! Le second défaut tient à son coût: la puce spécialisée, par définition dessinée spécialement et fabriquée en petite série, coûte cher. Cela en limite l’usage à des domaines eux aussi « pointus »: calcul scientifique ou compression et décompression des images vidéo par exemple.
Or il y quelque temps déjà que ce choix cornélien entre la puce à tout faire mais lente et la puce rapide mais monomaniaque, a été levé. Voici commen

Les puces, qui sont des circuits parcourus par des informations sous forme de 0 et de 1, ont traditionnellement un dessin fixe. Les puces généralistes ont un dessin fixe auxquels s’adaptent une multitude de programmes, les puces spécialisées un dessin fixe auquel ne s’adapte qu’un seul programme, toujours le même.Les chercheurs se sont donc dits qu’ils pourraient essayer de fabriquer après tout des puces qui, au lieu d’avoir un dessin fixe, auraient la capacité de se redessiner elles-mêmes (ou plutôt: de redessiner leurs circuits) chaque fois qu’elles seraient confrontées à une tâche nouvelle, de manière que leur fonctionnement pour cette tâche spécifique soit optimisée. Ces puces-miracle seraient donc à la fois des puces généralistes (capables de s’attaquer à n’importe quelle tâche) et des puces spécialisées (une fois redessinés leurs circuits); à la fois capables de se transformer en puces spécialistes de Word lorsqu’elles sont confrontées à du traitement de texte, et en puces spécialistes de la compression et décompression d’images lorsqu’elles auraient à faire à de la vidéo.Ces nouvelles puces, mises au point il y une dizaine d’années déjà et principalement fabriquées aujourd’hui par la société américaine Xilinx, répondent au nom de FPGA (Field Programmable Gate Arrays ou « réseaux logiques programmables »). Ces puces sont dites « reconfigurables », car elles sont capables de changer l’organisation matérielle de leurs circuits internes. Elles opèrent aujourd’hui ce changement en quelques millièmes de seconde, elles l’opèreront demain en quelques millionièmes de seconde! Elles permettent de réaliser des économies de temps et d’argent évidemment énormes.Pour les premières puces FGPA, chaque configuration était étudiée et définie à l’avance, puis chargée avant l’exécution d’une tâche spécifique. L’ordinateur RENCO (Reconfigurable Network Computer), élaboré à l’EPFL, est un bon exemple d’une telle machine reconfigurable dite statique. (Pour des raisons d’économies, RENCO ne dispose pas de disque dur. Son utilisateur doit donc pomper dans le réseau le programme qu’il désire utiliser, et surtout la configuration prédéfinie qui donnera à sa puce la capacité d’exécuter de façon optimale la tâche qu’on lui aura fixée.)Très vite, cependant, ces systèmes de reconfiguration statiques sont apparus insuffisants. Certains informaticiens se sont convaincus que ce dont ils rêvaient vraiment, c’était de systèmes capables de se reconfigurer tout seuls, comme des grands! Oui, mais comment?C’est alors que l’idée leur est venue de trouver des modèles dans la nature, ou tout au moins de s’inspirer de modèles naturels. Il faut dire que jusque là, les informaticiens et autres ingénieurs avaient plus urgent à faire que d’observer benoîtement la nature et ses processus. On attendait d’eux en effet qu’ils construisent en pagaille des ponts, des maisons, des voitures, des avions, des ordinateurs, et basta! Mais aujourd’hui, arrivés au bout de ces tâches simples, ils cherchent des idées neuves, et en ont trouvé dans la nature de décoiffantes qui, au temps de Galilée, leur eussent assurément valu les foudres de l’Inquisition.Pour débusquer, et si possible utiliser à leur profit, certains secrets du vivant, les chercheurs du Laboratoire de systèmes logiques de l’École Polytechnique Fédérale de Lausanne étudient deux modèles naturels très différents.Les uns observent sous microscope des cellules vivantes, dans l’espoir de découvrir de quelle manière elles croissent, se multiplient, se réparent, meurent… et continuent malgré tout à se perpétuer. Sur la base de leurs observations, ils ont imaginé une science nouvelle, l’embryonique ou embryologie électronique (l’embryologie, du grec « embruon« , « ce qui croît à l’intérieur de », étudie la manière dont un organisme se développe). L’embryonique a pour ambition de fabriquer des ordinateurs multicellulaires doués de propriétés de croissance, d’autoréparation et d’autoreproduction.D’autres chercheurs étudient la manière dont, au cours de plusieurs centaines de millions d’années, les espèces vivantes ont évolué, pour disparaître ou se transformer en espèces nouvelles mieux adaptées. Sur la base de leurs observations, ils ont imaginé une autre science nouvelle, la phylogénique (ou phylogenèse électronique; la phylogenèse, du grec « phulon« , « la race », étudie le mode de développement des espèces au cours de l’évolution). La phylogénique devrait permettre, à terme, de construire des ordinateurs capables d’évoluer tout seuls, jusqu’à être parfaitement performants quel que soit l’environnement dans lequel ils fonctionnent ou la nature des problèmes auxquels ils sont confrontés.

Commençons par l’embryonique. »Chaque être humain, explique Daniel Mange, professeur du Département d’informatique de l’EPFL, où il dirige le Laboratoire de systèmes logiques (LSL), est constitué d’environ 60’000 milliards de cellules. Dans chacune de ces cellules figure notre programme génétique ou génome, une bande de 2 milliards de caractères, qui est à la fois notre plan de fabrication et notre plan de fonctionnement. De notre naissance jusqu’à notre mort, chaque cellule décode en permanence ce génome afin de produire les protéines nécessaires à la survie de notre organisme. Les erreurs de décodage sont rares et, lorsqu’elles se produisent, sont ordinairement détectées et réparées avec succès un mécanisme qui frappe par sa complexité, sa précision, et le fait qu’il se fonde sur des processus très semblables à ceux de l’informatique. En effet, biologie et informatique sont toutes deux fondées sur un langage typographique: la biologie sur un langage composé des quatre lettres désignant quatre nucléotides dont la combinaison définit l’ADN de chaque individu; et l’informatique, sur un langage composé de deux symboles seulement, les deux états 0 et 1 du langage binaire, qui sont plus que suffisants. »Dans la pratique, les chercheurs divisent des plaques de silicium en cellules absolument identiques, destinées à vivre, se réparer, se reproduire non pas matériellement, comme le feraient des cellules vivantes, mais par simples transferts d’informations entre elles. Pour que ces cellules de silicium puissent imiter, fût-ce grossièrement, des cellules vivantes et les mécanismes de leur développement, trois conditions doivent être satisfaites. Primo, chaque cellule doit réaliser une fonction unique, caractérisée par un nombre: son « gène ».Deuxio, chaque cellule doit contenir la description complète de l’organisme (de l’ensemble des circuits dessinés sur la plaque silicium): son « génome ». Tertio, lorsqu’on lance le processus avec une cellule-mère contenant le génome, les deux cellules adjacentes doivent recopier cette information, et ainsi de suite jusqu’à ce que toutes les cellules de la plaque de silicium contiennent le génome. »Si l’on parvient à doter un ordinateur de ces trois caractéristiques, explique Daniel Mange, il développera des propriétés nouvelles et originales, jadis réservées aux seuls organismes vivants: l’autoréparation (un organisme vivant peut cicatriser ses plaies; l’ordinateur embryonique, en cas de défaillance, détectera l’erreur et la corrigera automatiquement) et l’autoréplication (en cas de défaillance majeure, l’ordinateur embryonique produira une copie de lui-même à l’identique). » De tels ordinateurs feraient évidemment merveilles dans les environnement où l’homme ne peut intervenir: au coeur d’une centrale nucléaire accidentée style Tchernobyl, par exemple, ou dans l’espace.Il existe déjà des ordinateurs embryoniques en maquettes: la Biowatch, par exemple, une montre électronique au look d’enfer imaginée à l’EPFL, qui imite, de manière grossière mais évocatrice, le processus de division des cellules vivantes. Pour construire cette montre, les chercheurs lausannois ont conçu des cellules artificielles, les « biodules », qu’ils peuvent assembler. Chacun de ces biodules comporte un microprocesseur et un cadran numérique lumineux. Lorsque la montre est mise en route, le premier biodule, qui a en mémoire le programme à exécuter, le copie dans le second biodule, qui le copie dans le troisième, et ainsi de suite jusqu’à ce que tous les biodules soient « chargés ».La Biowatch qui illustre cet article est un « organisme » comptant huit cellules, dont quatre absolument indispensables à son fonctionnement: deux pour compter les heures et deux pour compter les minutes. Les autres biodules « appondus » sont en attente, prêts à assurer la relève. Si l’on « tue » une cellule en la déconnectant, la numéro trois par exemple, sa fonction sera aussitôt reprise par la numéro quatre, et la fonction de la numéro quatre sera reprise par la numéro cinq, jusque là inactive: on a affaire là à un processus d’autoréparation. La Biowatch peut faire plus, cependant. En cas de panne majeure, elle peut produire une copie d’elle-même, un clone en quelque sorte: on alors affaire à un processus d’autoréplication. Si l’Expo 2001 accepte le projet que lui a proposé l’EPFL, ses visiteurs pourront tout à loisir tuer une Biowatch géante ou la ramener à la vie.Voyons maintenant la piste phylogénique. Les informaticiens, s’inspirant des mécanismes qui régissent l’évolution des espèces depuis l’apparition de la vie sur la terre il y a 3.5 milliards d’années, ont l’ambition de dessiner, par imitation de ces mécanismes, des ordinateurs dont la configuration initiale, générée au hasard, s’automodifierait à partir de là en fonction des résultats obtenus et des réactions de l’environnement. Ces ordinateurs auraient, en d’autres termes, la capacité d’évoluer suivant les lois de la sélection naturelle chères à Darwin, c’est-à-dire par mutations (dues à des erreurs de copie) et par croisements (dus à la redistribution des constituants génétiques des parents à leurs descendants). Ces mécanismes non déterministes, aléatoires, pourraient permettre de construire des ordinateurs capables d’exécuter à la perfection des tâches elles tout à fait déterminées; le paradoxe n’est pas mince. »Pour cela, nous avons construit un prototype de machine informatique évolutive: Firefly, la Luciole, explique Eduardo Sanchez, professeur au laboratoire de systèmes logiques de l’EPFL. Cette machine est constituée d’une longue file de 56 « organismes » très simples, concrétisés chacun par une diode lumineuse qui peut être allumée ou éteinte. Comme dans un essaim de lucioles, ces diodes (ces organismes) commencent par scintiller de façon aléatoire puis, grâce à un algorithme qui imite le processus d’évolution darwinien, ils se synchronisent progressivement jusqu’à vibrer enfin à l’unisson. »Il est fascinant d’observer ce chaos de lumières clignotant sans organisation, d’où jaillit, peu à peu, par sélection naturelle darwinienne, un ordre rythmé, quand bien même chaque organisme, pour fixer son comportement, ne fait qu’observer le comportement de ses deux voisins immédiats. Le temps fait le reste. S’ils s’agissait d’organismes vivants, une telle évolution prendrait des milliers ou des millions d’années. Mais là, sous nos yeux, elle prend à peine quelques minutes! »Chez les humains, explique Moshe Sipper, chercheur au Laboratoire de systèmes logiques, le hasard génétique l’indéterminisme est une source de variété et de diversité. Les mutations (variations aléatoires des génomes) et les croisements (fusions de génomes), peuvent produire des individus nouveaux plus performants. Ces processus de mutations et croisements, transposés dans l’univers informatique, obtiennent des résultats analogues. Ainsi donc, demain, l’ingénieur laissera évoluer ses ordinateurs en les confiant aux bons soins d’un algorithme génétique, dans l’espoir qu’ils atteindront ainsi, par « sélection naturelle artificielle », des performances optimales. »De tels ordinateurs phylogéniques (évolutifs), lorsqu’ils seront développés, permettront de rendre complètement autonomes des machines destinées à travailler dans des environnements flous et imprévisibles: robots explorateurs de planètes aux caractéristiques inconnues, ou terre-à-terre robots chargés de nettoyer des surfaces mal définies.Les Folamour et Nimbus que nous avons rencontrés ne bornent pas là leurs rêves. Certains d’entre eux, chercheurs en nanotechnologie (science des technologies de l’ordre du nanomètre, c’est-à-dire du millionième de milllimètre) espèrent en effet construire des machines sub-microscopiques en assemblant des molécules une par une, grâce auxquelles, un jour, éventuellement, ils pourraient produire des matériauxcapables de s’autoreproduire et d’évoluer (alors que l’embryonique et la phyloghénique visent à produire seulement descircuits électroniques capables de s’autoreproduire et d’évoluer). Si ce jour advenait, nous devrions donc nous habituer tous à cohabiter avec des organismes matériels quasi-vivants, éventuellement mobiles, doués d’une capacité d’analyse, de raisonnement, voire d’intelligence! [On pourra lire à ce propos: « Et le nanorobot créa le monde en six minutes… », par Nicolas Henchoz, dans « Le Temps des Affaires » No 51 de mars 1993, ainsi que « Les nanotubes de carbone, dix fois plus rigides que l’acier… », par Jean-Marc Bonard et André Chatelain, dans « Le Temps stratégique » No 81 de mai-juin 1998
« Certains savants, écrivait récemment le professeur Mange dans la revue « Synergies », craignent que le XXIe siècle ne voie l’affrontement de deux groupes politiques majeurs: les naturistes, qui défendront la domination de l’espèce humaine, et les artificistes, qui voudront donner leur chance aux machines évolutives pour leur permettre de devenir une nouvelle forme d’espèce dominante. La motivation des premiers sera la peur d’être asservis par une population supérieure; celle des seconds sera la curiosité, voire l’émerveillement. En chacun de nous sommeillent un naturiste et un artificiste. Depuis le péché originel la pomme cueillie sur l’arbre de la Connaissance l’homme n’a cessé de balancer entre sa curiosité insatiable, la fission nucléaire par exemple, et le dégoût de sa propre création, en l’espèce l’anéantissement de Hiroshima. Les créatures artificielles qui domineront l’homme du XXIe siècle seront-elles plus sages? »

© Le Temps stratégique, No 82, Genève, juillet-août 1998.

ADDENDA

Histoire de ne point perdre votre latin

Deux termes scientifiques

Un algorithme (du nom du mathématicien arabe du IXe siècle Al-Khawarizmi, latinisé en algorithmus ) désigne une suite finie de règles ou de méthodes parfaitement définies pour obtenir la solution d’un problème en un nombre limité d’étapes. L’usage des algorithmes permet à l’être humain de réaliser des tâches intellectuelles d’une grande complexité en découpant les problèmes à résoudre en plans détaillés, scripts et procédures organisés hiérarchiquement. Applicables à de nombreuses disciplines, les algorithmes sont surtout utilisés en informatique pour la création de programmes.

La sélection naturelle est une expression proposée par le naturaliste anglais Charles Darwin (1809- 1882 ) dans son livre L’origine des espèces au moyen de la sélection naturelle, ou la lutte pour l’existence dans la nature (Paris, La Découverte, 1985): « Étant donné que plus d’individus sont produits qu’il n’en peut survivre, il doit exister dans chaque cas une lutte pour l’existence, soit entre un individu et un autre individu de la même espèce, soit entre individus d’espèces différentes. Peut-on, dès lors, considérer comme improbable, puisque des variations utiles à l’homme sont manifestement survenues, que d’autres variations utiles en quelque manière à chaque être vivant, dans la grande et complexe bataille pour la vie, se soient parfois produites au cours de milliers de générations? S’il en va ainsi, pouvons-nous douter (en nous rappelant que bien plus d’individus naissent qu’il n’en peut survivre) que les individus possédant un avantage quelconque, si minime soit-il, sur les autres auraient une meilleure chance de survivre et de procréer leur propre type? Inversement, nous pouvons être assurés que toute variation, délétère à quelque degré, serait impitoyablement éliminée. Cette préservation des variations favorables et ce rejet des variations défavorables, je l’appelle la sélection naturelle. »

 

A propos des systèmes reconfigurables

Les circuits FPGA (Field Programmable Gate Arrays ou « réseaux logiques programmables ») sont constitués d’un réseau de cellules logiques identiques, placées dans une infrastructure de lignes d’interconnexion. L’utilisateur peut programmer la fonction de chaque cellule, ainsi que les interconnexions entre les cellules et avec les entrées/sorties du circuit. L’avantage des FPGA est de pouvoir être configuré sur place, sans envoi du circuit chez le fabricant, ce qui permet de les utiliser quelques minutes après leur conceptions. Les FPGA les plus récents sont configurables en une milliseconde. Dans un futur très proche, ce temps passera certainement à quelques microsecondes.

« Pour reconnaître ton visage« 

Actuellement, les FPGA sont utilisés pour contrôler des disques durs mais une des applications importantes des circuits FPGA est la reconnaissance de formes (pattern matching): écriture manuscrite, identification de visages, reconnaissance de cibles, etc. A partir d’un échantillonnage préalable de milliers d’images, les réseaux logiques traitent l’image à reconnaître en comptant combien de ses pixels correspondent aux pixels des images échantillonnées. A partir d’un seuil prédéfini, les réseaux logiques programmables déclarent la reconnaissance établie.

Le RENCO (REconfigurable Network COmputer), élaboré au Laboratoire de systèmes logiques de l’EPFL, est un ordinateur reconfigurable basé sur l’architecture des ordinateurs de réseau (network computers). Les ordinateurs de réseaux ne disposent pas de ressources de stockage (disques durs) propres, mais vont chercher les programmes dont ils ont besoin sur le réseau une solution qui permet des économies sur le prix de la machine et sur ses coûts de maintenance.

« Pour reconnaître ta voix »

Le RENCO propose des caractéristiques supplémentaires par rapport aux autres ordinateurs de réseau: il permet le chargement par le réseau non seulement d’un programme, mais aussi de l’architecture matérielle qui pourra utiliser ce programme de façon optimale. Plusieurs applications sont en test sur RENCO, notamment celles liées aux réseaux de neurones artificiels (réseaux de processeurs qui imitent le réseau de neurones biologique et qui sont utilisés dans les domaines de la robotique, de la reconnaissance de la voix, des diagnostiques médicaux, etc.)

Biowatch

la montre qui se répare toute seule

[photo BioWatch]

Le projet Embryonique (pour embryologie électronique) est un exemple de système basé sur trois caractéristiques fondamentales du développement embryonnaire des organismes vivants: l’organisation multicellulaire, la différenciation cellulaire et la division cellulaire. Le but ultime de ce projet est la conception de circuits intégrés très complexes, doués de capacités d’autoréparation (cicatrisation) et d’autoréplication. La montre bio-inspirée BioWatch est une représentation d’un tel système embryonique. Cet organisme artificiel nécessite au minimum quatre cellules pour compter les heures (deux cellules à l’extrême gauche) et les minutes (deux cellules à la droite des précédentes). La photo montre un « organisme » à huit cellules, formant un système reconfigurable dynamiquement. Les quatre cellules restantes (à l’extrême droite) peuvent être utilisées pour obtenir une copie de la montre originale (autoréplication) ou pour servir de « pièces de rechange » destinées à l’éventuelle réparation de la montre originale.

Firefly

la machine qui évolue comme les singes de Darwin

[photo Firefly]

Le prototype « Firefly » (la luciole) est une machine informatique évolutive. Cette machine est constituée d’une longue file de 56 « organismes » extrêmement simples, concrétisés chacun par une diode lumineuse pouvant être allumée ou éteinte. Comme dans l’exemple des essaims de lucioles, les organismes commencent à scintiller de façon tout à fait aléatoire puis, grâce à un processus d’évolution darwinien embarqué dans la machine, ils se synchronisent progressivement pour vibrer enfin à l’unisson.

Sources: Laboratoire des systèmes logiques, EPFL & « Configurable Computing » par John Villasenor and William H. Mangione-Smith. In: « Scientific American », New York , juin 1997.

 

Pour en savoir plus

« Configurable Computing », par John Villasenor and William H. Mangione-Smith. In: Scientific American, New York , juin 1997.

« Vie artificielle: doux rêve ou dure réalité? » Par Daniel Mange. In: Synergies, Lausanne, 1995.

« Biowatch, la montre qui s’autorépare », par Jean-Michel Le Corfec. In: Sciences et Avenir, Paris, No 71, juin 1997.

« If the Milieu is Reasonable: Lessons from Nature on Creating Life », par Moshe Sipper. In: Journal of Transfigural Mathematics, Berlin/Little Rock,
Vol. 3, No 1, 1997.

« Introduction to Embryonics: Towards New Self-repairing and Self-reproducing Hardware Based on Biological-like Properties », par Daniel D. Mange et André Stauffer. In: Artificial Life and Virtual Reality (N. Magnenat, Thalmann and D. Thalmann, Ed.), John Wiley, Chichester, England, 1994.

Les commentaires sont fermés