La complexité, grille de lecture du monde contemporain

[printfriendly]

Une approche intuitive et un essai de définition

par Réda Benkirane

Campagne-ville: Le pas de deux. Enjeux et opportunités des recompositions territoriales. Sous la direction de Lilli Monteventi Weber, Chantal Deschenaux, Michèle Tranda-Pittion, Communauté d'études pour l'aménagement du territoire (CEAT), EPFL, Presses Polytechniques de Suisse Romande, 352 pages, 2008.Extrait de Campagne-ville: Le pas de deux. Enjeux et opportunités des recompositions territoriales. Sous la direction de Lilli Monteventi Weber, Chantal Deschenaux, Michèle Tranda-Pittion, Communauté d'études pour l'aménagement du territoire (CEAT), EPFL, Presses polytechniques et universitaires romandes, Lausanne, 352 pages, 2008.

 

Une approche intuitive

Il est difficile de définir précisément ce qu'est la complexité. Cette notion, tout comme celles de la vie, de l'intelligence, de la culture, a de très nombreuses définitions possibles. On peut donc l'approcher en disant ce qu'elle n'est pas, ou bien tenter de resserrer la définition en l'« exemplifiant » de mille manières, du fait qu’on la reconnaît chaque fois qu’on la rencontre dans d'innombrables phénomènes naturels ou culturels.

Il est aujourd'hui trivial de constater que notre monde est complexe, et à la question de savoir s'il l’était au XIXe siècle, voire avant, nous pressentons que la réponse est négative. Intuitivement, nous pensons à juste titre que le terme décrit l'évolution des sociétés contemporaines, le devenir de la science, de l’économie, du politique, du culturel…

L'étymologie du mot renvoie au mot latin complexus, lui-même issu de complexum, de complecti qui signifie «contenir». La racine complexus exprime le fait de contenir, d’entrelacer ou de plier quelque chose. Premier indice: nous sommes là dans un univers fait de tissage et d'entrelacs, dans l'épistémé du pli, de la multi-pli-cation, de l'im-pli-cation, plutôt que dans celle du découpage, de la dissection d'un ensemble en parties plus élémentaires. Première différence: la complexité, lecomplexus, n'est pas la complication (du latin complicatio). « Ce qui est tissé ensemble » (selon la formulation d'Edgar Morin) n'est pas l’assemblage compliqué de choses plus élémentaires. Une automobile, une horloge (on parle alors demouvement à complication), un téléviseur sont certes des appareils compliqués, mais ils se démontent et remontent en un ensemble fini de pièces. Il n'en est pas de même pour un organisme vivant qui reste complexe au-delà de notre entendement actuel et au-delà de tout algorithme connu: on peut le décomposer mais on ne peut le recomposer à partir de ses éléments de base, simples et indépendants. On n'arrive pas ainsi à synthétiser la vie, à fabriquer un organisme vivant à partir de ses composants élémentaires.

La complexité suggère ainsi l’intrication des événements qui la génèrent, l’enchevêtrement des éléments qui la composent. Tout « ce qui est tissé ensemble » révèle un tout dont l’organisation, les spécificités, les propriétés ne correspondent pas à l’addition de celles de ses composants de base. Sur le plan du rapport à la connaissance, nous ne nous situons plus selon la méthode scientifique classique qui tend à isoler les parties d’un système pour mieux l’analyser. L’étude de la complexité appelle non plus à la spécialisation des savoirs mais à leur remembrement autour de phénomènes beaucoup plus larges que les disciplines censées les étudier. La complexité renvoie non seulement à des phénomènes signalés par une organisation et une dynamique particulières, mais aussi à la production d’outils conceptuels capables d’articuler entre eux les savoirs issus des diverses spécialisations scientifiques. Dans cette perspective, on comprend mieux pourquoi les approches de l'inter-, la multi et la trans-disciplinarité sont aujourd’hui si recherchées pour tenter de pallier à une hyperspécialisation qui a entraîné les scientifiques à « connaître de plus en plus de choses sur de moins de moins de choses ».

A ce stade, nous pouvons proposer une définition de la complexité en fournissant des exemples. Toute une classe de phénomènes émergents tend à la fois à montrer une unification de la biologie et de la physique, mais aussi une interaction entre des sciences dites « dures » et des sciences dites « douces ». Il s’agit des systèmes complexes dynamiques ; turbulences atmosphériques, maladies épidémiques, gènes, neurones, système immunitaire, insectes sociaux, cultures humaines, écosystèmes, réseaux de télécommunication, marchés financiers, macroévolution, etc. Quel est donc l'objet le plus complexe au sein de l’univers ? Ce serait un corps mou, une matière pensante qui pèse quelque quinze cents grammes : le cerveau humain reste d’une complexité hors échelle, quand il est l’aboutissement évolutif de cent millions d’années, qu’il compterait 100 à 200 milliards de neurones et où, chaque neurone possède environ dix mille connexions et où les connexions entre les neurones atteignent une longueur totale de quelque 100 millions de mètres. L’exemple du cerveau est typique: on sait comment fonctionnent individuellement les neurones mais on ignore comment collectivement ils peuvent engendrer l’intelligence, la conscience. A travers cet exemple édifiant et scientifiquement incontestable, il s’avère que la complexité culmine en l'homme et dans la société. L’humanité en termes d’évolution non linéaire est effectivement d’une complexité supérieure à celle des fourmis ou d’automates cellulaires.

Essai de définition

A travers les quelques exemples évoqués précédemment, nous pouvons voir se profiler trois propriétés typiques de phénomènes aussi différents que les avalanches et les ondes spatio-temporelles chimiques. Un phénomène est dit complexe lorsqu'il possède les propriétés de non-linéarité, d'émergence et d'évolution.

Lanon-linéarité, tout d’abord, signale des phénomènes où les causes et les effets ne sont pas proportionnels, c’est-à-dire où de petites causes peuvent avoir de grands effets. La non-linéarité concerne des systèmes qui ne suivent pas les règles simples de l'addition et produit des résultats inattendus.

L’émergence, ensuite, désigne des phénomènes dont « le tout est plus que la somme des parties », dans le sens que la connaissance des parties ne suffit pas à déduire la connaissance du tout. Nous sommes là dans l’étude d'ensembles sophistiqués dont les propriétés ne sont pas réductibles ni déductibles des propriétés des parties. Ainsi par exemple le passage de l'eau H20 de l'état de liquide à l'état solide puis à l'état liquide affecte le niveau macroscopique mais ne se saisit nullement au niveau d'une molécule individuelle. L'émergence signale ce qui constitue dans la science classique une discontinuité entre les niveaux collectifs et individuels d'un système. Mais en seconde lecture, l'évolution révèle une causalité non linéaire entre un comportement global complexe et des règles locales le plus souvent rudimentaires.

L’évolution, enfin, précise le rôle fondamental du médium qui permet le déploiement de la complexité, celui du temps, irréversible, dans la formation de ces phénomènes, dans le sens de la transformation et de l’incertitude. Nous sommes là face à une notion de système dynamique, où l’intervention de la contingence (l'événement, la bifurcation, le hasard) conduit à une science du devenir plutôt que celle de l’être.

Les sciences de la complexité qui étudient cette classe si particulière et si répandue de phénomènes constituent en réalité une constellation de disciplines (biologie, chimie, mathématiques, physique, informatique), de spécialités de recherche (intelligence artificielle, vie artificielle, bio-informatique,), d’approches théoriques (émergence, auto-organisation), de techniques (automates cellulaires, réseau de neurones, algorithme génétique), de modèles descriptifs (milieu excitable, tas de sable, paysage évolutif, intelligence en essaim) et de concepts (feedbacks, sensibilité aux conditions initiales, bordure du chaos, attracteurs, bifurcations, criticalité auto-organisée).

Ainsi, par exemple, la vie artificielle est un champ nouveau de la connaissance scientifique où la modélisation informatique met en évidence une biologie générale, émancipée de la chimie du carbone qui caractérise le vivant sur terre. Les expériences de vie artificielle consistent ainsi à créer un univers particulier, à définir les lois physiques de cet univers, à le laisser évoluer et à observer ce qui s'y passe. Des créatures numériques voient le jour, parcourent un paysage évolutif darwinien en se disputant les ressources de la survie que sont l'espace mémoire et le temps de l'unité centrale de l'ordinateur1. Et même le rôle de la contingence évolutive est également étudié par l'introduction du hasard dans l'univers artificiel numérique.

Les sciences de la complexité conduisent ainsi à des modélisations théoriques de phénomènes dynamiques où interagissent une multitude de facteurs, où se combinent régulation et déséquilibre, contingence et déterminisme, création et destruction, ordre et désordre et où s’articulent divers niveaux d’organisation.

La quête de modélisation vise à décrire des phénomènes imprévisibles et non intégrables, tels que le climat, lnternet, lessupply chains, le chaos déterministe, etc. Comme, du fait du très grand nombre de variables dont ils dépendent, ces exemples sont extrêmement difficiles à étudier de manière analytique, impossibles à mettre en équation avec du crayon et du papier, l’utilisation de l’ordinateur permet l’étude expérimentale de leur complexité. L’ordinateur, véritable microscope/télescope, permet de calculer la complexité et tous les résultats « baroques » de la nature. A ce propos, le rôle catalytique de l'informatique a fait dire à certains observateurs que nous étions désormais en présence d'une science du troisième type produisant des données à mi-chemin entre le théorique et l'empirique. L’objectif est de simuler et de visualiser des systèmes complexes, que ce soit dans l’infiniment petit ou l’infiniment grand, la modélisation étant le moyen de générer des données artificielles qui sont le reflet de la prise en compte d'un grand nombre de variables. Au fur et à mesure que cette modélisation informatique se développe, celle-ci va simuler différents systèmes complexes, ou du moins des versions simplifiées de ces systèmes, pour en comprendre les comportements et les propriétés. Ce faisant, des modèles et des métaphores sont ainsi élaborés pour caractériser les systèmes complexes.

Les sciences de la complexité étudient un ensemble dynamique non pas par découpage de ses parties mais par l’observation des interactions et des rétroactions des différentes parties entre elles. L’ensemble des liaisons des « parties » fait émerger des propriétés particulières (échappant par définition à l’analyse séquentielle) qui par un effet rétroactif (feedback) stimule le comportement du « tout ». Ainsi, si nous revenons à l'exemple de l'eau, la connaissance de ses composants moléculaires n'aide pas à comprendre comment l'eau coule dans un vortex, ni même comment elle passe de l'état solide à l'état liquide ou à l'état gazeux. Seule une compréhension des dynamiques d'émergence peut aider à approcher ces changements qualitatifs, ces changements de motifs ou patterns.

L'approche des sciences de la complexité a ainsi permis de découvrir la structure complexe de phénomènes apparemment simples, et inversement, la structure simple de phénomènes apparemment complexes. Par exemple, une des principales caractéristiques d’un système chaotique est qu’une variation infinitésimale des conditions initiales peut modifier radicalement le comportement d’ensemble du système. D’où la fameuse métaphore du papillon qui, à partir d’un battement d’ailes, déclenche un cyclone. Un autre exemple frappant – parce que contre-intuitif – est l'étude de l'activité cérébrale : il apparaît que la complexité dynamique de l'activité cérébrale, mesurable au moyen de l'éléctro-encéphalogramme, diminue notablement lors de crises épileptiques ; l'enregistrement de l'éléctro-encéphalogramme révèle des courbes très régulières traduisant une série de synchronisations cérébrales. Ainsi le désordre au niveau de la dynamique cérébrale signifie le régime normal d'activité2, tandis que l'ordre des ondes cérébrales révélerait une dangereuse pathologie…

 

Aux limites de la science classique

La science classique, celle qui a triomphé trois siècles durant, et qui est depuis le physicien Isaac Newton (1642-1727) à l’origine de progrès immenses dans la connaissance de la nature et sa maîtrise par l’homme, est pour l’essentiel réductionniste, déterministe et linéaire. Elle s'origine dans l'idéal grec d'une science traditionnelle vénérant la quête esthétique du simple, de l'harmonie et de la symétrie. Elle décrit au moyen du calcul fait à base de crayon et de papier les questions les plus simples que pose la nature. L'expérience y est rendue dans une étude simplifiant et abstrayant le phénomène naturel étudié, notamment en le délestant du plus grand nombre de ses variables et en recourant à une explication la plus fondamentale possible. Cette méthode a permis de passer progressivement à des questions plus ardues et est à l’origine de l’essor de la science moderne. On en a déduit des lois de la nature à partir de l’étude des régularités, des cycles, des uniformités, des invariances, des symétries rencontrées dans la nature. Selon cette vision scientifique, la nature est prévisible et l’on peut mesurer cette prévisibilité au moyen d’équations. Ainsi le calcul différentiel inventé conjointement par le physicien anglais Newton et le philosophe allemand Leibniz (1646-1716) décrit les changements continus d’un corps en mouvement et sa vitesse instantanée. La connaissance de l’état d’un objet à l’instant t permet de connaître son passé et son futur. Les équations différentielles concourent à un temps réversible (où futur et passé sont équivalents et où par conséquent il n’y a pas de flèche du temps). La conception linéaire de la science classique dont est entre autres porteur le calcul intégral se caractérise par le fait qu’à toute action correspond une réaction, que les mêmes causes produisent les mêmes effets (et que par conséquent des causes voisines produisent des effets voisins). La causalité linéaire offre l’avantage de rendre les systèmes prévisibles ; la connaissance des conditions initiales détermine celle des conditions finales. En connaissant le passé d'un système, il est possible de prédire son futur.

Le démon de Laplace, qui porte le nom du mathématicien, physicien et astronome français (1749-1827), exprimera la vision d’un univers déterministe, vision triomphante de son époque. Laplace suggère une expérience de pensée mettant en scène un démon capable de lire et le passé et l’avenir :

« Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée, et la situation respective des êtres qui la composent, si d'ailleurs elle était assez vaste pour soumettre ces données à l'analyse, embrasserait dans la même formule les mouvements des plus grands corps de l'Univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l'avenir comme le passé serait présent à ses yeux. »

Si le démon de Laplace reflète la vision scientifique dominante du XIXe siècle, la théorie du chaos déterministe, découverte pour la toute première fois par le mathématicien Henri Poincaré, puis la physique quantique remettront en cause le fait que le déterminisme, à partir d'une connaissance des conditions initiales d’un système, puisse conduire à une connaissance des conditions finales.

L’idée de complexité va apparaître timidement mais progressivement au cours du XIXe siècle lorsque les scientifiques viennent à décrire les manifestations des lois de la nature qui révèlent des singularités, des brisures de symétrie, des phénomènes critiques.

Au fur à mesure du développement de la science newtonienne et de l’expansion de ses paradigmes dominants, les scientifiques vont se rendre compte que l’ensemble des questions simples de la nature va aller en se rétrécissant. Ainsi progressivement il y a la découverte que l’uniformité, la régularité, la symétrie, etc., ne représentent qu’un tout petit ensemble des motifs ou patterns que la nature déploie, que ces motifs ont certes l'avantage d'être des idéalités optimalisées pour être formulées, intégrées, calculées, mais que le défi véritable reste d’appréhender, de modéliser et interpréter la nature dans la gamme quasi inépuisable des phénomènes qu’elle génère en variété et en variation. Comment rendre compte scientifiquement de l'explosion ou de l'extinction massive d’espèces vivantes (99,9 des espèces vivantes ayant existé sont disparues), de l’écoulement du temps, des rythmes du vivant (palpitations cardiaques ou décharges neuronales), de la structure du poumon, des tâches du léopard, du vol collectif des oiseaux, du tracé de la foudre, du déclenchement d’une crue, d’une avalanche ou d’un tremblement de terre ? Tous ces événements produits par la nature sont-il déductibles des lois de la nature ?

Vers une complexification de l'espace et du temps

Différents domaines des sciences seront affectés par ces découvertes « tardives » et souvent contre-intuitives de phénomènes physiques ou biologiques se prêtant peu ou mal à la mise en équation classique. Mais un des domaines où le changement de perspective sera le plus déstabilisant est celui de la géométrie. Pendant quinze siècles, on a pensé qu'il n'y avait de géométrie que la géométrie euclidienne, c'est-à-dire celle qui vérifie les postulats d'Euclide tels qu'ils sont énoncés dans ses Éléments. Ce sera notamment le cinquième postulat d’Euclide concernant le parallélisme des droites (une droite étant le chemin le plus court reliant deux points) qui sera remis en question avec la découverte des géométries non euclidiennes. En effet, dans les géométries courbes de type sphérique, toutes les droites se croisent tandis que dans celles de type elliptique de nombreuses droites ne se croisent pas.

Ainsi la découverte de géométries non euclidiennes – où l'axiome euclidien des parallèles n’est pas vérifiable – par le mathématicien, physicien et astronome allemand Carl Friedrich Gauss (1777-1855) et le mathématicien russe Nikolaï Ivanovitch Lobatchevski (1792-1856) était un des signes avant-coureurs d'une révolution scientifique. Cette première phase de complexification de l'espace allait se poursuivre dans la théorie de la relativité générale d'Albert Einstein (1879-1955) qui s’appuie sur une géométrie elliptique. Dans le même temps, la complexification de l’espace se nourrit des premiers éléments de la géométrie fractale que sont les courbes de Koch et Peano, la poudre de Cantor.

Dans le rapport au temps, la découverte de la complexité se fera là aussi progressivement jusqu'à avoir des effets importants dans l'évolution de la science. Selon la science de Newton, le temps restait prévisible, calculable, réversible (passé et futur sont équivalents). Dans cette vision, les hommes auront tendance à confondre le temps et sa mesure. Le temps chronométrique l'emporte, c’est le comput qui l'emporte sur la durée du temps. Selon la vision d'Einstein, le temps comme l'espace s'inscrivent comme des notions relatives; le temps est la quatrième dimension de l'espace-temps qui est lui-même un cadre non-euclidien se courbant au voisinage d'une masse. Quant à l'interprétation du chimiste Ilya Prigogine (1917-2003), elle révèle à travers ses travaux sur la thermodynamique, l'aspect irréversible du temps qui permet d'expliquer l'apparition de la complexité dans la nature.

Ainsi le temps newtonien était réversible et la relativité einstenienne conduit à une géométrisation du temps (temps et espace sont équivalents). Le temps prigoginien, quant à lui, est irréversible. Il est orienté (il y a une flèche du temps, le futur n'est pas connu d'avance) et révèle la créativité de l'évolution et de la contingence.

Le temps est notre dimension existentielle, or l’étymologie du mot tempus (température, tempérer, tempête) suggère que le temps est un mélange ; les sciences du complexe mettent en évidence ce mélange de prévisibilité (mesure) et d'imprévisibilité (météorologie), de continu et de discontinu, de linéaire et de non linéaire, de cyclique et de chaotique, detime et de weather, de chaud et de froid, de sec et d'humide. Le temps percole, c'est précisément ce en quoi il est complexe.

Si les sciences de la complexité vivent leur âge d'or au XXIe siècle, leur montée en puissance, on le voit bien, s'est faite graduellement depuis le XIXe siècle. Il est à noter que l'on peut retrouver dans nombre de cultures non occidentales des approches et des formulations de la complexité de la nature, mais que celles-ci ne s'expriment en langage physico-mathématique que depuis l'ère de l'ordinateur. Les cultures orientales relevant de l'hindouisme, du bouddhisme, du confucianisme et de l'islam sont enclines à percevoir le monde comme un tout dans lequel l'homme est participant avant d'être observateur. On peut avancer l'hypothèse que la complexité qui s'est petit à petit imposée dans la compréhension de l'espace et du temps peut également servir à une meilleure compréhension des cultures et de leur relations mutuelles puisque les cultures figurent parmi les principaux motifs spatio-temporels produits par l'homme. Ainsi, par exemple, le phénomène urbain est un motif spatio-temporel qu'il s'agit d'appréhender dans sa complexification croissante produite par plusieurs milliers d'années d'évolution non-linéaire.

Des métaphores de la complexité

En élaborant des métaphores décrivant diverses facettes de la réalité, les sciences de la complexité cherchent à approcher une image générique peu soucieuse des détails du rendu mais qui cherche justement à contourner l'obstacle des arbres qui cachent la forêt. Car, après tout, la complexité est la forêt dont on cherche à saisir la taille, la forme, la densité dans la trame des interactions entre agents multiples, l'écheveau des liaisons, l'enchevêtrement des niveaux d'organisation, l'entrelacement des phénomènes. Les sciences de la complexité vont par conséquent commencer à utiliser dans diverses disciplines ces modèles et ces métaphores comportementales. Des transferts de modèles ou de métaphores d’un domaine à l’autre se mettent en place pour saisir l’organisation des phénomènes. Ainsi, par exemple, appliquer au monde de l’économie ou de la technologie du XXIe siècle (nouvelle économie, marchés financiers, jeunes pousses, etc.) la métaphore de l’explosion cambrienne (ce big bang zoologique survenu il y a 500 millions d'années), c’est opérer un transfert de modèle, c’est-à-dire utiliser une métaphore évolutionniste pour expliquer ce qui se passe actuellement dans le monde de la technologie ou de l’économie.

De manière générale, les métaphores sont toujours très utilisées en science. Même pour qualifier la propriété physique de « température » (qui mesure l'énergie thermique d'un corps ou d'un milieu), les scientifiques recourent à la métaphore de la hauteur (elle « monte » ou « descend ») du fait que la mesure de la chaleur s’effectue par le niveau d'élévation du mercure au sein d'un thermomètre. En modélisant la complexité, le but poursuivi n'est pas tant sa prédiction – la théorie de Darwin sur l'évolution, dépourvue de toute équation physico-mathématique, ou encore les théories géologiques et astrophysiques ne sont pas des cadres prédictifs – que de sa compréhension et son explicitation.

Les métaphores de la complexité ont en général cette propension à calquer certains phénomènes naturels. Ainsi lamétaphore des fourmis illustre la mise en pratique du « tout qui est plus que la somme des parties ». Au travers d’un certain nombre d’expériences sur les fourmis on a pu observer que l’interaction d’individus, à partir de règles comportementales extrêmement simples (de type binaire, 1/0, oui/non, on/off), génère une activité et une organisation d’échelle spectaculaires autant efficaces. Ainsi si l’on modélise le comportement d’une fourmi qui dépose sa piste chimique (phéromone) là où il y a une source de nourriture, cette simple règle entraîne une synchronisation comportementale de toute la fourmilière. L’« intelligence en essaim » que l’on retrouve par exemple chez les fourmis et les termites illustre leur capacité à induire des mouvements collectifs qui, en termes de niveau de complexité, se situent à quelques degrés des possibilités offertes aux composants de base. Cette propriété d'ensemble illustre les effets de levier de l’émergence: individuellement, les fourmis sont 'bêtes', mais collectivement elles concourent à construire des cathédrales. De cette étude d'agents simples oeuvrant à l’édification d’un ensemble complexe, la robotique s’en trouve physiquement inspirée3. De la modélisation informatique de cette métaphore d'insectes sociaux, des algorithmes dits d’optimisation combinatoire peuvent être par exemple développés pour solutionner le fameux problème du voyageur de commerce, solution qui va à son tour être utilisée à la résolution de problèmes d’acheminement de messages dans un réseau de communication. La technoscience, on le voit bien, évolue au sein d’un paysage de métaphores…

La criticalité auto-organisée, quant à elle, proposée par le physicien danois Per Bak, s'appuie sur la modélisation du tas de sable. Cette métaphore cherche à exprimer la criticalité de toute une classe de phénomènes déclencheurs d'événements en cascade – qui va des tremblements de terre aux avalanches en passant par les crues. Ces phénomènes se donnent à voir à travers un motif ou pattern particulier qui prend forme à partir d'un certain seuil d'engendrement. Ainsi le modèle théorique du tas de sable ne sert pas à comprendre la physique du sable, mais fournit un modèle de compréhension pour le type d'événements cités précédemment. Le modèle illustre un tas de sable ou de riz où à partir d'un certain seuil d'accumulation, il suffit d'un seul grain de sable ou de riz pour provoquer un changement qualitatif du tout: le tas qui adopte un comportement d'ensemble radicalement nouveau. Ce modèle est étudié pour tenter d'agir face à des catastrophes naturelles4 à propos desquelles l’horizon de prédiction autant que l’action de l’homme sont extrêmement restreints et dont, au mieux, on peut reconnaître les signes avant-coureurs ou le contexte qui les favorise.

Une autre métaphore exprimant des phénomènes de criticalité est celle de la « bordure du chaos». Elle suggère un effet de seuil, une transition de phase, c’est-à-dire un passage qualitatif d’un état à un autre. Cette situation en bordure de deux états différents, parfois même contradictoires, approche une zone fragile, mais féconde, celle où se déploie la complexité entre le trop d'ordre (mort) et le trop de désordre (bruit), entre le cristal et la fumée. La bordure du chaos signale que, dans certaines conditions, une totalité peut adopter un comportement qualitatif nouveau. La métaphore transposable à toutes sortes de phénomènes esquisse la dynamique créatrice des seuils, quand se manifeste ladanse du non-équilibre dans la matière et le vivant. Les sciences de la complexité vont donc chercher à explorer les bords, les limites, les crêtes, les arêtes, les singularités. Un exemple de ces transitions de phase est celui du trafic automobile: à l’échelle d’un ou même de plusieurs véhicules, il n’est pas possible de prédire le passage d’une phase fluide à une phase embouteillée ou d’en comprendre les paramètres : le blocage de la circulation est un effet collectif qui s’impose comme un changement qualitatif. En ce sens, on voit qu’il y a des besoins de comprendre le passage entre dimensions micro- et macroscopique et celui entre effets quantitatif et qualitatif.

Au-delà des métaphores et des phénomènes naturels dont elles s’inspirent, la complexité intervient au moment de grands bouleversements à la fois dans le monde physique et dans la société de la connaissance. Ce qui relevait naguère de considérations théologiques, philosophiques et métaphysiques est aujourd'hui traité en termes physico-mathématiques. Si ce début de XXIe siècle correspond à l’âge d’or de la complexité, c’est en raison du fait que les sciences non-linéaires sont en train de devenir les sciences du mainstream, depuis que, par exemple, les deux plus influentes revues scientifiques,Science et Nature, ont chacune consacré un éditorial évoquant les limites du réductionnisme et du déterminisme5. La biologie et en particulier la génétique sont en train de prendre un poids considérable comparable à la physique subatomique au premier tiers du siècle dernier. En allant aux plus petits éléments que sont les gènes, on a cru que le réductionnisme fonctionnerait, qu’il isolerait les gènes par fonction et par pathologie. Or très rapidement les biologistes se sont rendu compte qu’ils étaient tout juste parvenus au stade du baptême, celui de nommer les gènes mais que bien que ceux-ci soient les parties les plus élémentaires du génome, il n’était pas possible de leur assigner une fonction, une maladie données. Les gènes sont comme les lettres d’un alphabet dont il reste à deviner le lexique, la syntaxe, la grammaire. Les gènes s’expriment au sein de réseaux en interaction avec leur univers biologique et seule une modélisation de leur complexité, par exemple par la bio-informatique, peut tenter de saisir leur dynamique de fonctionnement.

Quant à ce qui touche aux problèmes de la société contemporaine, que ce soit pour l'étude de la planification urbaine, la santé publique, l'économie et les relations internationales, les sciences de la complexité nous font comprendre la nécessité de changer nos mentalités pour aborder une nouvelle manière de planifier, d'organiser, de piloter les systèmes hors de l'équilibre. Il s'agit de passer d'une perception linéaire et mécaniste des organisations à une perception dynamique plus proche des réalités biologiques et culturelles.

La complexité comme grille de lecture du monde contemporain ne prétend pas résoudre toutes les questions ardues qui se posent à la gestion des sociétés contemporaines. Plus modestement, elle contribue à comprendre les comportements d'ensemble des systèmes dynamiques et à identifier les points clé dotés de puissants effets de levier et de changement pour mieux agir et interagir. La complexité comme manière de voir postule la fin de la science du contrôle et de la manipulation et nous entraîne au début d'une nouvelle aventure de la connaissance, celle d'une science participative de ce qu'elle observe.

Réda Benkirane

Extrait de Campagne-ville: Le pas de deux. Enjeux et opportunités des recompositions territoriales. Sous la direction de Lilli Monteventi Weber, Chantal Deschenaux, Michèle Tranda-Pittion, Communauté d'études pour l'aménagement du territoire (CEAT), EPFL, Presses polytechniques et universitaires romandes, Lausanne, 352 pages, 2008.


Pour en savoir plus:

Réda Benkirane, La Complexité, vertiges et promesses. Dix-huit histoires de sciences, Paris, Le Pommier, 2002, 2006 (collection poche).

L'énigme de l'émergence. In « Sciences et Avenir », hors-série, No 143, juillet-août 2005.

La Complexité. La science du XXIe siècle. In « Pour la Science », No 314, décembre 2003.


Notes:

 

1 Une des expériences les plus exhaustives de vie artificielle est celle du projet Tierra de Tom Ray qui avant d'étudier l'évolution digitale avait été quinze années durant un biologiste tropical spécialiste des forêts du Costa Rica. Cf. Thom Ray, « J'ai joué à Dieu et créé la vie dans mon ordinateur », in « Le Temps stratégique », No 47, septembre 1992.

2 Cf. Agnessa Babloyantz, « Le cerveau de l’homme engendre du chaos », in « Le Temps stratégique », No 73, décembre 1996.

3 Cf. Jean-Louis Deneubourg, « Individuellement, les insectes sont bêtes collectivement, ils sont intelligents… », in « Le Temps stratégique », No 65, Genève, Septembre 1995.

4 Cf. Per Bak, Quand la nature s'organise. Avalanches, tremblements de terre et autres cataclysmes, Paris, Flammarion, 1999.

5 Cf. Richard Gallagher et Richard Appezeller, « Beyond Reductionism »,In « Science », vol. 284, n° 5411, 2 avril 1999, p. 79 et Karl Ziemelis, « Complex Systems », In « Nature », vol. 410, 8 mars 2001, p. 241-284.

 

Les commentaires sont fermés