Certaines recherches consistent à modéliser des processus évolutifs par ordinateur afin de mieux comprendre l’évolution. On appelle « vie artificielle » cette extension du champ de la biologie. Thomas S. Ray, qui en est un des chercheurs les plus connus, généralise le concept d’évolution en posant qu’elle est un type de processus qui ne se déroule pas seulement sur la Terre, mais qui peut aussi s’opérer dans d’autres milieux, tel le milieu du calcul numérique[1]. Il fait ainsi la différence entre une évolution naturelle et une évolution artificielle. Le hasard intervient aussi bien en faisant « muter » des chiffres de façon aléatoire, ou encore en intervertissant des segments dans le développement d’un algorithme, qu’en modifiant les génotypes d’organismes vivants par mutation ou par recombinaison. Différentes séquences d’instructions machine peuvent s’autorépliquer. Une sélection « naturelle » permet d’améliorer le code. Une compétition entre ces séquences a lieu pour l’espace mémoire de l’ordinateur et pour le temps dans l’unité centrale de traitement. On a donné le nom de « Tierra » à ce programme qui modélise l’évolution. Pour ce faire, un ordinateur virtuel a été créé qui, d’une certaine façon, modélise notre Univers[2]. Entre autres résultats intéressants, ce programme a fait émerger une sorte de sexualité.

Il y a, à la base de ce type d’expérience, ce que nous pouvons considérer comme un potentiel mathématique dont la loi d’évolution a été posée et les conditions initiales sélectionnées de façon ad hoc. Un graphe arborescent pourrait être élaboré qui en décrit tous les résultats « réellement possibles », c’est-à-dire tous les résultats qui peuvent mathématiquement être calculés à partir de l’état initial du programme. Il suffit, pour établir ce graphe, d’indiquer les différents états qui peuvent être successivement obtenus à partir de l’état initial, et puis de tracer les différents arcs correspondant à ces états.

Si nous considérons cette évolution comme étant basée sur le déterminisme en droit associé aux lois de base, les processus de type Tierra sont formellement du même type que celui de l’évolution globale de l’Univers tel que décrit par la science actuelle. Cet Univers se comporte exactement comme un logiciel qui créerait une vie artificielle. La seule différence essentielle réside dans le fait que, dans le cas de l’Univers, il s’applique en plus un principe de réduction du potentiel réel qui correspond, dans le cas de la vie artificielle, au procédé de génération de nombres posés comme aléatoires par un ordinateur réel. La loi de base n’est pas la même, mais les catégories physico-cognitives s’y retrouvent telles quelles du simple fait qu’il s’agit d’un ordinateur réel.

La puissance des lois de base combinées aux conditions initiales 

Certains chercheurs ont utilisé l’ordinateur pour simuler l’évolution d’un organe particulier. Par exemple, Daniel Nilsson et Suzanne Pelzer ont modélisé l’évolution de l’œil à partir d’une couche de pigments recouverte d’une couche protectrice transparente. Ce dispositif pouvait subir des mutations aléatoires qui faisaient varier l’indice de réfraction de la couche transparente. Ils ont imposé une contrainte ad hoc. Chacune des variations devait rester assez petite et représenter une amélioration progressive. Des résultats furent ainsi obtenus de façon rapide et concluante[3].

Ce modèle ne peut donner de résultats positifs que si le système initial a le potentiel réel de se transformer de la sorte. Il faut donc supposer que les premiers vertébrés, et aussi leurs ancêtres, y compris les plus lointains, avaient bel et bien un tel potentiel réel en eux-mêmes, c’est-à-dire un tel potentiel du fait des lois de base et des conditions initiales de l’expérience.

Nilsson et Pelzer ont fait une hypothèse implicite qu’on peut qualifier d’optimiste quant à l’existence d’un potentiel réel de formation d’un œil à partir d’une surface pigmentée[4]. Leur programme simulait en fait une évolution téléonomique dans la mesure où la probabilité de transformation de leur dispositif était appréciable, compte tenu du temps pris par la simulation. Ils ont ainsi constitué l’équivalent d’un processus de complexification. Il est évident que d’autres dispositifs initiaux n’auraient pas pu produire le même résultat et ce, même en lui faisant effectuer des variations diversifiées et en allouant une durée très longue. Il fallait bien que le dispositif initial, considéré avec son environnement (numérique), comporte un potentiel réel approprié. Cette expérience de simulation constitue la réalisation d’un développement embryonnaire au sens généralisé qui a été donné plus haut (voir section 1.3).

En outre, ce type de modèle peut être vu comme représentant un système gouverné par des lois de type physico-mathématique, c’est-à-dire aptes à engendrer un graphe des potentialités réelles. Le principe de réduction du potentiel y est également inclus du simple fait que les expérimentateurs et l’ordinateur qu’ils ont utilisé sont eux-mêmes des agents qui transmettent en quelque sorte l’effet physico-cognitif dans ce petit univers modélisé.

Pygmalion et Galatée

Pygmalion et Galatée, Étienne Maurice Falconet

Passons maintenant à un nouveau type d’expérience de pensée que nous désignerons par le nom de Pygmalion[5].Supposons qu’on programme un ordinateur ultrarapide et ultrapuissant de façon à ce qu’il développe itérativement une certaine fonction mathématique bien choisie. Supposons en outre qu’après un certain temps – quelques jours ou quelques semaines – l’ordinateur se mette à produire des phénomènes extraordinaires qu’on pourrait d’une certaine façon qualifier de « vivants » ou, même, de « pensants ». L’expérience de pensée Pygmalion consiste à imaginer un programme informatique dont le déroulement simulerait un ou plusieurs trajets particuliers dans un graphe de potentiel global, de l’origine à l’intelligence avancée.

On pourrait objecter que, si on devait un jour rapporter un résultat de la sorte, il faudrait d’abord penser qu’il s’agit d’une supercherie, d’un habile coup monté. Cependant, y aurait-il là quelque chose d’essentiellement différent de ce que les scientifiques eux-mêmes décrivent lorsqu’ils racontent comment notre Univers a commencé et comment son évolution s’est poursuivie ? Eux aussi se basent sur l’idée qu’une description fondée sur les mathématiques est susceptible de décrire exactement la réalité. L’Univers tel que compris implicitement par la science actuelle – non seulement la physique, mais également la biologie et les autres disciplines – est en droit une structure pygmalienne[6].

Rien n’empêche de reformuler l’expérience Pygmalion de façon qu’elle comporte des éléments aléatoires et différents scénarios possibles, ainsi qu’on l’a fait dans le cas du programme Tierra. On peut en interpréter les résultats numériques comme l’expression d’une possibilité « réelle » dans un espace du type mathématique approprié.

Cette expérience de pensée peut également être présentée comme celle d’une recherche purement mathématique. Il n’y a là aucune effectuation intrinsèque. Toutefois, si on supposait que cet output pouvait être incorporé à un système matériel de notre Univers, comme dans le cas de Tierra, lequel se trouve incorporé dans le logiciel d’un ordinateur réel, on pourrait lui donner vie réellement, c’est-à-dire effectivement dans notre réalité.

Par ailleurs, et de façon réciproque, si on suppose parfaitement exactes les lois de base de la physique, alors, par définition, la structure mathématique fondamentale de l’Univers, d’après la physique actuelle, constitue une véritable structure pygmalienne.

Ces structures apparaissent comme un type inédit de structures mathématiques, qui ont la propriété de se développer comme un potentiel de matière et de vie en évolution vers plus de complexité. C’est une nouvelle conception de la cosmologie, qui ne relève alors plus simplement de la cosmologie physique, mais également de la biologie et, même, des sciences cognitives. Une structure pygmalienne est un cas particulier de celle du graphe arborescent en tant que structure d’un potentiel réel.

Structure pygmalienne et intelligence artificielle 

On pourra peut-être redéfinir le problème général de l’intelligence artificielle comme se ramenant à trouver une structure d’un type voisin de celui de la structure pygmalienne, et à mettre en œuvre cette structure. Si tel devait être le cas, il n’y aurait toutefois plus guère de raison de considérer cette intelligence comme « artificielle ». Elle serait plutôt créée, en quelque sorte, naturellement par une intelligence avancée qui serait dans le prolongement de l’intelligence humaine actuelle.

Le rôle si important des mathématiques dans le comportement du monde physique apparaît sous un nouveau jour. On serait en effet confondu par les potentialités effarantes d’une telle structure mathématique, surtout en ce qui touche la vie et la conscience. Toutefois un tel constat signifierait que nous avions bien mal posé le problème. Ce qui est étonnant n’est pas qu’un sous-produit de l’esprit humain — les mathématiques — soit si fécond et si productif, mais bien plutôt que nous serions tenus de considérer ces mathématiques comme quelque chose qui ne peut tout simplement pas être sorti de l’esprit humain. Il nous faudrait plutôt les considérer comme l’expression d’une super-réalité englobante. Le problème de fond consiste précisément dans notre incapacité de bien comprendre en quoi consiste l’effectivité du vivant et, surtout, du vivant pensant.


[1] Thomas S. Ray a poursuivi ces recherches au Santa Fe Institute (Nouveau-Mexique). Murray Gell-Mann les décrit dans son ouvrage Le quark et le jaguar. Voyage au cœur du simple et du complexe (The Quark and the jaguar. Adventures in the simple and the complex, 1994; traduction de Gilles Minot), Paris, Flammarion, 1997, p. 348 et suivantes.

[2] On appelle ordinateur virtuel (virtual computer) un ordinateur dont le comportement est simulé par le fonctionnement, réel celui-là, d’un autre ordinateur.

[3] D. Nilsson et S. Pelzer, “A pessimistic Estimate of the Time Required for an Eye to Evolve”, Proceedings of the Royal Society of London, B, 1994. Nilsson et Pelzer ont supposé une héritabilité de 50%, ce qui est selon eux une hypothèse « pessimiste » parce que 70% serait plus réaliste. Cela renforce leur thèse. Ils ont calculé que le temps requis pour qu’un œil de poisson se forme ainsi est de 400 000 générations, ce qui équivaut à environ 400 000 ans. Le temps écoulé depuis aurait  donc été suffisant pour recommencer 1000 fois. Richard Dawkins, qui a décrit cette expérience dans l’un de ses ouvrages, a exprimé son étonnement devant ces résultats : « presque comme par magie, une fraction de cette substance de remplissage transparente se condensa localement en une sous-région sphérique d’indice de réfraction plus élevé[3] » (R. Dawkins, Qu’est-ce que l’évolution ? Le fleuve de la vie, op. cit., p. 97 et suivantes).

[4] En effet, même si l’hypothèse de Nilsson et Pelzer quant à l’héritabilité était, comme ils l’ont indiqué, pessimiste (voir la note précédente), il n’en demeure pas moins qu’ils ont choisi les conditions initiales de leur système de façon à ce que le résultat voulu se réalise.

[5] Pygmalion est le nom d’un roi légendaire de Chypre. D’après la mythologie, ce roi avait sculpté une statue dont il devint amoureux. Cette histoire inspira les Métamorphoses d’Ovide, poème en quinze livres écrit au tout début de l’ère chrétienne. Plus tard, George Bernard Shaw s’en inspira sur le mode ironique pour son Pygmalion (1913), puis Alan Jay Lerner et Frederick Loewe, en 1956, firent de même pour leur comédie musicale My Fair Lady.

[6] Plus précisément, cette situation découle du droit scientifique actuel tel qu’extrapolé afin d’assurer une cohérence à la recherche scientifique. Voir la section 1.2, note 6.