pas_de_buffet_gratuit_mais_une_boite_de_chocolat


Une critique du livre No Free Lunch de William Dembski

Not a Free Lunch But a Box of Chocolates - A critique of William Dembski's book No Free Lunch
(Pas de buffet gratuit mais une boite de chocolat - Une critique du livre de William Dembski No Free Lunch) \\Par Richard Wein - 2002

Lien de la page originale : http://www.talkorigins.org/design/faqs/nfl/

La vie, c'est comme une boîte de chocolat. Vous ne savez jamais ce que vous allez obtenir. Forrest Gump

Le livre No Free Lunch du Dr William Dembski a pour objectif de démontrer que le design (l'action d'un agent conscient) était impliqué dans le processus de l'évolution biologique. La critique suivante montre que ses arguments sont profondément imparfaits et ont peu à apporter à la science ou aux mathématiques. Pour répondre pleinement aux arguments de Dembski, il a fallu un article long et parfois technique. Ce résumé est donc destiné aux lecteurs qui n'ont pas le temps d'examiner tous les arguments.

Dembski a proposé une méthode d'inférence qui, dit-il, est une formulation rigoureuse de la manière dont nous reconnaissons habituellement le design. Si nous pouvons montrer qu'un événement ou un objet observé a une faible probabilité de se produire sous toutes les hypothèses (ou explications) autres que la conception que nous pouvons imaginer, Dembski nous dit d'inférer la conception. Cette méthode est purement éliminatoire - nous devons en déduire la conception lorsque nous avons rejeté toutes les autres hypothèses auxquelles nous pouvons penser - et est communément appelée un argument tiré de l'ignorance ou un dieu des lacunes.

Parce que les scientifiques et les philosophes de la science reconnaissent presque unanimement que les arguments reposant sur un dieu des lacunes sont invalides comme inférences scientifiques, Dembski s'efforce de dissimuler la nature de sa méthode. Par exemple, il insère un intermédiaire appelé complexité spécifiée: après avoir rejeté toutes les hypothèses non conceptuelles imaginables, il nous dit d'inférer que l'objet en question présente une complexité spécifiée, puis affirme que la complexité spécifiée est un indicateur fiable de la conception.

Le seul objet biologique auquel Dembski applique sa méthode est le flagelle de la bactérie E. coli. En premier lieu, il tente de montrer que l'évolution darwinienne ne pouvait donner naissance au flagelle, faisant appel à une version modifiée de l'argument de Michael Behe ​​à partir d'une complexité irréductible. Cependant, l'argument de Dembski souffre du même défaut fondamental que celui de Behe: il ne permet pas de changements dans le fonctionnement d'un système biologique au fur et à mesure de son évolution.

Comme la méthode de Dembski est supposée être basée sur la probabilité et qu'il a promis aux lecteurs de ses travaux précédents un calcul de cette probabilité, il procède au calcul pour l'origine du flagelle. Mais ce calcul est basé sur l'hypothèse que le flagelle est apparu soudainement, sous la forme d'une combinaison totalement aléatoire de protéines. Le calcul est complexe mais totalement hors de propos, car aucun biologiste de l'évolution ne propose que des systèmes biologiques complexes apparaissent de cette manière. En fait, il s'agit de la même hypothèse d'homme de paille fréquemment faite par les créationnistes dans le passé et qui a été comparée à un Boeing 747 assemblé par une tornade passant dans une décharge.

C'est tout ce qu'il y a dans l'argument principal de Dembski. Il avance ensuite un second argument dans lequel il tente de montrer que, même si des systèmes biologiques complexes ont évolué par évolution non dirigée, ils ne l’auraient pu que si un concepteur avait affiné la fonction fitness ou inséré des informations spécifiées complexes au début du processus.

L'argument de la mise au point des fonctions de fitness fait appel à un ensemble de théorèmes mathématiques appelés théorèmes “No Free Lunch” (“Pas de buffet gratuit”). Bien que ces théorèmes soient parfaitement clairs, ils n’ont pas les implications que Dembski leur attribue. En fait, ils ne s'appliquent pas du tout à l'évolution biologique. Tout cela ne laisse à l'argument de Dembski que l'affirmation selon laquelle la vie n'aurait pu évoluer que si les conditions initiales de l'Univers et de la Terre n’étaient parfaitement adaptées à cet objectif. C’est un vieil argument, généralement connu sous le nom d’argument issu du réglage cosmologique (et terrestre). Dembski n'a rien ajouté de nouveau à celui-ci. Les informations spécifiées complexes (CSI) sont un concept de la propre invention de Dembski, qui est assez différent de toute forme d’information utilisée par les théoriciens de l’information. En effet, Dembski lui-même a déjà critiqué ses détracteurs pour avoir confondu la CSI avec d'autres formes d'informations. Cette critique montre que la CSI est défini de façon équivoque et ne caractérise pas les structures complexes comme Dembski le prétend. Sur la base de ce concept imparfait, il propose avec audace une nouvelle loi sur la conservation de l'information, qui est démontrée ici comme totalement dénuée de fondement. Dembski affirme avoir apporté une contribution majeure aux domaines de la statistique, de la théorie de l'information et de la thermodynamique. Pourtant, son travail n'a été accepté par aucun expert dans ces domaines et n'a été publié dans aucune revue scientifique pertinente. No Free Lunch consiste en une série de vieux arguments antivolutionnistes fatigués: dieu des lacunes, complexité irréductible, tornade dans une casse, et réglage cosmologique. Dembski tente de donner un nouveau souffle à ces vieux arguments en les cachant sous des voiles de terminologie déroutante et de calcul mathématique inutile. Le niveau d’érudition est extrêmement bas, et le livre est mieux considéré comme une rhétorique pseudoscientifique destinée à un public non averti qui pourrait confondre le charabia mathématique de Dembski avec l’érudition académique.

Dans le théâtre de la confusion, ce qui compte, c'est de connaître l'emplacement des issues.
Mason Cooley, aphoriste américain

Le livre de William Dembski, No Free Lunch: Why Specified Complexity Cannot be Purchased without Intelligence (Pourquoi la complexité spécifiée ne peut être achetée sans intelligence) (1) : est le dernier de ses nombreux livres et articles sur la conception inférée en biologie, et jouera probablement un rôle central dans la promotion de la pseudoscience (2) de la conception intelligente dans les prochaines années. C’est l’exposé le plus complet de ses arguments à ce jour. La présente critique a pour but de fournir un examen approfondi de ces arguments. Dembski lui-même s’est souvent plaint que ses détracteurs n’aient pas pleinement retenu ses arguments. Je pense que cette plainte est injustifiée, même si je conviens que certaines critiques formulées précédemment ont été mal formulées. Cette critique devrait permettre de régler ces plaintes. Comme dans ses travaux précédents, Dembski définit mal ses propres termes, attribue de nouvelles significations aux termes existants (généralement sans préavis) et utilise nombre de ces termes de manière équivoque. Ses affirmations semblent souvent se contredire. Il introduit beaucoup de notation mathématique inutile. Ainsi, une grande partie de cet article sera consacrée à la corvée plutôt fastidieuse d’établir exactement ce que les arguments et les revendications de Dembski signifient réellement. J'ai essayé très fort de trouver des interprétations charitables, mais il en manque souvent. J'ai également demandé des éclaircissements à Dembski lui-même, mais aucun n'a été annoncé. Il y a quelque temps, j'ai posté une critique (3) du précédent livre de Dembski, The Design Inference (4), sur le forum en ligne Metaviews, auquel il contribue, soulignant les ambiguïtés fondamentales de ses arguments. Sa seule réponse fut de m'appeler “harceleur Internet” tout en refusant de traiter les questions que j'ai soulevées, au motif que “Internet est un forum peu fiable pour régler les problèmes techniques en statistique et en philosophie de la science” (5). Il a clairement lu ma critique, cependant, car il me reconnaît maintenant comme ayant contribué à son travail (p. XXIV). Certaines des ambiguïtés sur lesquelles j'avais attiré l'attention dans cette critique ont été résolues dans le présent volume, mais d'autres sont restées et de nombreuses nouvelles ont été ajoutées. Certains lecteurs peuvent ne pas aimer le ton franchement méprisant que j'ai adopté à l'égard du travail de Dembski. Les critiques de la pseudoscience de la Conception Intelligente sont confrontés à un dilemme. S'ils discutent en termes académiques polis, les propagandistes de la conception intelligente l'utilisent comme preuve que leurs arguments retiennent l'attention des érudits, suggérant que cela implique un certain mérite. Si les critiques ignorent simplement les arguments de Intelligent Design, les propagandistes insinuent que c'est parce qu'ils ne peuvent pas y répondre. Ma solution à ce dilemme consiste à réfuter de manière approfondie les arguments, tout en précisant que je le fais sans accorder aucun respect à ces arguments. Cette critique suppose une connaissance de base des mathématiques, de la théorie des probabilités et de la théorie de l'évolution du lecteur. Afin de simplifier certains de mes arguments, j'ai relégué de nombreux détails aux notes de fin, auxquelles on peut accéder par des liens numérotés. Dans certains cas, les assertions qui ne sont pas justifiées dans le corps du texte sont appuyées par des arguments dans les notes de fin. Les citations composées uniquement de numéros de page font référence à des pages de No Free Lunch. Malheureusement, certains navigateurs plus anciens ne peuvent pas afficher un certain nombre de symboles mathématiques utilisés dans cet article. Netscape 4 en fait partie.

Au printemps, quand les bois deviennent verts, je vais essayer de vous dire ce que je veux dire.
Lewis Carroll, de l'autre côté du miroir (Humpty Dumpty)

Pour un livre axé sur la conception, il est étonnant de découvrir que No Free Lunch ne définit pas clairement le terme. Le design est assimilé à un agent intelligente, mais ce terme n'est pas défini non plus. Il est également décrit négativement comme le complément de la nécessité (processus déterministes) et du hasard (processus stochastiques). Cependant, les processus déterministes et stochastiques sont généralement définis comme des compléments mutuellement exhaustifs: les processus qui ne comportent aucune incertitude et ceux qui le font. Il est donc difficile de savoir ce qui reste, le cas échéant, après l’exclusion de ces deux catégories. Dembski associe le design aux actions des animaux, des êtres humains et des divinités, mais semble nier l’étiquette aux actions des ordinateurs, quelle que soit l’innovation de leur production. Qu'est-ce qui distingue un esprit d'animal, par exemple, d'un ordinateur? De toute évidence, il existe de nombreuses différences physiques. Mais pourquoi les actions de l’un devraient-elles être considérées comme du design et non de l’autre? La seule explication à laquelle je puisse penser est que l'un est conscient et l'autre, vraisemblablement, ne l'est pas. Je conclus que, lorsqu'il infère le design, Dembski signifie qu'un esprit conscient a été impliqué.

Il semble que Dembski considère la conscience comme un type de processus très spécial, qui ne peut être attribué aux lois physiques. Il nous dit que la conception intelligente n'est pas une explication mécaniste (pp. 330-331). Dembski ne serait certainement pas seul dans cette perspective, bien que la signification d'un processus non-mécaniste ne soit pas claire. Il semble toutefois qu'un tel processus ne relève pas du domaine des causes et des effets. Cela soulève toutes sortes de questions philosophiques difficiles, que je ne tenterai pas de considérer ici. Même si nous acceptons l’existence de processus non mécanistes, Dembski ne nous donne aucune raison de penser que la conscience (ou conception intelligente) soit le seul type possible de processus non mécaniste. Pourtant, il semble supposer que tel est le cas.

Même avec cette interprétation, nous rencontrons toujours un problème. Dans son exemple de Caputo (p. 55), Dembski utilise son inférence de conception pour distinguer deux explications possibles impliquant toutes deux l’action d'un être conscient: soit Caputo a tiré les bulletins de vote équitablement, soit il a triché. Dembski considère que seule la seconde de ces alternatives comme conçue. Mais les deux explications impliquent un agent conscient. On pourrait dire que, si Caputo tire de manière juste, il ne fait que simuler l’action d’un dispositif mécaniste, alors cela ne compte pas. Mais cela poserait la question de savoir ce qu’un dispositif mécaniste est capable de faire. Un ordinateur sophistiqué n'est-il pas capable de tricher? En effet, existe-t-il une action d'un esprit humain qui ne puisse, en principe, être imitée par un ordinateur suffisamment sophistiqué? Si non, comment pouvons-nous faire la différence entre un design conscient et un ordinateur imitant un design? Même si vous doutez en principe qu'un ordinateur puisse imiter toutes les actions d'un esprit humain, demandez-vous s'il peut imiter les actions d'un rat, que Dembski considère également comme un agent intelligent capable de conception (p. 29-30).

Pour échapper à ce dilemme, Dembski invoque le concept d'intentionnalité dérivée: la sortie d'un ordinateur peut “présenter un dessein”, mais le dessein a été réalisé par le créateur de l'ordinateur et non par l'ordinateur lui-même (p. 223, 326). Chaque fois qu'un phénomène présente une conception, il doit exister un concepteur (un esprit conscient, selon mon interprétation) quelque part dans la chaîne causale des événements menant à ce phénomène.

Dembski affirme que la science contemporaine refuse le design comme mode légitime d’explication (p. 3). Mais il cite lui-même des exemples de scientifiques faisant des déductions impliquant une intervention humaine, comme celle des archéologues selon laquelle certaines pierres sont des pointes de flèches fabriquées par les premiers humains (p. 71), et il appelle cela “déductions de conception”. Affirme-t-il que de tels archéologues sont des non-conformistes opérant en dehors des limites de la science traditionnelle? Je ne pense pas. Je pense que ce que Dembski veut vraiment dire ici est que la science contemporaine ne permet pas d'explications impliquant des processus non mécanistes, et il projette sa propre conviction que le design est un processus non mécaniste dans la science contemporaine. Mais même s'il est vrai que la science n'autorise pas les explications impliquant des processus non mécanistes, elle permet certainement d'inférer l'action d'un esprit, et il n'est pas nécessaire de déterminer si les processus mentaux sont mécanistes ou non.

Une autre interprétation de l’affirmation de Dembski pourrait être que la science contemporaine refuse le design comme mode légitime d’explication pour l’origine des organismes biologiques. Si c'est ce qu'il veut dire, je rejette l’affirmation. Si nous devions découvrir les vestiges d'une ancienne civilisation extraterrestre avec des récits détaillés de la manière dont les extraterrestres ont manipulé les organismes, alors je pense que la science traditionnelle aurait peu de difficulté à accepter cela comme preuve de la conception dans des organismes biologiques.

Le mot naturel a été la source de beaucoup de confusion dans le débat sur le design intelligent. Il a deux significations distinctes: l’un est le complément de artificiel, c’est-à-dire impliquant un agent intelligent; l'autre est le complément du surnaturel. Dembski nous dit qu'il utilisera le mot dans le sens premier du terme: “… je place les causes naturelles en opposition aux causes intelligentes” (p. Xiii). Il poursuit ensuite en affirmant que la science contemporaine est liée à un principe de matérialisme méthodologique :

Selon le matérialisme méthodologique, pour expliquer tout phénomène naturel, les sciences naturelles ne sont autorisées à invoquer que des causes naturelles à l'exclusion des causes intelligentes. [p. xvi]

Mais le naturalisme méthodologique sur lequel insistent la plupart des scientifiques n'exige que le rejet d'explications surnaturelles, et non d'explications impliquant une action intelligente. En effet, nous venons de voir que la science contemporaine permet des explications impliquant des concepteurs humains et, selon moi, des êtres extraterrestres intelligents. Peut-être ce que Dembski signifie réellement, c'est que le naturalisme méthodologique rejette l'invocation d'un “concepteur non incarné” (pour utiliser son terme) (6).

Dembski introduit le terme hypothèse de hasard pour décrire les explications proposées qui reposent entièrement sur des causes naturelles. Cela inclut les processus comprenant des éléments de hasard et de nécessité (p.15), ainsi que les processus purement déterministes. Il peut sembler étrange de considérer les hypothèses purement déterministes comme des hypothèses fortuites, mais Dembski nous dit que “la nécessité peut être considérée comme un cas particulier de hasard dans lequel la distribution de probabilité qui régit la nécessité réduit toutes les probabilités à zéro ou à un” (p.71). ). Dembski définissant le design comme le complément du hasard et de la nécessité, il s'ensuit qu'une hypothèse de hasard pourrait tout aussi bien (et avec plus de clarté) être appelée une hypothèse de non-design. Et puisqu'il définit les causes naturelles comme le complément de la conception, nous pouvons également appeler les hypothèses fortuites des hypothèses naturelles. L'utilisation par Dembski de l'hypothèse de “hasard” a créé une grande confusion dans le passé, de nombreuses personnes ayant compris que cela voulait dire purement aléatoire, c'est-à-dire que tous les résultats étaient également probables. Bien que l'utilisation de Dembski ait été clarifiée dans No Free Lunch, je pense qu'elle peut encore être confuse. Par souci de cohérence avec le travail de Dembski, j'utiliserai généralement le terme hypothèse de hasard, mais je vais passer au synonyme hypothèse de naturelle ou à hypothèse de non-conception lorsque je pense que cela augmentera la clarté.

Ignorance, madame, pure ignorance.
Samuel Johnson (lorsqu'on lui a demandé comment il en était arrivé à définir un mot de manière incorrecte dans son dictionnaire)

Dans le chapitre 2 de No Free Lunch, Dembski décrit une méthode de déduction de la conception basée sur ce qu'il appelle l'argument d'élimination générique de la chance (Generic Chance Elimination Argument). Je me référerai à cette méthode comme la méthode de l’ élimination du hasard. Cette méthode suppose que nous avons observé un événement et souhaite déterminer si une conception a été impliquée dans cet événement. La méthode d'élimination du hasard est éliminatoire - elle repose sur le rejet des hypothèses du hasard. Dembski propose deux méthodes pour éliminer les hypothèses hasard: une méthode statistique pour éliminer les hypothèses hasard individuelles et les généralisations proscriptives pour éliminer des catégories entières d'hypothèses aléatoires.

3.1 Méthode statistique de Dembski

L’intuition fondamentale de la méthode statistique de Dembski est la suivante: nous avons observé un événement particulier (résultat) E et souhaitons vérifier si une hypothèse donnée du hasard H fournit une explication raisonnable de ce résultat (7). Nous sélectionnons une zone de rejet appropriée (un ensemble de résultats potentiels) R, où E est dans R, et calculons la probabilité d’observer un résultat dans cette zone de rejet étant donné que H est vrai, c’est-à-dire P (R/H). Si P (R/H) <α, où α est une probabilité appropriée liée, nous considérons qu’il est invraisemblable qu’un événement d’une probabilité aussi faible ait pu se produire. Nous rejetons donc l’hypothèse fortuite H qui a donné lieu à cette probabilité faible.

Il est important de noter que nous devons combiner les probabilités de tous les résultats dans une zone de rejet appropriée et ne pas simplement prendre la probabilité du résultat particulier observé, car les résultats peuvent individuellement avoir de petites probabilités sans que leur occurrence ne soit significative. Une zone de rejet qui est appropriée pour être utilisée de cette manière est dite détachable du résultat observé, et une description d'une zone de rejet détachable est appelée une spécification (bien que Dembski utilise souvent les termes zone de rejet et spécification de manière interchangeable).

Prenons l'exemple préféré de Dembski, l'affaire Caputo (p. 55-58). Un homme politique démocrate, Nicholas Caputo, était responsable de procéder à un tirage au sort pour déterminer l'ordre dans lequel les deux partis (démocrate et républicain) seraient inscrits sur des bulletins de vote. Occuper la première place sur le bulletin de vote était connu pour conférer un avantage au parti lors des élections, et il a été observé que Caputo avait tiré au sort un démocrate pour occuper cette position privilégiée. En 1985, Caputo aurait délibérément manipulé les tirages au sort pour donner à son propre parti un avantage indu. Le tribunal qui a examiné l'allégation contre Caputo a noté que la probabilité de choisir son propre parti 40 fois sur 41 était inférieure à 1 sur 50 milliards, et a conclu que “confrontés à ces probabilités, peu de gens rationnels accepteraient l'explication du simple hasard”. . “ (8) En effectuant sa propre analyse de cet événement, Dembski arrive avec la même probabilité que le tribunal et explique le raisonnement qui sous-tend sa conclusion. L’hypothèse hasard H, qui est selon lui, que Caputo a procédé au tirage au sort équitablement, chaque parti (D et R) ayant une probabilité sur deux d'être sélectionnée à la première place.

Supposons que nous ayons observé une séquence typique de 41 tirages, comme suit:

DRRDRDRRDDDRDRDDRDRRDRRDRRRDRRRDRDDDRDRDD

La probabilité que cette séquence précise se produise, H, est extrêmement petite: (1/2)41= 4,55 × 10-13. Cependant, à moins que cette séquence particulière ait été prédite à l'avance, nous ne considérerions pas le résultat comme exceptionnel, malgré sa faible probabilité, car il était très probable qu'une telle séquence d'aspect aléatoire se produirait. La séquence historique, d’autre part, ne contenait qu’un seul R et ressemblait donc à ceci:

DDDDDDDDDDDDDDDDDDDDDDRDDDDDDDDDDDDDDDDDD

La deuxième séquence (appelez-la E) a exactement la même probabilité que la première, c'est-à-dire P (E | H) = 4,55 × 10-13, mais cette fois nous la considérerions comme exceptionnelle, car la probabilité d'observer autant de D est extrêmement petit. Tout résultat montrant autant de D que celui-ci (40 D ou plus sur 41 tirages au sort) serait considéré au moins comme exceptionnel. La probabilité qui nous intéresse est donc la probabilité d'observer 40 D ou plus. “40 D ou plus” est donc notre spécification, et il se trouve qu'il y a 42 séquences différentes correspondant à cette spécification, donc P (R | H) = 42 × P (E | H) = 1,91 × 10-11 ou environ 1 sur 50 milliards. En d'autres termes, la probabilité qui nous intéresse ici n'est pas la probabilité de la séquence exacte observée, mais la probabilité d'observer un résultat correspondant à la spécification. Si nous décidons que cette probabilité est suffisamment petite, nous rejetons *H*, c’est-à-dire que nous déduisons que les tirages de Caputo n’étaient pas équitables. A partir de maintenant, j'utiliserai l'expression “petite probabilité” pour signifier “probabilité inférieure à une probabilité appropriée”.

Pour appliquer la méthode de Dembski, nous devons savoir comment sélectionner une spécification appropriée et une limite de probabilité. Dembski expose en détail un ensemble de règles pour la sélection de ces paramètres, mais elles peuvent être résumées comme suit:

* Une spécification appropriée est simplement une spécification qui peut être dérivée (dans un sens vague) des connaissances de base qui nous étaient disponibles avant d’observer l’événement en question. Par exemple, lorsque Dembski applique sa méthode au flagellum bactérien - son seul exemple biologique -, il ne se donne pas la peine d’utiliser les règles techniques qu’il a précédemment développées, ni même d’énoncer explicitement la spécification. En lisant entre les lignes, sa spécification semble être “tout ce qui a la fonction d’un moteur rotatif hors-bord”, et la seule justification qu’il donne à cette spécification est la déclaration selon laquelle “les humains ont mis au point des moteurs rotatifs hors-bord bien avant de comprendre que le flagelle était une telle machine ” (p. 289).

* Dembski fait la distinction entre des limites de probabilité locales et universelles. Un lien de probabilité locale est celui qui est calculée aux fins d'un test statistique particulier (9). La procédure de calcul d'une telle limite est difficile et hautement arbitraire (p. 83), de sorte que Dembski a généralement recours à sa limite de probabilité universelle. C’est un très petit nombre, 10-150 (c’est-à-dire 1 sur 10150), qui, selon Dembski, est la plus petite probabilité limite dont nous ayons besoin, et que nous pouvons toujours utiliser en l’absence d’une limite de probabilité locale appropriée. Il la calcule en multipliant le nombre de particules élémentaires dans l'univers, le nombre maximal possible de transitions de particules élémentaires (l'inverse du temps de Planck) par seconde, et le nombre de secondes sur un milliard de fois l'âge actuel de l'univers, jusqu'à donnez un chiffre qui, fait-il valoir, est le nombre maximal de ressources probabilistes que nous devons prendre en compte (p. 22):

1080 × 1045 × 1025 = 10150

Bien que je pense que la méthode statistique de Dembski est sérieusement imparfaite, la question n’est pas importante pour réfuter l’inférence de conception de Dembski. Pour le reste du corps de cette critique, je vais donc supposer, pour des raisons de thèse, que la méthode est valide. Une discussion sur les défauts sera laissée à une annexe. Il convient toutefois de noter que cette méthode n'a été publiée dans aucun journal professionnel de statistiques et ne semble avoir été reconnue par aucun autre statisticien.

3.2 Généralisations proscriptives

Dembski soutient qu'il est possible d'éliminer des catégories entières d'hypothèses aléatoires au moyen de généralisations proscriptives. Par exemple, il mentionne la deuxième loi de la thermodynamique, qui interdit la possibilité d'une machine à mouvement perpétuel. Il décrit la logique de telles généralisations en termes d'invariants mathématiques (p. 274), bien que cela n'ajoute absolument rien à son argument. J'accepte que des généralisations proscriptives puissent parfois être faites, et Dembski est invité à les utiliser pour éliminer des catégories spécifiques d'hypothèses de hasard. Mais il n'y a pas de généralisation proscriptive qui puisse exclure toutes les hypothèses de hasard. De plus, sa prétention d'avoir trouvé une généralisation proscriptive contre l'évolution darwinienne de systèmes irréductiblement complexes est sans fondement (voir 4.2 ci-dessous).

3.3 L'argument d'ignorance

La conclusion de l'argument d'élimination du hasard générique (étape 8) est énoncée par Dembski comme suit:

S [le sujet qui fait l'inférence] est fondé sur la déduction que E [le résultat observé] ne s'est produit selon aucune des hypothèses aléatoires de {Hi}i in I et que, par conséquent, E présente une complexité spécifiée. [p. 73]

{Hi} est l'ensemble de toutes les hypothèses de chance que nous pensons “aurait pu fonctionner pour produire E” (p.72). Dembski écrit aussi:

Mais que se passe-t-il une fois trouvé un mécanisme causal tenant compte d'une instance donnée d'une complexité spécifiée? Quelque chose de spécifique et de complexe est hautement improbable pour tous les mécanismes causaux actuellement connus. Par conséquent, si un mécanisme causal se présente et explique quelque chose qui était considéré auparavant comme spécifié et complexe, cela signifie que l'élément en question n'est en fait plus spécifié et complexe par rapport au mécanisme causal récemment découvert. [p. 330]

Ainsi, lorsque nous avons éliminé toutes les hypothèses de chance auxquelles nous pouvons penser, nous en déduisons que l'événement était hautement improbable en ce qui concerne tous les mécanismes causaux connus, et nous appelons cela complexité spécifiée. Plus tard, Dembski nous dit qu'une inférence de complexité spécifiée devrait inévitablement conduire à une inférence de conception. Cela étant, il n’est pas clair que la notion de complexité spécifiée soit utile à cet égard. Pourquoi ne pas couper l'intermédiaire et passer directement de l'argument générique d'élimination du hasard à la conception? Malheureusement, l’introduction de cet intermédiaire sert à créer une confusion considérable, car Dembski use de faux-semblants entre ce sens de complexité spécifiée et le sens attribué à sa méthode d’inférence à probabilité uniforme (que je vais expliquer dans la section 6). Pour dissiper cette confusion, je ferai référence à ce sens d'intermédiaire comme complexité spécifiée éliminative et à l'autre sens, à une complexité spécifiée à probabilité uniforme. Notez que la complexité spécifiée de Dembski n'est pas une quantité: un événement présente simplement la complexité spécifiée ou ne le fait pas.

Ainsi, nous voyons que la méthode de la chance-élimination est purement éliminative. Il nous dit de déduire la conception lorsque nous avons éliminé toutes les hypothèses aléatoires (c’est-à-dire non conçues) que nous pouvons imaginer. L'hypothèse de conception ne dit absolument rien sur l'identité, la nature, les objectifs, les capacités ou les méthodes du concepteur. En fait, cela signifie simplement “qu'un designer l'a fait” (10).

Ce type d'argument est communément appelé argument de l'ignorance ou de l'argument dieu-bouche-trou. Pour éviter tout malentendu, permettez-moi de préciser que l'accusation d'argumentation fondée sur l'ignorance n'est pas une affirmation selon laquelle les auteurs de l'argument ignorent les faits, ou même qu'ils n'utilisent pas les faits disponibles. Les partisans d'un argument d'ignorance demandent que leur explication soit acceptée simplement parce que la communauté scientifique ignore (au moins partiellement) comment un événement s'est produit, plutôt que parce que leur propre explication s'est révélée bonne. Notez qu'un argument de l'ignorance scientifique diffère de la déduction fallacieuse de l'argument de l'ignorance. L'erreur fallacieuse prend la forme suivante: “Ma proposition n'a pas été prouvée fausse, elle est donc vraie.” L'argument scientifique de l'ignorance n'est pas une erreur déductive, car les inférences scientifiques ne sont pas des arguments déductifs. Un argument de dieu-bouche-trou est un argument d'ignorance dans lequel l'hypothèse par défaut, à accepter si aucune hypothèse alternative n'est disponible, est “Dieu l'a fait”. Puisque Dembski nous dit que son critère n'inférerait que l'action d'un concepteur inconnu, et pas nécessairement divin, le terme concepteur des lacunes serait peut-être plus approprié ici, mais je pense qu'il est raisonnable d'utiliser le terme plus familier, puisque les arguments suivent le même schéma éliminatoire et que Dembski a bien précisé que le concepteur qu’il a en tête est le dieu chrétien. L'argument du dieu des lacunes ne doit pas être confondu avec une théologie du dieu des lacunes. Cette derniere propose que les actions de Dieu soient limitées aux domaines pour lesquels nous manquons de connaissances, mais ne propose pas cela comme argument pour l'existence de Dieu.

Dembski ne plaide pas pour l'attribution d'un statut aussi privilégié à l'hypothèse de conception. Pourquoi devrions-nous préférer “un concepteur inconnu l'a fait” à “des causes naturelles inconnues l'ont fait” ou même “nous ne savons pas ce qu'il a fait”? De plus, comme nous le verrons, il nous dit d’accepter la conception par élimination, même lorsque nous avons quelques idées pour expliquer comment des causes naturelles auraient pu le faire.

3.4 Réponses de Dembski à l'accusation d'argumentation fondée sur l'ignorance

Comme les scientifiques et les philosophes de la science rejettent presque universellement les arguments de l'ignorance, Dembski est sensible à l'accusation, mais ses tentatives pour éviter de faire face à l'évidence ne sont que des évasions.

En réponse à cette critique, notons d’abord que, même si la complexité spécifiée est établie au moyen d’un argument éliminatoire, il n’est pas juste de dire qu’elle s’établit au moyen d’un argument purement éliminatoire. Si l’argument était purement éliminatoire, il serait justifié de dire que le passage de la complexité spécifiée à une intelligence de conception est un argument tiré de l’ignorance (c’est-à-dire pas X donc Y). Mais contrairement à l'approche de Fisher en matière de test d'hypothèses, dans laquelle les hypothèses de hasard individuelles sont éliminées sans référence à l'ensemble des hypothèses aléatoires pertinentes susceptibles d'expliquer un phénomène, la complexité spécifiée suppose que l'ensemble complet des hypothèses aléatoires pertinentes ait d'abord été identifié. Cela prend en compte une base de connaissances considérables. De plus, il faut beaucoup de connaissances de base pour trouver le bon modèle (c.-à-d. la spécification) pour éliminer toutes ces hypothèses de hasard et donc pour en déduire la conception. [p. 111]

Dembski interprète mal l'accusation d'argumentation par ignorance. Ce n’est pas une question de savoir combien de connaissances nous avons utilisées. Les connaissances scientifiques sont toujours incomplètes. La méthode d'élimination du hasard est purement éliminatoire, car elle n'essaie pas de considérer le bien-fondé de l'hypothèse de conception, mais repose simplement sur l'élimination des alternatives disponibles.

Les inférences de conception qui déduisent la conception en identifiant la complexité spécifiée ne sont donc pas purement éliminatoires. Ils ne font pas qu'exclure, mais ils excluent d'un ensemble exhaustif dans lequel le design est tout ce qui reste une fois que l'inférence a fonctionné (ce qui ne veut pas dire que l'ensemble est logiquement exhaustif; il s'agit plutôt d'une liste exhaustive par rapport à l’état de l'enquête en question - c’est tout ce que nous pouvons jamais faire en science). Les déductions de conception, en identifiant la complexité spécifiée, excluent tout ce qui pourrait à son tour exclure la conception. [p. 111]

L'expression “exhaustive en ce qui concerne l'enquête en question” de Dembski est le type de circonlocution dans lequel il excelle. Cela signifie simplement que l'ensemble est aussi exhaustif que possible. En d’autres termes, c’est une façon élégante de dire que nous avons éliminé toutes les hypothèses de chance auxquelles nous pouvions penser.

Les déductions de conception éliminent donc le hasard dans le sens global, en fermant la porte à toutes les explications de hasard pertinentes. Certes, cela ne peut être fait avec une finalité absolue car il est toujours possible qu'une distribution de probabilité cruciale ait été omise. Néanmoins, le sceptique en matière de conception ne se limite pas à remarquer que le fait d'ajouter une nouvelle explication de hasard au mélange peut bouleverser l'inférence de conception. Au lieu de cela, le sceptique doit proposer explicitement une nouvelle explication de hasard et plaider pour sa pertinence par rapport au cas d'espèce. [pp. 67-68]

Ceci est un argument clair par ignorance. À moins que les sceptiques du design ne puissent proposer une explication naturelle explicite, nous devrions en déduire la conception, nous dit Dembski.

Pour quelque événement que ce soit, il existe une distribution de probabilité qui concentre toute probabilité sur cet événement et lui attribue ainsi une probabilité de un. Par conséquent, cela n’a aucun sens de critiquer ma généralisation de l’approche de Fisher en matière de test d’hypothèses pour ne pas avoir tenu compte de toutes les hypothèses fortuites possibles. [p. 70]

On ne reproche pas à Dembski d’avoir omis d’éliminer toutes les hypothèses fortuites, mais bien d’avoir adopté une méthode purement éliminatoire.

Les archéologues déduisent que certains morceaux de roche sont des pointes de flèches. Les détectives déduisent que certains décès ont été délibérés. Les cryptographes en déduisent que certaines chaînes de symboles d'aspect aléatoire sont en réalité des messages chiffrés. Dans tous les cas, ils peuvent se tromper et des connaissances supplémentaires pourraient révéler une hypothèse fortuite et plausible derrière ce qui semblait à l'origine avoir été conçu. Mais de telles possibilités en elles-mêmes ne font rien pour renverser notre confiance dans les inférences de conception. [p. 71]

Oui, ces inférences de conception sont faillibles, de même que toutes les inférences scientifiques. Ce n'est pas le problème. La différence est que ces inférences ne sont pas purement éliminatoires. Les experts en question ont à l’esprit un type particulier de concepteurs intelligents (êtres humains) dont ils connaissent grandement les capacités et les motivations. Ils peuvent donc comparer les avantages d'une telle explication avec ceux d'autres explications.

Si Dembski souhaite défendre des arguments dieu-bouche-trou en tant que mode légitime d'inférence scientifique, il est encouragé à essayer. Ce qui est moins bien accueilli, ce sont ses tentatives de déguiser sa méthode en quelque chose de plus acceptable.

3.5 Inférences comparatives et éliminatoires

Dembski tente notamment de défendre sa méthode en suggérant qu’il n’y a pas d’alternative viable. L'alternative évidente consiste toutefois à examiner toutes les hypothèses disponibles, y compris les hypothèses de conception, sur le fond, puis à sélectionner les meilleures. C'est la position adoptée par presque tous les philosophes de la science, bien qu'ils soient en désaccord sur la manière d'évaluer le bien-fondé des hypothèses. Il ne semble pas y avoir de raison de traiter les inférences impliquant des agents intelligents différemment des autres inférences scientifiques.

Dembski s'oppose assez longuement à la légitimité des approches comparatives de l'inférence (pp. 101-110, 121n59). Je n'aborderai pas les détails de l'approche par la vraisemblance, sur laquelle il concentre son tir. Je laisse cela à ses partisans. Cependant, son rejet des inférences comparatives est clairement intenable. Lorsque nous disposons de deux hypothèses plausibles ou plus, qu’il s’agisse d’agents intelligents ou non, nous devons utiliser une méthode comparative pour les départager.

Prenons, par exemple, le cas des archéologues qui font des inférences sur le fait que les silex sont des pointes de flèches fabriquées par les premiers hommes ou bien des morceaux de roche naturels. Prenons un cas limite, dans lequel un groupe d'archéologues est divisé sur le fait de savoir si un silex donné, pris sur un site habité par des humains primitifs, est une pointe de flèche. Supposons maintenant qu’au même panel, on ait présenté le même silex, mais que celui-ci provenait d'un endroit qui n'a jamais été habité par des humains utilisant du silex, disons l'Antarctique. Les archéologues seraient maintenant beaucoup plus enclins à douter que le silex soit fabriqué par l'homme et plus enclins à l'attribuer à des causes naturelles. Une plus petite proportion (peut-être même aucune) n’inférerait maintenant la conception. L'inférence de conception, donc, était clairement influencée par des facteurs affectant la plausibilité de l'hypothèse de conception: si l'on savait ou non que des humains utilisant du silex vivaient dans la région. L'inférence ne repose pas uniquement sur l'élimination des hypothèses naturelles.

Mon intention n’est pas de plaider en faveur d’une méthode particulière de comparaison d’hypothèses. Les philosophes des sciences ont proposé un certain nombre d'approches comparatives, associant généralement les critères suivants :

  • Vraisemblance. La probabilité que la preuve se produise compte tenu de l'hypothèse en question.
  • Plausibilité ou probabilité préalable. Notre degré de confiance dans l'hypothèse avant d'observer la preuve ou si nous ne l'avions pas observée.
  • Pouvoir prédictif. La mesure dans laquelle l'hypothèse détermine quelles observations potentielles sont possibles (ou probables) et lesquelles sont impossibles (ou improbables).
  • Opposabilité. La mesure dans laquelle l'hypothèse “risque” d'être contredite par de nouvelles preuves.
  • Parcimonie. La mesure dans laquelle l'hypothèse observe le principe du rasoir d'Occam: “Ne multipliez pas les entités inutilement.” (11)

Parmi les autres critères souvent cités figurent le pouvoir explicatif, les antécédents, la portée, la cohérence et l’élégance.

En opposant des méthodes comparatives, Dembski soutient que les hypothèses peuvent être éliminées isolément sans qu'il y ait nécessairement un concurrent supérieur. Sur le plan pratique, je suis d’accord, bien que je soupçonne que nous n’éliminerions une hypothèse que si nous avions bien à l’esprit l’existence une possibilité plausible d’une meilleure explication. Je ne nie pas que nous puissions éliminer une hypothèse sans en avoir une meilleure à l’esprit; Je nie que nous puissions accepter une hypothèse sans en avoir examiné les mérites, comme Dembski nous demande de faire dans le cas de son hypothèse de conception. Si toutes les hypothèses disponibles ont des résultats trop mauvais selon nos critères, il peut être préférable de toutes les rejeter et de simplement dire “nous ne savons pas”.

3.6 Fiabilité et contre-exemples

Dembski soutient, sur la base d'une inférence inductive, que la méthode d'élimination du hasard est fiable:

Premièrement (section 1.6), j’ai présenté un argument inductif montrant que, dans tous les cas où nous connaissions l’histoire causale et où la complexité spécifiée était en jeu, une intelligence était également impliquée. La généralisation inductive qui suit est que tous les cas de complexité spécifiée impliquent l'intelligence. [p. 110]

Laissant de côté la question de savoir si une telle induction serait justifiée si son principe était vrai, considérons simplement si le principe est vrai ou non. Contrairement à l’affirmation de Dembski, sa section 1.6 n’indique rien de la sorte. En fait, les seuls cas où nous savons que la méthode de Dembski a été utilisée pour déduire la conception sont les deux exemples que Dembski lui-même décrit: le cas Caputo et le flagelle bactérien. Et dans aucun de ces cas, la conception n'a été établie de manière indépendante.

Dembski veut nous faire croire que sa méthode d'inférence est fondamentalement la même que celle utilisée dans nos inférences quotidiennes et scientifiques de la conception. J'ai déjà fait valoir que cela est faux. Mais même si nous supposons, pour les besoins de l’argumentation, que nos déductions de conception typiques reposent bien sur le type d’approche purement éliminatoire proposée par Dembski, il n’est pas difficile de trouver des contre-exemples dans lesquels la conception a été inférée à tort en raison de l’ignorance de la vraie cause naturelle:

  • Les anneaux de fée. Ce sont des cernes de champignons causés par un champignon qui se propage dans l'herbe à un rythme uniforme à partir d'un point de départ donné. Les champignons se manifestent sur le bord extérieur du cercle affecté. Avant que la cause ne soit connue, ces anneaux étaient souvent attribuées à des concepteurs intelligents (“fées”). Si nous prenons l'hypothèse du hasard selon laquelle les champignons étaient situés au hasard dans un pré (avec une distribution de probabilité uniforme), la probabilité qu'ils forment un cercle net est suffisamment faible pour justifier le rejet de cette hypothèse (en utilisant une limite de probabilité locale appropriée ou sinon la limite de probabilité universelle) (12). En utilisant la méthode d'élimination aléatoire de Dembski, la complexité spécifiée (et donc la conception) aurait été déduite à tort.

* Les Cratères de la lune. En observant les principaux cratères de la Lune, Johannes Kepler a conclu qu'ils étaient trop circulaires pour avoir eu lieu par hasard et qu'ils ont donc dû être créés par les habitants de la Lune. Si nous prenons l'hypothèse du hasard selon laquelle les cratères sont formés de nombreuses collines individuelles et que ces collines sont réparties de manière aléatoire sur la surface de la Lune, la probabilité qu'elles forment de si bons cercles est clairement suffisamment faible pour rejeter cette hypothèse. En utilisant la méthode d'élimination aléatoire de Dembski, la complexité spécifiée (et donc la conception) aurait été déduite, mais nous savons maintenant que ces cratères ont une explication naturelle: les impacts dus à la chute d'objets. Je suis redevable de cet exemple à Dembski lui-même, qui le décrit (13) mais ne remarque pas qu'il fournit un contre-exemple à son argumentation.

Peut-être que Dembski objecterait que son affirmation (“dans tous les cas où nous connaissons l’histoire causale et où une complexité spécifiée était en jeu, une intelligence était également impliquée”) faisait uniquement référence à des cas où nous observons une complexité spécifiée aujourd’hui. Mais, par définition, ce sont des cas où nous n’avons pas d’explication naturelle plausible. Si nous en avions une, nous ne déduirions pas la complexité spécifiée. Si nous connaissons l’histoire causale et que ce n’est pas une cause naturelle, c’est sans doute la conception. Donc, si tel est le sens de Dembski, sa prétention est une tautologie. Il dit que, chaque fois que la cause est connue pour être le design, la cause est le design! Vous ne pouvez pas faire d'inférence inductive à partir d'une tautologie.

Cela ne servirait à rien à Dembski de prétendre qu'il s'agit de modèles de conception dérivés (voir 6.1 ci-dessous), par ex. que les champignons et le système solaire ont été conçus à l'origine. La méthode d'élimination du hasard permet de déduire la conception de l'événement particulier qui aurait une faible probabilité de se produire sous des causes naturelles. Par exemple, dans le cas du flagellum, Dembski prétend que le design était impliqué dans l'origine du flagellum lui-même, et pas simplement indirectement, en termes de conception de la Terre ou de l'Univers.

3.7 Le filtre explicatif

La méthode d'élimination du hasard est initialement présentée sous une forme simplifiée appelée filtre explicatif ( Explanatory Filter). Le critère permettant au filtre de reconnaître la conception est appelé critère de complexité spécifique. Malheureusement, l'utilisation de ce terme simplifié a provoqué une grande confusion dans le passé, car il présente deux caractéristiques fallacieuse :

  • La description du filtre explicatif ne mentionne guère le concept d'hypothèses de hasard, et implique qu'il ne faut considérer qu'une distribution de probabilité. L'organigramme du filtre (p. 13) devrait contenir une boucle à exécuter pour chaque hypothèse de hasard. De nombreux lecteurs des travaux antérieurs de Dembski ont été amenés à la conclusion erronée qu'il fallait seulement calculer la probabilité en fonction d'une distribution de probabilité uniforme.
  • Le filtre explicatif a des nœuds distincts pour la complexité (que Dembski utilise ici comme synonyme d'improbabilité) suivis d'une spécification, comme s'il s'agissait de deux critères distincts. Mais, comme nous l'avons vu ci-dessus, nous ne pouvons calculer la probabilité qu'après avoir formulé une spécification. Dans le passé, de nombreux lecteurs de Dembski ont interprété le filtre de manière erronée comme suit: notez que le résultat observé est spécifié (dans un certain sens), puis calculez la probabilité de ce résultat unique (alors qu'ils auraient dû calculer la probabilité d'une zone de rejet complète). .

Bien que Dembski ait tenté de clarifier la situation dans No Free Lunch, son utilisation continue du filtre explicatif dans sa forme hautement fallacieuse est inexplicable. Et la confusion ne se limite pas au filtre explicatif lui-même. Cela se produit ailleurs aussi, dans des déclarations comme celle-ci:

Déterminer si un système irréductiblement complexe présente une complexité spécifiée implique deux choses: montrer que le système est spécifié et calculer sa probabilité … [p. 289]

Il utilise les statistiques comme un homme ivre utilise des lampadaires - pour se soutenir plutôt que pour s'éclairer.
Andrew Lang (1844-1912), poète et romancier

4.1 Une tornade dans une décharge

Cela fait plusieurs années que Dembski prétend avoir détecté pour la première fois le design en biologie en appliquant sa méthode d'inférence. Cependant, jusqu'à la publication de No Free Lunch, il n'avait jamais fourni ni cité les détails d'une telle application. Les critiques étaient donc impatients de voir le calcul de probabilité promis depuis longtemps qui corroborerait cette affirmation. Pour ma part, je ne m'attendais pas à un calcul convaincant, mais j'ai quand même été étonné de découvrir que Dembski ne nous avait offert qu'une variante de la vieille “tornade dans une décharge” créationniste (14), à savoir la probabilité qu'une structure biologique se produise par combinaison purement aléatoire de composants.

La seule structure biologique à laquelle Dembski applique sa méthode est le flagelle de la bactérie E. coli. Comme sa méthode l’oblige à commencer par déterminer l’ensemble {Hi} des hypothèses de hasard qui “auraient pu fonctionner pour produire E [le résultat observé]” (p. 72), on pourrait s’attendre à une identification explicite de l’hypothèse de hasard à l’étude. Dembski ne fournit pas une telle identification explicite, et le lecteur est autorisé à la déduire des détails du calcul. La raison pour laquelle Dembski n’a pas pu identifier son hypothèse de hasard est peut-être que, quand elle est clairement exposée, c’est un homme de paille évident. Aucun biologiste ne suggère que le flagelle ne soit apparu par une combinaison purement aléatoire de protéines - ils pensent qu'il a évolué par sélection naturelle - et tous s'accorderaient pour dire que la probabilité d'apparition par combinaison aléatoire est si minuscule que ce n'est pas une explication scientifique satisfaisante. Par conséquent, fournir à Dembski un calcul de probabilité fondé sur ce scénario absurde est une perte de temps. Il n'est pas nécessaire de déterminer si le calcul de Dembski est correct, car il n'a aucun rapport avec le problème. Néanmoins, Dembski ne déclarant pas clairement qu'il a fondé son calcul sur une hypothèse de combinaison purement aléatoire, je décrirai brièvement le calcul afin de démontrer que tel est le cas.

Dembski nous dit de multiplier trois probabilités partielles pour arriver à la probabilité d'un “objet combinatoire discret”:

pdco= porig× plocal× pconfig

* plocal est la probabilité qu'une collection appropriée de protéines soit extraite d'un ensemble de protéines existantes, qui inclue celles requises. Dembski suppose que les protéines sont tirées au hasard parmi les 4289 protéines codées par l'ADN de E. coli, qu'il faut 5 copies de chacune des 50 protéines différentes (pour un total de 250 protéines), et qu'il existe dans chaque cas 10 protéines qui seraient acceptables (c’est-à-dire qu’il existe 9 substituts possibles à la protéine réelle. En fait, nous devons tirer 250 tirages et à chaque tirage, nous avons une probabilité de 500/4289 de choisir une protéine utile, ce qui donne une probabilité globale de (500/4289)250.

* pconfig est la probabilité pour que, avec la bonne collection de protéines, celles-ci forment un flagelle viable si elles sont disposées au hasard. Dembski vise à tirer d'une distribution de probabilité uniforme à partir de toutes les manières possibles de disposer les protéines sélectionnées:

À proprement parler, la probabilité de configuration pour un objet combinatoire discret présentant une fonction donnée est le rapport entre toutes les manières d’arranger ses blocs de construction qui préservent la fonction divisée par toutes les manières possibles d’organiser les blocs de construction. [pp. 294-295]

Comme il ne peut pas calculer cela directement, il utilise une approximation qu'il appelle une probabilité de perturbation. Nous n'avons pas besoin de nous préoccuper des détails.

  • porig est la probabilité que toutes les protéines individuelles se forment par combinaison aléatoire d'acides aminés et est à nouveau basée sur une probabilité de perturbation.

Chacune de ces probabilités est individuellement inférieure à la probabilité universelle de Dembski, il n’a donc pas même pas à les multiplier.

Soit dit en passant, Dembski a tort de choisir de calculer une probabilité de formation pour le flagelle lui-même. Il aurait dû envisager la formation de l'ADN à coder pour un flagelle. Si un flagelle apparaît sans être coder dans l'ADN, il ne serait pas hérité par la prochaine génération de bactéries et serait donc perdu.

4.2 Complexité irréductible

Pour justifier son incapacité à calculer la probabilité du flagelle résultant de l'évolution darwinienne, Dembski invoque la notion de complexité irréductible qui, selon lui, fournit une généralisation proscriptive contre l'évolution darwinienne du flagelle. La complexité irréductible a été introduite dans l'argument de la conception intelligente par le biochimiste Michael Behe. Le sujet a été traité en détail ailleurs, donc je ne répéterai pas toutes les objections (15). Cependant, je voudrais attirer l'attention sur un point que certains lecteurs de Behe ​​ont négligé. Behe a divisé les voies darwiniennes potentielles pour l'évolution d'un système irréductiblement complexe (ci-après dénommé IC) en deux catégories: directe et indirecte(16). Les voies directes sont celles dans lesquelles un système évolue uniquement par l'ajout de plusieurs nouvelles parties qui ne présentent aucun avantage pour le système jusqu'à ce que toutes soient en place. Toutes les autres voies potentielles sont dites indirectes. Behe soutient ensuite que les systèmes IC ne peuvent pas évoluer via des voies directes. Mais ses voies directes excluent deux éléments essentiels du processus évolutif: (a) l’évolution des différentes parties d’un système; et b) le changement de la fonction d'un système au fil du temps, de sorte que, même si une partie donnée n'a rien apporté à la fonction actuelle du système jusqu'à ce que les autres parties soient en place, il est fort possible qu'il ait contribué à une fonction antérieure. En ce qui concerne les voies indirectes, Behe ​​n’a rien de plus qu’un argument d’ignorance: personne n’a donné de compte rendu détaillé de cette voie. La vérité de cette affirmation a été contestée, mais cela dépend uniquement de la quantité de détails demandés. Behe en exige beaucoup. Il affirme ensuite qu'il est extrêmement improbable de mettre au point un système de IC par voies indirectes, mais il n'a fourni aucun argument à l'appui de cette affirmation. C'est simplement son intuition (17).

Dembski réitère l'affirmation selon laquelle le problème de l'explication de l'évolution des systèmes moléculaires de la IC s'est “révélé totalement insoluble” (p. 246), mais des explications évolutives ont maintenant été proposées pour plusieurs des systèmes cités par Behe, notamment la cascade de la coagulation sanguine, le système immunitaire, le système du complément et le flagelle bactérien. Le dernier de ceux-ci est hautement spéculatif, mais est suffisant pour réfuter l'affirmation de l’insolubilité absolue (18).

Qu'a donc ajouté Dembski au débat sur la complexité irréductible? Premièrement, il a tenté de contrer les objections des critiques de Behe. Je ne commenterai pas ces propos, si ce n'est pour dire que certains de ces critiques semblent avoir mal compris ce que Behe ​​entendait par complexité irréductible. Cela n’est pas surprenant puisque sa définition était vague et s’accompagnait de plusieurs déclarations trompeuses. En effet, Behe ​​lui-même a admis que sa définition était ambiguë (19). Il a même tenté de proposer une définition totalement nouvelle (20).

Deuxièmement, Dembski a proposé une nouvelle définition, apportant trois modifications majeures:

  • Behe était très vague sur la façon dont un système devrait être divisé en plusieurs parties. Parfois, il prenait des protéines individuelles comme parties, mais dans le cas du flagelle bactérien, il divisait le système en trois parties seulement, “une palette, un rotor et un moteur”, chacune consistant en plusieurs protéines (Darwin's Black Box, p. 72). Dembski exige que les parties soient “individualisées de manière non arbitraire” (p. 285), ce qui ne nous en dit pas beaucoup. Ce qui est important, cependant, c'est que dans le cas du flagelle bactérien, il choisisse des protéines individuelles comme ses parties. En fait, il ne semble même pas avoir remarqué que Behe ​​avait divisé le flagelle en trois parties seulement:

Behe montre que la machinerie complexe de ce moteur moléculaire - comprenant un rotor, un stator, des anneaux, des bagues et un arbre d’entraînement - nécessite l’interaction coordonnée d’une trentaine de protéines et d’une vingtaine de protéines pour faciliter leur assemblage. Pourtant, l’absence de l’une de ces protéines entraînerait la perte totale de la fonction motrice … Mais un flagelle sans son contingent complet de protéines ne fonctionne pas du tout. Behe conclut donc que si le mécanisme darwinien doit produire le flagellum, il devra le faire en une génération. [pp. 249-251]

  • Alors que Behe ​​ne considérait un système comme un IC que si toutes ses parties étaient indispensables, Dembski envisage un système IC si celui-ci avait un noyau irréductible de parties indispensables.
  • Dembski a ajouté deux nouvelles conditions qui doivent être remplies avant qu'un système puisse être considéré comme une preuve de conception intelligente. En plus d'être un IC, le noyau irréductible du système doit posséder «de nombreuses et diverses parties» et posséder la propriété de «complexité et fonction minimales» (p. 287). Ces deux conditions sont plutôt vagues. “Nombreux” et “divers” ne sont pas quantifiés. La complexité du système n’a pas besoin d’être minimal, car, dans le cas du flagelle bactérien, Dembski affirme uniquement que “la complexité des flagelles connus n’est pas très différente de la complexité minimale que de tels systèmes pourraient en principe exiger” (p. 288, c'est moi qui souligne).

Le dernier de ces changements ne manquera pas de créer encore plus de confusion. Selon Dembski, il ne suffit plus de montrer qu'un système est IC. Il doit également répondre aux deux critères supplémentaires. Pourtant, ailleurs dans son livre, Dembski continue de faire référence à la complexité irréductible comme condition suffisante pour déduire un design:

En particulier, l'affirmation selon laquelle le mécanisme darwinien peut rendre compte de toute la diversité des formes de vie devra être rejetée car ce mécanisme est incapable de générer la complexité spécifiée inhérente - pour prendre l'exemple le plus populaire - de systèmes biochimiques d'une complexité irréductible (voir chapitre 5). [p. 324]

Je peux comprendre la tentation d’utiliser complexe irréductible comme un raccourci pour un complexe irréductible avec un noyau irréductible qui comporte des parties nombreuses et variées et présente une complexité et une fonction minimales, mais Dembski aurait vraiment dû introduire un nouveau terme pour ce dernier. Désormais, lorsqu'ils prétendent avoir trouvé un exemple de complexité irréductible dans la nature, les promoteurs d'Intelligent Design doivent préciser laquelle des définitions suivantes ils ont à l'esprit: la définition d'origine de Behe; La version corrigée de Behe ​​de sa définition originale; Nouvelle définition proposée par Behe; La définition de Dembski; ou la définition de Dembski plus les deux critères supplémentaires. Je prédis que la plupart échoueront à le faire. Pour la suite de cet article, je vais utiliser le terme IC dans le dernier sens. Il ne faut pas supposer que tous les exemples de systèmes IC proposés par Behe ​​répondent nécessairement aux critères de Dembski. Dembski ne considère que le flagelle bactérien. Reste à déterminer si les autres systèmes de Behe sont IC dans ce nouveau sens.

Admettons, pour les besoins de l’argumentation, que la définition de Dembski est suffisamment restrictive pour que les systèmes IC ne puissent pas évoluer par des voies directes. Qu'a-t-il dit sur le sujet vital que Behe ​​a échoué à abordé - le sujet des voies indirectes? La réponse est rien. Le noeud de son argument est le suivant:

Pour parvenir à un système irréductiblement complexe, le mécanisme darwinien n'a que deux options. Tout d'abord, il peut essayer de réaliser le système d'un seul coup. Mais si le noyau d’un système complexe irréductiblement est constitué de nombreuses et diverses parties, cette option est résolument exclue. La seule autre option pour le mécanisme darwinien consiste alors à essayer de réaliser le système progressivement en exploitant des intermédiaires fonctionnels. Mais cette option ne peut fonctionner que si le système admet des simplifications substantielles. La deuxième condition [que le noyau irréductible du système se trouve au niveau de complexité minimal requis pour remplir sa fonction] bloque cette autre option. Permettez-moi de souligner qu'il n'y a pas de faux dilemme ici - ce n'est pas comme s'il y avait d'autres options que j'ai commodément ignorées, mais que le mécanisme darwinien a à sa disposition. [P. 287]
Mais il y a bien une option que Dembski a négligé. Le système aurait pu évoluer d'un système plus simple avec une fonction différente. Dans ce cas, il pourrait y avoir des intermédiaires fonctionnels après tout. L'erreur de Dembski est de supposer que les seuls intermédiaires fonctionnels possibles sont des intermédiaires ayant la même fonction.

L'absence de prise en compte par Dembski de la possibilité d'un changement de fonction transparaît dans sa définition de la complexité irréductible:

Définition ICfinal - Un système remplissant une fonction de base donnée est irréductiblement complexe s’il comprend un ensemble de parties bien appariées, en interaction mutuelle et individualisées de manière non arbitraire, de sorte que chaque partie de l’ensemble est indispensable au maintien de la base du système, et donc de son originalité, sa fonction. L'ensemble de ces éléments indispensables est appelé le noyau irréductible du système. [p. 285]
Il n'y a aucune raison pour que la fonction de base d'un système soit celle d'origine. Les concepts même de fonction de base et de fonction d'origine peuvent ne pas être bien définis. Si un système remplit deux fonctions vitales, quelle est la base? Le concept de fonction originale suppose qu'il existe un moment identifiable à l’existence du système. Mais le système peut avoir une longue histoire dans laquelle des parties sont entrées et sorties et les fonctions ont changé, rendant impossible de retracer l'origine du système à une époque donnée. Et qu'est-ce qu'un système? Si deux protéines commencent à interagir de manière bénéfique, deviennent-elles immédiatement un système? Si tel est le cas, il nous faudra peut-être retracer l'historique d'un système jusqu'à l'époque où il ne s'agissait que de deux protéines en interaction.

Les anti-révolutionnaires ont tendance à considérer les systèmes biologiques comme des machines artificielles, dans lesquelles le système et ses composants ont été conçus pour une fonction spécifique et sont difficiles à modifier pour une autre. Mais les systèmes biologiques sont beaucoup plus souples et dynamiques que ceux créés par l'homme.

Quelques autres points sont à noter:

  • Les changements de fonction ne sont pas une idée ad hoc conçue comme une tentative ultime de résoudre un problème épineux. Ils sont une caractéristique fondamentale de l'évolution. Les nouveaux systèmes n'apparaissent pas juste de nulle part. La plupart des systèmes auront évolué à partir d'un système antérieur ayant une fonction différente.
  • Les changements de fonction peuvent se produire de deux manières. Premièrement, une mutation peut créer une nouvelle capacité. Deuxièmement, une modification de l'environnement peut fournir une nouvelle utilisation à un système, par exemple l'aileron d'un poisson commence à être utilisé comme jambe primitive dans des eaux peu profondes. Dans les deux cas, le système peut exécuter la nouvelle fonction très mal au début, puis muter pour mieux le faire. Behe et Dembski soulignent tous deux à quel point les parties d'un système semblent être bien coordonnées. Mais ils ont peut-être été beaucoup moins bien coordonnés dans le passé.
  • Un système peut avoir plus d'une fonction. Dans l'exemple ci-dessus, l'aileron du poisson peut continuer à être utilisé pour nager et escalader des rochers submergés.
  • Il n'y a pas de distinction claire entre les systèmes et les pièces. Toute structure fonctionnelle peut être considérée à la fois comme un système à part entière et comme faisant partie d’un système plus vaste. Nous n’avons donc pas besoin de penser en termes de système acquérant un grand nombre de parties constituées de protéines individuelles, comme le voudrait Dembski. Un système peut plutôt acquérir un petit nombre de sous-systèmes, chacun composé de plusieurs protéines.
  • Au lieu de créer un système IC par la combinaison simultanée de nombreuses parties, nous voyons maintenant qu’il peut résulter de l’acquisition progressive de quelques parties. Cela ne semble plus aussi improbable que Behe ​​et Dembski l'ont fait paraître.

Avant de terminer cette section, il pourrait être utile de dissiper quelques faux-fuyants que Dembski introduit dans son analyse de la complexité irréductible.

  • Spécificité causale. Ceci est juste une autre couverture pour l'argument de l'ignorance:

À moins de proposer un modèle concret suffisamment détaillé pour être sérieusement critiqué, il ne sera pas possible de déterminer son adéquation. Ceci est bien sûr une autre façon de dire que l'objection d'échafaudage n'a pas encore démontré de spécificité causale lorsqu'elle est appliquée à des systèmes biochimiques irréductiblement complexes. [p. 254]
En d’autres termes, jusqu’à ce qu’une hypothèse naturelle suffisamment détaillée soit fournie, nous devrions poursuivre et en déduire la conception. Cela ne dérange pas Dembski (ni Behe ​​qui avance le même argument) que leur hypothèse alternative (la conception) ne comporte aucune précision que ce soit.

  • Invariants. Dembski décrit certains problèmes géométriques sans solution et explique comment prouver la non-existence d'une solution en montrant qu'une certaine propriété est invariante lors de la transformation du système. Comment est-ce pertinent pour la complexité irréductible? Dembski utilise-t-il l'invariance de certaines propriétés pour établir que les systèmes IC ne peuvent pas évoluer? Non, la propriété qu'il prétend invariante (en évolution naturelle) est la propriété de la complexité irréductible elle-même. Mais l’affirmation selon laquelle l’évolution naturelle ne peut produire une complexité irréductible est précisément le but qu’il s’efforce d’établir. En d'autres termes, l'invariance ne permet pas d'établir la conclusion de Dembski. C'est juste une autre façon d'exprimer cette conclusion.

En essayant de relier le sujet des invariants à l'évolution, Dembski écrit: “Pensez ici à un invariant efficace comme un obstacle insurmontable pour le mécanisme darwinien” (p. 285). On peut se demander pourquoi il ne se contente pas d'utiliser l'expression «obstacle insurmontable» dès le début, et de sauter toute la discussion non pertinente sur les invariants.

  • Complexité spécifiée. Dembski aime à dire que “la complexité irréductible est un cas particulier de complexité spécifiée” (p. 289), comme si cela démontrait l'intégration de deux concepts dans un cadre cohérent. Mais nous avons déjà vu que la complexité spécifiée est simplement une étiquette que nous appliquons lorsque nous n’avons aucune hypothèse naturelle plausible pour expliquer un événement. Donc, dire que la complexité irréductible est un cas de complexité spécifiée n’est qu’un autre moyen de répéter l’affirmation selon laquelle nous n’avons aucune explication naturelle à l’origine du flagelle bactérien (qui est le seul système biologique que Dembski ait montré qu’il était IC au sens qu’il lui donne).

Tentez d’atteindre la fin, et ne doutez jamais; Rien n'est si difficile, mais la recherche le découvrira.
Robert Herrick (1591-1674)

Ces dernières années, les algorithmes évolutifs, exécutés sur ordinateur, ont suscité un intérêt croissant en tant que moyen de résoudre des problèmes d'optimisation. Comme leur nom l'indique, les algorithmes évolutifs sont basés sur les mêmes principes sous-jacents que l'évolution biologique: reproduction avec variations aléatoires et sélection du “plus apte”. Comme ils semblent montrer que des processus non guidés peuvent produire le type de complexité fonctionnelle (21) que nous voyons en biologie, ils constituent un problème que Dembski doit résoudre. En outre, il tente de tirer parti du sujet en faisant appel à un ensemble de théorèmes mathématiques, connus sous le nom de théorèmes No Free Lunch, qui imposent des contraintes aux capacités de résolution de problèmes des algorithmes évolutifs.

5.1 Algorithmes d'optimisation Black-Box

Nous nous intéresserons ici à un type d'algorithme connu sous le nom d'algorithme d'optimisation (ou de recherche) de boîte noire (black-box) . Ces algorithmes incluent des algorithmes évolutifs, mais ne s'y limitent pas. Les problèmes résolus par les algorithmes d’optimisation de la boîte noire ne comportent que deux attributs: un espace de phase et une fonction de fitness définie sur cet espace de phase. Dans le contexte de ces algorithmes, les espaces de phase sont généralement appelés espaces de recherche. De plus, le terme fonction de fitness est généralement réservé aux algorithmes évolutifs, le terme le plus général étant fonction objective ou fonction de coût (maximiser une fonction objective équivaut à minimiser une fonction de coût). Mais je vais adopter la terminologie de Dembski par souci de cohérence.

L'espace de phase est l'ensemble de toutes les solutions potentielles au problème. Il s’agit généralement d’un espace multidimensionnel, avec une dimension pour chaque paramètre variable de la solution. La plupart des problèmes d'optimisation réels comportent de nombreux paramètres, mais pour faciliter la compréhension, il est utile de penser à un espace de phase bidimensionnel - à deux paramètres - qui peut être visualisé sous forme de plan horizontal. La fonction fitness est une fonction sur cet espace de phase; En d'autres termes, pour chaque point (solution potentielle) dans l'espace des phases, la fonction de fitness nous indique la valeur de fitness de ce point. Nous pouvons visualiser la fonction fitness comme un paysage tridimensionnel où la hauteur d’un point représente son fitness (figure 1). Les points sur les crêtes représentent de meilleures solutions tandis que les points dans les creux représentent les plus pauvres. Les termes fonction de fitness et paysage de fitness sont utilisés de manière interchangeable.

IMAGE

Un algorithme d'optimisation est, grosso modo, un algorithme permettant de rechercher des points hauts dans le paysage. Etre un algorithme de type boîte noire signifie qu’il n’a aucune connaissance du problème qu’il tente de résoudre, à part la structure sous-jacente de l’espace de phase et les valeurs de la fonction fitness aux points déjà visités. L'algorithme visite une séquence de points (x1, x2, …, xm), évaluant le fitness (l'aptitude), f (xi), de chacun d'entre eux avant de décider quel point visiter ensuite. L’algorithme peut être stochastique, c’est-à-dire qu’il peut incorporer un élément aléatoire dans ses décisions.

L'évaluation de la fonction de mise en forme est généralement un processus très exigeant en calcul, impliquant éventuellement une simulation. Par exemple, si nous essayons d'optimiser la conception d'un réseau routier, nous pourrions souhaiter que l'algorithme exécute une simulation du trafic quotidien pour chaque conception possible qu'il considère. La performance de l'algorithme est donc mesurée en termes de nombre d'évaluations (m) de fonction de fitness nécessaires pour atteindre un niveau de fitness donné, ou de niveau de fitness atteint après un nombre donné d'évaluations de fonction. Chaque évaluation de fonction peut être considérée comme un niveau de temps afin que nous puissions penser au niveau de fitness atteint dans un temps donné. Notez que nous sommes intéressés par la meilleure valeur de fitness trouvée pendant toute la période, et pas seulement par le fitness du dernier point visité.

Il existe trois types d’algorithmes d’optimisation qui nous intéressent: *Recherche aléatoire (également appelé échantillonnage aléatoire). Cet algorithme sélectionne simplement chaque point au hasard (avec une distribution de probabilité uniforme) parmi tous les points de l'espace de phase. * Grimpeurs Un grimpeur visite soit quelques-uns soit tous les points proches de sa position actuelle et se déplace au plus haut point trouvé. Il ne redescend jamais. Si il atteint le sommet d'une crête, il y reste ou il peut commencer une recherche aléatoire dans l'espoir de trouver une colline plus haute. * Algorithmes évolutifs. Un algorithme évolutif maintient une population d'individus (généralement générés aléatoirement au départ), qui évolue en fonction de règles de sélection, de recombinaison, de mutation et de survie. Chaque individu correspond à un point dans l'espace de phase. Un “environnement” partagé détermine le fitness de chaque individu de la population. Les individus les plus aptes sont plus susceptibles d'être sélectionnés pour la reproduction (rétention ou duplication), tandis que la recombinaison et la mutation les modifient, produisant des individus potentiellement supérieurs.

Dembski adopte une définition très large de l’algorithme évolutif qui inclut tous les algorithmes d’optimisation que nous considérons ici, y compris la recherche aléatoire (p. 180, 229n9, 232n31).

Un autre terme utilisé par Dembski est la recherche à l'aveugle. Il l'utilise dans deux sens. Il s’agit d’abord d’une marche aléatoire, d’un algorithme qui passe d’un emplacement de l’espace des phases à un autre emplacement sélectionné aléatoirement à partir de points proches (p. 190). Plus tard, il l'utilise pour désigner toute recherche dans laquelle la fonction fitness n'a que deux valeurs possibles: le point en cours d'évaluation est ,ou non, dans une zone cible (p. 197). La signification habituelle (bien que non exclusive) de la recherche aveugle dans la littérature sur les algorithmes évolutionnistes est synonyme d’algorithme de boîte noire (22).

5.2 Réglage précis de la fonction fitness

Dembski reconnaît que les algorithmes évolutifs peuvent produire des résultats assez novateurs, mais il ne peut le faire que parce que leur fonction de fitness a été affinée par le programmeur. Ce faisant, affirme-t-il, le programmeur a “introduit” en des informations spécifiées complexes ou une complexité spécifiée dans le résultat. (Ces deux termes seront discutés plus tard.)

Malgré tout, il y a quelque chose de curieusement convaincant et presque magique dans la façon dont les algorithmes évolutifs trouvent des solutions à des problèmes où les solutions ne ressemblent à rien de ce que nous avons imaginé. Un exemple particulièrement frappant est celui des “antennes génétiques à fils torsadés” de Edward Altshuler et Derek Linden. Le problème que ces chercheurs ont résolu avec des algorithmes évolutifs (ou génétiques) était de trouver une antenne émettant aussi bien dans toutes les directions sur un hémisphère situé au-dessus d'un plan de sol d'étendue infinie. Contrairement aux attentes, aucun fil avec une forme géométrique symétrique et nette ne résout ce problème. Au lieu de cela, les meilleures solutions à ce problème ressemblent à des enchevêtrements en zigzag. De plus, les algorithmes évolutifs se frayent un chemin à travers les divers enchevêtrements en zigzag, dont la plupart ne fonctionnent pas, vers un qui le fait. C'est remarquable. Même dans ce cas, la fonction de finess qui prescrit les performances optimales de l’antenne est bien définie et fournit facilement l’information complexe spécifiée qu’une antenne génétique de fil tordue optimale semble acquérir gratuitement. [p. 221]
Une affirmation similaire est faite concernant l'évolution biologique:

Ainsi, je soutiens que même si l'évolution darwinienne est le moyen par lequel la panoplie de la vie sur Terre est apparue, la fonction de fitness sous-jacente qui limite l'évolution biologique ne serait pas un buffet gratuit ni un don brutal, mais un assemblage finement conçu de gradients qui présupposent beaucoup de complexité spécifiée préalable. [p. 212]
Ces affirmations sont basées sur une idée fondamentalement fausse du rôle de la fonction de fitness dans un algorithme évolutif. Une fonction fitness intègre deux éléments:

  • Il reflète nos objectifs. Si notre objectif est de concevoir un pont, nous devrons peut-être décider du poids à accorder à un certain nombre d'objectifs conflictuels tels que la capacité de trafic, l'intégrité structurelle, les coûts et l'impact environnemental.
  • Il englobe nos connaissances pertinentes sur le monde réel, afin d'évaluer dans quelle mesure une solution potentielle répond à nos objectifs.

En général, la fonction fitness définit donc le problème à résoudre et non le moyen de le résoudre. Par conséquent, il est peu logique de parler du programmeur qui ajuste avec précision la fonction fitness pour résoudre le problème. Il est vrai que certains aspects du problème peuvent être inconnus ou que le programmeur décide, pour des raisons pratiques, de simplifier son modèle du problème. Ici, le programmeur pourrait prendre des décisions de manière à améliorer les performances de l'algorithme. Mais il n'y a aucune raison de penser que cela contribue de manière significative au succès des algorithmes évolutifs.

Dans l'un de ses articles, Dembski cite le psychologue de l'évolution, Geoffrey Miller, à l'appui de son affirmation selon laquelle la fonction de fitness doit être affinée:

Et où exactement la conception est-elle intégrée dans un algorithme évolutif ou génétique? Selon Miller, cela fait partie de la fonction fitness. Il écrit: « La fonction de mise en forme doit incarner non seulement les objectifs conscients de l'ingénieur, mais également son sens commun. Ce sens commun est en grande partie intuitif et inconscient, il est donc difficile à formaliser en une fonction de fitness explicite. Les solutions d'algorithmes génétiques vaant autant que les fonctions de mise en forme utilisées pour les faire évoluer, le développement minutieux de fonctions de fitness appropriées intégrant toutes les contraintes de conception, les compromis et le choix de critères pertinents sont une étape clé de l'ingénierie évolutive » (23).
Mais les objectifs, les contraintes, les compromis, etc., de l’ingénieur sont des paramètres du problème à résoudre. Ils doivent être choisis avec soin pour que l'algorithme évolutif résolve le bon problème et non pour le guider vers la solution d'un autre, comme nous le dit Miller dans le paragraphe précédent:
Si la fonction de mise en forme ne reflète pas de manière réaliste les contraintes du monde réel et les exigences auxquelles les conceptions phénotypiques seront confrontées, l'algorithme génétique peut offrir une bonne solution au mauvais problème (24).
Ce sont d’autres éléments de l’algorithme évolutif qui devront peut-être être soigneusement choisis pour que cet algorithme fonctionne bien:
Le truc dans les algorithmes génétiques est de trouver des schémas permettant de mapper efficacement et élégamment une chaîne binaire binaire à une conception technique, plutôt que par force brute …. Les opérateurs génétiques copient et modifient les génotypes d’une génération à l’autre …. Il est particulièrement important de trouver le bon équilibre entre mutation et sélection …. Enfin, les paramètres évolutifs [tels que la taille de la population et le taux de mutation] déterminent le contexte général de l'évolution et les détails quantitatifs du fonctionnement des opérateurs génétiques. …. Décider des meilleures valeurs pour ces paramètres dans une application donnée restent un art , davantage motivé par une intuition aveugle et une tradition commune que par de solides principes d'ingénierie(24).

Wolpert et Macready font une remarque similaire:

En fin de compte, bien entendu, la seule question importante est “Comment trouver les bonnes solutions pour ma fonction de coût donnée « f »?” La bonne réponse à cette question est de commencer par le « f » donné, d'en déterminer certaines caractéristiques essentielles, puis de construire un algorithme de recherche, spécifiquement adapté à ces caractéristiques. La procédure inverse - beaucoup plus répandue dans certaines communautés - consiste à étudier la performance d’algorithmes spécifiques sur différents f. Cette procédure inverse n’a d’intérêt que dans la mesure où elle nous aide dans notre procédure principale, de passer de (caractéristiques concernant) »f » à un « a » approprié.(25)

Peut-être que la confusion de Dembski à ce sujet peut s’expliquer par son obsession pour le programme Weasel de Richard Dawkins (26), auquel il consacre une grande partie de son chapitre sur les algorithmes évolutifs. Dans cet exemple, inventé uniquement pour illustrer un point spécifique, la fonction de fitness a bien été choisie afin de faire converger l'algorithme sur la solution. Ce programme n'a cependant pas été créé pour résoudre un problème d'optimisation. Le programme avait un point cible spécifique, contrairement aux algorithmes d'optimisation réels, où la solution est inconnue.

Dans le cas de l'évolution biologique, la situation est quelque peu différente, car les paramètres évolutifs eux-mêmes évoluent au cours de l'évolution. Par exemple, selon la théorie de l'évolution, le code génétique a évolué par sélection naturelle. Ce n’est donc pas un hasard si le code génétique est si adapté à l’évolution. Il a évolué pour être de cette façon.

Lorsque Dembski parle d’'ajustement de la fonction de fitness pour l'évolution biologique, ce qu'il veut vraiment dire, c'est l'ajustement des conditions initiales cosmologiques et terrestres, y compris les lois de la physique. Lorsque ces conditions sont acquises, comme c’est le cas pour des raisons pratiques, elles contribuent à déterminer la fonction de fitness. Mais Dembski soutient que ces conditions doivent avoir été choisies parmi un ensemble de possibilités alternatives afin de rendre l'évolution de la vie possible. Considéré ainsi, les autres paramètres de conditions initiales doivent être considérés comme des éléments d'un autre espace de phase et non pas comme faisant partie de la fonction de fitness. Dembski fait parfois référence à cela comme à un espace de phase de fonctions de fitness. On peut comprendre ce qu’il veut dire par là, mais cela risque d’être confusant, notamment parce que les fonctions fitness des organismes biologiques ne sont pas figées, mais évoluent au même rythme que leur environnement.

Nous voyons alors que l'argument de Dembski concernant le réglage précis des fonctions de fitness n'est qu'une version déguisée de l'argument bien connu du réglage précis des conditions initiales cosmologiques et terrestres (27). Dembski énumère un catalogue des conditions cosmologiques et terrestres qui sont nécessaires pour l'origine de la vie (pp. 210-211). Cet argument est ancien et je n'en parlerai pas ici. La seule nouvelle tournure que Dembski lui donne est de présenter l'argument en termes de fonctions de fitness et de faire appel aux théorèmes No Free Lunch. Cet appel sera examiné ci-dessous, mais je voudrais d’abord faire quelques observations.

Les deux conclusions de Dembski ne peuvent pas être vraies toutes les deux. D'une part, il soutient que les conditions initiales ont été ajustées pour permettre l'évolution naturelle de la vie. D'autre part, il soutient que l'évolution naturelle de la vie n'a pas été possible. Non pas que Dembski n’ait pas droit à une deuxième chance. Si un argument échoue, il peut se rabattre sur l'autre. Alternativement, Dembski pourrait soutenir que le concepteur cosmique a rendu l’Univers presque prêt pour l’évolution naturelle de la vie, mais s’est laissé un peu de travail à faire plus tard.

Si Dembski pense que les conditions initiales de l'évolution ont été conçues, il serait évident d'essayer d'appliquer sa méthode d'élimination du hasard à l'origine de ces conditions. Je remarque qu'il ne tente pas de le faire.

5.3 Les théorèmes No Free Lunch

Dembski tente d'utiliser les théorèmes No Free Lunch (ci-après NFL) de David Wolpert et William Macready (28) pour étayer son affirmation selon laquelle les fonctions de fitness doivent être ajustées. Il considère vraisemblablement que les NFL sont importants pour son cas, puisque le tire de son livre y fait référence. Cependant, je montrerai que les NFL ne sont pas applicables à l'évolution biologique et que, même pour les algorithmes évolutifs auxquels ils s'appliquent, ils ne valident pas l'allégation d'ajustement. Je commencerai par donner une brève explication de ce que dit les NFL, en apportant un certain nombre de simplifications et en omettant des détails qui ne nous concernent pas nécessairement.

NFL s'appliquent uniquement aux algorithmes répondant aux conditions suivantes: *L’algorithme doit être un algorithme de type boîte noire, c’est-à-dire qu’il n’a aucune connaissance du problème qu’il tente de résoudre, si ce n’est la structure sous-jacente de l’espace de phase et les valeurs de la fonction fitness aux points déjà visités. *En principe, il doit y avoir un nombre fini de points dans l’espace des phases et un nombre fini de valeurs de fitness possibles. En pratique, toutefois, les variables continues peuvent être arrondies à certaines valeurs. * L'algorithme ne doit pas visiter le même point deux fois. Ceci peut être évité en faisant en sorte que l’algorithme garde une trace de tous les points qu’il a visités jusqu’à présent, avec leurs valeurs de fitness, afin d’éviter les visites répétées à un point donné. Cela n’est peut-être pas pratique dans un programme informatique réel, mais la plupart des espaces de phase réels sont suffisamment vastes pour ne pas être revisités souvent, de sorte que nous pouvons ignorer ce problème. * La fonction de fitness peut rester fixe tout au long de l'exécution du programme ou peut varier dans le temps d'une manière indépendante de la progression de l'algorithme. Ces deux options correspondent respectivement aux théorèmes 1 et 2 de Wolpert et de Macready. Toutefois, la fonction de fitness ne peut pas varier en fonction de la progression de l’algorithme. En d’autres termes, l’algorithme peut ne pas déformer le paysage de fitness (29).

Le même algorithme peut être utilisé avec n’importe quel problème, c’est-à-dire dans n’importe quel paysage de fitness, même s’il ne sera pas efficace pour tous. En termes de programme informatique, nous pouvons imaginer insérer différents modules de fonctions de fitness dans le programme. Nous pouvons également imaginer l'ensemble de toutes les fonctions de fitness possibles. C'est le vaste ensemble constitué de toutes les formes possibles de paysage sur notre espace de phase donné. S'il y a S points dans l'espace de phase et F valeurs possibles de la fonction de fitness, le nombre total de fonctions de fitness possibles est FS, car chaque point peut avoir n'importe laquelle des valeurs de F et nous devons permettre toutes les permutations possibles sur les S points.

Nous sommes maintenant en mesure de comprendre ce que disent les NFL. Supposons que nous prenions un algorithme a1, mesurions ses performances pour chaque fonction de fitness dans ce vaste ensemble de fonctions de fitness possibles, et prenions la moyenne pour toutes ces valeurs de performances. Ensuite, nous répétons cela pour tout autre algorithme a2. Les NFL nous disent que la performance moyenne sera la même pour les deux algorithmes, quelle que soit la paire d'algorithmes que nous avons sélectionnée. Comme c'est le cas pour toutes les paires d'algorithmes et que la recherche aléatoire est l'un de ces algorithmes, cela signifie qu'aucun algorithme n'est meilleur (ou pire) qu'une recherche aléatoire, lorsqu'il est moyenné sur toutes les fonctions de mise en forme possibles. Cela signifie même que, en moyenne sur toutes les fonctions de fitness possibles, un algorithme descendant sera tout aussi efficace qu'un algorithme grimpeur pour trouver des points hauts! (Un descendant est comme un grimpeur sauf qu'il se déplace vers le plus bas des points disponibles au lieu du plus haut.)

Ce résultat semble incroyable, mais c'est réellement vrai. La chose importante à retenir est la phrase essentielle “en moyenne sur l'ensemble des fonctions de fitness possibles”. La grande majorité des fonctions de fitness de cet ensemble sont totalement chaotiques, la hauteur de deux points adjacents n’étant pas reliée. Seules un nombre infime de ces fonctions de mise en forme ont des crêtes et des creux lisses que nous associons habituellement à un “paysage”. Dans un paysage chaotique, il n'y a pas de collines dignes de ce nom à gravir. De plus, rappelez-vous que chaque point perçu par un grimpeur ou un descendant compte comme “trouvé”, même si l'algorithme décide de ne pas s'y déplacer. Ainsi, s'il arrive qu'un descendant se déplace à proximité d'une pointe très haute, la valeur de condition physique à cette pointe sera enregistrée et comptera dans l'évaluation finale de la performance du descendant. Un paysage choisi au hasard parmi toutes les fonctions de mise en forme possibles sera presque certainement une masse aléatoire de pointes (figure 2).

IMAGE

Nous pouvons déjà voir que la pertinence des NFL par rapport à de vrais problèmes est limitée. Les paysages de fitness de problèmes réels ne sont pas chaotiques. Ce fait a été noté par plusieurs chercheurs: Malgré la justesse de ce “théorème du sans-buffet-gratuit” (Wolpert et Macready, 1997), le résultat n’est pas trop intéressant. Il est facile de voir que la moyenne de toutes les fonctions de fitness ne correspond pas à la situation d'optimisation de boîte noire dans la pratique. On peut même montrer que, dans des scénarios d'optimisation plus réalistes, il ne peut exister de théorème du «sans buffet» (Droste, Jansen et Wegener, 1999) (30).

5.4 La non-pertinence des NFL par rapport aux arguments de Dembski

Les NFL ne sont pas applicables à l'évolution biologique, car l'évolution biologique ne peut être représentée par aucun algorithme satisfaisant les conditions données ci-dessus. Contrairement aux algorithmes évolutifs plus simples, où le succès de la reproduction est déterminé par une comparaison du fitness inné de différents individus, le succès de la reproduction dans la nature est déterminé par tous les événements contingents se produisant dans la vie des individus. La fonction fitness ne peut pas prendre en compte ces événements, car ils dépendent d'interactions avec le reste de la population et donc des caractéristiques d'autres organismes qui évoluent également sous l'influence de l'algorithme. En d’autres termes, la fonction fitness des organismes biologiques évolue dans le temps en fonction de l’évolution de la population (de la même espèce et d’autres espèces), en violation de la dernière condition susmentionnée. Il en va de même pour toutes les simulations non biologiques dans lesquelles les individus interagissent, telles que les réseaux neuronaux jouant aux dames, qui sont décrites ci-dessous.

Il ne servirait à rien de suggérer que les interactions entre individus pourraient être modélisées dans l'algorithme d'optimisation plutôt que dans la fonction fitness. Ceci est empêché par la contrainte de boîte noire, qui empêche l'algorithme d'optimisation d'avoir un accès direct aux informations sur l'environnement.

Ce problème est similaire au problème de la coévolution des paysages de fitness soulevé par Stuart Kauffman (p. 224-227). La réponse de Dembski à Kauffman ne répond toutefois pas à mon argument. Rien de ce que Dembski écrit (p. 226) ne change le fait que, dans l'évolution biologique, la fonction de fitness à un moment donné ne peut être déterminée indépendamment de l'état de la population et que, par conséquent, les NFL ne s'appliquent pas (31).

De plus, la thèse de Dembski n’est guère pertinente, même pour les algorithmes évolutifs les plus simples et non interactifs auxquels elle s’applique (ceux où le succès de reproduction des individus est déterminé par une comparaison de leur aptitude innée). Les NFL nous indiquent que, parmi toutes les fonctions de fitness possibles du point de vue mathématique, seuls quelques algorithmes évolutifs fonctionnent aussi bien qu’observédans la pratique. Dembski soutient qu'il serait donc extrêmement malencontreux qu'une fonction de fitness appropriée se produise sans que le réglage d’un concepteur. Mais l’alternative à la conception n’est pas une sélection purement aléatoire parmi l’ensemble des fonctions de fitness possibles mathématiquement. Les fonctions de fitness sont déterminées par des règles et non générées aléatoirement. Dans le monde réel, ces règles sont les lois physiques de l'univers. Dans un modèle informatique, elles peuvent être les règles choisies par le programmeur, mais si le modèle est une simulation de la réalité, elles seront basées dans une certaine mesure sur des lois physiques réelles. Les règles donnent inévitablement lieu à des modèles, de sorte que les fonctions de fitness structurées par le modèle seront privilégiées par rapport aux fonctions totalement chaotiques. Si les règles sont raisonnablement régulières, nous nous attendons à ce que le paysage de fitness soit relativement lisse. En fait, les lois physiques sont généralement régulières, dans le sens où elles correspondent à des fonctions mathématiques continues, telles que “F = ma”, “E = mc2”, etc. Avec ces fonctions, un petit changement d’entrée entraîne un petit changement de sortie. Ainsi, lorsque le fitness est déterminée par une combinaison de ces lois, il est raisonnable de s’attendre à ce qu’un petit mouvement dans l’espace des phases entraîne généralement un changement relativement modeste de la valeur de fitness, c’est-à-dire que le paysage de fitness sera lisse. D'autre part, nous nous attendons à ce qu'il y ait des exceptions, car les théories du chaos et des catastrophes nous disent que même des lois harmonieuses peuvent donner lieu à des discontinuités. Mais les espaces de phase réels ont plusieurs dimensions. Si le mouvement dans certaines dimensions est bloqué par des discontinuités, il peut rester des contours lisses dans d'autres dimensions. Bien que de nombreuses mutations potentielles soient catastrophiques, de nombreuses autres ne le sont pas.

Dembski pourrait alors faire valoir que cela ne fait que déplacer le problème et que nous avons une chance incroyable que l'Univers ait des lois régulières. Certes, il n'y aurait pas de vie si l'Univers n'avait pas de lois raisonnablement régulières. Mais cela est évident et ce n’est pas une conséquence des NFL. Cet argument se réduit à une variante de l'argument du réglage fin cosmologique, et une particulièrement faible, car le “choix” d'avoir des lois régulières plutôt que des lois chaotiques n'est guère très “fin”.

Bien que cela affaiblisse l'argument de Dembski des NFL, la régularité des lois n'est pas suffisante pour garantir que l'évolution dans le monde réel produira une complexité fonctionnelle. Dembski donne un exemple de laboratoire où les molécules de réplication sont devenues plus simples (expérience Spiegelman, p. 209). Mais cela ne veut pas dire qu'il en soit toujours ainsi. Dembski n'a établi aucune règle générale. Je pense que, parce que l’espace de phase de l’évolution biologique est tellement multidimensionnel, il ne faut pas s’étonner qu’elle ait produit énormément de complexité fonctionnelle.

Operator… Give me Information.
chanson de William Spivery

6.1 Conception dérivée

Dembski nous dit qu'il a deux arguments différents pour le design dans la nature. En plus de tenter de montrer qu'il existe dans la nature des phénomènes que l'évolution darwinienne n'a pas la capacité de générer (comme le flagelle bactérien), Dembski déploie également un autre argument. Même si l'évolution darwinienne avait bel et bien cette capacité, il ne pourrait en être autrement qu'en raison de la conception impliquée dans la sélection des conditions initiales sous-jacentes à l'évolution.

Le darwiniste objecte donc que l'évolution darwinienne “de la vie réelle” peut en fait générer une complexité spécifiée sans l'introduire en douce. La fonction de fitness dans l'évolution biologique découle directement de la survie et de la reproduction différentiées, ce qui, selon le darwiniste, peut légitimement être considéré comme un “buffet gratuit” … Si cette objection est acceptée, le seul moyen de montrer que le mécanisme darwinien ne peut pas générer de complexité spécifiée en démontrant que les gradients de la fonction de fitness induits par la survie et la reproduction différentiées ne sont pas suffisamment lisses pour que le mécanisme darwinien puisse conduire à une évolution biologique à grande échelle. Pour utiliser une autre métaphore de Dawkins, il faut montrer qu’il n’existe aucun moyen progressif de gravir le “Mont Improbable”. C’est une argumentation distincte que je traiterai dans le chapitre suivant [qui traite de la complexité irréductible et du flagelle bactérien]. Ici, cependant, je veux montrer que cette concession ne doit pas être accordée et que le déplacement du problème sape effectivement le darwinisme. [p. 208]

Ceci est un argument pour ce que j'appellerai un design dérivé. (Dembski utilise le terme d'intentionnalité dérivée). Il ne préconise pas la conception dans un événement particulier (tel que l'évolution d'une structure), mais affirme simplement que la conception doit avoir été impliquée à un moment ou à un autre dans la chaîne causale d'événements conduisant à un phénomène que nous observons.

Nous avons déjà vu cet argument en termes de réglage des fonctions de fitness. Dembski le présente également en termes de complexité spécifiée. Auparavant, la complexité spécifiée était introduite comme une chose à inférer lorsque nous avions éliminé toutes les hypothèses naturelles auxquelles nous pouvions penser pour expliquer un événement. Mais maintenant, Dembski nous dit que, même si nous ne pouvons pas éliminer l'évolution darwinienne en tant qu'explication, nous devrions quand même déduire une conception dérivée si nous observons une complexité spécifiée. Clairement, il s'agit donc d'un sens différent de la complexité spécifiée. Cette nouvelle signification est une propriété observée d'un phénomène et non une propriété inférée d'un événement. Cela indique que le phénomène a une configuration complexe (dans un sens particulier). Cette propriété porte également le nom d’information spécifiée complexe (CSI).

Notez que ceci est une autre méthode purement éliminative; elle déduit la conception de l'absence alléguée de tout processus naturel capable de générer une CSI. Si l'affirmation était vraie, cela pourrait être considéré comme une généralisation proscriptive, mais nous verrons que l'affirmation est sans fondement.

6.2 L’ Information Spécifiée Complexe (CSI)

Dembski élabore sa propre mesure de la complexité de la configuration d'un phénomène et l'appelle une information spécifiée (que je vais abréger en SI). Il calcule cette mesure en choisissant une spécification (comme décrit en 3.1 ci-dessus), puis en calculant la probabilité qu'un résultat corresponde à cette spécification si le phénomène avait été généré par un processus ayant une distribution de probabilité uniforme. Une distribution de probabilité uniforme est une distribution dans laquelle tous les résultats possibles (c'est-à-dire les configurations) ont la même probabilité, et Dembski calcule la SI sur cette base, même s'il est connu que le phénomène en question n'a pas été généré par un tel processus. (Ceci sera considéré plus en détail dans la section suivante.) La probabilité ainsi calculée est ensuite convertie en “information” en appliquant la fonction I (R) = -log2P (R), c'est-à-dire que l'information est la négation du logarithme (en base 2) de la probabilité, et il se réfère à la mesure résultante comme un nombre de bits. Si la SI d'un phénomène dépasse une limite de complexité universelle de 500 bits, alors Dembski affirme que le phénomène présente une information spécifiée complexe (ou CSI) (32). La liaison de complexité universelle est obtenue directement à partir de la borne de probabilité universelle de Dembski de 10-150, puisque: -log2(10-150) vaut environ 500. Dembski désigne également la CSI par complexité spécifiée, en utilisant les deux termes de façon interchangeable. Comme indiqué ci-dessus, cette signification de complexité spécifiée est différente de celle que nous avons rencontrée précédemment. Je l'appellerai complexité spécifiée probabilité uniforme. Pour être clair : la complexité spécifiée éliminative est un attribut inféré d’un événement, ce qui indique que nous pensons que cet événement était hautement improbable en ce qui concerne tous les mécanismes de causalité connus; la complexité spécifiée à probabilité uniforme (ou CSI) est un attribut observé d'un phénomène, indiquant que le phénomène a une configuration “complexe”, sans rapport avec la façon dont il est né. Nous verrons que la notion de “complexité” de Dembski est très différente de notre compréhension habituelle du mot.

6.3 Preuve de l'interprétation de la probabilité uniforme

Le fait que la probabilité utilisée pour calculer la SI repose toujours sur une distribution de probabilité uniforme est extrêmement important. Dembski utilise une distribution uniforme (ou “purement aléatoire”) même si on sait que le phénomène a été provoqué par un processus ayant une autre distribution de probabilité. Comme cela n’est pas explicitement indiqué par Dembski et que cela peut paraître surprenant, je présenterai plusieurs éléments de preuve pour justifier mon interprétation.

Pièce 1 - L'argument de la conception dérivée

Comme indiqué au point 6.1 ci-dessus, l'argument de conception dérivé de Dembski implique que la SI est une propriété observée d'un phénomène, ce qui nous permet prétendument de déduire une conception dans un passé lointain, quels que soient les processus naturels ultérieurs qui auraient pu conduire au phénomène. Il n'y a donc pas de distribution de probabilité pertinente pour laquelle on peut calculer la probabilité pour SI. Nous devons utiliser une distribution de probabilité par défaut, et une distribution uniforme semble être le seul candidat possible.

Pièce n ° 2 - Le programme Weasel26

Dembski mentionne ici spécifiquement une distribution de probabilité uniforme:

Par exemple, dans l'exemple de Dawkins dans METHINKS-IT-IS-LIKE-A-WEASEL (voir la section 4.1), l'espace de phase est constitué de toutes les séquences d'une longueur de 28 caractères comprenant des lettres romaines majuscules et des espaces (les espaces étant représentés par des puces). Une probabilité uniforme sur cet espace attribue une probabilité égale à chacune de ces séquences - la valeur de probabilité est d'environ 1 sur 1040et signale un état de fait extrêmement improbable. C’est cette improbabilité qui correspond à la complexité de la séquence cible et qui, par son identification explicite, spécifie la séquence et en fait ainsi une instance de complexité spécifiée (bien que, comme indiqué dans la section 4.1, nous sommes peu rigoureux dans cet exemple sur le niveau de complexité requis pour la complexité spécifiée - techniquement, le niveau de complexité devrait correspondre à la limite de probabilité universelle de 1 sur 10150). [p. 188-189]
Cela semble clair. Cependant, Dembski poursuit en affirmant que “E [l'algorithme de l'évolution] n'a en fait généré aucune complexité spécifiée, mais l'a simplement déplacée” (p. 195). (À ce stade, Dembski est passé à une autre version du programme Weasel, mais le changement est sans conséquence.) Bien qu'il ne l'énonce pas explicitement, cela implique que le résultat présente bien une complexité spécifiée, bien que cela ait été “introduit clandestinement” dans le programme et non généré par lui.

Pièce n ° 3 - Algorithmes d'évolution

Ma pièce à conviction suivante provient des récits de Dembski sur la simulation de site de liaison de Tom Schneider (33) (p. 213-218) et des réseaux neuronaux joueurs de dames de Kumar Chellapilla et David Fogel (p. 221-223), que je décrirai plus tard. Ces programmes ont une forte probabilité de produire une bonne solution (comme me l'ont confirmé leurs programmeurs). Puisque Dembski affirme que les résultats ont présenté une complexité spécifiée (CSI), ce qui implique une faible probabilité de produire un résultat spécifié (une bonne solution), il s'ensuit qu'il doit avoir estimé la probabilité par rapport à une distribution de probabilité autre que la distribution réelle. Le seul candidat apparent est une distribution de probabilité uniforme.

Pièce n ° 4 - La séquence SETI

L'un des exemples de Dembski (p. 6 à 9) est un événement tiré du film Contact, mettant en vedette Jodie Foster, dans lequel les astronomes de SETI (Search for Extraterrestrial Intelligence) détectent un signal radio d'origine extraterrestre. Le signal comprend une séquence de 1126 son et pauses représentant les 25 premiers nombres premiers: 2, 3, 5, 7, …, 101. Chaque nombre premier est représenté par une séquence de son égaux au nombre, avec des nombres consécutifs séparés par une pause. En convertissant les sons en 1 et les pauses en 0, le signal peut être représenté par une séquence de 1126 chiffres binaires (bits), commençant par “110111011111011111110 …”. Les astronomes fictifs ont immédiatement reconnu ce signal comme ayant une origine intelligente. Dembski nous dit que la séquence SETI présente une complexité spécifiée (p. 359). Aux pages 143-144, il donne une version abrégée de 1000 bits de cette séquence, nous indiquant qu'elle a une probabilité de 1 sur 21000, donnant une SI supérieur à 500 bits (vraisemblablement 1000 bits). Ce dernier exemple est basé sur une cause connue (agent intelligent ou tirage au sort), mais la séquence a vraisemblablement la même SI, quelle que soit sa cause. Après tout, nous ne connaissons pas la véritable cause de la séquence SETI, mais Dembski nous dit toujours qu’elle présente une complexité spécifiée. Il est très peu probable que la séquence SETI ait été produite avec l’équivalent du tirage au sort. Un scénario beaucoup plus probable est que les extraterrestres ont programmé un ordinateur pour générer la séquence automatiquement. Dans ce cas, nous sommes revenus à la même situation que le programme Weasel. En outre, si nous examinions toutes les hypothèses fortuites pertinentes, nous devrions envisager la possibilité que les deux résultats alternatifs de chaque son / pause ne soient pas également probables. En l'absence de toute autre information, la meilleure estimation des probabilités de sons et de pause serait respectivement de 1102/1126 et 24/1126, puisque nous avons observé 1102 sons et 24 pauses. Avec ces probabilités (et en supposant toujours que chaque son / pause est indépendant des autres), la probabilité de recevoir la séquence SETI serait de (1102/1126)1102× (24/1126)24 = 3,78 × 10-51, considérablement plus grande que la probabilité universelle liée de 10-150. Je conclus donc que Dembski calcule la SI de la séquence SETI sur la base que les sons et les pauses ont la même probabilité (1/2) et que la séquence présente 1126 bits de SI.

Pièce n ° 5 - URF13

Enfin, je dois mentionner un contre-exemple à mon interprétation de la probabilité uniforme. Dembski considère le cas d'un gène, T-urf13, présent dans une souche de maïs particulière (pp. 218-219). Ce gène code pour un produit protéique appelé URF13. Pour déterminer si URF13 présente une CSI, Dembski commence par calculer une probabilité de 2083, au motif que la taille fonctionnelle minimale de URF13 est de 83 acides aminés et qu'il existe 20 acides aminés possibles. Donc, il suppose que URF13 est tiré d'une distribution de probabilité uniforme sur l'espace de toutes les séquences possibles de 83 acides aminés. Il souligne ensuite que la probabilité est vraiment plus élevée que cela, car nous devons prévoir la possibilité que d’autres séquences aient la même fonction que URF13, c’est-à-dire d’autres séquences correspondant à la même spécification. Jusqu'ici, cela appuie donc l'interprétation de probabilité uniforme. Plus bas dans la page, cependant, il soutient que la probabilité sur laquelle la SI doit être basé est encore plus élevée:

Et si en le découpant, les improbabilités calculées se révélaient inférieures à la probabilité universelle? Cela démontrerait-il que la CSI a été générée de manière naturaliste? Non. Tout d’abord, il n’y a aucune raison de penser que les segments de gènes non codants pour les protéines sont eux-mêmes véritablement aléatoires - comme indiqué plus haut, T-urf13, qui est composé de tels segments, est homologue à l’ARN ribosomal. Ce n’est donc pas comme si ces segments avaient été produits en échantillonnant une urne remplie d’acides nucléiques mal mélangés. De plus, il n'est pas clair que la recombinaison elle-même soit vraiment aléatoire. [p. 219]
Dembski dit maintenant que nous ne devrions pas simplement calculer la SI sur la base d'un modèle de probabilité uniforme (urne), mais que nous devrions également prendre en compte les processus de causalité que nous pensons opérer. Mais cela contredit les exemples informatiques donnés ci-dessus, dans lesquels nous connaissions le processus de causalité proprement dit (exécution d'un programme informatique) et ce processus donnait un résultat précis avec une probabilité élevée. Pourtant, Dembski nous a dit que le résultat montrait quand même une CSI. Bien que la preuve ne soit pas concluante, elle semble privilégier de manière prédominante l’interprétation de la probabilité uniforme, et c’est celle que je vais examiner ci-après. Mais laissez-moi regarder brièvement les alternatives:

  • La SI est basé sur la probabilité relative au véritable processus de causalité responsable de l'événement. Cela rendrait la SI inutile pour faire des déductions sur la cause d'un phénomène. Il faudrait connaître la cause pour en déduire la cause! En outre, il serait insensé de dire qu'un phénomène conçu présente une valeur CSI, car il n'y a pas de distribution de probabilité pour laquelle on puisse calculer la SI d'un phénomène conçu (comme Dembski nous dit que la conception n'est pas un processus probabiliste). Cette interprétation est clairement intenable.
  • La SI repose sur notre meilleure compréhension des processus de causalité qui, selon nous, pourraient être à la base de l'événement à l'origine du phénomène observé. Mais ceci est juste à nouveau la méthode d’élimination du hasard. Nous calculons la SI sous l'hypothèse de la meilleure chance à laquelle nous puissions penser (celle conférant la probabilité la plus élevée à une zone de rejet détachable). Si la SI sous cette hypothèse de hasard est suffisamment élevé (probabilité suffisamment faible), nous rejetons cette hypothèse de hasard et en déduisons la conception. De manière implicite, nous avons déjà examiné et rejeté toutes les hypothèses de hasard inférieures auxquelles nous pouvions penser (celles qui confèrent uniquement des probabilités plus faibles aux zones de rejet détachables). Dans ce cas, l’affirmation selon laquelle un phénomène met en évidence la CSI n’est qu’une affirmation qu’il est improbable sous toutes les hypothèses fortuites auxquelles on peut penser. En d'autres termes, c'est le même argument d'ignorance qui a été abordé plus tôt.

Si Dembski insiste sur le fait qu’il n’y a qu’une méthode d’inférence de conception et que c’est la méthode de l’élimination du hasard, il doit alors expliquer les voies exposées ci-dessus et justifier son introduction des termes “complexité” et “information”. La méthode d'élimination du hasard utilise une technique statistique (probabiliste) pour éliminer les hypothèses. Cela n'a rien à voir avec la complexité ou l'information. Transformer les probabilités en appliquant la fonction triviale I = -log2P ne les convertit pas comme par magie en mesures de complexité ou d'informations. Cela ne sert qu'à dissimuler la nature de l'argument. Je suppose que Dembski n’a pas remarqué qu’il avait deux méthodes différentes. Une des raisons de sa confusion est peut-être que toutes les hypothèses fortuites qu’il a envisagées dans ses exemples sont celles qui donnent lieu à une distribution de probabilité uniforme, à la seule exception d’un cas trivial (p. 70). Dembski semble également considérer les distributions de probabilités uniformes comme “privilégiées” dans un certain sens (p. 50). Se référant à l'espace de phase d'un algorithme d'optimisation, il écrit:

De plus, ces espaces ont généralement une probabilité uniforme qui est adaptée à la topologie de l’espace de phase. Cela signifie que Ω [l'espace de phase] possède une mesure de probabilité uniforme U adaptée à la métrique sur Ω de sorte que des probabilités identiques soient affectées aux parties de Ω géométriquement congruentes (voir section 2.2). [p. 188]
Mais un espace de phase (en tant qu'espace de recherche d'un algorithme d'optimisation) ne vient pas avec une distribution de probabilité attachée. C’est simplement un espace de solutions possibles dans laquelle que nous sommes invités à chercher (34).

6.4 Le choix de l'espace de phase

Bien que baser la SI sur une distribution de probabilité uniforme aide à le rendre indépendant du processus de causalité qui a produit le phénomène, il ne peut pas le rendre complètement indépendant. Étant donné un espace de phase (ou une classe de référence de possibilités, comme l'appelle Dembski), il n'y a qu'une seule distribution uniforme possible, celle dans laquelle tous les résultats ont une probabilité égale. Mais comment choisit-on un espace de phase? Dans le cas de la séquence SETI, il peut sembler évident que l’espace de phase considéré est l’espace de toutes les séquences de bits possibles de longueur 1126. Mais pourquoi supposer que la séquence a été dessinée à partir d’un espace de séquences de 1126 bits et non de séquences de longueur variable? Pourquoi devrions-nous supposer que le son et la pause sont les deux seules valeurs possibles? Les supposés extraterrestres auraient pu choisir de transmettre des sons d'amplitudes variables.

Des problèmes similaires se posent ailleurs. A la p.166, Dembski calcule la complexité du mot METHINKS sous la forme -log2(1/278) = 38 bits. (35) Ceci est basé sur un espace de phase de chaînes de 8 caractères, chaque caractère ayant 27 possibilités (26 lettres dans l'alphabet plus un espace). Il n'envisage pas la possibilité de plus ou moins de 8 caractères. Ainsi Dembski a clairement une règle, qui est que nous ne devrions considérer que les permutations possibles du même nombre de caractères (ou composants) que nous avons réellement observé. Aucune justification n'est donnée pour une telle règle et cela nous laisse toujours un choix arbitraire à faire en ce qui concerne l'unité de permutation. Dans le cas de METHINKS, on pourrait soutenir que la seule unité de permutation sensible est le caractère. Mais dans d'autres cas, nous devons faire un choix. Dans une phrase, devrions-nous considérer les permutations de caractères ou de mots? Dans un génome, devrions-nous considérer les permutations de gènes, de codons, de paires de bases ou d’atomes?

Encore plus problématique est la gamme de caractères possibles. Ici, Dembski a choisi les 26 lettres majuscules et un espace comme seules possibilités. Mais pourquoi ne pas inclure des lettres minuscules, des chiffres, des signes de ponctuation, des symboles mathématiques, des lettres grecques, etc.? Ce n’est pas parce que nous n’avons observé aucun de ceux-ci qu’ils n’étaient pas de réelles possibilités. Et si nous ne devons considérer que les valeurs que nous avons réellement observées, pourquoi Dembski a-t-il inclus les 26 lettres de l'alphabet? Beaucoup de ces lettres ne figuraient ni dans le mot METHINKS, ni même dans la phrase plus longue dans laquelle il était intégré. Peut-être que Dembski s’appuie sur la connaissance du processus de causalité qui a donné lieu à ce mot, sachant que les lettres ont été tirées d’une collection de 27 tuiles de Scrabble, par exemple. Mais s’appuyer sur la connaissance du processus de causalité rend le critère inutile pour les cas où nous ne connaissons pas la cause. Et tout le but du critère était de nous permettre de déduire le type de processus causal (naturel ou conception) quand il est inconnu.

Le choix d’un espace de phase approprié n’est pas un problème tel que dans la théorie de l’information de Shannon (36), car nous nous intéressons ici à la mesure des informations transmises (ou produites) par un processus. Dembski, quant à lui, veut mesurer les informations présentées par un phénomène donné et en tirer une conclusion sur le processus de causalité qui a produit le phénomène. Cela l'oblige à choisir un espace de phase sans connaître le processus de causalité, le résultat étant que ses espaces de phase sont arbitraires.

Dembski consacre une partie de son livre (p. 133-137) au problème de la sélection d'un espace de phase, mais ne parvient pas à résoudre le problème. Il soutient que nous devrions “pécher par excès d'abondance et inclure autant de possibilités qu'il serait plausible d'obtenir dans ce contexte” (p. 136). Mais cela signifie que nous penchons pour la surestimation de la quantité d'informations présentées par un phénomène, et donc pour la conception faussement inférée. Cela n’est guère raisonnable pour une méthode supposée déduire de manière fiable la conception. En tout cas, Dembski ne suit pas ses propres conseils. Dans l'exemple de METHINKS, nous venons de voir qu'il a choisi un espace basé sur 27 caractères seulement - ce n'est pas le nombre maximum plausible sans aucune connaissance du processus de causalité.

Étant donné que la SI est basé sur une distribution de probabilité uniforme, il n’y a guère de doute que la CSI existe dans la nature. En effet, on peut trouver que toutes sortes de phénomènes naturels présentant une CSI si un espace de phase approprié est choisi. Prenons l'exemple mentionné précédemment de cratères sur la Lune. Si nous prenons l’espace de tous les paysages lunaires théoriquement possibles et choisissons aléatoirement un paysage dans une distribution uniforme sur cet espace, la probabilité d’obtenir un paysage présentant de telles formations circulaires que nous observons réellement sur la Lune est extrêmement petite, suffisamment petite pour conclure que le paysage lunaire actuel expose une CSI. Même les orbites des planètes présentent une CSI. Si une orbite planétaire était choisie au hasard parmi une distribution de probabilité uniforme sur l’espace de toutes les manières possibles de tracer un chemin autour du Soleil, alors la probabilité d’obtenir un chemin aussi lisse et elliptique qu’une orbite de planète est minuscule.

6.5 La loi de la conservation de l'information

La loi sur la conservation de l'information (ci-après LCI) est l'affirmation formelle de Dembski selon laquelle il affirme que les causes naturelles ne peuvent pas générer de CSI; ils ne peuvent que le déplacer d'un endroit à un autre. La LCI indique que, si un ensemble de conditions Y suffit à causer X, la SI présenté par Y et X combinés ne peut dépasser la SI de Y seul de plus que la limite de complexité universelle, c'est-à-dire I (Y & X) ⇐ I (Y) + 500 où I (Y) est la quantité de SI exposée par Y. (J'ai créé Y antécédent de X, plutôt que l'inverse, par souci de cohérence avec l'explication de Dembski, pages 162-163.)

Malgré son nom, la LCI n’est pas une loi de conservation. Puisque Dembski reconnaît que de petites quantités de SI (moins de 500 bits) peuvent être générées par des processus aléatoires (p. 155-156), la LCI ne peut être interprétée comme une loi de conservation au sens le plus raisonnable du terme. C'est plutôt une limite sur la quantité de SI pouvant être générée.

Mon analyse du LCI ci-dessous sera basée sur mon interprétation de la SI avec probabilité uniforme. Cependant, dans le cas où Dembski rejetterait cette interprétation, permettez-moi d'abord d'examiner ce que le LCI signifierait si la SI est basée sur les probabilités réelles des événements. Il ne s'agirait alors que d'une version déguisée de l'ancienne loi des petites probabilités de Dembski, tirée de The Design Inference, qui stipule que des événements spécifiés de faible probabilité (moins de 10-150) ne se produisent pas. Il a simplement converti la probabilité en “information” en appliquant la fonction I = -log2P à chaque côté de l’inégalité, les probabilités étant conditionnées par l'occurrence de Y. Pour le voir, considérons X un événement spécifié survenu à la suite de Y. Puis, par la loi des petites probabilités,

* P (X | Y)> = 10-150 * ⇔ P (Y & X)> = P (Y) × 10-150 (puisque P (Y & X) = P (Y) × P (X | Y)) * ⇔ I (Y & X) ⇐ I (Y) + 500 (en enlevant log2 des deux côtés). Dans ce cas, la LCI n’est qu’une limite de probabilité et n’a aucun rapport avec l’information ni avec la complexité. Je ne vais donc pas examiner cette interprétation plus avant.

6.6 Contre-exemple: réseaux neuronaux joueurs de dames

Mon premier contre-exemple avec le LCI est celui que Dembski présente courageusement, à savoir les réseaux neuronaux évolutifs de Chellapilla et de Fogel, qui jouent aux dames (p. 221-223) (37) Je commencerai par une brève description de l'algorithme évolutif. Les réseaux neuronaux ont été définis par un ensemble de paramètres (les détails sont sans importance) qui déterminent leur stratégie pour jouer aux dames. Au début du programme, une population de 15 réseaux de neurones a été créée avec des paramètres aléatoires. Ils n'avaient pas de structures spéciales correspondant aux principes stratégiques du jeu de dame. Ils n'ont reçu que l'emplacement, le nombre et le type de pièces - les mêmes informations de base qu'un joueur novice aurait lors de son premier match. À chaque génération, la population actuelle de 15 réseaux de neurones a engendré 15 descendants, avec des variations aléatoires de leurs paramètres. Les 30 réseaux de neurones résultants ont ensuite participé à un tournoi, chaque réseau de neurones jouant 5 parties en rouge (déplacement en premier) contre des adversaires sélectionnés au hasard. Les réseaux de neurones ont reçu +1 point pour une victoire, 0 pour un match nul et -2 pour une défaite. Ensuite, les 15 réseaux de neurones avec les notes totales les plus élevés sont passés à la génération suivante. Je ferai référence au triplet (+1, 0, -2) en tant que régime de notation et à la survie des 15 réseaux de neurones avec la notation total le plus élevé en tant que critère de survie. Les réseaux de neurones produits par cet algorithme étaient de très bons joueurs de dames, et Dembski suppose qu'ils présentaient une complexité spécifiée (CSI). Il ne donne aucune justification pour cette hypothèse, mais cela semble raisonnable compte tenu de l'interprétation de probabilité uniforme. Vraisemblablement, la spécification ici est, grosso modo, la production d’un bon joueur de dames, et l’espace de phase est l’espace de toutes les valeurs possibles des paramètres d’un réseau neuronal. Si les paramètres étaient tirés au hasard, la probabilité d'obtenir un bon joueur de dames serait extrêmement faible. Comme le résultat du programme montre une CSI, Dembski doit montrer qu'il y avait une CSI à l’origine. À son crédit, Dembski ne prend pas la solution de facilité et affirme que la CSI se trouvait dans l'ordinateur ou dans le programme dans son ensemble. La programmation des réseaux de neurones était assez indépendante de l'algorithme évolutif. Au lieu de cela, Dembski prétend que la CSI a été “inséré” par Chellapilla et Fogel à la suite de leur décision de maintenir le “critère de victoire” constant de génération en génération! Mais un critère constant est l'option la plus simple, pas complexe, et l'idée qu'une décision aussi simple aurait pu insérer beaucoup d'informations est absurde.

Comme nous l'avons vu précédemment, la fonction fitness reflète le problème à résoudre. Dans ce cas, le problème est de produire des réseaux de neurones qui joueront bien aux dames dans les conditions prévalentes. Etant donné que les conditions dans lesquelles les réseaux neuronaux évolués seraient joués étaient (probablement) inconnues au moment de la programmation de l'algorithme, on pourrait soutenir que le choix du critère de victoire était libre. Les programmeurs auraient pu dès lors choisir le critère de leur choix. Néanmoins, le choix naturel dans une telle situation est de choisir l'option la plus simple. En choisissant un critère constant de victoire, c'est ce que les programmeurs ont fait. Comme ils n'avaient aucune raison de penser que les réseaux de neurones se retrouveraient dans un tournoi avec des conditions de victoire variables, il n'y avait aucune raison de les faire évoluer dans de telles conditions.

Contrairement à l'affirmation de Dembski selon laquelle le choix d'un critère constant “est dépourvu d'analogue naturel”, l'analogue naturel du critère constant de victoire est la constance des lois de la physique et de la logique.

En outre, leur choix est sans analogue naturel. Chellapilla et Fogel ont maintenu leur critère de “victoire au tournoi”. Pour les systèmes biologiques, le critère de “victoire au tournoi” variera considérablement en fonction de la personne participant au tournoi. [p. 223]
Ce que Dembski entend par “critère de la victoire dans un tournoi” n'est pas clair. Cependant, le fait que le succès d'un système biologique dépend de celui qui “joue dans le tournoi” a certainement un analogue dans l'algorithme de Chellapilla et Fogel. Le succès d'un réseau de neurones dépendait des autres de réseau de neurones participants au tournoi.

Avant d'examiner d'autres objections à l’affirmation de Dembski, je dois décider ce qu'il entend par “critère de victoire”. Veut-il simplement parler du régime de notation ? Ou veut-il dire l’ensemble des règles du tournoi: la sélection des adversaires, le régime de notation et le critère de survie? Par souci de brièveté, je n’examinerai que le régime de notation, mais des arguments similaires peuvent être avancés en ce qui concerne les autres éléments du règlement du tournoi.

Dembski insiste sur le fait que la SI “inséré” par Chellapilla et le choix de Fogel sont déterminés en ce qui concerne “l'espace de toutes les combinaisons possibles de fonctions de fitness locales parmi lesquelles ils ont choisi leur ensemble coordonné de fonctions de fitness locales”. On ne voit pas bien ce que Dembski entend par «fonction de fitness» ici. Comme nous l’avons vu, dans une situation où le succès d’un individu dépend de ses interactions avec d’autres individus de la population (dans ce cas, la population de réseaux de neurones), la fonction de fitness varie en fonction de la population, car l'individu est relatif à son environnement, qui inclut le reste de la population. Dembski semble le reconnaître, puisqu'il écrit:

Il n'y a même pas de fonction de fitness définie sur tout l'espace des réseaux de neurones jouant aux dames. Au lieu de cela, chaque collection de 30 réseaux de neurones reçoit sa propre fonction de fitness qui assigne le fitness en fonction de la manière dont un réseau de neurones se comporte dans un tournoi avec d'autres réseaux de neurones … [p. 222]

Lorsque Dembski fait ici référence à une “fonction de fitness locale”, il entend apparemment la fonction de fitness d'une génération en particulier (38). Cependant, contrairement à ce que prétend Dembski, la séquence des fonctions de fitness n'a pas été “coordonnée” par Chellapilla et Fogel. Cela dépendait de l'évolution de la population de réseaux de neurones. Il est donc insensé de parler de Chellapilla et de Fogel comme choisissant parmi “l’espace de toutes les combinaisons possibles de fonctions de mise en forme locales”. Cependant, il serait logique de parler d’un choix dans l’espace des phases de tous les régimes de notation temps-dépendants (un triplet par génération), et je vais supposer que c’est ce que Dembski veut dire.

Pour les raisons déjà exposées, il n’est guère raisonnable de considérer que le système de notation a été choisi dans un tel espace de phase. Néanmoins, même si nous le faisons, la quantité de SI insérée par le choix de Chellapilla et Fogel était minime. En effet, la SI doit être basé sur une zone de rejet comprenant tous les régimes de notation temps-dépendants qui auraient été aussi performants que ceux de Chellapilla et de Fogel ou mieux. Supposons qu'au lieu d'utiliser un régime de notation constant, le programme génère de manière aléatoire un nouveau triplet de notation (W, D, L) pour chaque génération, sous réserve uniquement de la contrainte W> D> L. Cette contrainte n'est pas une imposition artificielle; c'est une caractéristique du problème à résoudre. Si le problème était de trouver de bons joueurs aux dames suicide (où le but du jeu est de “perdre”), la contrainte serait L> D> W. Puisque la SI est basée sur une distribution de probabilité uniforme, les valeurs de W, D et L seraient tirés d'une distribution de probabilité uniforme sur une plage continue, par exemple [+2, -2]. Nous ne nous intéressons qu'aux valeurs relatives de W, D et L, le choix de la plage est donc arbitraire et peut être effectué de manière aléatoire au début de chaque exécution. La question est alors de savoir combien de fois un tel programme fonctionnerait aussi bien que l’original, c’est-à-dire produirait de bons joueurs dans le même laps de temps. Si, par exemple, le programme révisé fonctionne aussi bien que le programme original 1 fois sur 8 (sur un échantillon suffisamment grand), cela signifie qu'un régime temps-dépendant sur huit fonctionne aussi bien que celui de Chellapilla et de Fogel. La SI du régime de Chellapilla et Fogel serait alors seulement -log2 (1/8) = 3 bits. Pour que Dembski maintienne sa thèse selon laquelle ce choix introduit de la CSI, il lui incomberait de démontrer que la proportion de régimes performants aussi bien que ceux de Chellapilla et de Fogel est inférieure à 1 sur 10150, ce qui semble très peu probable.

Dans le cas où Dembski aurait un problème avec même la contrainte naturelle que j'ai suggérée ci-dessus, considérons une alternative qui n'a pas de contrainte préalable. Supposons qu'au début de chaque exécution, le programme tire 6 nombres aléatoires d'une plage arbitraire (comme ci-dessus). Appelez ces numéros W-, W +, D-, D +, L-, L +. Pour chaque génération, le programme génère un nouveau triplet de notation (W, D, L), sélectionnant ces paramètres de manière aléatoire à partir de distributions de probabilités uniformes sur les plages [W-, W +], [D-, D +] et [L-, L +]. respectivement. Beaucoup de programmes ne réussiront pas à produire de bons joueurs de dames (bien qu’ils puissent produire des joueurs qui savent bien jouer au suicide ou forcer un match nul). Cependant, sur une petite proportion de lancement (1/720 en moyenne), il va arriver que W +> W→ D +> D→ L +> L-, et nous pouvons nous attendre à ce que ces lancements produisent de bons joueurs (39). Ainsi, si nous exécutons le programme assez de fois, la sortie affichera parfois une CSI même s’il n’y a pas de SI dans le régime de pointage. Alternativement, nous pouvons dire qu'un régime réussi comme celui de Chellapilla et Fogel's (40) a une SI de -log2 (1/720) = 9,49 bits, plus quelques bits pour tenir compte du fait que tous les régimes réussis ne fonctionnent pas aussi bien que celui-ci, tel que discuté plus haut. Ayant constaté que très peu de SI, voire aucune, n’était “insérée” dans le choix du régime de notation, Dembski pourrait choisir de se concentrer sur d’autres paramètres, tels que la taille de la population. La beauté de l’algorithme de Chellapilla et Fogel réside toutefois dans le fait qu’il a très peu de paramètres et que même ceux-ci peuvent être modifiés de façon considérable sans nuire aux performances du programme. Rien n'a été peaufiné. Tout comme dans le cas du système de notation, la sélection de ces autres paramètres implique donc peu de SI.

6.7 Contre-exemple: séquences mathématiques

Comme indiqué précédemment, Dembski considère apparemment que la séquence SETI de 1126 bits présente 1126 bits de SI. Mais s'il en est ainsi, il s'ensuit qu'une séquence de n bits présenterait n bits de SI. Ainsi, un programme informatique qui produit cette séquence peut produire autant de SI que nous le souhaitons, simplement en laissant le programme s'exécuter suffisamment longtemps. La SI de sortie peut atteindre des millions de bits et facilement dépasser la SI du programme, quelle que soit la taille de celui-ci. La tâche de générer des nombres premiers est peut-être trop difficile pour que cela soit une possibilité pratique. Dans ce cas, nous pouvons simplement choisir une séquence plus simple, telle que la séquence de Fibonacci. Si nous prenons une séquence très simple comme celle de Champernowne (p. 64), nous pouvons même la programmer en quelques instructions de code machine et l'exécuter sur un ordinateur nu (sans système d'exploitation), de sorte que la SI totale du logiciel est inférieur à 500 bits, pas même suffisant pour constituer de la CSI.

Je donne la justification suivante pour affirmer que la SI d'un programme n'est pas supérieur à sa longueur. Considérons un programme donné de longueur N bits. Par analogie avec l'exemple METHINKS de Dembski (p. 166), je soutiens que je peux prendre comme espace de phase l'espace de tous les programmes de la même longueur que mon programme donné. Ensuite, la probabilité de tirer un programme donné (c'est-à-dire une séquence de bits) depuis une distribution uniforme sur cet espace est de 1 / 2N, de sorte que les informations d'un programme particulier sont -log2 (1 / 2N) = N bits. La SI présentée par le programme peut être inférieur à celui-ci (si plusieurs programmes correspondent aux mêmes spécifications que le programme donné), mais ne peut pas être supérieure.

Puisque la SI du programme est finie (N bits) mais que la SI de la séquence de sortie est illimitée, le programme peut générer une quantité illimitée de SI.

Permettez-moi de répondre à toutes les objections que Dembski pourrait faire à cet argument: * “Toute la SI dans la sortie était contenu dans le programme.” Cela signifie que le programme contient une quantité illimitée de SI. Je doute que Dembski veuille affirmer qu'un programme trivial peut contenir une quantité illimitée de SI. * “La SI d'une séquence mathématique est limitée à la longueur du programme nécessaire à sa génération.” Ceci est vrai pour les informations algorithmiques (complexité de Kolmogorov) (41), mais pas pour la SI de Dembski. * “La sortie d'un processus déterministe ne présente pas de SI car elle n'est pas contingente, comme l'exige le Filtre Explicatif.” Mais cela rendrait l'évaluation de la SI dépendante du type de processus causal menant au phénomène, la question même qui est en cause. Si la séquence SETI présente une CSI lorsqu’elle est reçue de l’espace, pourquoi la même séquence ne devrait-elle pas présenter une CSI lorsqu’elle est produite par un ordinateur? Et pour autant que nous sachions, la séquence SETI pourrait également avoir été générée par un programme informatique déterministe (programmé par les ET). Dans tous les cas, nous pouvons rendre notre programme informatique non déterministe si nécessaire, par ex. en démarrant la séquence principale à partir d'un nombre premier sélectionné au hasard.

Le problème pour Dembski est que les phénomènes hautement structurés sont spécifiés avec précision, ce qui leur confère une faible probabilité et donc une SI élevée. Contrairement aux informations algorithmiques (complexité de Kolmogorov), qui constituent une mesure de l'incompressibilité, la SI est en corrélation avec la compressibilité. Les séquences hautement compressibles telles que la séquence SETI présentent une SI élevée. Dembski semble assez satisfait de cela :

C’est la CSI qui, dans la théorie des informations algorithmiques de Chaitin-Kolmogorov-Solomonoff, identifie les chaînes de chiffre hautement compressibles et non aléatoires … [p. 144]
L'information de Dembski (SI) tend donc à varier inversement avec l'information algorithmique. Une séquence hautement compressible peut être riche en SI mais faible en informations algorithmiques. Dembski laisse croire que son CSI est équivalent au terme de complexité spécifiée utilisé par d'autres auteurs, citant la citation suivante du livre de Paul Davies, The Fifth Miracle, pas moins de quatre fois:
Les organismes vivants sont mystérieux non pas pour leur complexité en soi, mais pour leur complexité étroitement spécifiée. [p. 180]
Pourtant, si on lit The Fifth Miracle, on s'aperçoit que Davies utilise la complexité au sens d'informations algorithmiques (complexité de Kolmogorov), et non dans le sens de Dembski de probabilité-sous-distribution-uniforme. Davies appelle également sa mesure un caractère aléatoirement spécifique, alors que Dembski identifie la CSI, dans la citation ci-dessus, avec des chaînes non aléatoires (42).

Dans le même ordre d'idées, Dembski cite Leslie Orgel:

Les organismes vivants se distinguent par leur complexité spécifiée. Les cristaux tels que le granit ne peuvent pas être considérés comme vivants car ils manquent de complexité; les mélanges de polymères aléatoires ne sont pas admissibles car ils manquent de spécificité. [p. 229n5]
Mais, selon la définition de Dembski, les cristaux ont une grande complexité, car la probabilité d'obtenir une forme cristalline par une combinaison purement aléatoire de molécules est très faible. Comme Davies, Orgel définit la complexité en termes de “nombre minimal d’instructions nécessaires pour spécifier la structure” .(43)

Donc, contrairement à l'implication de Dembski s, sa conception de la complexité spécifiée est assez différente de celle de Davies et d’Orgel (44).

6.8 Justification mathématique de Dembski

Dembski prétend avoir fourni une justification mathématique pour sa LCI. Comme nous venons de voir que des contre-exemples à la LCI peuvent facilement être trouvés, il doit y avoir un problème avec la justification mathématique. En fait, les erreurs ne sont pas trop difficiles à voir.

Les quatre premières pages de la justification de Dembski (p. 151-155) visent à montrer que la LCI est vrai pour les processus déterministes. L'erreur dans cet argument peut être vue plus clairement en partant de l'équation suivante (p. 152):

I (A & B) = I (A) + I (B | A).

Comme B (le résultat d'un processus déterministe) est entièrement déterminé par A (les conditions antécédentes), soutient Dembski, I (B | A) = 0, et donc I (A & B) = I (A). Ainsi, aucune nouvelle information n'a été produite par le processus. (J'ai simplifié un peu la notation de Dembski.)

L'équation ci-dessus a été dérivée de l'équation de probabilité de base suivante, simplement en transformant les deux côtés de l'équation par la transformation triviale I (E) = -log2P (E):

P (A & B) = P (A) × P (B | A)

que Dembski déclare sous la forme suivante (pp. 128-129):

P (B | A) = P (A & B) / P (A)

Le résultat de Dembski est donc simplement une autre façon de dire que le résultat d'un processus déterministe se produit avec la probabilité 1. Mais cela ne nous dit rien sur les informations spécifiées présentées par le résultat, car elles reposent sur une distribution de probabilité uniforme, quelle que soit la probabilité réelle.

Pour illustrer un exemple concret, considérons l’une des séquences mathématiques ci-dessus, par exemple la séquence principale SETI de 1126 bits. Alors A est le programme qui produit la séquence et B est la séquence elle-même. Alors il est vrai que P (B | A) (la probabilité que B donne A) est égal à 1, puisque A conduit toujours à B. Par conséquent, en appliquant la transformation I (E) = -log2P (E), on arrive à I (B | A) = 0. Jusqu'ici, tout va bien. Cependant, I (B | A) ne correspond pas à l'information spécifiée par Dembski, SI. Je suppose que les événements en question sont spécifiés, le problème n’a donc rien à voir avec la spécification. Le problème est que I (B | A) est juste une transformation de P (B | A), et P (B | A) est la vraie probabilité conditionnelle de l'événement, qui dans ce cas est 1. La SI, par contre, repose sur l'hypothèse d'une distribution de probabilité uniforme, quelle que soit la probabilité réelle de l'événement. Dans le cas SETI, la SI présenté par B est donnée par

SI = -log2 (P (B | U)) = -log2 (2-1126) = 1126 bits

où U indique une distribution de probabilité uniforme sur l'espace de toutes les séquences possibles de 1126 bits.

En bref, Dembski est équivoque entre deux sens différents d’information.

Des processus déterministes peuvent donc générer de la CSI. Cependant, Dembski aurait pu éviter ce problème en adoptant une mesure d’information raisonnable, telle que la complexité de Kolmogorov spécifiée par Davies. Avec cette mesure, il serait vrai que les processus déterministes ne peuvent pas générer d'informations, car la sortie d'un programme déterministe a par définition une complexité de Kolmogorov identique ou inférieure à celle du programme. Pour répondre aux arguments de Dembski concernant les processus stochastiques, je vais prétendre, pour le reste de cette section, que la SI ne peut pas être généré par des processus déterministes. La prochaine étape de la justification de Dembski est de faire valoir que des processus purement aléatoires ne peuvent pas générer de CSI (p. 155-157). Je conviens volontiers que tel est bien le cas, compte tenu de l’élaboration suivante de ce que j’entends par là : nous considérons qu’il est effectivement impossible qu’un phénomène hautement spécifié (tel qu’un organisme vivant) puisse être tiré d’une distribution de probabilité uniforme sur l’espace de tous les objets. combinaisons possibles des composants du phénomène (si nous prenons des composants suffisamment simples). La probabilité est trop faible. C'est ce que Richard Dawkins appelle la sélection en une étape (45). Cependant, comme le souligne Dembski, des processus purement aléatoires peuvent produire de plus petites quantités de SI, en deçà de la CSI, car elles correspondent à des événements de probabilité forte. En d'autres termes, la LCI n'interdit pas aux processus naturels de produire de la SI.

Mais qu'en est-il de la sélection cumulative (pour reprendre le terme contrasté de Dawkins)? La sélection cumulative est une série de petites étapes dans l'espace de phase (l'ensemble de toutes les configurations possibles), basées sur des essais et des erreurs, dans lesquelles des étapes avantageuses sont conservées et utilisées comme base pour un développement ultérieur. Quel est l'argument de Dembski contre la génération de CSI par sélection cumulative ? En cherchant à savoir si un processus stochastique peut générer une CSI (p. 157-158), Dembski décompose le processus en deux étapes: une étape purement aléatoire suivie d’une étape déterministe. Il fait valoir qu'aucune étape ne peut produire de CSI, de sorte que le processus combiné en deux étapes ne peut pas le faire non plus. Étrangement, Dembski ne mentionne pas la possibilité de multiples itérations de hasard et de processus déterministes. Mais c’est exactement sur quoi repose la sélection cumulative (par exemple, l’évolution biologique). Chaque stade aléatoire (mutation aléatoire) peut produire un peu de SI, et la sélection naturelle peut empêcher la perte de la SI existante, ce qui lui permet de s'accumuler dans le temps dans un processus semblable à un cliquet.

Dembski revient sur cette question plusieurs pages plus tard (p. 165-166), lorsqu'il prétend que la CSI est holistique et ne peut donc pas être accumulé. Mais son argument à l’appui de l’affirmation n’aborde absolument pas le problème. Il souligne que la phrase “METHINKS IT IS LIKE A WEASEL” présente plus de SI que l'ensemble agrégé de mots individuels {A, IS, IT, LIKE, WEASEL, METHINKS}, car le premier est constitué d'une séquence de mots spécifiée. Selon les spécifications que nous choisissons, cela peut être vrai. Mais cela n’a aucune importance, car il n’existe toujours pas de limite quant à la quantité de SI qu’un agrégat peut présenter, à condition de disposer de suffisamment de mots. En tout état de cause, Dembski ne nous a donné aucune raison de penser que les causes naturelles se limitent à la production d’agrégats ordonnés au hasard.

La question n'est pas de savoir combien de SI peut présenter une structure, mais si cette SI peut provenir de processus naturels, et Dembski ne donne aucune raison de penser que la SI ne peut pas être accumulé à plusieurs étapes de la sélection cumulative. Peut-être que Dembski répondrait que la probabilité que l'ensemble du processus aboutisse à un résultat donné est le produit des probabilités des étapes individuelles et restera donc inférieure à la probabilité universelle. Mais cela ne permettrait pas de reconnaître qu’à chaque étape il y aura de nombreuses tentatives (beaucoup d’individus dans la population sur plusieurs générations), la probabilité de succès sera donc beaucoup plus grande que si un seul individu devait franchir le seuil de chaque étape de la succession.

En résumé, Dembski n'a pas démontré que les processus naturels ne peuvent pas produire la complexité spécifiée ou CSI, quelle que soit sa définition. Il a simplement évité la question de la sélection cumulative.

Dembski affirme de manière audacieuse que sa LCI peut être considéré comme une “quatrième loi de la thermodynamique”. Comme j'ai prouvé que la LCI était sans fondement, je ne considérerai pas cette revendication supplémentaire.

Recherche! Une simple excuse pour l'oisiveté; il n'a jamais été atteint, et n'obtiendra jamais aucun résultat de la moindre valeur.
Benjamin Jowett (1817-93), universitaire et maître au Balliol College, Oxford

Ayant précédemment nié l’intérêt de la comparaison d’hypothèses et s’appuyant sur une approche purement éliminatoire pour déduire de la conception, Dembski change de cap dans son dernier chapitre et tente de présenter un argument positif en faveur de son hypothèse de conception. Cela repose en grande partie sur la prémisse que la complexité spécifiée est un marqueur de conception, une prémisse que nous avons vue être fausse. Je vais ignorer ces parties et me concentrer sur les revendications supplémentaires.

7.1 Aperçu d'un programme de recherche positif

Le mouvement de la conception intelligente a souvent été critiqué pour ne pas avoir mené ou même proposé aucune recherche, et Dembski tente de répondre à cette préoccupation ici (pp. 311-314). La première partie de ce “programme” est la recherche d’un plus grand nombre de cas de complexité spécifiée, c’est-à-dire de davantage de systèmes biologiques pour lesquels il n’y a apparemment aucune explication naturelle connue. Au-delà de ça, il ne présente qu'une liste de questions, dont les suivantes sont typiques:

Problème de construction - Comment l'objet conçu a-t-il été construit? Avec suffisamment d'informations sur l'historique causal d'un objet, cette question peut admettre une réponse. [p. 313] (46)
Aucune tentative sérieuse n'est faite pour suggérer comment on pourrait répondre à ces questions. Une liste de questions ne constitue pas un programme de recherche!

La dernière question de Dembski est la suivante: “Qui ou quel est le designer?”, Mais il ajoute rapidement qu'il ne s'agit pas d'une question de science. Comme c'est étrange. Je pensais que Dembski, comme d’autres partisans de l’Intelligent Design, était opposé au tracé de lignes arbitraires entre ce qui peut et ne peut pas être inclus dans la science. Pourquoi l'identité du designer devrait-elle être un sujet interdit?

7.2 testabilité

L'hypothèse conception est souvent critiqué pour être non testable. Ce qu'on entend par testable n'est pas clair, mais Dembski utilise le terme comme une rubrique générale permettant de considérer un certain nombre de critères plus spécifiques.

Opposabilité (falsifiabilité)

Les partisans et les opposants à l’Intelligent Design ont malheureusement tendance à affirmer qu’« Un design intelligent est / n’est pas opposable », sans préciser l’hypothèse à laquelle ils font référence. En fait, comme nous l’avons déjà vu, l’hypothèse de conception de Dembski nous dit seulement qu’un concepteur était impliqué quelque part dans la chaîne causale des événements menant au flagelle bactérien (et éventuellement à d’autres systèmes biologiques). L'hypothèse de conception ne dit rien sur l'identité, les capacités ou les objectifs du concepteur; s'il y avait beaucoup de designers ou un seul; ou comment et quand la conception a été mise en œuvre.

Le philosophe des sciences, Karl Popper, a soutenu que l’ opposabilité est une condition nécessaire pour qu'une proposition soit considérée comme une hypothèse scientifique. Ce principe a souvent été utilisé comme critère de démarcation pour séparer la science de la pseudoscience. S'il n'existe aucune preuve susceptible de contredire une hypothèse, celle-ci peut être maintenue indépendamment de la preuve. Le principe a été affaibli par l'observation (attribuée à Duhem et Quine) que toute hypothèse peut être sauvée de l’opposabilité en abandonnant une hypothèse auxiliaire. Par exemple, il est parfois avancé que la découverte d'un crâne humain fossilisé dans une strate précambrienne s’opposerait à la théorie de l'évolution. Mais, même face à une telle observation, la théorie de l'évolution pourrait être sauvée en supposant qu'il existe des moyens inconnus par lesquels un fossile pourrait couler à travers de vieilles strates. Néanmoins, nous pouvons penser en termes de degré d’opposabilité La théorie de l'évolution est relativement opposable, car il existe de nombreuses observations hypothétiques, telles qu'un crâne dans le précambrien, qui causeraient une consternation importante parmi les scientifiques, nécessitant la ré-évaluation d'au moins une hypothèse scientifique bien étayée.

En revanche, il n’existe aucune observation potentielle susceptible de poser un problème de ce type aux promoteurs de l’hypothèse de conception, car toute observation est conforme à cette hypothèse, avec ou sans hypothèse auxiliaire. Malgré cela, Dembski prétend que l'hypothèse de conception est opposable, tout en concédant qu'il a été “désinvolte” dans son utilisation du terme (p. 357). Son usage est indiqué par le passage suivant:

S'il était possible de démontrer que des systèmes biologiques tels que le flagelle bactérien, merveilleusement complexes, élégants et intégrés, auraient pu être formés par un processus darwinien progressif (qui, par définition, n'est pas télique), la conception intelligente serait alors falsifiée au motif on n'invoque pas des causes intelligentes quand des causes purement naturelles feront l'affaire. Dans ce cas, le rasoir d'Occam achève le design intelligent. [p.357]
Tout ce que Dembski dit, c’est que l’hypothèse de conception pourrait être remplacée par une meilleure. Mais c'est vrai de n'importe quelle hypothèse, donc le point est assez inintéressant. Ce n’est certainement pas ce que Popper entendait par opposabilité.

Parcimonie

Il est rafraîchissant de constater que, par son invocation du rasoir d'Occam, Dembski semble avoir reconnu que l'hypothèse de l'évolution naturelle est plus parcimonieuse que celle de la conception. On est donc obligé de se demander pourquoi, selon lui, une hypothèse (conception) qui manque totalement de détail devrait être préférée à une hypothèse plus parcimonieuse (évolution naturelle) avec des détails limités. Il est clair que les hypothèses de conception ont un statut très privilégié dans le système de Dembski.

Pouvoir prédictif

Le pouvoir prédictif (ou prévisibilité, comme l'appelle Dembski) est étroitement lié à la falsifiabilité (au sens de Popper), puisqu’une hypothèse est falsifiée en faisant une observation qui contredit une prédiction de l’hypothèse. Pour qu'une hypothèse puisse faire des prédictions, elle doit être en mesure de faire la distinction entre les observations possibles sous l'hypothèse et celles qui ne le sont pas, ou bien celles qui sont plus probables que d'autres. L'hypothèse de conception échoue absolument à cet égard. En l'absence de connaissances sur les capacités et les objectifs du concepteur, toutes les possibilités imaginables apparaissent également probables.

Dans un article précédent, Dembski avait reconnu le manque de pouvoir prédictif de l'hypothèse de conception: “Oui, la conception intelligente concède la prévisibilité” (47). Dans No Free Lunch, il recule devant cette concession en proposant deux exemples de prédictions faites par l'hypothèse de conception. Aucun de ceux-ci ne résiste à l'examen.

  • En premier lieu, il nous dit que “le design intelligent nous offre une prédiction évidente, à savoir que la nature devrait être bourrée de complexité spécifiée et devrait donc contenir de nombreux indicateurs de conception” (p. 362). Pas du tout. L’hypothèse de conception ne nous dit rien sur le nombre de structures conçues, et Dembski lui-même nous avait déjà dit (p. 24) que la conception ne laissait pas nécessairement de traces détectables. Il écrit même:

Veuillez noter que je ne propose pas de théorie sur la fréquence ou l'intermittence avec laquelle un concepteur non incarné communique des informations au monde. Je ne serais pas surpris si la plupart des informations communiquées par un tel concepteur nous échappent sans nous conformer à aucun modèle qui pourrait nous permettre de détecter ce concepteur … [pp. 346-347]

  • Ensuite, il fait appel à des modèles reconnus dans l'évolution de la technologie humaine, affirmant que l'hypothèse de conception prédit que nous devrions également observer de tels modèles dans l'évolution biologique (p. 362). Mais pourquoi cela devrait-il être le cas ? Dembski nous dit-il maintenant que son designer non incarné est contraint de suivre des modèles de développement similaires à ceux des designers humains ? Si tel est le cas, il s’agit là d’un ajout à l’hypothèse de conception qui a effectivement des implications prévisionnelles. Mais cela va dans les deux sens. Si nous trouvons des modèles d'évolution qui ne sont pas typiques du développement technologique humain, cela sera considéré comme une preuve contre l'hypothèse de conception. Et nous trouvons de tels modèles. Par exemple, nous voyons que les changements biologiques évolutifs se produisent de manière fragmentée, les systèmes étant adaptés à des fonctions complètement nouvelles, où un concepteur humain redessinerait le système à partir de zero. Cela conduit souvent à des systèmes sous-optimaux tels que la rétine inversée de mammifère, avec son angle mort, qui pourrait être amélioré par un simple changement, facilement effectué par un ingénieur humain mais éventuellement inaccessible à l'évolution naturelle (48). Donc, Dembski a le choix ici : pouvoir ou panne prédictive. Lequel sera-t’il ?

N'ayant pas réussi à établir de pouvoir prédictif pour sa propre hypothèse, il tente de renverser la théorie évolutionniste, soulignant que celle-ci ne prédit pas l'existence de faits tels que l'existence d'espèces particulières (p. 361). C’est vrai, car de tels faits sont le résultat de contingences historiques imprévisibles. Mais la théorie de l'évolution fait certainement de nombreuses prédictions de la même façon (49). Par exemple, la théorie de l'évolution prédit qu'il y aura un degré élevé de congruence entre les arbres phylogénétiques dérivés d'études morphologiques et d'études moléculaires indépendantes. Cette prévision a été confirmée et continue de l'être à mesure que davantage d'espèces sont testées (50).

Les partisans de la conception intelligente diront parfois qu'une grande partie du pouvoir prédictif de la théorie de l'évolution peut être assimilée par la conception intelligente. Par exemple, ceux qui acceptent l'ascendance commune des espèces peuvent faire valoir que la congruence des arbres phylogénétiques est une prédiction d'ascendance commune, que la descendance d'un ancêtre commun soit contrôlée ou non par un designer. Dembski ne semble pas avoir un tel argument et est en fait assez ambivalent à propos de l'ascendance commune (pp. 314-316). En tout état de cause, l’introduction d’un concepteur dans le processus évolutif affaiblit les prédictions d’ascendance commune, car elle nous oblige à permettre, par exemple, au concepteur d’introduire soudainement un matériel génétique entièrement nouveau. Le seul moyen de préserver pleinement le pouvoir prédictif de la théorie de l'évolution tout en introduisant un concepteur consiste à émettre une hypothèse selon laquelle le concepteur imite parfaitement les effets empiriques de l'évolution naturelle. Une telle hypothèse est totalement superflue d'un point de vue scientifique.

Pouvoir explicatif

Le terme pouvoir explicatif est largement utilisé mais difficile à définir. Je ne tenterai pas de définition, mais je ferai remarquer qu’il s’agit, en partie, d’un autre visage du pouvoir prédictif, à savoir la capacité de “rétrodire” les observations passées. En ce sens, l'hypothèse de conception manque tout autant de pouvoir explicatif que de pouvoir prédictif.

Dembski prétend qu'il existe “des phénomènes de la biologie susceptibles de donner lieu à un cadre théorique de la conception qui rendrait un compte rendu meilleur et plus précis qu'un cadre purement darwinien et donc non téléologique” (p. 363). Pour appuyer cette affirmation, il ne donne qu'un exemple:

Pour voir cela, supposons que je sois un génie de la biologiste moléculaire et que j’ai inventé une machine moléculaire jusque-là inconnue, bien plus complexe et merveilleuse que le flagelle bactérien. Supposons en outre que je mette cette machine dans une bactérie, libère cet organisme génétiquement modifié, la permette de se reproduire à l'état sauvage et détruit tout indice de ma création de la machine moléculaire. Supposons, pour l’exemple, que la machine soit un dard qui pique d’autres bactéries et les fait exploser en y injectant rapidement un gaz (je ne connais aucune machine moléculaire de ce type dans la nature), permettant ainsi aux bactéries dotées de mon invention de consommer leur proie malheureuse. Posons maintenant la question suivante: si un darwiniste découvrait cette bactérie avec la nouvelle machine moléculaire à l'état sauvage, cette machine serait-elle attribuée au design ou à la sélection naturelle? ”[P. 364]
Dembski nous dit qu '“le design intelligent, en se concentrant sur la complexité spécifiée du dard, confirmerait la conception alors que le darwinisme ne pourrait jamais le faire” (p. 364). Quelle absurdité! Il n’existe aucune raison pour laquelle un darwiniste (c’est-à-dire un scientifique traditionnel) ne devrait pas envisager la possibilité d’une conception humaine, tout comme il ou elle pourrait soupçonner la modification génétique d’une nouvelle variété de tomate inhabituelle ou l’élevage sélectif d’un chien. Dans le cas du dard de Dembski, nous examinerions des facteurs tels que le fait que le dispositif soit à la portée de la technologie actuelle, quel motivation pourrait exister pour le créer, si le dispositif avait l'apparence d'une structure évoluée, s'il existait une structure similaire connue chez des organismes à partir desquels celui-ci aurait pu évoluer, etc… En tout état de cause, cela n’a aucun rapport avec la question de savoir s’il existe un quelconque pouvoir explicatif à l’hypothèse selon laquelle un être inconnu à conçu le flagelle bactérien. Dans l'exemple de Dembski, nous envisagerions un concepteur humain doté de capacités et de motivations connues (dans une certaine mesure).

La théorie de l'évolution l'emporte donc sur l'hypothèse de conception en termes de productivité en tant que programme de recherche, d’opposabilité, de parcimonie, de pouvoir prédictif et (au moins selon la définition considérée ci-dessus) de pouvoir explicatif.

7.3 Les concepteurs non incarnés

Dembski ne cherche pas à dissimuler le fait que le concepteur qu’il a en tête n’est pas une personne matérielle. Pourquoi, demande-t-il, les scientifiques sont-ils disposés à envisager des conceptions impliquant des êtres extraterrestres (comme le SETI) mais non des concepteurs non incarnés ? Il répond à la question lui-même:

Au moins avec les intelligences extraterrestres, on peut deviner ce qui aurait pu se passer. Mais nous n’avons aucune expérience avec des concepteurs non incarnés, et c’est clairement ce à quoi nous sommes confrontés lorsqu’il s’agit de conception en biologie. [p. 359]

C'est exactement le point. Dans le cas de SETI, nous pouvons envisager la possibilité que des extraterrestres évoluent naturellement, développent la technologie permettant d'envoyer un signal radio à travers l'espace interstellaire et décident qu'il vaut la peine d'essayer de communiquer avec nous. Il existe d'énormes incertitudes, mais nous pouvons deviner, en connaissance de cause, la plausibilité relative d'une telle hypothèse, par rapport à l'hypothèse selon laquelle un signal radio extraterrestre est d'origine naturelle.

En revanche, un designer non incarné est une tout autre affaire. Dembski définit un concepteur désincarné comme “une intelligence dont le mode de fonctionnement ne peut être confiné à une entité physique située dans l'espace-temps” (pp. 333-334). Nous n'avons aucune idée de la façon dont un tel être pourrait exister ni même de ce que cela signifie pour un tel être. Pour ma part, je ne règle pas par principe les êtres non incarnés en dehors de la science, mais il faudrait que de nouveaux développements scientifiques très importants soient nécessaires avant de pouvoir sérieusement envisager une telle hypothèse. Entre-temps, les concepteurs non incarnés constituent une explication hautement non parcimonieuse. Non seulement Dembski ne parvient pas à expliquer la nature de son concepteur non incarné, il essaie même de se débarrasser des questions sur son origine :

La question “qui a conçu le concepteur” invite à une régression facile et rapide. La raison pour laquelle cette régression peut être refusée est qu’une telle régression se produit chaque fois que les scientifiques introduisent une nouvelle entité théorique. Par exemple, lorsque Ludwig Boltzman a présenté sa théorie cinétique de la chaleur à la fin des années 1800 et a invoqué le mouvement de particules non observables (ce que nous appelons maintenant des atomes et des molécules) pour expliquer la chaleur, on aurait tout aussi bien pu dire que de telles particules non observables n’expliquent quoi que ce soit parce qu'elles ont elles-mêmes besoin d'être expliqués. [p. 354]

Bien sûr, il est vrai que les explications scientifiques créent souvent de nouvelles questions sans réponse. Mais, pour évaluer la valeur d'une explication, ces questions ne sont pas sans importance. Elles doivent être mis en balance avec les améliorations de notre compréhension fournies par l'explication. Invoquer un être inexpliqué pour expliquer l'origine des autres êtres (nous-mêmes) n'est guère plus qu'une pétition de principe. La nouvelle question posée par l'explication est aussi problématique que celle à laquelle l'explication prétend répondre. Comme le dit Dawkins (cité par Dembski):

Vous devez dire quelque chose comme “Dieu était toujours là”, et si vous vous permettez ce genre de sortie paresseuse, vous pourriez tout aussi bien dire que “l'ADN était toujours là” ou “la vie était toujours là” et en finir là. [p. 353]
La réponse de Dembski consiste à attaquer “la vision réductionniste de Dawkins de la science” (p. 353). Mais ce n'est pas réductionnisme. C'est le principe selon lequel les explications scientifiques devraient en réalité expliquer les choses, et pas seulement poser la question !

Jay Richards, un autre partisan de l’Intelligent Design, ajoute une rhétorique vide: “Si un détective explique la mort à la suite d’un meurtre commis, par exemple, par Jeffrey Dahmer, personne ne dit:” OK, alors qui a fait Jeffrey Dahmer? '“(p. 355). Puisque nous savons parfaitement que Jeffrey Dahmer a existé, nous n'avons évidemment aucune raison de poser cette question. Si, au contraire, le détective annonçait que la victime avait été tuée par un androïde (type de personne artificielle décrite par de nombreux romans de science-fiction), et si nous n'avions aucune preuve indépendante de l'existence des androïdes, nous exigerions certainement une explication de la façon dont un tel être aurait pu naître.

Une chose que Dembski est prêt à dire au sujet de son concepteur non incarné proposé est qu’il intervient probablement dans le monde en manipulant des événements quantiques non déterministes:

Les limitations thermodynamiques s'appliquent s'il s'agit de concepteurs incarnés qui ont besoin de produire de l'énergie pour transmettre des informations. Mais les concepteurs non-corporels qui cooptent des processus aléatoires et les incitent à présenter une complexité spécifiée ne sont pas tenus de dépenser de l'énergie. Pour eux, le problème du “déplacement des particules” ne se pose tout simplement pas. En effet, ils sont totalement libres de toute accusation de substitution contrefactuelle, dans laquelle les lois naturelles dictent que les particules doivent se déplacer dans un sens mais finissent par en suivre un autre, car un concepteur non incarné est intervenu. L'indéterminisme signifie qu'un concepteur non incarné peut affecter de manière substantielle la structure du monde physique en transmettant des informations sans transmettre d'énergie. [p. 341]
Pour le moment ,cependant, la théorie quantique est probablement le meilleur endroit pour localiser l'indéterminisme. [p. 336]

Aucune suggestion n'est faite sur comment les événements quantiques souhaités pourraient être “induits”.

Les navires vides font le plus de bruit.
Proverbe traditionnel
Il est habituel que les universitaires, en particulier ceux des domaines techniques, soumettent leurs travaux à un examen par leurs pairs, leurs collègues universitaires ayant une expertise dans les domaines pertinents. Cela prend généralement la forme de soumission à des revues spécialisées dans lesquelles les articles doivent être soumis à un processus d'examen par les pairs avant publication. À long terme, l’important est de savoir si une idée est acceptée par les experts du domaine concerné, mais le processus d’examen par les pairs fournit un premier filtrage pour éliminer les idées mal dégrossie. Les universitaires présentent également leurs travaux à leurs pairs lors de conférences universitaires. Cependant, comme d’autres partisans de l’Intelligent Design, Dembski évite ces processus, préférant vendre ses idées directement au public et évitant d’être revus par les experts. Il est cité pour avoir dis : Je suis juste blasé de vouloir soumettre des choses à des revues où il faut souvent attendre deux ans avant de les voir imprimer. Et je trouve que je peux réellement obtenir le revireent plus rapidement en écrivant un livre et en y exprimant des idées. Mes livres se vendent bien. Je reçois des redevances. Et le matériel est plus lu (51).

Dembski affirme avoir fourni une base rationnelle à l'approche fisherienne par la statistique et avoir découvert une nouvelle loi sur la conservation de l'information. Si ces affirmations étaient vraies, elles revêtiraient une importance capitale pour les statisticiens et les théoriciens de l’information. Il a même été salué par l’un de ses alliés de l’Institut Discovery comme «l’Isaac Newton de la théorie de l’information» (52). Pourtant, ses travaux sur ces sujets ne sont pas parus dans un journal de statistique ou de théorie de l’information et, autant que je peux déterminer, aucun statisticien professionnel ou théoricien de l’information n’a approuvé ce travail. Si cela avait été fait, je suis sûr que nous en aurions entendu parler de Dembski lui-même, car il a l'habitude d'utiliser des références informelles pour remplacer l'évaluation par les pairs :

Les mathématiciens et les statisticiens ont été beaucoup plus réceptifs [que les philosophes] à ma codification des inférences de conception. Prenez, par exemple, l'avis positif de “The Design Inference” dans le numéro de mai 1999 de “American Mathematical Monthly” ainsi que les remarques élogieuses du mathématicien Keith Devlin sur mon travail dans son article de juillet / août 2000 pour “ The Sciences “intitulé “Snake Eyes in the Garden of Eden ”:” La théorie de Dembski a largement contribué à la compréhension du caractère aléatoire, ne serait-ce qu'en soulignant à quel point il peut être difficile de différencier les empreintes de la conception de ceux du hasard. ”(53) [p. 372n2]
Keith Devlin est un mathématicien respecté et largement publié, mais il n'est pas un statisticien. Son article était de nature générale dans un magazine populaire, pas un journal savant, et ne traitait pas des détails du travail de Dembski. Le contenu de l'article était globalement plutôt négatif à l'égard des travaux de Dembski que ne le suggère la remarque finale (54). Le “message positif” de l'American Mathematical Monthly se lit comme suit dans son intégralité:
Probabilité, S, P, L. The Design Inference: Eliminating Chance Through Small Probabilities. William A. Dembski. Etudiant en prob., induction et théorie de la décision. Université de Cambridge, 1998, xvii + 243 pages, 54,95 $. [ISBN 0-521-62387-1] Ce n'est pas un texte mais un tract philosophique sur le moment où l'on peut déduire une conception derrière des événements de très faible probabilité. Provocateur, amusant à lire, plein d'exemples intéressants. SN (55)
Le fait que Dembski doive recourir à des références de soutien aussi peu favorables indique l'absence totale d'acceptation de son travail par les experts des domaines techniques concernés. Dembski et l'éditeur nous ont dit que The Design Inference avait été soumis à un processus de révision, bien qu'aucun détail de ce processus ne soit disponible. Il est intéressant de noter cependant que The Design Inference constituait à l'origine la thèse de Dembski pour son doctorat en philosophie et que ses directeurs de doctorat étaient des philosophes et non des statisticiens. L'éditeur (Cambridge University Press) catalogue le livre sous le titre “Philosophie de la science”. On soupçonne que les critiques qui ont considéré le livre au nom de l'éditeur étaient des philosophes qui n'avaient peut-être pas les connaissances statistiques nécessaires pour comprendre les mathématiques déconcertantes de Dembski. En tout état de cause, une grande partie de la matière de No Free Lunch, y compris l'application des méthodes de Dembski à la biologie, ne figurait pas dans The Design Inference et n'a donc fait l'objet d'aucun examen.

Mieux vaut la fin d'une chose que son début …
Ecclésiaste 7: 8.

No Free Lunch est caractérisé par une pensée confuse, des arguments fallacieux, des erreurs, une équivoque et un usage trompeur du jargon technique. Une fois que ceux-ci sont clarifiés, les conclusions suivantes deviennent apparentes : * La méthode d'élimination du hasard n'est qu'un argument de dieu-bouche-trou. Cela nous dit simplement d'inférer la conception lorsque nous avons rejeté toutes les hypothèses non-conceptuelles auxquelles nous pouvons penser. * En appliquant la méthode d'élimination du hasard à un système biochimique (le flagelle bactérien), Dembski n'a pas tenu compte des explications évolutives impliquant un changement de fonction. Au lieu de cela, il ne fait que considérer et rejeter une hypothèse absurde fondée sur une combinaison purement aléatoire de parties – le scénario tornade dans une décharge. * Les théorèmes No Free Lunch ne s'appliquent pas à l'évolution biologique. * L'argument tiré d'un prétendu réglage précis des fonctions de fitness s'avère être simplement une variation triviale de l'argument bien connu issu du réglage précis cosmologique et terrestre. * Les concepts idiosyncratiques de Dembski sur la complexité et l'information sont trompeurs et sa soi-disant Loi sur la Conservation de l'Information est fatalement imparfaite. * La complexité spécifiée (CSI) n'est pas un marqueur de conception intelligente. Si la complexité spécifiée est déterminée selon l'interprétation de probabilité uniforme, les processus naturels sont parfaitement capables de la générer. Si elle est déterminée par la méthode de l’élimination du hasard, la complexité spécifiée est simplement un déguisement de l'argument divin. * Les affirmations de Dembski sur les statistiques, la théorie de l'information, les algorithmes évolutifs et la thermodynamique n'ont pas fait l'objet d'un examen par les pairs et n'ont pas été acceptées par les experts dans ces domaines.

En bref, No Free Lunch ne vaut absolument rien, sauf en tant que travail de rhétorique pseudoscientifique destiné à un public mathématiquement peu averti qui pourrait confondre son charabia mathématique avec une véritable érudition. Cependant, comme que j'ai été invité à trouver quelque chose de positif à écrire à ce sujet, je suis heureux de pouvoir signaler que le livre a un excellent index.

Je suis reconnaissant de l’assistance de Wesley Elsberry, de Jeffrey Shallit, d’Erik Tellgren et de tous ceux qui ont partagé leurs idées avec moi.

En cours

1. William Dembski, No Free Lunch: Why Specified Complexity Cannot be Purchased without Intelligence, Rowman & Littlefield, 2002.

2. I do not attempt to draw a hard line of demarcation between science and pseudoscience. By pseudoscience I mean egregiously bad science. See also: “pseudoscience”, The Skeptic's Dictionary, http://skepdic.com/pseudosc.html.

3. Richard Wein, “What's Wrong With The Design Inference”, Metaviews online forum, October 2000, http://www.metanexus.org/archives/message_fs.asp?ARCHIVEID=2654.

4. William Dembski, “The Design Inference: Eliminating Chance Through Small Probabilities”, Cambridge University Press, 1998.

5. William Dembski, “Intelligent Design Coming Clean”, Metaviews online forum, November 2000, http://www.discovery.org/viewDB/index.php3?program=CRSC%20Responses&command=view&id=534.

6. Selon moi, le matérialisme méthodologique est une restriction mal définie et arbitraire qui devrait être abandonnée. Le principe des “affirmations extraordinaires nécessitent des preuves extraordinaires” est suffisant pour empêcher des appels prématurés à des êtres non incarnés, mais il n'y a aucune raison de les exclure de la science pour toujours, quels que soient les éléments de preuve présentés.

7.  Un résultat est un événement qui ne peut pas être subdivisé. Il est également connu comme un événement élémentaire. Par exemple, dans le cas de Caputo, chaque séquence possible de 41 D et R est considérée comme un résultat différent. L'ensemble de tous ces résultats est appelé espace de résultats ou espace d'échantillonnage. (Dembski utilise le terme espace de phase). Des événements tels que “40 D ou plus” et “le 5ème tirage est un D” sont appelés événements composites, car ils consistent en plusieurs résultats.

8. William Dembski, “The Explanatory Filter: A three-part filter for understanding how to separate and identify cause from intelligent design”, 1996, http://www.arn.org/docs/dembski/wd_explfilter.htm.

9. Le terme limite de probabilité locale apparaît dans les travaux antérieurs de Dembski et non dans No Free Lunch, mais je trouve qu'il est pratique de l'utiliser ici.

10. Dembski est plutôt vague quant à la déduction à tirer dans l’affaire Caputo. Il n'envisage qu'une hypothèse fortuite, à savoir l'hypothèse du tirage équitable H. Après avoir rejeté cette hypothèse, Dembski ne dit pas clairement que nous devrions en déduire la conception, en écrivant simplement: L’étape 8 [de l’argument relatif à l’élimination du hasard] suit immédiatement: la Cour suprême du New Jersey est fondée à déduire que E n’est pas arrivé selon l’hypothèse fortuite H. [p. 82] En déclarant que “l'étape 8 suit immédiatement”, il implique que nous devrions en déduire une complexité spécifiée, ce qui suppose vraisemblablement une inférence de conception. Mais comme il s'agit du seul exemple complet d'inférence de conception de Dembski (autre que le cas très discutable du flagelle bactérien), on aurait pu s'attendre à une déclaration claire du résultat. Dans quelle mesure sommes-nous certains qu'aucune autre cause naturelle n'aurait pu fonctionner? Dembski soutient que H est “la seule hypothèse de chance qui aurait pu fonctionner pour produire E … parce que Caputo lui-même était responsable des sélections de bulletins de vote et prétend avoir utilisé ce processus de hasard” (p. 80). Il exclut la possibilité que la procédure de tirage au hasard de Caputo ait été entachée d'un vice innocent, au motif que Caputo a tiré des capsules d'un récipient et que “les modèles d'urne font partie des techniques de randomisation les plus fiables disponibles” (p. 56). Vraisemblablement, ce rejet de la possibilité d’une procédure d’urne imparfaite devrait être considéré comme une généralisation proscriptive. Mais que se passerait-il si Caputo mentait au sujet du processus qu’il utilisait, et qu’il utilisait en réalité un autre processus qu’il pensait être juste mais ne l’était pas ? Il semble que Dembski compte toujours cela comme du “design”. Il semble donc que l'inférence de conception dans ce cas représente plusieurs possibilités: Caputo a triché, Caputo a menti sur sa méthode de randomisation ou un autre agent intelligent (peut-être non incarné) a interféré dans le processus.

11. ”Occam's Razor“, Principia Cybernetica Web, http://pespmc1.vub.ac.be/:/OCCAMRAZ.html.

12. Dembski prétend fréquemment qu'un certain événement ou phénomène présente une complexité spécifiée sans avoir effectué de calcul de probabilité explicite. Je me permets ici de faire de même.

13. William Dembski, “The Intelligent Design Movement”, Cosmic Pursuit, Spring 1998, http://www.arn.org/docs/dembski/wd_idmovement.htm.

14. Pour appuyer leur argument sur la probabilité d'une combinaison purement aléatoire, les créationnistes citent souvent l'astronome Fred Hoyle: “Le scénario actuel de l'origine de la vie est à peu près aussi probable qu'une tornade traversant une casse de la une compagnie aérienne de Boeing et produisant accidentellement un avion 747”.

15. De nombreuses pages Web réfutent les arguments de Behe en détail, notamment les suivantes:: - Kenneth Miller, “Design on the Defensive”, http://biocrs.biomed.brown.edu/Darwin/DI/Design.html. - Don Lindsay, “Review: 'Darwin's Black Box, The Biochemical Challenge to Evolution' by Michael J. Behe”, August 2000, http://dlindsay.best.vwh.net/creation/behe.html. - “Irreducible Complexity and Michael Behe”, The Talk.Origins Archive, http://www.talkorigins.org/faqs/behe.html

16. Michael Behe, Darwin's Black Box (Simon & Schuster, 1998), pp. 39-40.

17. Michael Behe, “Self-Organization and Irreducibly Complex Systems: A Reply to Shanks and Joplin”, Philosophy of Science 67 (1), 2000, http://www.discovery.org/viewDB/index.php3?program=CRSC%20Responses&command=view&id=465: Les systèmes nécessitant plusieurs pièces pour fonctionner qui ne doivent pas nécessairement être bien adaptés, nous pouvons appeler des systèmes “simples interactifs” (désignés par “SI”). Ceux qui nécessitent des composants bien appariés sont irréductiblement complexes («IC»). La ligne qui divise les systèmes SI et IC n'est pas nette, car l'attribution à l'une ou l'autre catégorie est basée sur des facteurs probabilistes qui sont souvent difficiles à calculer et doivent généralement être estimés de manière intuitive sur la base de connaissances de base toujours incomplètes. De plus, aucune loi de la physique n'exclut automatiquement l'origine fortuite du système IC le plus complexe. Cependant, à mesure que la complexité augmente, les chances sont si minimes que nous rejetons le hasard comme explication (Dembski 1998).

18. Kenneth Miller, “The Evolution of Vertebrate Blood Clotting”, http://www.millerandlevine.com/km/evol/DI/clot/Clotting.html. - Don Lindsay, “How Could The Immune System Evolve?”, April 1999, http://www.cs.colorado.edu/~lindsay/creation/evolve_immune.html. - Mike Coon, “Is the Complement System Irreducibly Complex?”, The Talk.Origins Archive, February 2002, http://www.talkorigins.org/faqs/behe/icsic.html. - Ian Musgrave, “Evolution of the Bacterial Flagella”, March 2000, http://cidw.rmit.edu.au/~e21092/flagella.htm. An updated version of this web page is currently in preparation.

19. Michael Behe, “Reply to My Critics: A Response to Reviews of Darwin's Black Box: The Biochemical Challenge to Evolution”, Biology and Philosophy 16: 685–709, 2001:

Il est maintenant clair que, même si le paradigme de la tapette reste bon, il existe une certaine ambiguïté dans la définition écrite, comme indiqué ci-dessous. Néanmoins, je pense que la définition peut être réparée.

20. Michael Behe, “A Response to Critics of Darwin's Black Box”, Discovery Institute, December 2001, http://www.iscid.org/papers/Behe_ReplyToCritics_121201.pdf :

Envisager l’IC en termes d’étapes sélectionnées ou non sélectionnées met donc l’accent sur le processus d’essai de construction du système. Je pense que l’un des gros avantages est que cela encourage les gens à faire attention aux détails ; J'espère que cela encouragera les partisans du darwinisme (des scénarios qui pourraient être vérifiés à titre expérimental) et découragera les histoires had-oc qui sautent de nombreuses étapes sans faire de commentaires. Donc, avec ces idées en tête, je propose la définition évolutive provisoire suivante de la complexité irréductible : Une voie évolutive complexe irréductiblement est une voie qui contient une ou plusieurs étapes non sélectionnées (c'est-à-dire une ou plusieurs mutations nécessaires mais non sélectionnées). Le degré de complexité irréductible est le nombre d’étapes non sélectionnées dans le parcours.

21. J'utilise le terme complexité fonctionnelle dans un sens vague pour désigner le type de complexité que nous reconnaissons intuitivement lorsque nous examinons des machines et des organismes.

22. Dembski cite Joseph Culberson dans un passage qui semble utiliser le terme recherche à l'aveugle dans le deuxième sens de Dembski (p. 196). Mais une lecture attentive de Culberson révèle qu’il utilise ce terme pour désigner tout algorithme de type boîte noire: “L’environnement agit comme une boîte noire, nous appelons cela le modèle de recherche de boîte noire ou de recherche aveugle …. [Wolpert et Macready] prouvent, dans un cadre formel, que tous les algorithmes d'optimisation ont un comportement moyen équivalent lorsqu'ils sont apposés à un tel environnement de boîte noire. ” Joseph Culberson, “Sur la futilité de la recherche aveugle”,  Evolutionary Computation/ 6(2), 1998. Une version antérieure de l'article peut être consultée en ligne à http://citeseer.nj.nec.com/culberson96futility.html.

23. William Dembski, “Why Natural Selection Can't Design Anything”, 2001, http://iscid.org/papers/Dembski_WhyNatural_112901.pdf.

24. Geoffrey Miller, “Technological Evolution As Self-Fulfilling Prophecy”, in J. Ziman (Ed.), Technological innovation as an evolutionary process (Cambridge U. Press, 2000). pp. 203-215, http://www.unm.edu/~psych/faculty/technological_evolution.htm.

25. David Wolpert and William Macready, “No Free Lunch Theorems for Search”, Santa Fe Institute Technical Report 95-02-010, 1995, http://citeseer.nj.nec.com/wolpert95no.html.

26. Le programme Weasel de Richard Dawkins étant déjà familier à de nombreux lecteurs, je ne le décrirai pas ici. La description originale de Dawkins se trouve dans The Blind Watchmaker (Penguin, 1991), p. 45-50. Vous trouverez un bref compte rendu en ligne à l’adresse http://www.talkorigins.org/faqs/fitness/, section 1.2.3. La description du programme donnée par Dembski dans No Free Lunch contient de graves erreurs. Dembski suit également une longue lignée de partisans du créationnisme et de la conception intelligente qui ont critiqué le programme Weasel pour ne pas avoir été ce que Dawkins n’a jamais prétendu qu’il était. Selon Dembski, Dawkins prétend que le programme “montre comment un algorithme évolutif peut générer une complexité spécifiée” (p. 181). En réalité, Dawkins n’appelle pas le programme Weasel un algorithme évolutif, ni ne prétend pouvoir “générer” une complexité quelle qu’elle soit. Le programme Weasel avait pour seul objectif d'illustrer la différence entre la sélection en une étape et la sélection cumulative. (Ces deux termes sont décrits en 6.8 ci-dessus.) Dawkins prend bien soin de l'exprimer clairement, bien que ce ne soit apparemment pas assez clair pour les anti-évolutionnistes. Dembski cite le passage suivant de Dawkins, mais ne semble pas l'avoir compris: Bien que le modèle singe / Shakespeare soit utile pour expliquer la distinction entre la sélection en une étape et la sélection cumulative, il est trompeur de manière importante. L'une d'elles est que, dans chaque génération de “sélection” sélective, les phrases “progénitures” mutantes ont été jugées en fonction du critère de ressemblance avec une cible idéale éloignée, la phrase METHINKS IT IS LIKE A WEASEL. La vie n'est pas comme ça. L'évolution n'a pas d'objectif à long terme. [p. 208] Dembski présente également une version révisée du programme, puis affirme de façon absurde que sa version, contrairement à l'original de Dawkins, ne comporte pas d'élément de “téléologie”, car elle explore l'espace de phase ”sans recours explicite à la cible“ (p 193). En réalité, les deux versions décrites par Dembski font explicitement appel à la cible en comparant chaque séquence d'essai à la séquence cible.

27. Voir, par exemple, Hugh Ross, “Design and the Anthropic Principle”, http://www.reasons.org/resources/apologetics/design.html. Pour une réfutation de l'argument de réglage fin cosmologique, voir Theodore Drange, “The Fine-Tuning Argument Revisited (2000)”, Philo 2000 (Vol. 3, No. 2), http://www.infidels.org/library/modern/theodore_drange/tuning-revisited.html.

28. David Wolpert and William Macready, “No Free Lunch Theorems for Optimization”, IEEE Transactions on Evolutionary Computation, 1(1):67-82, April 1997, http://citeseer.nj.nec.com/wolpert96no.html.

29. En termes de programme informatique, on peut penser à la fonction de fitness mise à jour par un autre module, distinct de l'algorithme d'optimisation. En raison de la contrainte de boîte noire, ce module supplémentaire, représentant des facteurs externes, n'est pas autorisé à communiquer avec le module d'algorithme d'une autre manière si nous souhaitons que les NFL soit appliqués.

30. Thomas Jansen, “On Classifications of Fitness Functions”, 1999, http://eldorado.uni-dortmund.de:8080/FB4/sfb531/1999/reiheCI76. Voir aussi : - Stefan Droste, Thomas Jansen and Ingo Wegener, “Perhaps Not a Free Lunch But At Least a Free Appetizer”, Proceedings of the 1st Genetic and Evolutionary Computation Conference (July 13-17, 1999, Orlando, FL), pages 833-839, http://citeseer.nj.nec.com/droste98perhaps.html. - Oliver Sharpe, “Beyond NFL: A Few Tentative Steps”, Genetic Programming 1998: Proceedings of the Third Annual Conference (July 22-25, 1998, University of Wisconsin), http://citeseer.nj.nec.com/296977.html. - Christian Igel and Marc Toussaint, “On Classes of Functions for which No Free Lunch Results Hold”, 2001, envoyé à  IEEE Transactions on Evolutionary Computationhttp://www.neuroinformatik.ruhr-uni-bochum.de/PEOPLE/mt/work/2001nfl/.

31. Dembski établit une fonction de fitness d'ordre supérieur F sur l'espace de phase Ω × J, où Ω est l'espace de phase d'origine et J est l'ensemble de toutes les fonctions de fitness possibles sur Ω. Il considère ensuite une recherche dans cet espace, c'est-à-dire une séquence de paires ordonnées (xi, fi), où xi est dans Ω et fi est dans J, avec Fi = fi (xi). Le F de Dembski est équivalent à la fonction de fitness temps-dépendant T considérée par Wolpert et Macready (28). Dans le Théorème NFL 2 de Wolpert et Macready, T est indépendant de l'algorithme, il ne peut donc pas prendre en compte la coévolution. Avec la coévolution, fi dépend de l'état actuel de la population.

32. Dembski est incohérent avec l’utilisation des termes informations spécifiées et CSI. Parfois, ce sont des “éléments” de la forme (T, E), où E est un résultat observé et T (ou cible) est un autre nom pour une zone de rejet détachable R (p. 142-143). Parfois, ce sont des propriétés qui sont exposées ou non par un phénomène (p. 151). Parfois, ce sont des quantités: “Parce que de petites quantités d'informations spécifiées peuvent être produites par hasard …” (p. 161); “La CSI dans un système fermé de causes naturelles reste constante ou diminue” (p. 163). Pour éviter les expressions interminables telles que “la quantité d'informations dans une information spécifiée” (p. 160), j'utiliserai l’information spécifiée (ou SI) dans le dernier de ces trois sens, c'est-à-dire en tant que quantité. J'utiliserai CSI dans le deuxième sens, c'est-à-dire comme attribut exposé ou non. Il faut comprendre que la probabilité utilisée dans le calcul de la SI ou de la CSI est toujours la probabilité d'une zone de rejet détachable R, et pas simplement la probabilité du résultat observé E lui-même.

33. Thomas Schneider, “Evolution of Biological Information”, Nucleic Acids Research, 28(14): 2794-2799, 2000, http://www.lecb.ncifcrf.gov/~toms/paper/ev/. Vous pouvez aussi trouver la réponse de Schneider au traitement de Dembski's de son travail : “Rebuttal to William A. Dembski's Posting and to His Book 'No Free Lunch'”, March 9 2002, http://www.lecb.ncifcrf.gov/~toms/paper/ev/dembski/rebuttal.html; et l’utile “Information Theory Primer”, http://www.lecb.ncifcrf.gov/~toms/paper/primer/.

34. Peut-être que le choix de la terminologie par Dembski a contribué à la confusion. L'espace de phase d'un algorithme d'optimisation est normalement appelé un espace de recherche, tandis que l'espace de phase d'une distribution de probabilité s'appelle un espace de résultats ou un espace d'échantillonnage. En utilisant toujours le terme espace de phase quel que soit le contexte, Dembski a brouillé cette distinction.

35. Il n'est pas clair si Dembski considère qu'il s'agit de 38 bits de complexité/information spécifiée (SI). Il dit bien que la séquence METHINKS est spécifiée, dans la mesure où il s’agit d’un “mot connu dans la langue anglaise”. Mais, si la spécification est “mot connu dans la langue anglaise”, il doit calculer la probabilité de dessiner n’importe quel mot anglais de 8 lettres, ce qui donne une valeur de complexité plutôt inférieure. En fait, Dembski écrit seulement que la complexité est limitée à 38 bits, mais pas précisément à 38 bits. Peut-être était-ce pour permettre des mots alternatifs de 8 lettres.

36. J'ai découvert lors de discussions antérieures sur les travaux de Dembski que son utilisation abusive de la théorie de l'information de Shannon avait causé une grande confusion. Bien que cela ne soit pas essentiel à ma critique, je vais tenter ici de dissiper une partie de cette confusion. Ma source principale est la The Mathematical Theory of Communication (théorie mathématique de la communication) (Univ. Of Illinois Press, 1949). Ce petit livre se compose de deux articles, chacun de Claude Shannon et de Warren Weaver. Une version antérieure (1948) mais en grande partie identique de l'article de Shannon est disponible en ligne à l'adresse http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html. Pour une introduction plus facile à la théorie de l'information, voir http://www.lecb.ncifcrf.gov/~toms/paper/primer/.

La théorie de l'information de Shannon concerne la transmission de messages via un canal de communication. La signification des messages est immatérielle. Tout ce qui compte est l'efficacité et la précision avec lesquelles les messages sont transmis. Les messages sont traités comme s'ils avaient été sélectionnés au hasard parmi un ensemble de messages possibles. Cela signifie que la même théorie peut également être utilisée en relation avec d'autres types d'événements probabilistes, dans lesquels l'occurrence d'un résultat est observée parmi un ensemble de résultats possibles.

Le taux de transmission de l'information est défini par Shannon comme suit:

R = H(x) - Hy(x)

Si nous pensons en termes de transmission d'un message, tiré au hasard d'un ensemble de messages possibles, d'un émetteur à un récepteur, alors H(x) est l'incertitude du récepteur sur le message qui a été (ou sera) transmis avant la réception d’un message. Hy(x) est l'incertitude du destinataire sur le message transmis après la réception d'un message. R peut également être considéré comme la réduction de l'incertitude résultant de la réception du message. Si le canal est exempt de bruit - le message reçu est donc toujours le même que celui envoyé - alors Hy(x) = 0 et R = H (x).

L’incertitude H(x) (ou simplement H) est définie comme suit:

H = - Σi=1…N pi log2pi

où il y a N messages possibles et où la probabilité que le message i soit transmis est pi.

Il est important de garder à l'esprit que R et H sont des taux, ou des moyennes (pondérés par la probabilité), basés sur l'ensemble des messages pouvant éventuellement être transmis. Ce ne sont pas des valeurs associées à la réception d'un message particulier. Il existe cependant une autre mesure, définie comme -log2pi , qui est associée à la réception d'un message spécifique. Il est parfois appelé surprise, d’après M. Tribus [Thermostatics and Thermodynamics (D. van Nostrand Co., 1961)], car il indique à quel point nous devrions être surpris de recevoir un tel message. L'incertitude H est alors égale à la surprise moyenne, sur tous les messages possibles, pondérée par la probabilité.

Il semble exister un désaccord sur la question de savoir quelle mesure est correctement connue sous le nom d’information de Shannon. Certains auteurs, y compris Dembski, appellent cette surprise les informations de Shannon associées à la réception d'un message spécifique. L'idée semble être que, si H est le taux de transmission de l'information moyenne pour tous les messages possibles, alors la surprise doit être l'information associée à la réception d'un message particulier.

Cependant, ce n'est pas l'usage de Shannon ou Weaver, qui se réfèrent à R comme l’information. Par conséquent, la plupart des théoriciens de l'information se réfèrent à R en tant qu'information de Shannon. L'expression -log2pi n'apparaît nulle part dans les journaux de Shannon et Weaver. Pour une chaîne de transmission sans bruit, Shannon assimile l'information à l'incertitude:

La quantité H possède un certain nombre de propriétés intéressantes qui la justifient davantage en tant que mesure raisonnable de choix ou d’information. [Shannon & Weaver, 1949, p. 51]

Weaver est plus explicite, et précise que l'information est une propriété de l'ensemble des messages possibles et non d'un message particulier:

Certes, ce mot information dans la théorie de la communication ne concerne pas tant ce que vous dites, que ce que vous pourriez dire. C'est-à-dire que l'information est une mesure de la liberté de choix quand on sélectionne un message. Si l'on est confronté à une situation très élémentaire dans laquelle il doit choisir l'un des deux messages alternatifs, on dit alors arbitrairement que l'information, associée à cette situation, est l'unité. Notez qu'il est trompeur (bien que souvent pratique) de dire que l'un ou l'autre message transmet des unités d’informations. La notion d'information ne s'applique pas aux messages individuels (comme la notion de sens le ferait), mais à la situation dans son ensemble, l'unité d'information indiquant que dans cette situation, on a une certaine liberté de choix pour choisir un message, qu’il convient de considérer comme une quantité standard ou unitaire. [Shannon & Weaver, 1949, p. 8-9]

Notez que, lorsque tous les résultats possibles sont également probables (c'est-à-dire que pi est une constante p), l'incertitude est réduite à - log2</subp: H = - Σ<sub>i=1…N pi log2pi H = - N . p log2p H = - N . 1/N . log2p H = - log2p

Cela ne doit pas être confondu avec la surprise, même si elle a la même formule. Pour un ensemble de résultats possibles qui sont tous également probable, la surprise de chaque résultat arrive à égaler l'incertitude de l'ensemble.

À titre d'exemple, considérons une main de 5 cartes distribuée à partir d'un jeu bien mélangé de 52 cartes. Il y a (52 × 51 × 50 × 49 × 48) / (5 × 4 × 3 × 2 × 1) = environ 2 millions de résultats possibles. Puisque tous les résultats sont également probables, p = 0,0000005 et l’incertitude (H) associée à la transaction est -log2 (0,0000005) = 21 bits, en utilisant la formule spéciale pour les distributions équiprobables que nous venons de calculer ci-dessus. Une fois que nous avons vu les 5 cartes, il n’y a aucune incertitude quant à ce qui a été distribué, donc Hy (x) = 0 et l’information de Shannon est donnée par R = 21 - 0 = 21 bits.

Supposons maintenant que, comme dans l'exemple de Dembski (p. 126-127), une quinte flush royale soit distribuée (10-J-Q-K-A dans un tirage). Il y a 4 flush royales possibles (une dans chaque combinaison), donc la probabilité d'une quinte flush royale est de 4 × 0.0000005 = 0.000002. La surprise de cet événement est donc -log2 (0,000002) = 19 bits.

Comme d’autres auteurs, Dembski appelle la surprise (-log2pi) l’information de Shannon (p. 230n16). Cela en soi n’est pas particulièrement important. Ce qui compte, ce n’est pas comment il appelle cette mesure, mais comment il l’utilise. Le problème est qu'il l'utilise simplement comme une mesure de probabilité déguisée. La fonction f (x) = -log2x est une fonction monotone, ce qui signifie qu'une plus grande surprise correspond toujours à une plus grande improbabilité. Chacune des déclarations de Dembski sur les informations pourrait tout aussi bien (et avec une plus grande clarté) être exprimée comme une déclaration sur l'improbabilité. Il utilise souvent les termes improbabilité, information et complexité de manière interchangeable. Dans l'index de The Design Inference, il a même une entrée pour “probabilité … informations déguisées”. En dissimulant ses probabilités sous forme d'informations, Dembski ajoute simplement une nouvelle couche d'obscurcissement à ses arguments, sans ajouter de valeur.

37. Kumar Chellapilla and David Fogel, “Co-Evolving Checkers Playing Programs using only Win, Lose, or Draw”, SPIE's AeroSense'99: Applications and Science of Computational Intelligence II (Apr. 5-9, 1999, Orlando, Florida), http://vision.ucsd.edu/~kchellap/Publications.html.

38. À proprement parler, chaque réseau neuronal d'une génération a une fonction fiteness différente, son environnement (la population des autres réseaux neuronaux) étant différent.

39. C'est pessimiste. Un léger chevauchement des plages (par exemple, W- un peu plus petit que D +) peut toujours donner un bon résultat.

40. Le regime de notation de Chellapilla and Fogel's est celui dans lequel W- = W+ = +1, D- = D+ = 0, and L- = L+ = -2.

41. L'information algorithmique ou complexité de Kolmogorov d'une séquence est la longueur du programme le plus court capable de générer la séquence. C'est donc une mesure d'incompressibilité.

42. Paul Davies, The Fifth Miracle (The Penguin Press, 1998), pp. 85-89.

43. Leslie Orgel, The Origins of Life (Chapman and Hall, 1973), p. 190.

44. Dawkins, en revanche, adopte une définition de la complexité basée sur la probabilité sous une distribution de probabilité uniforme, et c’est peut-être là que Dembski a eu l’idée. Dans The Blind Watchmaker, Dawkins écrit: <well>Essayons une autre solution dans notre quête d’une définition de la complexité et utilisons l’idée mathématique de probabilité. Supposons que nous essayions la définition suivante: une chose complexe est une chose dont les parties constitutives sont disposées de manière à ne pas provenir du hasard. Pour emprunter une analogie à un éminent astronome, si vous prenez les parties d’un avion de ligne et que vous les mélangez au hasard, la probabilité que vous assembliez un Boeing en état de fonctionnement est extrêmement réduite. Il existe des milliards de façons de rassembler les éléments d’un avion de ligne, et une seule, ou très peu d’entre elles, donnerait un avion de ligne. [Richard Dawkins, The Blind Watchmaker  (L'horloger aveugle) (Penguin, 1991), p. 7.]</ well> Bien que Dawkins emploie également le terme spécifié, il n’est pas clair que son terme ait le même sens que celui de Dembski. Bien qu'il ne soit pas tout à fait explicite, il semble que Dawkins nous demande de considérer toutes les fonctions que l'objet aurait pu avoir, et pas seulement la fonction particulière que nous observons, comme le permet le concept de Dembski. De plus, Dawkins mentionne brièvement un critère supplémentaire d'hétérogénéité, qui évite peut-être que des phénomènes hautement structurés soient classés comme complexes, comme cela se produit dans la version de Dembski. La définition de la complexité de Dawkins est peut-être également erronée, mais cela n'a pas beaucoup d'importance, car il l'utilise uniquement pour clarifier le type de système dont il parle, et cela ne joue pas un rôle important dans son argumentation : <well>Je suis conscient que ma description d'un objet complexe - statistiquement improbable dans une direction spécifiée sans recul - peut sembler idiosyncratique … Si vous préférez une autre manière de définir la complexité, je m'en fiche et je serais heureux d’accepter votre définition pour des raisons de discussion. [Richard Dawkins, The Blind Watchmaker  (L'horloger aveugle), p. 15.]</ well>

45. Richard Dawkins, The Blind Watchmaker, pp. 45-50.

46. la liste complète est disponible ici : William Dembski, “Intelligent Design Coming Clean”, Metaviews online forum, November 2000, http://www.discovery.org/viewDB/index.php3?program=CRSC%20Responses&command=view&id=534.

47. William Dembski, “Is Intelligent Design Testable?”, Metaviews online forum, January 2001, http://www.discovery.org/viewDB/index.php3?program=CRSC%20Responses&command=view&id=584.

48. Douglas Theobald, “The Opportunistic Nature of Evolution and Evolutionary Constraint”, The Talk.Origins Archive, http://www.talkorigins.org/faqs/comdesc/section3.html - Chris Colby & Loren Petrich, “Evidence for Jury-Rigged Design in Nature”, The Talk.Origins Archive, http://www.talkorigins.org/faqs/jury-rigged.html.

49. Pour une liste de predictions de la théorie évolutionnaire, voir : - Douglas Theobald, “29 Evidences for Macroevolution”, The Talk.Origins Archive, March 2002, http://www.talkorigins.org/faqs/comdesc/. - Don Lindsay, “Is Evolution Science?”, August 2001, http://www.don-lindsay-archive.org/creation/evo_science.html.

50. Douglas Theobald, “The One True Phylogenetic Tree”, The Talk.Origins Archive, http://www.talkorigins.org/faqs/comdesc/section1.html.

Cela ne servirait à rien à Dembski de souligner qu'il existe quelques exceptions à cette congruence. Les méthodes d'établissement des arbres phylogénétiques sont faillibles. La prédiction est seulement qu'il y aura un haut degré de congruence, pas une congruence parfaite.

51. Beth McMurtrie, “Darwinism Under Attack”, The Chronicle of Higher Education, December 21, 2001, http://chronicle.com/free/v48/i17/17a00801.htm.

52. L'accroche suivante est apparue sur la couverture du livre de Dembski Intelligent Design: The Bridge Between Science & Theology (voir http://www3.baylor.edu/~William_Dembski/docs_books/inteldes.htm): <well>William Dembski est l'Isaac Newton de la théorie de l'information et, puisqu'il s'agit de l'ère de l'information, cela fait de Dembski l'un des penseurs les plus importants de notre époque. Sa “loi de conservation de l'information” représente une avancée révolutionnaire. Dans Intelligent Design: The Bridge Between Science & Theology, Dembski explique le sens et la portée de ses découvertes avec une clarté telle que le grand public peut facilement les saisir. Il diagnostique de manière convaincante nos confusions actuelles sur la relation entre la science et la théologie et offre une alternative prometteuse. - Rob Koons, professeur agrégé de philosophie à l'Université du Texas à Austin</ well> Dembski et Koons sont tous deux membres du Discovery Institute's Center for the Renewal of Science & Culture (http://www.discovery.org/csc/), organisme créé spécifiquement dans le but de promouvoir le design intelligent. Ce type de mise en avnat mutuel des livres des uns et des autres est monnaie courante parmi les membres du Centre.

53. Keith Devlin, “Snake Eyes in the Garden of Eden”, The Sciences, July/August 2000, http://www.nyas.org/books/sci/sci_0700_devl.html

54. Keith Devlin souscrit à cette évaluation. (Communication personnelle.)

55. En réponse de mon enquête, Sam Northshield (auteur de cet article) répond: “Le travail que j'ai examiné était, si je me souviens bien, nettement plus philosophique que mathématique et je le considérais comme un travail philosophique. Je ne me rappelle pas avoir essayé de comprendre son contenu mathématique (soit parce que cela semblait difficile à suivre, soit parce qu'il n'y en avait pas, je ne me souviens plus lequel !). Ainsi, je ne peux rien dire sur l'exactitude du travail de Dembski et ma critique ne doit pas être interprété comme un jugement mathématique de l’œuvre. ”(Communication personnelle.)

56. Colin Howson & Peter Urbach, Scientific Reasoning: The Bayesian Approach (Open Court, 1993).

57. ibid., p. 181.

58. Theodore Drange, “The Fine-Tuning Argument (1998)”, http://www.infidels.org/library/modern/theodore_drange/tuning.html.

59. Pour une analyse très détaillée des effets de sélection par observation, voir Nick Bostrom, “Observational Selection Effects and Probability”, 2000, http://www.anthropic-principle.com/phd/.

60. Dembski, The Design Inference, pp. 182-183.

61. Howson & Urbach, Scientific Reasoning, pp. 179-180 (cité par Dembski, The Design Inference, pp. 199-200).

  • Dernière modification : 2020/12/09 16:11
  • de kawekaweau