Ceci est une ancienne révision du document !
Lien de la page originale : http://www.talkorigins.org/design/faqs/nfl/
Résumé
La vie, c'est comme une boîte de chocolat. Vous ne savez jamais ce que vous allez obtenir. Forrest Gump
Le livre No Free Lunch du Dr William Dembski a pour objectif de démontrer que le design (l'action d'un agent conscient) était impliqué dans le processus de l'évolution biologique. La critique suivante montre que ses arguments sont profondément imparfaits et ont peu à apporter à la science ou aux mathématiques. Pour répondre pleinement aux arguments de Dembski, il a fallu un article long et parfois technique. Ce résumé est donc destiné aux lecteurs qui n'ont pas le temps d'examiner tous les arguments.
Dembski a proposé une méthode d'inférence qui, dit-il, est une formulation rigoureuse de la manière dont nous reconnaissons habituellement le design. Si nous pouvons montrer qu'un événement ou un objet observé a une faible probabilité de se produire sous toutes les hypothèses (ou explications) autres que la conception que nous pouvons imaginer, Dembski nous dit d'inférer la conception. Cette méthode est purement éliminatoire - nous devons en déduire la conception lorsque nous avons rejeté toutes les autres hypothèses auxquelles nous pouvons penser - et est communément appelée un argument tiré de l'ignorance ou un dieu des lacunes.
Parce que les scientifiques et les philosophes de la science reconnaissent presque unanimement que les arguments reposant sur un dieu des lacunes sont invalides comme inférences scientifiques, Dembski s'efforce de dissimuler la nature de sa méthode. Par exemple, il insère un intermédiaire appelé complexité spécifiée: après avoir rejeté toutes les hypothèses non conceptuelles imaginables, il nous dit d'inférer que l'objet en question présente une complexité spécifiée, puis affirme que la complexité spécifiée est un indicateur fiable de la conception. .
Le seul objet biologique auquel Dembski applique sa méthode est le flagelle de la bactérie E. coli. En premier lieu, il tente de montrer que l'évolution darwinienne ne pouvait donner naissance au flagelle, faisant appel à une version modifiée de l'argument de Michael Behe à partir d'une complexité irréductible. Cependant, l'argument de Dembski souffre du même défaut fondamental que celui de Behe: il ne permet pas de changements dans le fonctionnement d'un système biologique au fur et à mesure de son évolution. Comme la méthode de Dembski est supposée être basée sur la probabilité et qu'il a promis aux lecteurs de ses travaux précédents un calcul de probabilité, il procède ensuite au calcul d'une probabilité pour l'origine du flagelle. Mais ce calcul est basé sur l'hypothèse que le flagelle est apparu soudainement, sous la forme d'une combinaison totalement aléatoire de protéines. Le calcul est complexe mais totalement hors de propos, car aucun biologiste de l'évolution ne propose que des systèmes biologiques complexes apparaissent de cette manière. En fait, il s'agit de la même hypothèse d'homme de paille fréquemment faite par les créationnistes dans le passé et qui a été comparée à un Boeing 747 assemblé par une tornade soufflant dans une décharge.
C'est tout ce qu'il y a dans l'argument principal de Dembski. Il avance ensuite un second argument dans lequel il tente de montrer que, même si des systèmes biologiques complexes ont évolué par évolution non dirigée, ils ne l’auraient pu que si un concepteur avait affiné la fonction fitness ou inséré des informations spécifiées complexes au début du processus.
L'argument de la mise au point des fonctions de fitness fait appel à un ensemble de théorèmes mathématiques appelés théorèmes e “No Free Lunch” (“Pas de repas gratuit”). Bien que ces théorèmes soient parfaitement clairs, ils n’ont pas les implications que Dembski leur attribue. En fait, ils ne s'appliquent pas du tout à l'évolution biologique. Tout cela ne laisse à l'argument de Dembski que l'affirmation selon laquelle la vie n'aurait pu évoluer que si les conditions initiales de l'Univers et de la Terre n’étaient parfaitement adaptées à cet objectif. C’est un vieil argument, généralement connu sous le nom d’argument issu du réglage cosmologique (et terrestre). Dembski n'a rien ajouté de nouveau à celui-ci.
Les informations spécifiées complexes (CSI) sont un concept de la propre invention de Dembski, qui est assez différent de toute forme d’information utilisée par les théoriciens de l’information. En effet, Dembski lui-même a déjà critiqué ses détracteurs pour avoir confondu CSI avec d'autres formes d'informations. Cette critique montre que CSI est défini de façon équivoque et ne caractérise pas les structures complexes comme Dembski le prétend. Sur la base de ce concept imparfait, il propose avec audace une nouvelle loi sur la conservation de l'information, qui est démontrée ici comme totalement dénuée de fondement.
Dembski affirme avoir apporté une contribution majeure aux domaines de la statistique, de la théorie de l'information et de la thermodynamique. Pourtant, son travail n'a été accepté par aucun expert dans ces domaines et n'a été publié dans aucune revue scientifique pertinente.
No Free Lunch consiste en une série de vieux arguments antivolutionnistes fatigués: dieu des lacunes, complexité irréductible, tornade dans une casse, et réglage cosmologique. Dembski tente de donner un nouveau souffle à ces vieux arguments en les cachant sous des voiles de terminologie déroutante et de calcul mathématique inutile. Le niveau d’érudition est extrêmement bas, et le livre est mieux considéré comme une rhétorique pseudoscientifique destinée à un public non averti qui pourrait confondre le charabia mathématique de Dembski avec l’érudition académique.
1. Introduction
Dans le théâtre de la confusion, ce qui compte, c'est de connaître l'emplacement des issues. Mason Cooley, aphoriste américain
Le livre de William Dembski, No Free Lunch: Why Specified Complexity Cannot be Purchased without Intelligence (Pourquoi la complexité spécifiée ne peut être achetée sans intelligence) 1) : est le dernier de ses nombreux livres et articles sur la conception inférée en biologie, et jouera probablement un rôle central dans la promotion de la pseudoscience 2) de la conception intelligente dans les prochaines années. C’est l’exposé le plus complet de ses arguments à ce jour. La présente critique a pour but de fournir un examen approfondi de ces arguments. Dembski lui-même s’est souvent plaint que ses détracteurs n’aient pas pleinement retenu ses arguments. Je pense que cette plainte est injustifiée, même si je conviens que certaines critiques formulées précédemment ont été mal formulées. Cette critique devrait permettre de régler ces plaintes.
Comme dans ses travaux précédents, Dembski définit mal ses propres termes, attribue de nouvelles significations aux termes existants (généralement sans préavis) et utilise nombre de ces termes de manière équivoque. Ses affirmations semblent souvent se contredire. Il introduit beaucoup de notation mathématique inutile. Ainsi, une grande partie de cet article sera consacrée à la corvée plutôt fastidieuse d’établir exactement ce que les arguments et les revendications de Dembski signifient réellement. J'ai essayé très fort de trouver des interprétations charitables, mais il en manque souvent. J'ai également demandé des éclaircissements à Dembski lui-même, mais aucun n'a été annoncé.
Il y a quelque temps, j'ai posté une critique 3) du précédent livre de Dembski, The Design Inference, 4) sur le forum en ligne Metaviews, auquel il contribue, soulignant les ambiguïtés fondamentales de ses arguments. Sa seule réponse fut de m'appeler “harceleur Internet” tout en refusant de traiter les questions que j'ai soulevées, au motif que “Internet est un forum peu fiable pour régler les problèmes techniques en statistique et en philosophie de la science” 5). Il a clairement lu ma critique, cependant, car il me reconnaît maintenant comme ayant contribué à son travail (p. XXIV). Certaines des ambiguïtés sur lesquelles j'avais attiré l'attention dans cette critique ont été résolues dans le présent volume, mais d'autres sont restées et de nombreuses nouvelles ont été ajoutées.
Certains lecteurs peuvent ne pas aimer le ton franchement méprisant que j'ai adopté à l'égard du travail de Dembski. Les critiques de la pseudoscience de la Conception Intelligente sont confrontés à un dilemme. S'ils discutent en termes académiques polis, les propagandistes de la conception intelligente l'utilisent comme preuve que leurs arguments retiennent l'attention des érudits, suggérant que cela implique un certain mérite. Si les critiques ignorent simplement les arguments de Intelligent Design, les propagandistes insinuent que c'est parce qu'ils ne peuvent pas y répondre. Ma solution à ce dilemme consiste à réfuter de manière approfondie les arguments, tout en précisant que je le fais sans accorder aucun respect à ces arguments.
Cette critique suppose une connaissance de base des mathématiques, de la théorie des probabilités et de la théorie de l'évolution du lecteur. Afin de simplifier certains de mes arguments, j'ai relégué de nombreux détails aux notes de fin, auxquelles on peut accéder par des liens numérotés. Dans certains cas, les assertions qui ne sont pas justifiées dans le corps du texte sont appuyées par des arguments dans les notes de fin.
Les citations composées uniquement de numéros de page font référence à des pages de No Free Lunch.
Malheureusement, certains navigateurs plus anciens ne peuvent pas afficher un certain nombre de symboles mathématiques utilisés dans cet article. Netscape 4 en fait partie.
2. Design et Nature
Au printemps, quand les bois deviennent verts, Je vais essayer de vous dire ce que je veux dire. Lewis Carroll, de l'autre côté du miroir (Humpty Dumpty)
Pour un livre axé sur la conception, il est étonnant de découvrir que No Free Lunch ne définit pas clairement le terme. Le design est assimilé à un agent intelligente, mais ce terme n'est pas défini non plus. Il est également décrit négativement comme le complément de la nécessité (processus déterministes) et du hasard (processus stochastiques). Cependant, les processus déterministes et stochastiques sont généralement définis comme des compléments mutuellement exhaustifs: les processus qui ne comportent aucune incertitude et ceux qui le font. Il est donc difficile de savoir ce qui reste, le cas échéant, après l’exclusion de ces deux catégories. Dembski associe le design aux actions des animaux, des êtres humains et des divinités, mais semble nier l’étiquette aux actions des ordinateurs, quelle que soit l’innovation de leur production. Qu'est-ce qui distingue un esprit d'animal, par exemple, d'un ordinateur? De toute évidence, il existe de nombreuses différences physiques. Mais pourquoi les actions de l’un devraient-elles être considérées comme du design et non de l’autre? La seule explication à laquelle je puisse penser est que l'un est conscient et l'autre, vraisemblablement, ne l'est pas. Je conclus que, lorsqu'il infère le design, Dembski signifie qu'un esprit conscient a été impliqué.
Il semble que Dembski considère la conscience comme un type de processus très spécial, qui ne peut être attribué aux lois physiques. Il nous dit que la conception intelligente n'est pas une explication mécaniste (pp. 330-331). Dembski ne serait certainement pas seul dans cette perspective, bien que la signification d'un processus non-mécaniste ne soit pas claire. Il semble toutefois qu'un tel processus ne relève pas du domaine des causes et des effets. Cela soulève toutes sortes de questions philosophiques difficiles, que je ne tenterai pas de considérer ici. Même si nous acceptons l’existence de processus non mécanistes, Dembski ne nous donne aucune raison de penser que la conscience (ou conception intelligente) soit le seul type possible de processus non mécaniste. Pourtant, il semble supposer que tel est le cas.
Même avec cette interprétation, nous rencontrons toujours un problème. Dans son exemple de Caputo (p. 55), Dembski utilise son inférence de conception pour distinguer deux explications possibles impliquant toutes deux l’action d'un être conscient: soit Caputo a tiré les bulletins de vote équitablement, soit il a triché. Dembski considère que seule la seconde de ces alternatives comme conçue. Mais les deux explications impliquent un agent conscient. On pourrait dire que, si Caputo tire de manière juste, il ne fait que simuler l’action d’un dispositif mécaniste, alors cela ne compte pas. Mais cela poserait la question de savoir ce qu’un dispositif mécaniste est capable de faire. Un ordinateur sophistiqué n'est-il pas capable de tricher? En effet, existe-t-il une action d'un esprit humain qui ne puisse, en principe, être imitée par un ordinateur suffisamment sophistiqué? Si non, comment pouvons-nous faire la différence entre un design conscient et un ordinateur imitant un design? Même si vous doutez en principe qu'un ordinateur puisse imiter toutes les actions d'un esprit humain, demandez-vous s'il peut imiter les actions d'un rat, que Dembski considère également comme un agent intelligent capable de conception (p. 29-30).
Pour échapper à ce dilemme, Dembski invoque le concept d'intentionnalité dérivée: la sortie d'un ordinateur peut “présenter un dessein”, mais le dessein a été réalisé par le créateur de l'ordinateur et non par l'ordinateur lui-même (p. 223, 326). Chaque fois qu'un phénomène présente une conception, il doit exister un concepteur (un esprit conscient, selon mon interprétation) quelque part dans la chaîne causale des événements menant à ce phénomène.
Dembski affirme que la science contemporaine refuse le design comme mode légitime d’explication (p. 3). Mais il cite lui-même des exemples de scientifiques faisant des déductions impliquant une intervention humaine, comme celle des archéologues selon laquelle certaines pierres sont des pointes de flèches fabriquées par les premiers humains (p. 71), et il appelle cela “déductions de conception”. Affirme-t-il que de tels archéologues sont des non-conformistes opérant en dehors des limites de la science traditionnelle? Je ne pense pas. Je pense que ce que Dembski veut vraiment dire ici est que la science contemporaine ne permet pas d'explications impliquant des processus non mécanistes, et il projette sa propre conviction que le design est un processus non mécaniste dans la science contemporaine. Mais même s'il est vrai que la science n'autorise pas les explications impliquant des processus non mécanistes, elle permet certainement d'inférer l'action d'un esprit, et il n'est pas nécessaire de déterminer si les processus mentaux sont mécanistes ou non.
Une autre interprétation de l’affirmation de Dembski pourrait être que la science contemporaine refuse le design comme mode légitime d’explication pour l’origine des organismes biologiques. Si c'est ce qu'il veut dire, je rejette l’affirmation. Si nous devions découvrir les vestiges d'une ancienne civilisation extraterrestre avec des récits détaillés de la manière dont les extraterrestres ont manipulé les organismes, alors je pense que la science traditionnelle aurait peu de difficulté à accepter cela comme preuve de la conception dans des organismes biologiques.
Le mot naturel a été la source de beaucoup de confusion dans le débat sur le design intelligent. Il a deux significations distinctes: l’un est le complément de artificiel, c’est-à-dire impliquant un agent intelligent; l'autre est le complément du surnaturel. Dembski nous dit qu'il utilisera le mot dans le sens premier du terme: “… je place les causes naturelles en opposition aux causes intelligentes” (p. Xiii). Il poursuit ensuite en affirmant que la science contemporaine est liée à un principe de matérialisme méthodologique :
Selon le matérialisme méthodologique, pour expliquer tout phénomène naturel, les sciences naturelles ne sont autorisées à invoquer que des causes naturelles à l'exclusion des causes intelligentes. [p. xvi]
Mais le naturalisme méthodologique sur lequel insistent la plupart des scientifiques n'exige que le rejet d'explications surnaturelles, et non d'explications impliquant une action intelligente. En effet, nous venons de voir que la science contemporaine permet des explications impliquant des concepteurs humains et, selon moi, des êtres extraterrestres intelligents. Peut-être ce que Dembski signifie réellement, c'est que le naturalisme méthodologique rejette l'invocation d'un “concepteur non incarné” (pour utiliser son terme) 6).
Dembski introduit le terme hypothèse de hasard pour décrire les explications proposées qui reposent entièrement sur des causes naturelles. Cela inclut les processus comprenant des éléments de hasard et de nécessité (p.15), ainsi que les processus purement déterministes. Il peut sembler étrange de considérer les hypothèses purement déterministes comme des hypothèses fortuites, mais Dembski nous dit que “la nécessité peut être considérée comme un cas particulier de hasard dans lequel la distribution de probabilité qui régit la nécessité réduit toutes les probabilités à zéro ou à un” (p.71). ). Dembski définissant le design comme le complément du hasard et de la nécessité, il s'ensuit qu'une hypothèse de hasard pourrait tout aussi bien (et avec plus de clarté) être appelée une hypothèse de non-design. Et puisqu'il définit les causes naturelles comme le complément de la conception, nous pouvons également appeler les hypothèses fortuites des hypothèses naturelles. L'utilisation par Dembski de l'hypothèse de “hasard” a créé une grande confusion dans le passé, de nombreuses personnes ayant compris que cela voulait dire purement aléatoire, c'est-à-dire que tous les résultats étaient également probables. Bien que l'utilisation de Dembski ait été clarifiée dans No Free Lunch, je pense qu'elle peut encore être confuse. Par souci de cohérence avec le travail de Dembski, j'utiliserai généralement le terme hypothèse de hasard, mais je vais passer au synonyme hypothèse de naturelle ou à hypothèse de non-conception lorsque je pense que cela augmentera la clarté.
3. la méthode d’limination de la Chance
Ignorance, madame, pure ignorance. Samuel Johnson (lorsqu'on lui a demandé comment il en était arrivé à définir un mot de manière incorrecte dans son dictionnaire)
Dans le chapitre 2 de No Free Lunch, Dembski décrit une méthode de déduction de la conception basée sur ce qu'il appelle l'argument d'élimination générique de la chance (Generic Chance Elimination Argument.). Je me référerai à cette méthode comme la méthode de chance-élimination. Cette méthode suppose que nous avons observé un événement et souhaite déterminer si une conception a été impliquée dans cet événement. La méthode d'élimination du hasard est éliminatoire - elle repose sur le rejet des hypothèses du hasard. Dembski propose deux méthodes pour éliminer les hypothèses hasard: une méthode statistique pour éliminer les hypothèses hasard individuelles et les généralisations proscriptives pour éliminer des catégories entières d'hypothèses aléatoires.
3.1 Méthode statistique de Dembski
L’intuition fondamentale de la méthode statistique de Dembski est la suivante: nous avons observé un événement particulier (résultat) E et souhaitons vérifier si une hypothèse donnée du hasard *H* fournit une explication raisonnable de ce résultat.7) Nous sélectionnons une zone de rejet appropriée (un ensemble de résultats potentiels) R, où E est dans R, et calculons la probabilité d’observer un résultat dans cette zone de rejet étant donné que *H* est vrai, c’est-à-dire P (R/*H*). Si P (R/H) <α, où α est une probabilité appropriée liée, nous considérons qu’il est invraisemblable qu’un événement d’une probabilité aussi faible ait pu se produire. Nous rejetons donc l’hypothèse fortuite H qui a donné lieu à cette probabilité faible.
Il est important de noter que nous devons combiner les probabilités de tous les résultats dans une zone de rejet appropriée et ne pas simplement prendre la probabilité du résultat particulier observé, car les résultats peuvent individuellement avoir de petites probabilités sans que leur occurrence ne soit significative. Une zone de rejet qui est appropriée pour être utilisée de cette manière est dite détachable du résultat observé, et une description d'une zone de rejet détachable est appelée une spécification (bien que Dembski utilise souvent les termes zone de rejet et spécification de manière interchangeable).
Prenons l'exemple préféré de Dembski, l'affaire Caputo (p. 55-58). Un homme politique démocrate, Nicholas Caputo, était responsable de procéder à un tirage au sort pour déterminer l'ordre dans lequel les deux partis (démocrate et républicain) seraient inscrits sur des bulletins de vote. Occuper la première place sur le bulletin de vote était connu pour conférer un avantage au parti lors des élections, et il a été observé que Caputo avait tiré au sort un démocrate pour occuper cette position privilégiée. En 1985, Caputo aurait délibérément manipulé les tirages au sort pour donner à son propre parti un avantage indu. Le tribunal qui a examiné l'allégation contre Caputo a noté que la probabilité de choisir son propre parti 40 fois sur 41 était inférieure à 1 sur 50 milliards, et a conclu que “confrontés à ces probabilités, peu de gens rationnels accepteraient l'explication du simple hasard”. . “8) En effectuant sa propre analyse de cet événement, Dembski arrive avec la même probabilité que le tribunal et explique le raisonnement qui sous-tend sa conclusion. L’hypothèse hasard H, qui est selon lui, que Caputo a procédé au tirage au sort équitablement, chaque parti (D et R) ayant une probabilité sur deux d'être sélectionnée à la première place.
Supposons que nous ayons observé une séquence typique de 41 tirages, comme suit: DRRDRDRRDDDRDRDDRDRRDRRDRRRDRRRDRDDDRDRDD
La probabilité que cette séquence précise se produise, H, est extrêmement petite: (1/2)^^41 = 4,55 × 10^-13. Cependant, à moins que cette séquence particulière ait été prédite à l'avance, nous ne considérerions pas le résultat comme exceptionnel, malgré sa faible probabilité, car il était très probable qu'une telle séquence d'aspect aléatoire se produirait. La séquence historique, d’autre part, ne contenait qu’un seul R et ressemblait donc à ceci:
DDDDDDDDDDDDDDDDDDDDDDRDDDDDDDDDDDDDDDDDD
La deuxième séquence (appelez-la E) a exactement la même probabilité que la première, c'est-à-dire P (E | H) = 4,55 × 10^-13, mais cette fois nous la considérerions comme exceptionnelle, car la probabilité d'observer autant de D est extrêmement petit. Tout résultat montrant autant de D que celui-ci (40 D ou plus sur 41 tirages au sort) serait considéré au moins comme exceptionnel. La probabilité qui nous intéresse est donc la probabilité d'observer 40 D ou plus. “40 D ou plus” est donc notre spécification, et il se trouve qu'il y a 42 séquences différentes correspondant à cette spécification, donc P (R | H) = 42 × P (E | H) = 1,91 × 10^-11 ou environ 1 sur 50 milliards. En d'autres termes, la probabilité qui nous intéresse ici n'est pas la probabilité de la séquence exacte observée, mais la probabilité d'observer un résultat correspondant à la spécification. Si nous décidons que cette probabilité est suffisamment petite, nous rejetons *H*, c’est-à-dire que nous déduisons que les tirages de Caputo n’étaient pas équitables. A partir de maintenant, j'utiliserai l'expression “petite probabilité” pour signifier “probabilité inférieure à une probabilité appropriée”.
Pour appliquer la méthode de Dembski, nous devons savoir comment sélectionner une spécification appropriée et une limite de probabilité. Dembski expose en détail un ensemble de règles pour la sélection de ces paramètres, mais elles peuvent être résumées comme suit:
* Une spécification appropriée est simplement une spécification qui peut être dérivée (dans un sens vague) des connaissances de base qui nous étaient disponibles avant d’observer l’événement en question. Par exemple, lorsque Dembski applique sa méthode au flagellum bactérien - son seul exemple biologique -, il ne se donne pas la peine d’utiliser les règles techniques qu’il a précédemment développées, ni même d’énoncer explicitement la spécification. En lisant entre les lignes, sa spécification semble être “tout ce qui a la fonction d’un moteur rotatif hors-bord”, et la seule justification qu’il donne à cette spécification est la déclaration selon laquelle “les humains ont mis au point des moteurs rotatifs hors-bord bien avant de comprendre que le flagelle était une telle machine ”(p. 289).
* Dembski fait la distinction entre des limites de probabilité locales et universelles. Un lien de probabilité locale est celui qui est calculée aux fins d'un test statistique particulier.9) La procédure de calcul d'une telle limite est difficile et hautement arbitraire (p. 83), de sorte que Dembski a généralement recours à sa limite de probabilité universelle. C’est un très petit nombre, 10^-150 (c’est-à-dire 1 sur 10^150), qui, selon Dembski, est la plus petite probabilité limite dont nous ayons besoin, et que nous pouvons toujours utiliser en l’absence d’une limite de probabilité locale appropriée. Il la calcule en multipliant le nombre de particules élémentaires dans l'univers, le nombre maximal possible de transitions de particules élémentaires (l'inverse du temps de Planck) par seconde, et le nombre de secondes sur un milliard de fois l'âge actuel de l'univers, jusqu'à donnez un chiffre qui, fait-il valoir, est le nombre maximal de ressources probabilistes que nous devons prendre en compte (p. 22):
10^80 × 10^45 × 10^25 = 10^150
Bien que je pense que la méthode statistique de Dembski est sérieusement imparfaite, la question n’est pas importante pour réfuter l’inférence de conception de Dembski. Pour le reste du corps de cette critique, je vais donc supposer, pour des raisons de thèse, que la méthode est valide. Une discussion sur les défauts sera laissée à une annexe. Il convient toutefois de noter que cette méthode n'a été publiée dans aucun journal professionnel de statistiques et ne semble avoir été reconnue par aucun autre statisticien.
3.2 Généralisations proscriptives
Dembski soutient qu'il est possible d'éliminer des catégories entières d'hypothèses aléatoires au moyen de généralisations proscriptives. Par exemple, il mentionne la deuxième loi de la thermodynamique, qui interdit la possibilité d'une machine à mouvement perpétuel. Il décrit la logique de telles généralisations en termes d'invariants mathématiques (p. 274), bien que cela n'ajoute absolument rien à son argument. J'accepte que des généralisations proscriptives puissent parfois être faites, et Dembski est invité à les utiliser pour éliminer des catégories spécifiques d'hypothèses de hasard. Mais il n'y a pas de généralisation proscriptive qui puisse exclure toutes les hypothèses de hasard. De plus, sa prétention d'avoir trouvé une généralisation proscriptive contre l'évolution darwinienne de systèmes irréductiblement complexes est sans fondement (voir 4.2 ci-dessous).
3.3 L'argument d'ignorance
La conclusion de l'argument d'élimination du hasard générique (étape 8) est énoncée par Dembski comme suit:
S [le sujet qui fait l'inférence] est fondé sur la déduction que E [le résultat observé] ne s'est produit selon aucune des hypothèses aléatoires de {Hi} i in I et que, par conséquent, E présente une complexité spécifiée. [p. 73]
{Hi} est l'ensemble de toutes les hypothèses de chance que nous pensons “aurait pu fonctionner pour produire E” (p.72). Dembski écrit aussi:
Mais que se passe-t-il une fois trouvé un mécanisme causal tenant compte d'une instance donnée d'une complexité spécifiée? Quelque chose de spécifique et de complexe est hautement improbable pour tous les mécanismes causaux actuellement connus. Par conséquent, si un mécanisme causal se présente et explique quelque chose qui était considéré auparavant comme spécifié et complexe, cela signifie que l'élément en question n'est en fait plus spécifié et complexe par rapport au mécanisme causal récemment découvert. [p. 330]
Ainsi, lorsque nous avons éliminé toutes les hypothèses de chance auxquelles nous pouvons penser, nous en déduisons que l'événement était hautement improbable en ce qui concerne tous les mécanismes causaux connus, et nous appelons cela complexité spécifiée. Plus tard, Dembski nous dit qu'une inférence de complexité spécifiée devrait inévitablement conduire à une inférence de conception. Cela étant, il n’est pas clair que la notion de complexité spécifiée soit utile à cet égard. Pourquoi ne pas couper l'intermédiaire et passer directement de l'argument générique d'élimination du hasard à la conception? Malheureusement, l’introduction de cet intermédiaire sert à créer une confusion considérable, car Dembski use de faux-semblants entre ce sens de complexité spécifiée et le sens attribué à sa méthode d’inférence à probabilité uniforme (que je vais expliquer dans la section 6). Pour dissiper cette confusion, je ferai référence à ce sens d'intermédiaire comme complexité spécifiée éliminative et à l'autre sens, à une complexité spécifiée à probabilité uniforme. Notez que la complexité spécifiée de Dembski n'est pas une quantité: un événement présente simplement la complexité spécifiée ou ne le fait pas.
Ainsi, nous voyons que la méthode de la chance-élimination est purement éliminative. Il nous dit de déduire la conception lorsque nous avons éliminé toutes les hypothèses aléatoires (c’est-à-dire non conçues) que nous pouvons imaginer. L'hypothèse de conception ne dit absolument rien sur l'identité, la nature, les objectifs, les capacités ou les méthodes du concepteur. En fait, cela signifie simplement “qu'un designer l'a fait” .10)
Ce type d'argument est communément appelé argument de l'ignorance ou de l'argument dieu-bouche-trou. Pour éviter tout malentendu, permettez-moi de préciser que l'accusation d'argumentation fondée sur l'ignorance n'est pas une affirmation selon laquelle les auteurs de l'argument ignorent les faits, ou même qu'ils n'utilisent pas les faits disponibles. Les partisans d'un argument d'ignorance demandent que leur explication soit acceptée simplement parce que la communauté scientifique ignore (au moins partiellement) comment un événement s'est produit, plutôt que parce que leur propre explication s'est révélée bonne. Notez qu'un argument de l'ignorance scientifique diffère de la déduction fallacieuse de l'argument de l'ignorance. L'erreur fallacieuse prend la forme suivante: “Ma proposition n'a pas été prouvée fausse, elle est donc vraie.” L'argument scientifique de l'ignorance n'est pas une erreur déductive, car les inférences scientifiques ne sont pas des arguments déductifs. Un argument de dieu-bouche-trou est un argument d'ignorance dans lequel l'hypothèse par défaut, à accepter si aucune hypothèse alternative n'est disponible, est “Dieu l'a fait”. Puisque Dembski nous dit que son critère n'inférerait que l'action d'un concepteur inconnu, et pas nécessairement divin, le terme concepteur des lacunes serait peut-être plus approprié ici, mais je pense qu'il est raisonnable d'utiliser le terme plus familier, puisque les arguments suivent le même schéma éliminatoire et que Dembski a bien précisé que le concepteur qu’il a en tête est le dieu chrétien. L'argument du dieu des lacunes ne doit pas être confondu avec une théologie du dieu des lacunes. Cette derniere propose que les actions de Dieu soient limitées aux domaines pour lesquels nous manquons de connaissances, mais ne propose pas cela comme argument pour l'existence de Dieu.
Dembski ne plaide pas pour l'attribution d'un statut aussi privilégié à l'hypothèse de conception. Pourquoi devrions-nous préférer “un concepteur inconnu l'a fait” à “des causes naturelles inconnues l'ont fait” ou même “nous ne savons pas ce qu'il a fait”? De plus, comme nous le verrons, il nous dit d’accepter la conception par élimination, même lorsque nous avons quelques idées pour expliquer comment des causes naturelles auraient pu le faire.
3.4 Réponses de Dembski à l'accusation d'argumentation fondée sur l'ignorance
Comme les scientifiques et les philosophes de la science rejettent presque universellement les arguments de l'ignorance, Dembski est sensible à l'accusation, mais ses tentatives pour éviter de faire face à l'évidence ne sont que des évasions.
En réponse à cette critique, notons d’abord que, même si la complexité spécifiée est établie au moyen d’un argument éliminatoire, il n’est pas juste de dire qu’elle s’établit au moyen d’un argument purement éliminatoire. Si l’argument était purement éliminatoire, il serait justifié de dire que le passage de la complexité spécifiée à une intelligence de conception est un argument tiré de l’ignorance (c’est-à-dire pas X donc Y). Mais contrairement à l'approche de Fisher en matière de test d'hypothèses, dans laquelle les hypothèses de hasard individuelles sont éliminées sans référence à l'ensemble des hypothèses aléatoires pertinentes susceptibles d'expliquer un phénomène, la complexité spécifiée suppose que l'ensemble complet des hypothèses aléatoires pertinentes ait d'abord été identifié. Cela prend en compte une base de connaissances considérables. De plus, il faut beaucoup de connaissances de base pour trouver le bon modèle (c.-à-d. la spécification) pour éliminer toutes ces hypothèses de hasard et donc pour en déduire la conception. [p. 111]
Dembski interprète mal l'accusation d'argumentation par ignorance. Ce n’est pas une question de savoir combien de connaissances nous avons utilisées. Les connaissances scientifiques sont toujours incomplètes. La méthode d'élimination du hasard est purement éliminatoire, car elle n'essaie pas de considérer le bien-fondé de l'hypothèse de conception, mais repose simplement sur l'élimination des alternatives disponibles.
Les inférences de conception qui déduisent la conception en identifiant la complexité spécifiée ne sont donc pas purement éliminatoires. Ils ne font pas qu'exclure, mais ils excluent d'un ensemble exhaustif dans lequel le design est tout ce qui reste une fois que l'inférence a fonctionné (ce qui ne veut pas dire que l'ensemble est logiquement exhaustif; il s'agit plutôt d'une liste exhaustive par rapport à l’état de l'enquête en question - c’est tout ce que nous pouvons jamais faire en science). Les déductions de conception, en identifiant la complexité spécifiée, excluent tout ce qui pourrait à son tour exclure la conception. [p. 111]
L'expression “exhaustive en ce qui concerne l'enquête en question” de Dembski est le type de circonlocution dans lequel il excelle. Cela signifie simplement que l'ensemble est aussi exhaustif que possible. En d’autres termes, c’est une façon élégante de dire que nous avons éliminé toutes les hypothèses de chance auxquelles nous pouvions penser.
Les déductions de conception éliminent donc le hasard dans le sens global, en fermant la porte à toutes les explications de hasard pertinentes. Certes, cela ne peut être fait avec une finalité absolue car il est toujours possible qu'une distribution de probabilité cruciale ait été omise. Néanmoins, le sceptique en matière de conception ne se limite pas à remarquer que le fait d'ajouter une nouvelle explication de hasard au mélange peut bouleverser l'inférence de conception. Au lieu de cela, le sceptique doit proposer explicitement une nouvelle explication de hasard et plaider pour sa pertinence par rapport au cas d'espèce. [pp. 67-68]
Ceci est un argument clair par ignorance. À moins que les sceptiques du design ne puissent proposer une explication naturelle explicite, nous devrions en déduire la conception, nous dit Dembski.
Pour quelque événement que ce soit, il existe une distribution de probabilité qui concentre toute probabilité sur cet événement et lui attribue ainsi une probabilité de un. Par conséquent, cela n’a aucun sens de critiquer ma généralisation de l’approche de Fisher en matière de test d’hypothèses pour ne pas avoir tenu compte de toutes les hypothèses fortuites possibles. [p. 70]
On ne reproche pas à Dembski d’avoir omis d’éliminer toutes les hypothèses fortuites, mais bien d’avoir adopté une méthode purement éliminatoire.
Les archéologues déduisent que certains morceaux de roche sont des pointes de flèches. Les détectives déduisent que certains décès ont été délibérés. Les cryptographes en déduisent que certaines chaînes de symboles d'aspect aléatoire sont en réalité des messages chiffrés. Dans tous les cas, ils peuvent se tromper et des connaissances supplémentaires pourraient révéler une hypothèse fortuite et plausible derrière ce qui semblait à l'origine avoir été conçu. Mais de telles possibilités en elles-mêmes ne font rien pour renverser notre confiance dans les inférences de conception. [p. 71]
Oui, ces inférences de conception sont faillibles, de même que toutes les inférences scientifiques. Ce n'est pas le problème. La différence est que ces inférences ne sont pas purement éliminatoires. Les experts en question ont à l’esprit un type particulier de concepteurs intelligents (êtres humains) dont ils connaissent grandement les capacités et les motivations. Ils peuvent donc comparer les avantages d'une telle explication avec ceux d'autres explications.
Si Dembski souhaite défendre des arguments dieu-bouche-trou en tant que mode légitime d'inférence scientifique, il est encouragé à essayer. Ce qui est moins bien accueilli, ce sont ses tentatives de déguiser sa méthode en quelque chose de plus acceptable.
3.5 Inférences comparatives et éliminatoires
Dembski tente notamment de défendre sa méthode en suggérant qu’il n’y a pas d’alternative viable. L'alternative évidente consiste toutefois à examiner toutes les hypothèses disponibles, y compris les hypothèses de conception, sur le fond, puis à sélectionner les meilleures. C'est la position adoptée par presque tous les philosophes de la science, bien qu'ils soient en désaccord sur la manière d'évaluer le bien-fondé des hypothèses. Il ne semble pas y avoir de raison de traiter les inférences impliquant des agents intelligents différemment des autres inférences scientifiques.
Dembski s'oppose assez longuement à la légitimité des approches comparatives de l'inférence (pp. 101-110, 121n59). Je n'aborderai pas les détails de l'approche par la vraisemblance, sur laquelle il concentre son tir. Je laisse cela à ses partisans. Cependant, son rejet des inférences comparatives est clairement intenable. Lorsque nous disposons de deux hypothèses plausibles ou plus, qu’il s’agisse d’agents intelligents ou non, nous devons utiliser une méthode comparative pour les départager.
Prenons, par exemple, le cas des archéologues qui font des inférences sur le fait que les silex sont des pointes de flèches fabriquées par les premiers hommes ou bien des morceaux de roche naturels. Prenons un cas limite, dans lequel un groupe d'archéologues est divisé sur le fait de savoir si un silex donné, pris sur un site habité par des humains primitifs, est une pointe de flèche. Supposons maintenant qu’au même panel, on ait présenté le même silex, mais que celui-ci provenait d'un endroit qui n'a jamais été habité par des humains utilisant du silex, disons l'Antarctique. Les archéologues seraient maintenant beaucoup plus enclins à douter que le silex soit fabriqué par l'homme et plus enclins à l'attribuer à des causes naturelles. Une plus petite proportion (peut-être même aucune) n’inférerait maintenant la conception. L'inférence de conception, donc, était clairement influencée par des facteurs affectant la plausibilité de l'hypothèse de conception: si l'on savait ou non que des humains utilisant du silex vivaient dans la région. L'inférence ne repose pas uniquement sur l'élimination des hypothèses naturelles.
Mon intention n’est pas de plaider en faveur d’une méthode particulière de comparaison d’hypothèses. Les philosophes des sciences ont proposé un certain nombre d'approches comparatives, associant généralement les critères suivants:
* Vraisemblance. La probabilité que la preuve se produise compte tenu de l'hypothèse en question. * Plausibilité ou probabilité préalable. Notre degré de confiance dans l'hypothèse avant d'observer la preuve ou si nous ne l'avions pas observée. * Pouvoir prédictif. La mesure dans laquelle l'hypothèse détermine quelles observations potentielles sont possibles (ou probables) et lesquelles sont impossibles (ou improbables). * Opposabilité. La mesure dans laquelle l'hypothèse “risque” d'être contredite par de nouvelles preuves. * Parcimonie. La mesure dans laquelle l'hypothèse observe le principe du rasoir d'Occam: “Ne multipliez pas les entités inutilement.” 11)
Parmi les autres critères souvent cités figurent le pouvoir explicatif, les antécédents, la portée, la cohérence et l’élégance.
En opposant des méthodes comparatives, Dembski soutient que les hypothèses peuvent être éliminées isolément sans qu'il y ait nécessairement un concurrent supérieur. Sur le plan pratique, je suis d’accord, bien que je soupçonne que nous n’éliminerions une hypothèse que si nous avions bien à l’esprit l’existence une possibilité plausible d’une meilleure explication. Je ne nie pas que nous puissions éliminer une hypothèse sans en avoir une meilleure à l’esprit; Je nie que nous puissions accepter une hypothèse sans en avoir examiné les mérites, comme Dembski nous demande de faire dans le cas de son hypothèse de conception. Si toutes les hypothèses disponibles ont des résultats trop mauvais selon nos critères, il peut être préférable de toutes les rejeter et de simplement dire “nous ne savons pas”.
3.6 Fiabilité et contre-exemples
Dembski soutient, sur la base d'une inférence inductive, que la méthode d'élimination du hasard est fiable:
Premièrement (section 1.6), j’ai présenté un argument inductif montrant que, dans tous les cas où nous connaissions l’histoire causale et où la complexité spécifiée était en jeu, une intelligence était également impliquée. La généralisation inductive qui suit est que tous les cas de complexité spécifiée impliquent l'intelligence. [p. 110]
Laissant de côté la question de savoir si une telle induction serait justifiée si son principe était vrai, considérons simplement si le principe est vrai ou non. Contrairement à l’affirmation de Dembski, sa section 1.6 n’indique rien de la sorte. En fait, les seuls cas où nous savons que la méthode de Dembski a été utilisée pour déduire la conception sont les deux exemples que Dembski lui-même décrit: le cas Caputo et le flagelle bactérien. Et dans aucun de ces cas, la conception n'a été établie de manière indépendante.
Dembski veut nous faire croire que sa méthode d'inférence est fondamentalement la même que celle utilisée dans nos inférences quotidiennes et scientifiques de la conception. J'ai déjà fait valoir que cela est faux. Mais même si nous supposons, pour les besoins de l’argumentation, que nos déductions de conception typiques reposent bien sur le type d’approche purement éliminatoire proposée par Dembski, il n’est pas difficile de trouver des contre-exemples dans lesquels la conception a été inférée à tort en raison de l’ignorance de la vraie cause naturelle:
- Les anneaux de fée . Ce sont des cernes de champignons causés par un champignon qui se propage dans l'herbe à un rythme uniforme à partir d'un point de départ donné. Les champignons se manifestent sur le bord extérieur du cercle affecté. Avant que la cause ne soit connue, ces anneaux étaient souvent attribuées à des concepteurs intelligents (“fées”). Si nous prenons l'hypothèse du hasard selon laquelle les champignons étaient situés au hasard dans un pré (avec une distribution de probabilité uniforme), la probabilité qu'ils forment un cercle net est suffisamment faible pour justifier le rejet de cette hypothèse (en utilisant une limite de probabilité locale appropriée ou sinon la limite de probabilité universelle de ).12) En utilisant la méthode d'élimination aléatoire de Dembski, la complexité spécifiée (et donc la conception) aurait été déduite à tort.
* Les Cratères de lune. En observant les principaux cratères de la Lune, Johannes Kepler a conclu qu'ils étaient trop circulaires pour avoir eu lieu par hasard et qu'ils ont donc dû être créés par les habitants de la Lune. Si nous prenons l'hypothèse du hasard selon laquelle les cratères sont formés de nombreuses collines individuelles et que ces collines sont réparties de manière aléatoire sur la surface de la Lune, la probabilité qu'elles forment de si bons cercles est clairement suffisamment faible pour rejeter cette hypothèse. En utilisant la méthode d'élimination aléatoire de Dembski, la complexité spécifiée (et donc la conception) aurait été déduite, mais nous savons maintenant que ces cratères ont une explication naturelle: les impacts dus à la chute d'objets. Je suis redevable de cet exemple à Dembski lui-même, qui le décrit13) mais ne remarque pas qu'il fournit un contre-exemple à son argumentation.
Peut-être que Dembski objecterait que son affirmation (“dans tous les cas où nous connaissons l’histoire causale et où une complexité spécifiée était en jeu, une intelligence était également impliquée”) faisait uniquement référence à des cas où nous observons une complexité spécifiée aujourd’hui. Mais, par définition, ce sont des cas où nous n’avons pas d’explication naturelle plausible. Si nous en avions une, nous ne déduirions pas la complexité spécifiée. Si nous connaissons l’histoire causale et que ce n’est pas une cause naturelle, c’est sans doute la conception. Donc, si tel est le sens de Dembski, sa prétention est une tautologie. Il dit que, chaque fois que la cause est connue pour être le design, la cause est le design! Vous ne pouvez pas faire d'inférence inductive à partir d'une tautologie.
Cela ne servirait à rien à Dembski de prétendre qu'il s'agit de modèles de conception dérivés (voir 6.1 ci-dessous), par ex. que les champignons et le système solaire ont été conçus à l'origine. La méthode d'élimination du hasard permet de déduire la conception de l'événement particulier qui aurait une faible probabilité de se produire sous des causes naturelles. Par exemple, dans le cas du flagellum, Dembski prétend que le design était impliqué dans l'origine du flagellum lui-même, et pas simplement indirectement, en termes de conception de la Terre ou de l'Univers.
3.7 Le filtre explicatif
La méthode d'élimination du hasard est initialement présentée sous une forme simplifiée appelée filtre explicatif ( Explanatory Filter). Le critère permettant au filtre de reconnaître la conception est appelé critère de complexité spécifique. Malheureusement, l'utilisation de ce terme simplifié a provoqué une grande confusion dans le passé, car il présente deux caractéristiques fallacieuse :
* La description du filtre explicatif ne mentionne guère le concept d'hypothèses de hasard, et implique qu'il ne faut considérer qu'une distribution de probabilité. L'organigramme du filtre (p. 13) devrait contenir une boucle à exécuter pour chaque hypothèse de hasard. De nombreux lecteurs des travaux antérieurs de Dembski ont été amenés à la conclusion erronée qu'il fallait seulement calculer la probabilité en fonction d'une distribution de probabilité uniforme.
* Le filtre explicatif a des nœuds distincts pour la complexité (que Dembski utilise ici comme synonyme d'improbabilité) suivis d'une spécification, comme s'il s'agissait de deux critères distincts. Mais, comme nous l'avons vu ci-dessus, nous ne pouvons calculer la probabilité qu'après avoir formulé une spécification. Dans le passé, de nombreux lecteurs de Dembski ont interprété le filtre de manière erronée comme suit: notez que le résultat observé est spécifié (dans un certain sens), puis calculez la probabilité de ce résultat unique (alors qu'ils auraient dû calculer la probabilité d'une zone de rejet complète). .
Bien que Dembski ait tenté de clarifier la situation dans No Free Lunch, son utilisation continue du filtre explicatif dans sa forme hautement fallacieuse est inexplicable. Et la confusion ne se limite pas au filtre explicatif lui-même. Cela se produit ailleurs aussi, dans des déclarations comme celle-ci:
Déterminer si un système irréductiblement complexe présente une complexité spécifiée implique deux choses: montrer que le système est spécifié et calculer sa probabilité … [p. 289]
4. Appliquer la méthode à la nature
Il utilise les statistiques comme un homme ivre utilise des lampadaires - pour se soutenir plutôt que pour s'éclairer. Andrew Lang (1844-1912), poète et romancier
4.1 Une tornade dans une décharge
Cela fait plusieurs années que Dembski prétend avoir détecté pour la première fois le design en biologie en appliquant sa méthode d'inférence. Cependant, jusqu'à la publication de No Free Lunch, il n'avait jamais fourni ni cité les détails d'une telle application. Les critiques étaient donc impatients de voir le calcul de probabilité promis depuis longtemps qui corroborerait cette affirmation. Pour ma part, je ne m'attendais pas à un calcul convaincant, mais j'ai quand même été étonné de découvrir que Dembski ne nous avait offert qu'une variante de la vieille “tornade dans une décharge” créationniste 14), à savoir la probabilité qu'une structure biologique se produise par combinaison purement aléatoire de composants.
La seule structure biologique à laquelle Dembski applique sa méthode est le flagelle de la bactérie E. coli. Comme sa méthode l’oblige à commencer par déterminer l’ensemble {Hi} des hypothèses de hasard qui “auraient pu fonctionner pour produire E [le résultat observé]” (p. 72), on pourrait s’attendre à une identification explicite de l’hypothèse de hasard à l’étude. Dembski ne fournit pas une telle identification explicite, et le lecteur est autorisé à la déduire des détails du calcul. La raison pour laquelle Dembski n’a pas pu identifier son hypothèse de hasard est peut-être que, quand elle est clairement exposée, c’est un homme de paille évident. Aucun biologiste ne suggère que le flagelle ne soit apparu par une combinaison purement aléatoire de protéines - ils pensent qu'il a évolué par sélection naturelle - et tous s'accorderaient pour dire que la probabilité d'apparition par combinaison aléatoire est si minuscule que ce n'est pas une explication scientifique satisfaisante. Par conséquent, fournir à Dembski un calcul de probabilité fondé sur ce scénario absurde est une perte de temps. Il n'est pas nécessaire de déterminer si le calcul de Dembski est correct, car il n'a aucun rapport avec le problème. Néanmoins, Dembski ne déclarant pas clairement qu'il a fondé son calcul sur une hypothèse de combinaison purement aléatoire, je décrirai brièvement le calcul afin de démontrer que tel est le cas.
Dembski nous dit de multiplier trois probabilités partielles pour arriver à la probabilité d'un “objet combinatoire discret”:
pdco = porig × plocal × pconfig
* Plocal est la probabilité qu'une collection appropriée de protéines soit extraite d'un ensemble de protéines existantes, qui inclue celles requises. Dembski suppose que les protéines sont tirées au hasard parmi les 4289 protéines codées par l'ADN de E. coli, qu'il faut 5 copies de chacune des 50 protéines différentes (pour un total de 250 protéines), et qu'il existe dans chaque cas 10 protéines qui seraient acceptables (c’est-à-dire qu’il existe 9 substituts possibles à la protéine réelle. En fait, nous devons tirer 250 tirages et à chaque tirage, nous avons une probabilité de 500/4289 de choisir une protéine utile, ce qui donne une probabilité globale de (500/4289)^250.
* pconfig est la probabilité pour que, avec la bonne collection de protéines, celles-ci forment un flagelle viable si elles sont disposées au hasard. Dembski vise à tirer d'une distribution de probabilité uniforme à partir de toutes les manières possibles de disposer les protéines sélectionnées:
À proprement parler, la probabilité de configuration pour un objet combinatoire discret présentant une fonction donnée est le rapport entre toutes les manières d’arranger ses blocs de construction qui préservent la fonction divisée par toutes les manières possibles d’organiser les blocs de construction. [pp. 294-295] Comme il ne peut pas calculer cela directement, il utilise une approximation qu'il appelle une probabilité de perturbation. Nous n'avons pas besoin de nous préoccuper des détails.
- porig est la probabilité que toutes les protéines individuelles se forment par combinaison aléatoire d'acides aminés et est à nouveau basée sur une probabilité de perturbation.
Chacune de ces probabilités est individuellement inférieure à la probabilité universelle de Dembski, il n’a donc pas même pas à les multiplier.
Soi dit en passant, Dembski a tort de choisir de calculer une probabilité de formation pour le flagelle lui-même. Il aurait dû envisager la formation de l'ADN à coder pour un flagelle. Si un flagelle apparaît sans être coder dans l'ADN, il ne serait pas hérité par la prochaine génération de bactéries et serait donc perdu.
4.2 Complexité irréductible
Pour justifier son incapacité à calculer la probabilité du flagelle résultant de l'évolution darwinienne, Dembski invoque la notion de complexité irréductible qui, selon lui, fournit une généralisation proscriptive contre l'évolution darwinienne du flagelle. La complexité irréductible a été introduite dans l'argument de la conception intelligente par le biochimiste Michael Behe. Le sujet a été traité en détail ailleurs, donc je ne répéterai pas toutes les objections.15). Cependant, je voudrais attirer l'attention sur un point que certains lecteurs de Behe ont négligé. Behe a divisé les voies darwiniennes potentielles pour l'évolution d'un système irréductiblement complexe (ci-après dénommé IC) en deux catégories: directe et indirecte16). Les voies directes sont celles dans lesquelles un système évolue uniquement par l'ajout de plusieurs nouvelles parties qui ne présentent aucun avantage pour le système jusqu'à ce que toutes soient en place. Toutes les autres voies potentielles sont dites indirectes. Behe soutient ensuite que les systèmes IC ne peuvent pas évoluer via des voies directes. Mais ses voies directes excluent deux éléments essentiels du processus évolutif: (a) l’évolution des différentes parties d’un système; et b) le changement de la fonction d'un système au fil du temps, de sorte que, même si une partie donnée n'a rien apporté à la fonction actuelle du système jusqu'à ce que les autres parties soient en place, il est fort possible qu'il ait contribué à une fonction antérieure. En ce qui concerne les voies indirectes, Behe n’a rien de plus qu’un argument d’ignorance: personne n’a donné de compte rendu détaillé de cette voie. La vérité de cette affirmation a été contestée, mais cela dépend uniquement de la quantité de détails demandés. Behe en exige beaucoup. Il affirme ensuite qu'il est extrêmement improbable de mettre au point un système de IC par voies indirectes, mais il n'a fourni aucun argument à l'appui de cette affirmation. C'est simplement son intuition.17)
Dembski réitère l'affirmation selon laquelle le problème de l'explication de l'évolution des systèmes moléculaires de la IC s'est “révélé totalement insoluble” (p. 246), mais des explications évolutives ont maintenant été proposées pour plusieurs des systèmes cités par Behe, notamment la cascade de la coagulation sanguine, le système immunitaire, le système du complément et le flagelle bactérien. Le dernier de ceux-ci est hautement spéculatif, mais est suffisant pour réfuter l'affirmation de l’insolubilité absolue18).
Qu'a donc ajouté Dembski au débat sur la complexité irréductible? Premièrement, il a tenté de contrer les objections des critiques de Behe. Je ne commenterai pas ces propos, si ce n'est pour dire que certains de ces critiques semblent avoir mal compris ce que Behe entendait par complexité irréductible. Cela n’est pas surprenant puisque sa définition était vague et s’accompagnait de plusieurs déclarations trompeuses. En effet, Behe lui-même a admis que sa définition était ambiguë.19) Il a même tenté de proposer une définition totalement nouvelle.20)
Deuxièmement, Dembski a proposé une nouvelle définition, apportant trois modifications majeures:
- Behe était très vague sur la façon dont un système devrait être divisé en plusieurs parties. Parfois, il prenait des protéines individuelles comme parties, mais dans le cas du flagelle bactérien, il divisait le système en trois parties seulement, “une palette, un rotor et un moteur”, chacune consistant en plusieurs protéines (Darwin's Black Box, p. 72). Dembski exige que les parties soient “individualisées de manière non arbitraire” (p. 285), ce qui ne nous en dit pas beaucoup. Ce qui est important, cependant, c'est que dans le cas du flagelle bactérien, il choisisse des protéines individuelles comme ses parties. En fait, il ne semble même pas avoir remarqué que Behe avait divisé le flagelle en trois parties seulement:
Behe montre que la machinerie complexe de ce moteur moléculaire - comprenant un rotor, un stator, des anneaux, des bagues et un arbre d’entraînement - nécessite l’interaction coordonnée d’une trentaine de protéines et d’une vingtaine de protéines pour faciliter leur assemblage. Pourtant, l’absence de l’une de ces protéines entraînerait la perte totale de la fonction motrice … Mais un flagelle sans son contingent complet de protéines ne fonctionne pas du tout. Behe conclut donc que si le mécanisme darwinien doit produire le flagellum, il devra le faire en une génération. [pp. 249-251]
- Alors que Behe ne considérait un système comme un IC que si toutes ses parties étaient indispensables, Dembski envisage un système IC si celui-ci avait un noyau irréductible de parties indispensables.
- Dembski a ajouté deux nouvelles conditions qui doivent être remplies avant qu'un système puisse être considéré comme une preuve de conception intelligente. En plus d'être un IC, le noyau irréductible du système doit posséder «de nombreuses et diverses parties» et posséder la propriété de «complexité et fonction minimales» (p. 287). Ces deux conditions sont plutôt vagues. “Nombreux” et “divers” ne sont pas quantifiés. La complexité du système n’a pas besoin d’être minimal, car, dans le cas du flagelle bactérien, Dembski affirme uniquement que “la complexité des flagelles connus n’est pas très différente de la complexité minimale que de tels systèmes pourraient en principe exiger” (p. 288, c'est moi qui souligne).
Le dernier de ces changements ne manquera pas de créer encore plus de confusion. Selon Dembski, il ne suffit plus de montrer qu'un système est IC. Il doit également répondre aux deux critères supplémentaires. Pourtant, ailleurs dans son livre, Dembski continue de faire référence à la complexité irréductible comme condition suffisante pour déduire un design: En particulier, l'affirmation selon laquelle le mécanisme darwinien peut rendre compte de toute la diversité des formes de vie devra être rejetée car ce mécanisme est incapable de générer la complexité spécifiée inhérente - pour prendre l'exemple le plus populaire - de systèmes biochimiques d'une complexité irréductible (voir chapitre 5). [p. 324]
Je peux comprendre la tentation d’utiliser complexe irréductible comme un raccourci pour un complexe irréductible avec un noyau irréductible qui comporte des parties nombreuses et variées et présente une complexité et une fonction minimales, mais Dembski aurait vraiment dû introduire un nouveau terme pour ce dernier. Désormais, lorsqu'ils prétendent avoir trouvé un exemple de complexité irréductible dans la nature, les promoteurs d'Intelligent Design doivent préciser laquelle des définitions suivantes ils ont à l'esprit: la définition d'origine de Behe; La version corrigée de Behe de sa définition originale; Nouvelle définition proposée par Behe; La définition de Dembski; ou la définition de Dembski plus les deux critères supplémentaires. Je prédis que la plupart échoueront à le faire. Pour la suite de cet article, je vais utiliser le terme IC dans le dernier sens. Il ne faut pas supposer que tous les exemples de systèmes IC proposés par Behe répondent nécessairement aux critères de Dembski. Dembski ne considère que le flagelle bactérien. Reste à déterminer si les autres systèmes de Behe sont IC dans ce nouveau sens.
Admettons, pour les besoins de l’argumentation, que la définition de Dembski est suffisamment restrictive pour que les systèmes IC ne puissent pas évoluer par des voies directes. Qu'a-t-il dit sur le sujet vital que Behe a échoué à abordé - le sujet des voies indirectes? La réponse est rien. Le noeud de son argument est le suivant:
Pour parvenir à un système irréductiblement complexe, le mécanisme darwinien n'a que deux options. Tout d'abord, il peut essayer de réaliser le système d'un seul coup. Mais si le noyau d’un système complexe irréductiblement est constitué de nombreuses et diverses parties, cette option est résolument exclue. La seule autre option pour le mécanisme darwinien consiste alors à essayer de réaliser le système progressivement en exploitant des intermédiaires fonctionnels. Mais cette option ne peut fonctionner que si le système admet des simplifications substantielles. La deuxième condition [que le noyau irréductible du système se trouve au niveau de complexité minimal requis pour remplir sa fonction] bloque cette autre option. Permettez-moi de souligner qu'il n'y a pas de faux dilemme ici - ce n'est pas comme s'il y avait d'autres options que j'ai commodément ignorées, mais que le mécanisme darwinien a à sa disposition. [P. 287] Mais il y a bien une option que Dembski a négligé. Le système aurait pu évoluer d'un système plus simple avec une fonction différente. Dans ce cas, il pourrait y avoir des intermédiaires fonctionnels après tout. L'erreur de Dembski est de supposer que les seuls intermédiaires fonctionnels possibles sont des intermédiaires ayant la même fonction.
L'absence de prise en compte par Dembski de la possibilité d'un changement de fonction transparaît dans sa définition de la complexité irréductible:
Définition ICfinal - Un système remplissant une fonction de base donnée est irréductiblement complexe s’il comprend un ensemble de parties bien appariées, en interaction mutuelle et individualisées de manière non arbitraire, de sorte que chaque partie de l’ensemble est indispensable au maintien de la base du système, et donc de son originalité, sa fonction. L'ensemble de ces éléments indispensables est appelé le noyau irréductible du système. [p. 285] Il n'y a aucune raison pour que la fonction de base d'un système soit celle d'origine. Les concepts même de fonction de base et de fonction d'origine peuvent ne pas être bien définis. Si un système remplit deux fonctions vitales, quelle est la base? Le concept de fonction originale suppose qu'il existe un moment identifiable à l’existence du système. Mais le système peut avoir une longue histoire dans laquelle des parties sont entrées et sorties et les fonctions ont changé, rendant impossible de retracer l'origine du système à une époque donnée. Et qu'est-ce qu'un système? Si deux protéines commencent à interagir de manière bénéfique, deviennent-elles immédiatement un système? Si tel est le cas, il nous faudra peut-être retracer l'historique d'un système jusqu'à l'époque où il ne s'agissait que de deux protéines en interaction.
Les anti-révolutionnaires ont tendance à considérer les systèmes biologiques comme des machines artificielles, dans lesquelles le système et ses composants ont été conçus pour une fonction spécifique et sont difficiles à modifier pour une autre. Mais les systèmes biologiques sont beaucoup plus souples et dynamiques que ceux créés par l'homme.
Quelques autres points sont à noter: * Les changements de fonction ne sont pas une idée ad hoc conçue comme une tentative ultime de résoudre un problème épineux. Ils sont une caractéristique fondamentale de l'évolution. Les nouveaux systèmes n'apparaissent pas juste de nulle part. La plupart des systèmes auront évolué à partir d'un système antérieur ayant une fonction différente. * Les changements de fonction peuvent se produire de deux manières. Premièrement, une mutation peut créer une nouvelle capacité. Deuxièmement, une modification de l'environnement peut fournir une nouvelle utilisation à un système, par exemple l'aileron d'un poisson commence à être utilisé comme jambe primitive dans des eaux peu profondes. Dans les deux cas, le système peut exécuter la nouvelle fonction très mal au début, puis muter pour mieux le faire. Behe et Dembski soulignent tous deux à quel point les parties d'un système semblent être bien coordonnées. Mais ils ont peut-être été beaucoup moins bien coordonnés dans le passé. * Un système peut avoir plus d'une fonction. Dans l'exemple ci-dessus, l'aileron du poisson peut continuer à être utilisé pour nager et escalader des rochers submergés. * Il n'y a pas de distinction claire entre les systèmes et les pièces. Toute structure fonctionnelle peut être considérée à la fois comme un système à part entière et comme faisant partie d’un système plus vaste. Nous n’avons donc pas besoin de penser en termes de système acquérant un grand nombre de parties constituées de protéines individuelles, comme le voudrait Dembski. Un système peut plutôt acquérir un petit nombre de sous-systèmes, chacun composé de plusieurs protéines. * Au lieu de créer un système IC par la combinaison simultanée de nombreuses parties, nous voyons maintenant qu’il peut résulter de l’acquisition progressive de quelques parties. Cela ne semble plus aussi improbable que Behe et Dembski l'ont fait paraître.
Avant de terminer cette section, il pourrait être utile de dissiper quelques faux-fuyants que Dembski introduit dans son analyse de la complexité irréductible. * Spécificité causale. Ceci est juste une autre couverture pour l'argument de l'ignorance: À moins de proposer un modèle concret suffisamment détaillé pour être sérieusement critiqué, il ne sera pas possible de déterminer son adéquation. Ceci est bien sûr une autre façon de dire que l'objection d'échafaudage n'a pas encore démontré de spécificité causale lorsqu'elle est appliquée à des systèmes biochimiques irréductiblement complexes. [p. 254] En d’autres termes, jusqu’à ce qu’une hypothèse naturelle suffisamment détaillée soit fournie, nous devrions poursuivre et en déduire la conception. Cela ne dérange pas Dembski (ni Behe qui avance le même argument) que leur hypothèse alternative (la conception) ne comporte aucune précision que ce soit. * Invariants. Dembski décrit certains problèmes géométriques sans solution et explique comment prouver la non-existence d'une solution en montrant qu'une certaine propriété est invariante lors de la transformation du système. Comment est-ce pertinent pour la complexité irréductible? Dembski utilise-t-il l'invariance de certaines propriétés pour établir que les systèmes IC ne peuvent pas évoluer? Non, la propriété qu'il prétend invariante (en évolution naturelle) est la propriété de la complexité irréductible elle-même. Mais l’affirmation selon laquelle l’évolution naturelle ne peut produire une complexité irréductible est précisément le but qu’il s’efforce d’établir. En d'autres termes, l'invariance ne permet pas d'établir la conclusion de Dembski. C'est juste une autre façon d'exprimer cette conclusion. En essayant de relier le sujet des invariants à l'évolution, Dembski écrit: “Pensez ici à un invariant efficace comme un obstacle insurmontable pour le mécanisme darwinien” (p. 285). On peut se demander pourquoi il ne se contente pas d'utiliser l'expression «obstacle insurmontable» dès le début, et de sauter toute la discussion non pertinente sur les invariants. * Complexité spécifiée. Dembski aime à dire que “la complexité irréductible est un cas particulier de complexité spécifiée” (p. 289), comme si cela démontrait l'intégration de deux concepts dans un cadre cohérent. Mais nous avons déjà vu que la complexité spécifiée est simplement une étiquette que nous appliquons lorsque nous n’avons aucune hypothèse naturelle plausible pour expliquer un événement. Donc, dire que la complexité irréductible est un cas de complexité spécifiée n’est qu’un autre moyen de répéter l’affirmation selon laquelle nous n’avons aucune explication naturelle à l’origine du flagelle bactérien (qui est le seul système biologique que Dembski ait montré qu’il était IC au sens qu’il lui donne).