pas_de_buffet_gratuit_mais_une_boite_de_chocolat

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Prochaine révisionLes deux révisions suivantes
pas_de_buffet_gratuit_mais_une_boite_de_chocolat [2019/11/06 09:36] – créée kawekaweaupas_de_buffet_gratuit_mais_une_boite_de_chocolat [2019/11/07 20:15] kawekaweau
Ligne 1: Ligne 1:
 +=====Pas de buffet gratuit mais une boite de chocolat=====
 +\\
 +Une critique du livre //No Free Lunch// de William Dembski 
 +
 <note warning>Traduction en cours</note> <note warning>Traduction en cours</note>
  
Ligne 8: Ligne 12:
  
 ====Résumé==== ====Résumé====
-//La vie, c'est comme une boîte de chocolat. Vous ne savez jamais ce que vous allez obtenir.// Forrest Gump +<TEXT align="center">//La vie, c'est comme une boîte de chocolat. Vous ne savez jamais ce que vous allez obtenir.//  
 +Forrest Gump </TEXT>
  
 Le livre //No Free Lunch// du Dr William Dembski a pour objectif de démontrer que le design (l'action d'un agent conscient) était impliqué dans le processus de l'évolution biologique. La critique suivante montre que ses arguments sont profondément imparfaits et ont peu à apporter à la science ou aux mathématiques. Pour répondre pleinement aux arguments de Dembski, il a fallu un article long et parfois technique. Ce résumé est donc destiné aux lecteurs qui n'ont pas le temps d'examiner tous les arguments. Le livre //No Free Lunch// du Dr William Dembski a pour objectif de démontrer que le design (l'action d'un agent conscient) était impliqué dans le processus de l'évolution biologique. La critique suivante montre que ses arguments sont profondément imparfaits et ont peu à apporter à la science ou aux mathématiques. Pour répondre pleinement aux arguments de Dembski, il a fallu un article long et parfois technique. Ce résumé est donc destiné aux lecteurs qui n'ont pas le temps d'examiner tous les arguments.
Ligne 18: Ligne 23:
  
 Le seul objet biologique auquel Dembski applique sa méthode est le flagelle de la bactérie E. coli. En premier lieu, il tente de montrer que l'évolution darwinienne ne pouvait donner naissance au flagelle, faisant appel à une version modifiée de l'argument de Michael Behe ​​à partir d'une complexité irréductible. Cependant, l'argument de Dembski souffre du même défaut fondamental que celui de Behe: il ne permet pas de changements dans le fonctionnement d'un système biologique au fur et à mesure de son évolution. Le seul objet biologique auquel Dembski applique sa méthode est le flagelle de la bactérie E. coli. En premier lieu, il tente de montrer que l'évolution darwinienne ne pouvait donner naissance au flagelle, faisant appel à une version modifiée de l'argument de Michael Behe ​​à partir d'une complexité irréductible. Cependant, l'argument de Dembski souffre du même défaut fondamental que celui de Behe: il ne permet pas de changements dans le fonctionnement d'un système biologique au fur et à mesure de son évolution.
-Comme la méthode de Dembski est supposée être basée sur la probabilité et qu'il a promis aux lecteurs de ses travaux précédents un calcul de probabilité, il procède ensuite au calcul d'une probabilité pour l'origine du flagelle. Mais ce calcul est basé sur l'hypothèse que le flagelle est apparu soudainement, sous la forme d'une combinaison totalement aléatoire de protéines. Le calcul est complexe mais totalement hors de propos, car aucun biologiste de l'évolution ne propose que des systèmes biologiques complexes apparaissent de cette manière. En fait, il s'agit de la même hypothèse d'homme de paille fréquemment faite par les créationnistes dans le passé et qui a été comparée à un Boeing 747 assemblé par une tornade soufflant dans une décharge.+ 
 +Comme la méthode de Dembski est supposée être basée sur la probabilité et qu'il a promis aux lecteurs de ses travaux précédents un calcul de cette probabilité, il procède au calcul pour l'origine du flagelle. Mais ce calcul est basé sur l'hypothèse que le flagelle est apparu soudainement, sous la forme d'une combinaison totalement aléatoire de protéines. Le calcul est complexe mais totalement hors de propos, car aucun biologiste de l'évolution ne propose que des systèmes biologiques complexes apparaissent de cette manière. En fait, il s'agit de la même hypothèse d'homme de paille fréquemment faite par les créationnistes dans le passé et qui a été comparée à un Boeing 747 assemblé par une tornade soufflant dans une décharge.
  
 C'est tout ce qu'il y a dans l'argument principal de Dembski. Il avance ensuite un second argument dans lequel il tente de montrer que, même si des systèmes biologiques complexes ont évolué par évolution non dirigée, ils ne l’auraient pu que si un concepteur avait affiné la //fonction fitness// ou inséré des //informations spécifiées complexes// au début du processus.  C'est tout ce qu'il y a dans l'argument principal de Dembski. Il avance ensuite un second argument dans lequel il tente de montrer que, même si des systèmes biologiques complexes ont évolué par évolution non dirigée, ils ne l’auraient pu que si un concepteur avait affiné la //fonction fitness// ou inséré des //informations spécifiées complexes// au début du processus. 
  
-L'argument de la mise au point des fonctions de fitness fait appel à un ensemble de théorèmes mathématiques appelés théorèmes e "No Free Lunch" ("Pas de repas gratuit"). Bien que ces théorèmes soient parfaitement clairs, ils n’ont pas les implications que Dembski leur attribue. En fait, ils ne s'appliquent pas du tout à l'évolution biologique. Tout cela ne  laisse à l'argument de Dembski que l'affirmation selon laquelle la vie n'aurait pu évoluer que si les conditions initiales de l'Univers et de la Terre n’étaient parfaitement adaptées à cet objectif. C’est un vieil argument, généralement connu sous le nom d’argument issu du réglage cosmologique (et terrestre). Dembski n'a rien ajouté de nouveau à celui-ci.+L'argument de la mise au point des fonctions de fitness fait appel à un ensemble de théorèmes mathématiques appelés théorèmes e "No Free Lunch" ("Pas de buffet gratuit"). Bien que ces théorèmes soient parfaitement clairs, ils n’ont pas les implications que Dembski leur attribue. En fait, ils ne s'appliquent pas du tout à l'évolution biologique. Tout cela ne  laisse à l'argument de Dembski que l'affirmation selon laquelle la vie n'aurait pu évoluer que si les conditions initiales de l'Univers et de la Terre n’étaient parfaitement adaptées à cet objectif. C’est un vieil argument, généralement connu sous le nom d’argument issu du réglage cosmologique (et terrestre). Dembski n'a rien ajouté de nouveau à celui-ci.
  
 Les informations spécifiées complexes (CSI) sont un concept de la propre invention de Dembski, qui est assez différent de toute forme d’information utilisée par les théoriciens de l’information. En effet, Dembski lui-même a déjà critiqué ses détracteurs pour avoir confondu CSI avec d'autres formes d'informations. Cette critique montre que CSI est défini de façon équivoque et ne caractérise pas les structures complexes comme Dembski le prétend. Sur la base de ce concept imparfait, il propose avec audace une nouvelle loi sur la conservation de l'information, qui est démontrée ici comme totalement dénuée de fondement. Les informations spécifiées complexes (CSI) sont un concept de la propre invention de Dembski, qui est assez différent de toute forme d’information utilisée par les théoriciens de l’information. En effet, Dembski lui-même a déjà critiqué ses détracteurs pour avoir confondu CSI avec d'autres formes d'informations. Cette critique montre que CSI est défini de façon équivoque et ne caractérise pas les structures complexes comme Dembski le prétend. Sur la base de ce concept imparfait, il propose avec audace une nouvelle loi sur la conservation de l'information, qui est démontrée ici comme totalement dénuée de fondement.
Ligne 31: Ligne 37:
  
 ====1. Introduction=== ====1. Introduction===
-//Dans le théâtre de la confusion, ce qui compte, c'est de connaître l'emplacement des issues.// +<TEXT align="center">//Dans le théâtre de la confusion, ce qui compte, c'est de connaître l'emplacement des issues.// 
-Mason Cooley, aphoriste américain+Mason Cooley, aphoriste américain</TEXT>
  
 Le livre de William Dembski, //No Free Lunch: Why Specified Complexity Cannot be Purchased without Intelligence// (Pourquoi la complexité spécifiée ne peut être achetée sans intelligence) ((William Dembski, No Free Lunch: Why Specified Complexity Cannot be Purchased without Intelligence, Rowman & Littlefield, 2002. )) : est le dernier de ses nombreux livres et articles sur la conception inférée en biologie, et jouera probablement un rôle central dans la promotion de la pseudoscience ((Je ne cherche pas à tracer une ligne de démarcation clair entre science et pseudoscience. Par pseudoscience, je veux dire une science extrêmement mauvaise. Voir également: "pseudoscience", The Skeptic's Dictionary, http://skepdic.com/pseudosc.html. )) de la conception intelligente dans les prochaines années. C’est l’exposé le plus complet de ses arguments à ce jour. La présente critique a pour but de fournir un examen approfondi de ces arguments. Dembski lui-même s’est souvent plaint que ses détracteurs n’aient pas pleinement retenu ses arguments. Je pense que cette plainte est injustifiée, même si je conviens que certaines critiques formulées précédemment ont été mal formulées. Cette critique devrait permettre de régler ces plaintes. Le livre de William Dembski, //No Free Lunch: Why Specified Complexity Cannot be Purchased without Intelligence// (Pourquoi la complexité spécifiée ne peut être achetée sans intelligence) ((William Dembski, No Free Lunch: Why Specified Complexity Cannot be Purchased without Intelligence, Rowman & Littlefield, 2002. )) : est le dernier de ses nombreux livres et articles sur la conception inférée en biologie, et jouera probablement un rôle central dans la promotion de la pseudoscience ((Je ne cherche pas à tracer une ligne de démarcation clair entre science et pseudoscience. Par pseudoscience, je veux dire une science extrêmement mauvaise. Voir également: "pseudoscience", The Skeptic's Dictionary, http://skepdic.com/pseudosc.html. )) de la conception intelligente dans les prochaines années. C’est l’exposé le plus complet de ses arguments à ce jour. La présente critique a pour but de fournir un examen approfondi de ces arguments. Dembski lui-même s’est souvent plaint que ses détracteurs n’aient pas pleinement retenu ses arguments. Je pense que cette plainte est injustifiée, même si je conviens que certaines critiques formulées précédemment ont été mal formulées. Cette critique devrait permettre de régler ces plaintes.
Ligne 38: Ligne 44:
 Comme dans ses travaux précédents, Dembski définit mal ses propres termes, attribue de nouvelles significations aux termes existants (généralement sans préavis) et utilise nombre de ces termes de manière équivoque. Ses affirmations semblent souvent se contredire. Il introduit beaucoup de notation mathématique inutile. Ainsi, une grande partie de cet article sera consacrée à la corvée plutôt fastidieuse d’établir exactement ce que les arguments et les revendications de Dembski signifient réellement. J'ai essayé très fort de trouver des interprétations charitables, mais il en manque souvent. J'ai également demandé des éclaircissements à Dembski lui-même, mais aucun n'a été annoncé. Comme dans ses travaux précédents, Dembski définit mal ses propres termes, attribue de nouvelles significations aux termes existants (généralement sans préavis) et utilise nombre de ces termes de manière équivoque. Ses affirmations semblent souvent se contredire. Il introduit beaucoup de notation mathématique inutile. Ainsi, une grande partie de cet article sera consacrée à la corvée plutôt fastidieuse d’établir exactement ce que les arguments et les revendications de Dembski signifient réellement. J'ai essayé très fort de trouver des interprétations charitables, mais il en manque souvent. J'ai également demandé des éclaircissements à Dembski lui-même, mais aucun n'a été annoncé.
  
-Il y a quelque temps, j'ai posté une critique  ((3)) du précédent livre de Dembski, //The Design Inference//((4)) sur le forum en ligne Metaviews, auquel il contribue, soulignant les ambiguïtés fondamentales de ses arguments. Sa seule réponse fut de m'appeler "harceleur Internet" tout en refusant de traiter les questions que j'ai soulevées, au motif que "Internet est un forum peu fiable pour régler les problèmes techniques en statistique et en philosophie de la science" ((5)). Il a clairement lu ma critique, cependant, car il me reconnaît maintenant comme ayant contribué à son travail (p. XXIV). Certaines des ambiguïtés sur lesquelles j'avais attiré l'attention dans cette critique ont été résolues dans le présent volume, mais d'autres sont restées et de nombreuses nouvelles ont été ajoutées.+Il y a quelque temps, j'ai posté une critique ((3)) du précédent livre de Dembski, //The Design Inference// ((4))sur le forum en ligne Metaviews, auquel il contribue, soulignant les ambiguïtés fondamentales de ses arguments. Sa seule réponse fut de m'appeler "harceleur Internet" tout en refusant de traiter les questions que j'ai soulevées, au motif que "Internet est un forum peu fiable pour régler les problèmes techniques en statistique et en philosophie de la science" ((5)). Il a clairement lu ma critique, cependant, car il me reconnaît maintenant comme ayant contribué à son travail (p. XXIV). Certaines des ambiguïtés sur lesquelles j'avais attiré l'attention dans cette critique ont été résolues dans le présent volume, mais d'autres sont restées et de nombreuses nouvelles ont été ajoutées.
  
 Certains lecteurs peuvent ne pas aimer le ton franchement méprisant que j'ai adopté à l'égard du travail de Dembski. Les critiques de la pseudoscience de la Conception Intelligente sont confrontés à un dilemme. S'ils discutent en termes académiques polis, les propagandistes de la conception intelligente l'utilisent comme preuve que leurs arguments retiennent l'attention des érudits, suggérant que cela implique un certain mérite. Si les critiques ignorent simplement les arguments de Intelligent Design, les propagandistes insinuent que c'est parce qu'ils ne peuvent pas y répondre. Ma solution à ce dilemme consiste à réfuter de manière approfondie les arguments, tout en précisant que je le fais sans accorder aucun respect à ces arguments. Certains lecteurs peuvent ne pas aimer le ton franchement méprisant que j'ai adopté à l'égard du travail de Dembski. Les critiques de la pseudoscience de la Conception Intelligente sont confrontés à un dilemme. S'ils discutent en termes académiques polis, les propagandistes de la conception intelligente l'utilisent comme preuve que leurs arguments retiennent l'attention des érudits, suggérant que cela implique un certain mérite. Si les critiques ignorent simplement les arguments de Intelligent Design, les propagandistes insinuent que c'est parce qu'ils ne peuvent pas y répondre. Ma solution à ce dilemme consiste à réfuter de manière approfondie les arguments, tout en précisant que je le fais sans accorder aucun respect à ces arguments.
Ligne 66: Ligne 72:
 Le mot //naturel// a été la source de beaucoup de confusion dans le débat sur le design intelligent. Il a deux significations distinctes: l’un est le complément de artificiel, c’est-à-dire impliquant un agent intelligent; l'autre est le complément du //surnaturel//. Dembski nous dit qu'il utilisera le mot dans le sens premier du terme: //"... je place les causes naturelles en opposition aux causes intelligentes"// (p. Xiii). Il poursuit ensuite en affirmant que la science contemporaine est liée à un principe de matérialisme méthodologique : Le mot //naturel// a été la source de beaucoup de confusion dans le débat sur le design intelligent. Il a deux significations distinctes: l’un est le complément de artificiel, c’est-à-dire impliquant un agent intelligent; l'autre est le complément du //surnaturel//. Dembski nous dit qu'il utilisera le mot dans le sens premier du terme: //"... je place les causes naturelles en opposition aux causes intelligentes"// (p. Xiii). Il poursuit ensuite en affirmant que la science contemporaine est liée à un principe de matérialisme méthodologique :
  
-//Selon le matérialisme méthodologique, pour expliquer tout phénomène naturel, les sciences naturelles ne sont autorisées à invoquer que des causes naturelles à l'exclusion des causes intelligentes.// [p. xvi]+<well>//Selon le matérialisme méthodologique, pour expliquer tout phénomène naturel, les sciences naturelles ne sont autorisées à invoquer que des causes naturelles à l'exclusion des causes intelligentes.// [p. xvi]</well>
  
 Mais le naturalisme méthodologique sur lequel insistent la plupart des scientifiques n'exige que le rejet d'explications surnaturelles, et non d'explications impliquant une action intelligente. En effet, nous venons de voir que la science contemporaine permet des explications impliquant des concepteurs humains et, selon moi, des êtres extraterrestres intelligents. Peut-être ce que Dembski signifie réellement, c'est que le naturalisme méthodologique rejette l'invocation d'un "concepteur non incarné" (pour utiliser son terme) ((6)). Mais le naturalisme méthodologique sur lequel insistent la plupart des scientifiques n'exige que le rejet d'explications surnaturelles, et non d'explications impliquant une action intelligente. En effet, nous venons de voir que la science contemporaine permet des explications impliquant des concepteurs humains et, selon moi, des êtres extraterrestres intelligents. Peut-être ce que Dembski signifie réellement, c'est que le naturalisme méthodologique rejette l'invocation d'un "concepteur non incarné" (pour utiliser son terme) ((6)).
Ligne 72: Ligne 78:
 Dembski introduit le terme //hypothèse de hasard// pour décrire les explications proposées qui reposent entièrement sur des causes naturelles. Cela inclut les processus comprenant des éléments de hasard et de nécessité (p.15), ainsi que les processus purement déterministes. Il peut sembler étrange de considérer les hypothèses purement déterministes comme des hypothèses fortuites, mais Dembski nous dit que "la nécessité peut être considérée comme un cas particulier de hasard dans lequel la distribution de probabilité qui régit la nécessité réduit toutes les probabilités à zéro ou à un" (p.71). ). Dembski définissant le design comme le complément du hasard et de la nécessité, il s'ensuit qu'une hypothèse de hasard pourrait tout aussi bien (et avec plus de clarté) être appelée une hypothèse de non-design. Et puisqu'il définit les causes naturelles comme le complément de la conception, nous pouvons également appeler les hypothèses fortuites des hypothèses naturelles. L'utilisation par Dembski de l'hypothèse de "hasard" a créé une grande confusion dans le passé, de nombreuses personnes ayant compris que cela voulait dire purement aléatoire, c'est-à-dire que tous les résultats étaient également probables. Bien que l'utilisation de Dembski ait été clarifiée dans //No Free Lunch//, je pense qu'elle peut encore être confuse. Par souci de cohérence avec le travail de Dembski, j'utiliserai généralement le terme //hypothèse de hasard//, mais je vais passer au synonyme //hypothèse de naturelle// ou à //hypothèse de non-conception// lorsque je pense que cela augmentera la clarté. Dembski introduit le terme //hypothèse de hasard// pour décrire les explications proposées qui reposent entièrement sur des causes naturelles. Cela inclut les processus comprenant des éléments de hasard et de nécessité (p.15), ainsi que les processus purement déterministes. Il peut sembler étrange de considérer les hypothèses purement déterministes comme des hypothèses fortuites, mais Dembski nous dit que "la nécessité peut être considérée comme un cas particulier de hasard dans lequel la distribution de probabilité qui régit la nécessité réduit toutes les probabilités à zéro ou à un" (p.71). ). Dembski définissant le design comme le complément du hasard et de la nécessité, il s'ensuit qu'une hypothèse de hasard pourrait tout aussi bien (et avec plus de clarté) être appelée une hypothèse de non-design. Et puisqu'il définit les causes naturelles comme le complément de la conception, nous pouvons également appeler les hypothèses fortuites des hypothèses naturelles. L'utilisation par Dembski de l'hypothèse de "hasard" a créé une grande confusion dans le passé, de nombreuses personnes ayant compris que cela voulait dire purement aléatoire, c'est-à-dire que tous les résultats étaient également probables. Bien que l'utilisation de Dembski ait été clarifiée dans //No Free Lunch//, je pense qu'elle peut encore être confuse. Par souci de cohérence avec le travail de Dembski, j'utiliserai généralement le terme //hypothèse de hasard//, mais je vais passer au synonyme //hypothèse de naturelle// ou à //hypothèse de non-conception// lorsque je pense que cela augmentera la clarté.
  
-====3. la méthode d’limination de la Chance====+====3. la méthode d’élimination de la Chance==== 
 +<TEXT align="center">
 Ignorance, madame, pure ignorance. Ignorance, madame, pure ignorance.
-Samuel Johnson (lorsqu'on lui a demandé comment il en était arrivé à définir un mot de manière incorrecte dans son dictionnaire)+Samuel Johnson (lorsqu'on lui a demandé comment il en était arrivé à définir un mot de manière incorrecte dans son dictionnaire)</TEXT>
  
 Dans le chapitre 2 de //No Free Lunch//, Dembski décrit une méthode de déduction de la conception basée sur ce qu'il appelle l'argument d'élimination générique de la chance (Generic Chance Elimination Argument.). Je me référerai à cette méthode comme la //méthode de chance-élimination//. Cette méthode suppose que nous avons observé un événement et souhaite déterminer si une conception a été impliquée dans cet événement. Dans le chapitre 2 de //No Free Lunch//, Dembski décrit une méthode de déduction de la conception basée sur ce qu'il appelle l'argument d'élimination générique de la chance (Generic Chance Elimination Argument.). Je me référerai à cette méthode comme la //méthode de chance-élimination//. Cette méthode suppose que nous avons observé un événement et souhaite déterminer si une conception a été impliquée dans cet événement.
Ligne 280: Ligne 287:
  
  
 +5. Algorithmes évolutifs
 +//Tentez d’atteindre la fin, et ne doutez jamais;
 +Rien n'est si difficile, mais la recherche le découvrira.//
 +Robert Herrick (1591-1674)
 +
 +Ces dernières années, les algorithmes évolutifs, exécutés sur ordinateur, ont suscité un intérêt croissant en tant que moyen de résoudre des problèmes d'optimisation. Comme leur nom l'indique, les algorithmes évolutifs sont basés sur les mêmes principes sous-jacents que l'évolution biologique: reproduction avec variations aléatoires et sélection du "plus apte". Comme ils semblent montrer que des processus non guidés peuvent produire le type de complexité fonctionnelle((21)) que nous voyons en biologie, ils constituent un problème que Dembski doit résoudre. En outre, il tente de tirer parti du sujet en faisant appel à un ensemble de théorèmes mathématiques, connus sous le nom de théorèmes No Free Lunch, qui imposent des contraintes aux capacités de résolution de problèmes des algorithmes évolutifs.
 +
 +5.1 Algorithmes d'optimisation Black-Box
 +Nous nous intéresserons ici à un type d'algorithme connu sous le nom d'algorithme d'optimisation (ou de recherche) de //boîte noire// (black-box) . Ces algorithmes incluent des algorithmes évolutifs, mais ne s'y limitent pas. Les problèmes résolus par les algorithmes d’optimisation de la boîte noire ne comportent que deux attributs: un //espace de phase// et une //fonction de fitness// définie sur cet espace de phase. Dans le contexte de ces algorithmes, les //espaces de phase// sont généralement appelés //espaces de recherche//. De plus, le terme //fonction de fitness// est généralement réservé aux algorithmes évolutifs, le terme le plus général étant fonction objective ou fonction de coût (maximiser une fonction objective équivaut à minimiser une fonction de coût). Mais je vais adopter la terminologie de Dembski par souci de cohérence.
 +
 +L'espace de phase est l'ensemble de toutes les solutions potentielles au problème. Il s’agit généralement d’un espace multidimensionnel, avec une dimension pour chaque paramètre variable de la solution. La plupart des problèmes d'optimisation réels comportent de nombreux paramètres, mais pour faciliter la compréhension, il est utile de penser à un espace de phase bidimensionnel - à deux paramètres - qui peut être visualisé sous forme de plan horizontal. La fonction fitness est une fonction sur cet espace de phase; En d'autres termes, pour chaque point (solution potentielle) dans l'espace des phases, la fonction de fitness nous indique la valeur de fitness de ce point. Nous pouvons visualiser la fonction fitness comme un paysage tridimensionnel où la hauteur d’un point représente son fitness (figure 1). Les points sur les crêtes représentent de meilleures solutions tandis que les points dans les creux représentent les plus pauvres. Les termes //fonction de fitness// et //paysage de fitness //sont utilisés de manière interchangeable.
 +
 +IMAGE
 +
 +Un algorithme d'optimisation est, grosso modo, un algorithme permettant de rechercher des points hauts dans le paysage. Etre un algorithme de type boîte noire signifie qu’il n’a aucune connaissance du problème qu’il tente de résoudre, à part la structure sous-jacente de l’espace de phase et les valeurs de la fonction fitness aux points déjà visités. L'algorithme visite une séquence de points (x1, x2, ..., xm), évaluant le fitness (l'aptitude), f (xi), de chacun d'entre eux avant de décider quel point visiter ensuite. L’algorithme peut être stochastique, c’est-à-dire qu’il peut incorporer un élément aléatoire dans ses décisions.
 +
 +L'évaluation de la fonction de mise en forme est généralement un processus très exigeant en calcul, impliquant éventuellement une simulation. Par exemple, si nous essayons d'optimiser la conception d'un réseau routier, nous pourrions souhaiter que l'algorithme exécute une simulation du trafic quotidien pour chaque conception possible qu'il considère. La performance de l'algorithme est donc mesurée en termes de nombre d'évaluations (m) de fonction de fitness nécessaires pour atteindre un niveau de fitness donné, ou de niveau de fitness atteint après un nombre donné d'évaluations de fonction. Chaque évaluation de fonction peut être considérée comme un niveau de temps afin que nous puissions penser au niveau de fitness atteint dans un temps donné. Notez que nous sommes intéressés par la meilleure valeur de fitness trouvée pendant toute la période, et pas seulement par le fitness du dernier point visité.
 +
 +Il existe trois types d’algorithmes d’optimisation qui nous intéressent:
 + *//Recherche aléatoire// (également appelé échantillonnage aléatoire). Cet algorithme sélectionne simplement chaque point au hasard (avec une distribution de probabilité uniforme) parmi tous les points de l'espace de phase.
 +* //Grimpeurs// Un grimpeur visite soit quelques-uns soit tous les points proches de sa position actuelle et se déplace au plus haut point trouvé. Il ne redescend jamais. Si il atteint le sommet d'une crête, il y reste ou il peut commencer une recherche aléatoire dans l'espoir de trouver une colline plus haute.
 +* //Algorithmes évolutifs//. Un algorithme évolutif maintient une population d'individus (généralement générés aléatoirement au départ), qui évolue en fonction de règles de sélection, de recombinaison, de mutation et de survie. Chaque individu correspond à un point dans l'espace de phase. Un "environnement" partagé détermine le fitness de chaque individu de la population. Les individus les plus aptes sont plus susceptibles d'être sélectionnés pour la reproduction (rétention ou duplication), tandis que la recombinaison et la mutation les modifient, produisant des individus potentiellement supérieurs.
 +
 +Dembski adopte une définition très large de //l’algorithme évolutif// qui inclut //tous// les algorithmes d’optimisation que nous considérons ici, y compris la recherche aléatoire (p. 180, 229n9, 232n31).
 +
 +Un autre terme utilisé par Dembski est la //recherche à l'aveugle//. Il l'utilise dans deux sens. Il s’agit d’abord d’une //marche aléatoire//, d’un algorithme qui passe d’un emplacement de l’espace des phases à un autre emplacement sélectionné aléatoirement à partir de points proches (p. 190). Plus tard, il l'utilise pour désigner toute recherche dans laquelle la fonction fitness n'a que deux valeurs possibles: le point en cours d'évaluation est ,ou non, dans une zone cible (p. 197). La signification habituelle (bien que non exclusive) de la //recherche aveugle// dans la littérature sur les algorithmes évolutionnistes est synonyme d’algorithme de //boîte noire//.((22))
 +
 +5.2 Réglage précis de la fonction fitness
 +Dembski reconnaît que les algorithmes évolutifs peuvent produire des résultats assez novateurs, mais il ne peut le faire que parce que leur fonction de fitness a été affinée par le programmeur. Ce faisant, affirme-t-il, le programmeur a "introduit" en des //informations spécifiées complexes// ou une //complexité spécifiée// dans le résultat. (Ces deux termes seront discutés plus tard.)
 +
 +//Malgré tout, il y a quelque chose de curieusement convaincant et presque magique dans la façon dont les algorithmes évolutifs trouvent des solutions à des problèmes où les solutions ne ressemblent à rien de ce que nous avons imaginé. Un exemple particulièrement frappant est celui des "antennes génétiques à fils torsadés" de Edward Altshuler et Derek Linden. Le problème que ces chercheurs ont résolu avec des algorithmes évolutifs (ou génétiques) était de trouver une antenne émettant aussi bien dans toutes les directions sur un hémisphère situé au-dessus d'un plan de sol d'étendue infinie. Contrairement aux attentes, aucun fil avec une forme géométrique symétrique et nette ne résout ce problème. Au lieu de cela, les meilleures solutions à ce problème ressemblent à des enchevêtrements en zigzag. De plus, les algorithmes évolutifs se frayent un chemin à travers les divers enchevêtrements en zigzag, dont la plupart ne fonctionnent pas, vers un qui le fait. C'est remarquable. Même dans ce cas, la fonction de finess qui prescrit les performances optimales de l’antenne est bien définie et fournit facilement l’information complexe spécifiée qu’une antenne génétique de fil tordue optimale semble acquérir gratuitement.// [p. 221]
 +Une affirmation similaire est faite concernant l'évolution biologique:
 +
 +//Ainsi, je soutiens que même si l'évolution darwinienne est le moyen par lequel la panoplie de la vie sur Terre est apparue, la fonction de fitness sous-jacente qui limite l'évolution biologique ne serait pas un buffet gratuit ni un don brutal, mais un assemblage finement conçu de gradients qui présupposent beaucoup de complexité spécifiée préalable//. [p. 212]
 +Ces affirmations sont basées sur une idée fondamentalent fausse du rôle de la fonction de fitness dans un algorithme évolutif. Une fonction fitness intègre deux éléments:
 +  * Il reflète nos objectifs. Si notre objectif est de concevoir un pont, nous devrons peut-être décider du poids à accorder à un certain nombre d'objectifs conflictuels tels que la capacité de trafic, l'intégrité structurelle, les coûts et l'impact environnemental.
 +  * Il englobe nos connaissances pertinentes sur le monde réel, afin d'évaluer dans quelle mesure une solution potentielle répond à nos objectifs.
 +
 +En général, la fonction fitness définit donc le problème à résoudre et non le moyen de le résoudre. Par conséquent, il est peu logique de parler du programmeur qui ajuste avec précision la fonction fitness pour résoudre le problème. Il est vrai que certains aspects du problème peuvent être inconnus ou que le programmeur décide, pour des raisons pratiques, de simplifier son modèle du problème. Ici, le programmeur pourrait prendre des décisions de manière à améliorer les performances de l'algorithme. Mais il n'y a aucune raison de penser que cela contribue de manière significative au succès des algorithmes évolutifs.
 +
 +Dans l'un de ses articles, Dembski cite le psychologue de l'évolution, Geoffrey Miller, à l'appui de son affirmation selon laquelle la fonction de fitness doit être affinée:
 +
 +//Et où exactement la conception est-elle intégrée dans un algorithme évolutif ou génétique? Selon Miller, cela fait partie de la fonction fitness. Il écrit:
 +« La fonction de mise en forme doit incarner non seulement les objectifs conscients de l'ingénieur, mais également son sens commun. Ce sens commun est en grande partie intuitif et inconscient, il est donc difficile à formaliser en une fonction de fitness explicite. Les solutions d'algorithmes génétiques vaant autant que les fonctions de mise en forme utilisées pour les faire évoluer, le développement minutieux de fonctions de fitness appropriées intégrant toutes les contraintes de conception, les compromis et le choix de critères pertinents sont une étape clé de l'ingénierie évolutive »//((23)).
 +Mais les objectifs, les contraintes, les compromis, etc., de l’ingénieur sont des paramètres du problème à résoudre. Ils doivent être choisis avec soin pour que l'algorithme évolutif résolve le bon problème et non pour le guider vers la solution d'un autre, comme nous le dit Miller dans le paragraphe précédent:
 +//Si la fonction de mise en forme ne reflète pas de manière réaliste les contraintes du monde réel et les exigences auxquelles les conceptions phénotypiques seront confrontées, l'algorithme génétique peut offrir une bonne solution au mauvais problème//((24.))
 +Ce sont d’autres éléments de l’algorithme évolutif qui devront peut-être être soigneusement choisis pour que cet algorithme fonctionne bien:
 +//Le truc dans les algorithmes génétiques est de trouver des schémas permettant de mapper efficacement et élégamment une chaîne binaire binaire à une conception technique, plutôt que par force brute .... Les opérateurs génétiques copient et modifient les génotypes d’une génération à l’autre .... Il est particulièrement important de trouver le bon équilibre entre mutation et sélection .... Enfin, les paramètres évolutifs [tels que la taille de la population et le taux de mutation] déterminent le contexte général de l'évolution et les détails quantitatifs du fonctionnement des opérateurs génétiques. .... Décider des meilleures valeurs pour ces paramètres dans une application donnée restent un art , davantage motivé par une intuition aveugle et une tradition commune que par de solides principes d'ingénierie//((24)).
 +
 +Wolpert et Macready font une remarque similaire:
 +//En fin de compte, bien entendu, la seule question importante est "Comment trouver les bonnes solutions pour ma fonction de coût donnée « f »?" La bonne réponse à cette question est de commencer par le « f » donné, d'en déterminer certaines caractéristiques essentielles, puis de construire un algorithme de recherche, spécifiquement adapté à ces caractéristiques. La procédure inverse - beaucoup plus répandue dans certaines communautés - consiste à étudier la performance d’algorithmes spécifiques sur différents f. Cette procédure inverse n’a d’intérêt que dans la mesure où elle nous aide dans notre procédure principale, de passer de (caractéristiques concernant) »f » à un « a » approprié.//((25))
 +
 +Peut-être que la confusion de Dembski à ce sujet peut s’expliquer par son obsession pour le programme Weasel de Richard Dawkins ((26)), auquel il consacre une grande partie de son chapitre sur les algorithmes évolutifs. Dans cet exemple, inventé uniquement pour illustrer un point spécifique, la fonction de fitness a bien été choisie afin de faire converger l'algorithme sur la solution. Ce programme n'a cependant pas été créé pour résoudre un problème d'optimisation. Le programme avait un point cible spécifique, contrairement aux algorithmes d'optimisation réels, où la solution est inconnue.
 +
 +
 +Dans le cas de l'évolution biologique, la situation est quelque peu différente, car les paramètres évolutifs eux-mêmes évoluent au cours de l'évolution. Par exemple, selon la théorie de l'évolution, le code génétique a évolué par sélection naturelle. Ce n’est donc pas un hasard si le code génétique est si adapté à l’évolution. Il a évolué pour être de cette façon.
 +
 +Lorsque Dembski parle d’'ajustement de la fonction de fitness pour l'évolution biologique, ce qu'il veut vraiment dire, c'est l'ajustement des conditions initiales cosmologiques et terrestres, y compris les lois de la physique. Lorsque ces conditions sont acquises, comme c’est le cas pour des raisons pratiques, elles contribuent à déterminer la fonction de fitness. Mais Dembski soutient que ces conditions doivent avoir été choisies parmi un ensemble de possibilités alternatives afin de rendre l'évolution de la vie possible. Considéré ainsi, les autres paramètres de conditions initiales doivent être considérés comme des éléments d'un autre espace de phase et non pas comme faisant partie de la fonction de fitness. Dembski fait parfois référence à cela comme à un espace de phase de fonctions de fitness. On peut comprendre ce qu’il veut dire par là, mais cela risque d’être confusant, notamment parce que les fonctions fitness des organismes biologiques ne sont pas figées, mais évoluent au même rythme que leur environnement.
 +
 +Nous voyons alors que l'argument de Dembski concernant le réglage précis des fonctions de fitness n'est qu'une version déguisée de l'argument bien connu du réglage précis des conditions initiales cosmologiques et terrestres.((27)) Dembski énumère un catalogue des conditions cosmologiques et terrestres qui sont nécessaires pour l'origine de la vie (pp. 210-211). Cet argument est ancien et je n'en parlerai pas ici. La seule nouvelle tournure que Dembski lui donne est de présenter l'argument en termes de //fonctions de fitness// et de faire appel aux théorèmes No Free Lunch. Cet appel sera examiné ci-dessous, mais je voudrais d’abord faire quelques observations.
 +
 +Les deux conclusions de Dembski ne peuvent pas être vraies toutes les deux. D'une part, il soutient que les conditions initiales ont été ajustées pour permettre l'évolution naturelle de la vie. D'autre part, il soutient que l'évolution naturelle de la vie n'a pas été possible. Non pas que Dembski n’ait pas droit à une deuxième chance. Si un argument échoue, il peut se rabattre sur l'autre. Alternativement, Dembski pourrait soutenir que le concepteur cosmique a rendu l’Univers //presque// prêt pour l’évolution naturelle de la vie, mais s’est laissé un peu de travail à faire plus tard.
 +
 +Si Dembski pense que les conditions initiales de l'évolution ont été conçues, il serait évident d'essayer d'appliquer sa méthode d'élimination du hasard à l'origine de ces conditions. Je remarque qu'il ne tente pas de le faire.
 +
 +
 +5.3 Les théorèmes No Free Lunch 
 +
 +Dembski tente d'utiliser les théorèmes No Free Lunch (ci-après NFL) de David Wolpert et William Macready((28)) pour étayer son affirmation selon laquelle les fonctions de fitness doivent être ajustées. Il considère vraisemblablement que les NFL sont importants pour son cas, puisque le tire de son livre y fait référence. Cependant, je montrerai que les NFL ne sont  pas applicables à l'évolution biologique et que, même pour les algorithmes évolutifs auxquels ils  s'appliquent, ils ne valident pas l'allégation d'ajustement. Je commencerai par donner une brève explication de ce que dit les NFL, en apportant un certain nombre de simplifications et en omettant des détails qui ne nous concernent pas nécessairement.
 +
 +NFL s'appliquent uniquement aux algorithmes répondant aux conditions suivantes:
 +*L’algorithme doit être un algorithme de type boîte noire, c’est-à-dire qu’il n’a aucune connaissance du problème qu’il tente de résoudre, si ce n’est la structure sous-jacente de l’espace de phase et les valeurs de la fonction fitness aux points déjà visités.
 +*En principe, il doit y avoir un nombre fini de points dans l’espace des phases et un nombre fini de valeurs de fitness possibles. En pratique, toutefois, les variables continues peuvent être arrondies à certaines valeurs.
 +* L'algorithme ne doit pas visiter le même point deux fois. Ceci peut être évité en faisant en sorte que l’algorithme garde une trace de tous les points qu’il a visités jusqu’à présent, avec leurs valeurs de fitness, afin d’éviter les visites répétées à un point donné. Cela n’est peut-être pas pratique dans un programme informatique réel, mais la plupart des espaces de phase réels sont suffisamment vastes pour ne pas être revisités souvent, de sorte que nous pouvons ignorer ce problème.
 +* La fonction de fitness peut rester fixe tout au long de l'exécution du programme ou peut varier dans le temps d'une manière indépendante de la progression de l'algorithme. Ces deux options correspondent respectivement aux théorèmes 1 et 2 de Wolpert et de Macready. Toutefois, la fonction de fitness ne peut pas varier en fonction de la progression de l’algorithme. En d’autres termes, l’algorithme peut ne pas déformer le paysage de fitness.((29))
 +
 +Le même algorithme peut être utilisé avec n’importe quel problème, c’est-à-dire dans n’importe quel paysage de fitness, même s’il ne sera pas efficace pour tous. En termes de programme informatique, nous pouvons imaginer insérer différents modules de fonctions de fitness dans le programme. Nous pouvons également imaginer l'ensemble de toutes les fonctions de fitness possibles. C'est le vaste ensemble constitué de toutes les formes possibles de paysage sur notre espace de phase donné. S'il y a S points dans l'espace de phase et F valeurs possibles de la fonction de fitness, le nombre total de fonctions de fitness possibles est F^S, car chaque point peut avoir n'importe laquelle des valeurs de F et nous devons permettre toutes les permutations possibles sur les S points.
 +
 +Nous sommes maintenant en mesure de comprendre ce que disent les NFL. Supposons que nous prenions un algorithme a1, mesurions ses performances pour chaque fonction de fitness dans ce vaste ensemble de fonctions de fitness possibles, et prenions la moyenne pour toutes ces valeurs de performances. Ensuite, nous répétons cela pour tout autre algorithme a2. Les NFL nous disent que la performance moyenne sera la même pour les deux algorithmes, quelle que soit la paire d'algorithmes que nous avons sélectionnée. Comme c'est le cas pour toutes les paires d'algorithmes et que la recherche aléatoire est l'un de ces algorithmes, cela signifie qu'aucun algorithme n'est meilleur (ou pire) qu'une recherche aléatoire, lorsqu'il est moyenné sur toutes les fonctions de mise en forme possibles. Cela signifie même que, en moyenne sur toutes les fonctions de fitness possibles, un algorithme descendant sera tout aussi efficace qu'un algorithme grimpeur pour trouver des points hauts! (Un descendant est comme un grimpeur sauf qu'il se déplace vers le plus bas des points disponibles au lieu du plus haut.)
 +
 +Ce résultat semble incroyable, mais c'est réellement vrai. La chose importante à retenir est la phrase essentielle "en moyenne sur l'ensemble des fonctions de fitness possibles". La grande majorité des fonctions de fitness de cet ensemble sont totalement chaotiques, la hauteur de deux points adjacents n’étant pas reliée. Seules un nombre infime de ces fonctions de mise en forme ont des crêtes et des creux lisses que nous associons habituellement à un "paysage". Dans un paysage chaotique, il n'y a pas de collines dignes de ce nom à gravir. De plus, rappelez-vous que chaque point perçu par un grimpeur ou un descendant compte comme "trouvé", même si l'algorithme décide de ne pas s'y déplacer. Ainsi, s'il arrive qu'un descendant se déplace à proximité d'une pointe très haute, la valeur de condition physique à cette pointe sera enregistrée et comptera dans l'évaluation finale de la performance du descendant. Un paysage choisi au hasard parmi toutes les fonctions de mise en forme possibles sera presque certainement une masse aléatoire de pointes (figure 2).
 +
 +IMAGE
 +
 +Nous pouvons déjà voir que la pertinence des NFL par rapport à de vrais problèmes est limitée. Les paysages de fitness de problèmes réels ne sont pas chaotiques. Ce fait a été noté par plusieurs chercheurs:
 +//Malgré la justesse de ce "théorème du sans-buffet-gratuit" (Wolpert et Macready, 1997), le résultat n’est pas trop intéressant. Il est facile de voir que la moyenne de toutes les fonctions de fitness ne correspond pas à la situation d'optimisation de  boîte noire dans la pratique. On peut même montrer que, dans des scénarios d'optimisation plus réalistes, il ne peut exister de théorème du «sans buffet»// (Droste, Jansen et Wegener, 1999) ((30)).
 +
 +5.4 La non-pertinence des NFL par rapport aux arguments de Dembski
 +
 +Les NFL ne sont pas applicables à l'évolution biologique, car l'évolution biologique ne peut être représentée par aucun algorithme satisfaisant les conditions données ci-dessus. Contrairement aux algorithmes évolutifs plus simples, où le succès de la reproduction est déterminé par une comparaison du fitness inné de différents individus, le succès de la reproduction dans la nature est déterminé par tous les événements contingents se produisant dans la vie des individus. La fonction fitness ne peut pas prendre en compte ces événements, car ils dépendent d'interactions avec le reste de la population et donc des caractéristiques d'autres organismes qui évoluent également sous l'influence de l'algorithme. En d’autres termes, la fonction fitness des organismes biologiques évolue dans le temps en fonction de l’évolution de la population (de la même espèce et d’autres espèces), en violation de la dernière condition susmentionnée. Il en va de même pour toutes les simulations non biologiques dans lesquelles les individus interagissent, telles que les réseaux neuronaux jouant aux dames, qui sont décrites ci-dessous.
 +
 +Il ne servirait à rien de suggérer que les interactions entre individus pourraient être modélisées dans l'algorithme d'optimisation plutôt que dans la fonction fitness. Ceci est empêché par la contrainte de boîte noire, qui empêche l'algorithme d'optimisation d'avoir un accès direct aux informations sur l'environnement.
 +
 +Ce problème est similaire au problème de la coévolution des paysages de fitness soulevé par Stuart Kauffman (p. 224-227). La réponse de Dembski à Kauffman ne répond toutefois pas à mon argument. Rien de ce que Dembski écrit (p. 226) ne change le fait que, dans l'évolution biologique, la fonction de fitness à un moment donné ne peut être déterminée indépendamment de l'état de la population et que, par conséquent, les NFL ne s'appliquent pas((31)).
 +
 +De plus, la thèse de Dembski n’est guère pertinente, même pour les algorithmes évolutifs les plus simples et non interactifs auxquels elle s’applique (ceux où le succès de reproduction des individus est déterminé par une comparaison de leur aptitude innée). Les NFL nous indiquent que, parmi toutes les fonctions de fitness possibles du point de vue mathématique, seuls quelques algorithmes évolutifs fonctionnent aussi bien qu’observédans la pratique. Dembski soutient qu'il serait donc extrêmement malencontreux qu'une fonction de fitness appropriée se produise sans que le réglage d’un concepteur. Mais l’alternative à la conception n’est pas une sélection purement aléatoire parmi l’ensemble des fonctions de fitness possibles mathématiquement. Les fonctions de fitness sont déterminées par des règles et non générées aléatoirement. Dans le monde réel, ces règles sont les lois physiques de l'univers. Dans un modèle informatique, elles peuvent être les règles choisies par le programmeur, mais si le modèle est une simulation de la réalité, elles seront basées dans une certaine mesure sur des lois physiques réelles. Les règles donnent inévitablement lieu à des modèles, de sorte que les fonctions de fitness structurées par le modèle seront privilégiées par rapport aux fonctions totalement chaotiques. Si les règles sont raisonnablement régulières, nous nous attendons à ce que le paysage de fitness soit relativement lisse. En fait, les lois physiques sont généralement régulières, dans le sens où elles correspondent à des fonctions mathématiques continues, telles que "F = ma", "E = mc2", etc. Avec ces fonctions, un petit changement d’entrée entraîne un petit changement de sortie. Ainsi, lorsque le fitness est déterminée par une combinaison de ces lois, il est raisonnable de s’attendre à ce qu’un petit mouvement dans l’espace des phases entraîne généralement un changement relativement modeste de la valeur de fitness, c’est-à-dire que le paysage de fitness sera lisse. D'autre part, nous nous attendons à ce qu'il y ait des exceptions, car les théories du chaos et des catastrophes nous disent que même des lois harmonieuses peuvent donner lieu à des discontinuités. Mais les espaces de phase réels ont plusieurs dimensions. Si le mouvement dans certaines dimensions est bloqué par des discontinuités, il peut rester des contours lisses dans d'autres dimensions. Bien que de nombreuses mutations potentielles soient catastrophiques, de nombreuses autres ne le sont pas.
 +
 +Dembski pourrait alors faire valoir que cela ne fait que déplacer le problème et que nous avons une chance incroyable que l'Univers ait des lois régulières. Certes, il n'y aurait pas de vie si l'Univers n'avait pas de lois raisonnablement régulières. Mais cela est évident et ce n’est pas une conséquence des NFL. Cet argument se réduit à une variante de l'argument du réglage fin cosmologique, et une particulièrement faible, car le "choix" d'avoir des lois régulières plutôt que des lois chaotiques n'est guère très "fin".
 +
 +Bien que cela affaiblisse l'argument de Dembski des NFL, la régularité des lois n'est pas suffisante pour garantir que l'évolution dans le monde réel produira une complexité fonctionnelle. Dembski donne un exemple de laboratoire où les molécules de réplication sont devenues plus simples (expérience Spiegelman, p. 209). Mais cela ne veut pas dire qu'il en soit toujours ainsi. Dembski n'a établi aucune règle générale. Je pense que, parce que l’espace de phase de l’évolution biologique est tellement multidimensionnel, il ne faut pas s’étonner qu’elle ait produit énormément de complexité fonctionnelle.
 +
 +====6. La méthode des probabilités uniformes====
 +Operator... Give me Information.
 +Song par William Spivery
 +
 +===6.1 Conception dérivée===
 +Dembski nous dit qu'il a deux arguments différents pour le design dans la nature. En plus de tenter de montrer qu'il existe dans la nature des phénomènes que l'évolution darwinienne n'a pas la capacité de générer (comme le flagelle bactérien), Dembski déploie également un autre argument. Même si l'évolution darwinienne avait bel et bien cette capacité, il ne pourrait en être autrement qu'en raison de la conception impliquée dans la sélection des conditions initiales sous-jacentes à l'évolution.
 +//Le darwiniste objecte donc que l'évolution darwinienne "de la vie réelle" peut en fait générer une complexité spécifiée sans l'introduire en douce. La fonction de fitness dans l'évolution biologique découle directement de la survie et de la reproduction différentiées, ce qui, selon le darwiniste, //peut// légitimement être considéré comme un "buffet gratuit" ... Si cette objection est acceptée, le seul moyen de montrer que le mécanisme darwinien ne peut pas générer de complexité spécifiée en démontrant que les gradients de la fonction de fitness induits par la survie et la reproduction différentiées ne sont pas suffisamment lisses pour que le mécanisme darwinien puisse conduire à une évolution biologique à grande échelle. Pour utiliser une autre métaphore de Dawkins, il faut montrer qu’il n’existe aucun moyen progressif de gravir le "Mont Improbable". C’est une argumentation distincte que je traiterai dans le chapitre suivant [qui traite de la complexité irréductible et du flagelle bactérien]. Ici, cependant, je veux montrer que cette concession ne doit pas être accordée et que le déplacement du problème sape effectivement le darwinisme. //[p. 208]
 +
 +Ceci est un argument pour ce que j'appellerai un design //dérivé//. (Dembski utilise le terme //d'intentionnalité dérivée//). Il ne préconise pas la conception dans un événement particulier (tel que l'évolution d'une structure), mais affirme simplement que la conception doit avoir été impliquée à un moment ou à un autre dans la chaîne causale d'événements conduisant à un phénomène que nous observons.
 +
 +Nous avons déjà vu cet argument en termes de réglage des fonctions de fitness. Dembski le présente également en termes de //complexité spécifiée//. Auparavant, la complexité spécifiée était introduite comme une chose à inférer lorsque nous avions éliminé toutes les hypothèses naturelles auxquelles nous pouvions penser pour expliquer un événement. Mais maintenant, Dembski nous dit que, même si nous ne pouvons pas éliminer l'évolution darwinienne en tant qu'explication, nous devrions quand même déduire une conception dérivée si nous observons une complexité spécifiée. Clairement, il s'agit donc d'un sens différent de la complexité spécifiée. Cette nouvelle signification est une propriété observée d'un phénomène et non une propriété inférée d'un événement. Cela indique que le phénomène a une configuration complexe (dans un sens particulier). Cette propriété porte également le nom d’//information spécifiée complexe// (CSI).
 +
 +Notez que ceci est une autre méthode purement éliminative; elle déduit la conception de l'absence alléguée de tout processus naturel capable de générer des CSI. Si l'affirmation était vraie, cela pourrait être considéré comme une généralisation proscriptive, mais nous verrons que l'affirmation est sans fondement.
 +
 +===6.2 L’ Information Spécifiée Complexe (CSI)===
 +Dembski élabore sa propre mesure de la complexité de la configuration d'un phénomène et l'appelle une //information spécifiée// (que je vais abréger en SI). Il calcule cette mesure en choisissant une spécification (comme décrit en 3.1 ci-dessus), puis en calculant la probabilité qu'un résultat corresponde à cette spécification //si le phénomène avait été généré par un processus ayant une distribution de probabilité uniforme//. Une distribution de probabilité uniforme est une distribution dans laquelle tous les résultats possibles (c'est-à-dire les configurations) ont la même probabilité, et Dembski calcule le SI sur cette base, même s'il est connu que le phénomène en question n'a pas été généré par un tel processus. (Ceci sera considéré plus en détail dans la section suivante.) La probabilité ainsi calculée est ensuite convertie en "information" en appliquant la fonction I (R) = -log2P (R), c'est-à-dire que l'information est la négation du logarithme (en base 2) de la probabilité, et il se réfère à la mesure résultante comme un nombre de //bits//.
 +Si le SI d'un phénomène dépasse une //limite de complexité universelle// de 500 bits, alors Dembski affirme que le phénomène présente une //information spécifiée complexe// (ou CSI) ((32)). La liaison de complexité universelle est obtenue directement à partir de la borne de probabilité universelle de Dembski de 10^-150, puisque: -log2 (10-150) vaut environ 500. Dembski désigne également CSI par //complexité spécifiée//, en utilisant les deux termes de façon interchangeable. Comme indiqué ci-dessus, cette signification de complexité spécifiée est différente de celle que nous avons rencontrée précédemment. Je l'appellerai //complexité spécifiée probabilité uniforme//. Pour être clair: la //complexité spécifiée éliminative// est un attribut inféré d’un événement, ce qui indique que nous pensons que cet événement était hautement improbable en ce qui concerne tous les mécanismes de causalité connus; la //complexité spécifiée à probabilité uniforme// (ou CSI) est un attribut observé d'un phénomène, indiquant que le phénomène a une configuration "complexe", sans rapport avec la façon dont il est né. Nous verrons que la notion de "complexité" de Dembski est très différente de notre compréhension habituelle du mot.
 +===6.3 Preuve de l'interprétation de la probabilité uniforme===
 +Le fait que la probabilité utilisée pour calculer l'IS repose toujours sur une distribution de probabilité uniforme est extrêmement important. Dembski utilise une distribution uniforme (ou "purement aléatoire") même si on sait que le phénomène a été provoqué par un processus ayant une autre distribution de probabilité. Comme cela n’est pas explicitement indiqué par Dembski et que cela peut paraître surprenant, je présenterai plusieurs éléments de preuve pour justifier mon interprétation.
 +Pièce 1 - L'argument de la conception dérivée
 +Comme indiqué au point 6.1 ci-dessus, l'argument de conception dérivé de Dembski implique que SI est une propriété observée d'un phénomène, ce qui nous permet prétendument de déduire une conception dans un passé lointain, quels que soient les processus naturels ultérieurs qui auraient pu conduire au phénomène. Il n'y a donc pas de distribution de probabilité pertinente pour laquelle on peut calculer la probabilité pour SI. Nous devons utiliser une distribution de probabilité //par défaut//, et une distribution uniforme semble être le seul candidat possible.
 +Pièce n ° 2 - Le programme Weasel26
 +Dembski mentionne ici spécifiquement une distribution de probabilité uniforme:
 +
 +//Par exemple, dans l'exemple de Dawkins dans METHINKS-IT-IS-LIKE-A-WEASEL (voir la section 4.1), l'espace de phase est constitué de toutes les séquences d'une longueur de 28 caractères comprenant des lettres romaines majuscules et des espaces (les espaces étant représentés par des puces). Une probabilité uniforme sur cet espace attribue une probabilité égale à chacune de ces séquences - la valeur de probabilité est d'environ 1 sur 10^40 et signale un état de fait extrêmement improbable. C’est cette improbabilité qui correspond à la complexité de la séquence cible et qui, par son identification explicite, spécifie la séquence et en fait ainsi une instance de complexité spécifiée (bien que, comme indiqué dans la section 4.1, nous sommes  peu rigoureux dans cet exemple sur le niveau de complexité requis pour la complexité spécifiée - techniquement, le niveau de complexité devrait correspondre à la limite de probabilité universelle de 1 sur 10^150).// [p. 188-189]
 +Cela semble clair. Cependant, Dembski poursuit en affirmant que "E [l'algorithme de l'évolution] n'a en fait généré aucune complexité spécifiée, mais l'a simplement déplacée" (p. 195). (À ce stade, Dembski est passé à une autre version du programme Weasel, mais le changement est sans conséquence.) Bien qu'il ne l'énonce pas explicitement, cela implique que le résultat //présente bien// une complexité spécifiée, bien que cela ait été "introduit clandestinement" dans le programme et non //généré// par lui.
 +
 +Pièce n ° 3 - Algorithmes d'évolution
 +Ma pièce à conviction suivante provient des récits de Dembski sur la simulation de site de liaison de Tom Schneider((33)) (p. 213-218) et des réseaux neuronaux joueurs de dames de Kumar Chellapilla et David Fogel (p. 221-223), que je décrirai plus tard. Ces programmes ont une forte probabilité de produire une bonne solution (comme me l'ont confirmé leurs programmeurs). Puisque Dembski affirme que les résultats ont présenté une complexité spécifiée (CSI), ce qui implique une faible probabilité de produire un résultat spécifié (une bonne solution), il s'ensuit qu'il doit avoir estimé la probabilité par rapport à une distribution de probabilité autre que la distribution réelle. Le seul candidat apparent est une distribution de probabilité uniforme.
 +Pièce n ° 4 - La séquence SETI
 +L'un des exemples de Dembski (p. 6 à 9) est un événement tiré du film //Contact//, mettant en vedette Jodie Foster, dans lequel les astronomes de SETI (Search for Extraterrestrial Intelligence) détectent un signal radio d'origine extraterrestre. Le signal comprend une séquence de 1126 son et pauses représentant les 25 premiers nombres premiers: 2, 3, 5, 7, ..., 101. Chaque nombre premier est représenté par une séquence de son égaux au nombre, avec des nombres consécutifs séparés par une pause. En convertissant les sons en 1 et les pauses en 0, le signal peut être représenté par une séquence de 1126 chiffres binaires (bits), commençant par "110111011111011111110 ...". Les astronomes fictifs ont immédiatement reconnu ce signal comme ayant une origine intelligente.
 +Dembski nous dit que la séquence SETI présente une complexité spécifiée (p. 359). Aux pages 143-144, il donne une version abrégée de 1000 bits de cette séquence, nous indiquant qu'elle a une probabilité de 1 sur 2^1000, donnant un SI supérieur à 500 bits (vraisemblablement 1000 bits). Ce dernier exemple est basé sur une cause connue (agent intelligent ou tirage au sort), mais la séquence a vraisemblablement le même SI, quelle que soit sa cause. Après tout, nous ne connaissons pas la véritable cause de la séquence SETI, mais Dembski nous dit toujours qu’elle présente une complexité spécifiée. Il est très peu probable que la séquence SETI ait été produite avec l’équivalent du tirage au sort. Un scénario beaucoup plus probable est que les extraterrestres ont programmé un ordinateur pour générer la séquence automatiquement. Dans ce cas, nous sommes revenus à la même situation que le programme Weasel. En outre, si nous examinions toutes les hypothèses fortuites pertinentes, nous devrions envisager la possibilité que les deux résultats alternatifs de chaque son / pause ne soient pas également probables. En l'absence de toute autre information, la meilleure estimation des probabilités de sons et de pause serait respectivement de 1102/1126 et 24/1126, puisque nous avons observé 1102 sons et 24 pauses. Avec ces probabilités (et en supposant toujours que chaque son / pause est indépendant des autres), la probabilité de recevoir la séquence SETI serait de (1102/1126)^1102 × (24/1126)^24 = 3,78 × 10^-51, considérablement plus grande que la probabilité universelle liée de 10^-150. Je conclus donc que Dembski calcule le SI de la séquence SETI sur la base que les sons et les pauses ont la même probabilité  (1/2) et que la séquence présente 1126 bits de SI.
 +Pièce n ° 5 - URF13
 +Enfin, je dois mentionner un contre-exemple à mon interprétation de la probabilité uniforme. Dembski considère le cas d'un gène, T-urf13, présent dans une souche de maïs particulière (pp. 218-219). Ce gène code pour un produit protéique appelé URF13. Pour déterminer si URF13 présente une CSI, Dembski commence par calculer une probabilité de 20^83, au motif que la taille fonctionnelle minimale de URF13 est de 83 acides aminés et qu'il existe 20 acides aminés possibles. Donc, il suppose que URF13 est tiré d'une distribution de probabilité uniforme sur l'espace de toutes les séquences possibles de 83 acides aminés. Il souligne ensuite que la probabilité est vraiment plus élevée que cela, car nous devons prévoir la possibilité que d’autres séquences aient la même fonction que URF13, c’est-à-dire d’autres séquences correspondant à la même spécification. Jusqu'ici, cela appuie donc l'interprétation de probabilité uniforme. Plus bas dans la page, cependant, il soutient que la probabilité sur laquelle le SI doit être basé est encore plus élevée:
 +//Et si en le découpant, les improbabilités calculées se révélaient inférieures à la probabilité universelle? Cela démontrerait-il que CSI a été générée de manière naturaliste? Non. Tout d’abord, il n’y a aucune raison de penser que les segments de gènes non codants pour les protéines sont eux-mêmes véritablement aléatoires - comme indiqué plus haut, T-urf13, qui est composé de tels segments, est homologue à l’ARN ribosomal. Ce n’est donc pas comme si ces segments avaient été produits en échantillonnant une urne remplie d’acides nucléiques mal mélangés. De plus, il n'est pas clair que la recombinaison elle-même soit vraiment aléatoire.// [p. 219]
 +Dembski dit maintenant que nous ne devrions pas simplement calculer le SI sur la base d'un modèle de probabilité uniforme (urne), mais que nous devrions également prendre en compte les processus de causalité que nous pensons opérer. Mais cela contredit les exemples informatiques donnés ci-dessus, dans lesquels nous connaissions le processus de causalité proprement dit (exécution d'un programme informatique) et ce processus donnait un résultat précis avec une probabilité élevée. Pourtant, Dembski nous a dit que le résultat montrait quand même une CSI.
 +
 +
 +
 +Bien que la preuve ne soit pas concluante, elle semble privilégier de manière prédominante l’interprétation de la probabilité uniforme, et c’est celle que je vais examiner ci-après. Mais laissez-moi regarder brièvement les alternatives:
 +* Le SI est basé sur la probabilité relative au véritable processus de causalité responsable de l'événement. Cela rendrait le SI inutile pour faire des déductions sur la cause d'un phénomène. Il faudrait connaître la cause pour en déduire la cause! En outre, il serait insensé de dire qu'un phénomène conçu présente une valeur CSI, car il n'y a pas de distribution de probabilité pour laquelle on puisse calculer le SI d'un phénomène conçu (comme Dembski nous dit que la conception n'est pas un processus probabiliste). Cette interprétation est clairement intenable.
 +      * Le SI repose sur notre meilleure compréhension des processus de causalité qui, selon nous, pourraient être à la base de l'événement à l'origine du phénomène observé. Mais ceci est juste à nouveau la méthode d’élimination du hasard. Nous calculons le SI sous l'hypothèse de la meilleure chance à laquelle nous puissions penser (celle conférant la probabilité la plus élevée à une région de rejet détachable). Si le SI sous cette hypothèse de hasard est suffisamment élevé (probabilité suffisamment faible), nous rejetons cette hypothèse de hasard et en déduisons la conception. De manière implicite, nous avons déjà examiné et rejeté toutes les hypothèses de hasard inférieures auxquelles nous pouvions penser (celles qui confèrent uniquement des probabilités plus faibles aux régions de rejet détachables). Dans ce cas, l’affirmation selon laquelle un phénomène met en évidence l’ISC n’est qu’une affirmation qu’il est improbable sous toutes les hypothèses fortuites auxquelles on peut penser. En d'autres termes, c'est le même argument d'ignorance qui a été abordé plus tôt.
 +Si Dembski insiste sur le fait qu’il n’y a qu’une méthode d’inférence de conception et que c’est la méthode de l’élimination du hasard, il doit alors expliquer les voies exposées ci-dessus et justifier son introduction des termes "complexité" et "information". La méthode d'élimination du hasard utilise une technique statistique (probabiliste) pour éliminer les hypothèses. Cela n'a rien à voir avec la complexité ou l'information. Transformer les probabilités en appliquant la fonction triviale I = -log2P ne les convertit pas comme par magie en mesures de complexité ou d'informations. Cela ne sert qu'à dissimuler la nature de l'argument.
 +Je suppose que Dembski n’a pas remarqué qu’il avait deux méthodes différentes. Une des raisons de sa confusion est peut-être que toutes les hypothèses fortuites qu’il a envisagées dans ses exemples sont celles qui donnent lieu à une distribution de probabilité uniforme, à la seule exception d’un cas trivial (p. 70).
 +Dembski semble également considérer les distributions de probabilités uniformes comme "privilégiées" dans un certain sens (p. 50). Se référant à l'espace de phase d'un algorithme d'optimisation, il écrit:
 +//De plus, ces espaces ont généralement une probabilité uniforme qui est adaptée à la topologie de l’espace de phase. Cela signifie que Ω [l'espace de phase] possède une mesure de probabilité uniforme U adaptée à la métrique sur Ω de sorte que des probabilités identiques soient affectées aux parties de Ω géométriquement congruentes (voir section 2.2)//. [p. 188]
 +Mais un espace de phase (en tant qu'espace de recherche d'un algorithme d'optimisation) ne vient pas avec une distribution de probabilité attachée. C’est simplement un espace de solutions possibles dans laquelle que nous sommes invités à chercher.((34))
 +===6.4 Le choix de l'espace de phase===
 +Bien que baser le SI sur une distribution de probabilité uniforme aide à le rendre indépendant du processus de causalité qui a produit le phénomène, il ne peut pas le rendre complètement indépendant. Étant donné un //espace de phase// (ou une //classe de référence de possibilités//, comme l'appelle Dembski), il n'y a qu'une seule distribution uniforme possible, celle dans laquelle tous les résultats ont une probabilité égale. Mais comment choisit-on un espace de phase? Dans le cas de la séquence SETI, il peut sembler évident que l’espace de phase considéré est l’espace de toutes les séquences de bits possibles de longueur 1126. Mais pourquoi supposer que la séquence a été dessinée à partir d’un espace de séquences de 1126 bits et non de séquences de longueur variable? Pourquoi devrions-nous supposer que le son et la pause sont les deux seules valeurs possibles? Les supposés extraterrestres auraient pu choisir de transmettre des sons d'amplitudes variables.
 +
 +Des problèmes similaires se posent ailleurs. A la p.166, Dembski calcule la complexité du mot METHINKS sous la forme -log2 (1/2^78) = 38 bits.((35)) Ceci est basé sur un espace de phase de chaînes de 8 caractères, chaque caractère ayant 27 possibilités (26 lettres dans l'alphabet plus un espace). Il n'envisage pas la possibilité de plus ou moins de 8 caractères. Ainsi Dembski a clairement  une règle, qui est que nous ne devrions considérer que les permutations possibles du //même nombre// de caractères (ou composants) que nous avons réellement observé. Aucune justification n'est donnée pour une telle règle et cela nous laisse toujours un choix arbitraire à faire en ce qui concerne l'unité de permutation. Dans le cas de METHINKS, on pourrait soutenir que la seule unité de permutation sensible est le caractère. Mais dans d'autres cas, nous devons faire un choix. Dans une phrase, devrions-nous considérer les permutations de caractères ou de mots? Dans un génome, devrions-nous considérer les permutations de gènes, de codons, de paires de bases ou d’atomes?
 +Encore plus problématique est la gamme de caractères possibles. Ici, Dembski a choisi les 26 lettres majuscules et un espace comme seules possibilités. Mais pourquoi ne pas inclure des lettres minuscules, des chiffres, des signes de ponctuation, des symboles mathématiques, des lettres grecques, etc.? Ce n’est pas parce que nous n’avons observé aucun de ceux-ci qu’ils n’étaient pas de réelles possibilités. Et si nous ne devons considérer que les valeurs que nous avons réellement observées, pourquoi Dembski a-t-il inclus les 26 lettres de l'alphabet? Beaucoup de ces lettres ne figuraient ni dans le mot METHINKS, ni même dans la phrase plus longue dans laquelle il était intégré. Peut-être que Dembski s’appuie sur la connaissance du processus de causalité qui a donné lieu à ce mot, sachant que les lettres ont été tirées d’une collection de 27 tuiles de Scrabble, par exemple. Mais s’appuyer sur la connaissance du processus de causalité rend le critère inutile pour les cas où nous ne connaissons pas la cause. Et tout le but du critère était de nous permettre de déduire le type de processus causal (naturel ou conception) quand il est inconnu.
 +Le choix d’un espace de phase approprié n’est pas un problème tel que dans la théorie de l’information de Shannon ((36)), car nous nous intéressons ici à la mesure des informations transmises (ou produites) par un //processus//. Dembski, quant à lui, veut mesurer les informations présentées par un //phénomène// donné et en tirer une conclusion sur le processus de causalité qui a produit le phénomène. Cela l'oblige à choisir un espace de phase sans connaître le processus de causalité, le résultat étant que ses espaces de phase sont arbitraires.
 +Dembski consacre une partie de son livre (p. 133-137) au problème de la sélection d'un espace de phase, mais ne parvient pas à résoudre le problème. Il soutient que nous devrions "pécher par excès d'abondance et inclure autant de possibilités qu'il serait plausible d'obtenir dans ce contexte" (p. 136). Mais cela signifie que nous penchons pour la surestimation de la quantité d'informations présentées par un phénomène, et donc pour la conception faussement inférée. Cela n’est guère raisonnable pour une méthode supposée déduire de manière fiable la conception. En tout cas, Dembski ne suit pas ses propres conseils. Dans l'exemple de METHINKS, nous venons de voir qu'il a choisi un espace basé sur 27 caractères seulement - ce n'est pas le nombre maximum plausible sans aucune connaissance du processus de causalité.
 +
 +Étant donné que le SI est basé sur une distribution de probabilité uniforme, il n’y a guère de doute que le CSI existe dans la nature. En effet, on peut trouver que toutes sortes de phénomènes naturels présentant un CSI si un espace de phase approprié est choisi. Prenons l'exemple mentionné précédemment de cratères sur la Lune. Si nous prenons l’espace de tous les paysages lunaires théoriquement possibles et choisissons aléatoirement un paysage dans une distribution uniforme sur cet espace, la probabilité d’obtenir un paysage présentant de telles formations circulaires que nous observons réellement sur la Lune est extrêmement petite, suffisamment petite pour conclure que le paysage lunaire actuel expose un CSI. Même les orbites des planètes présentent un CSI. Si une orbite planétaire était choisie au hasard parmi une distribution de probabilité uniforme sur l’espace de toutes les manières possibles de tracer un chemin autour du Soleil, alors la probabilité d’obtenir un chemin aussi lisse et elliptique qu’une orbite de planète est minuscule.
 +===6.5 La loi de la conservation de l'information===
 +La loi sur la conservation de l'information (ci-après LCI) est l'affirmation formelle de Dembski selon laquelle il affirme que les causes naturelles ne peuvent pas générer de CSI; ils ne peuvent que le déplacer d'un endroit à un autre. La LCI indique que, si un ensemble de conditions Y suffit à causer X, le SI présenté par Y et X combinés ne peut dépasser le SI de Y seul de plus que la limite de complexité universelle, c'est-à-dire
 +I (Y & X) <= I (Y) + 500
 +où I (Y) est la quantité de SI exposée par Y. (J'ai créé Y antécédent de X, plutôt que l'inverse, par souci de cohérence avec l'explication de Dembski, pages 162-163.)
 +
 +Malgré son nom, la LCI n’est pas une loi de conservation. Puisque Dembski reconnaît que de petites quantités de SI (moins de 500 bits) peuvent être générées par des processus aléatoires (p. 155-156), la LCI ne peut être interprétée comme une loi de //conservation// au sens le plus raisonnable du terme. C'est plutôt une //limite// sur la quantité de SI pouvant être générée.
 +
 +Mon analyse du LCI ci-dessous sera basée sur mon interprétation de l’IS avec probabilité uniforme. Cependant, dans le cas où Dembski rejetterait cette interprétation, permettez-moi d'abord d'examiner ce que le LCI signifierait si l'IS est basé sur les probabilités réelles des événements. Il ne s'agirait alors que d'une version déguisée de l'ancienne loi des petites probabilités de Dembski, tirée de //The Design Inference//, qui stipule que des événements spécifiés de faible probabilité (moins de 10^ 150) ne se produisent pas. Il a simplement converti la probabilité en "information" en appliquant la fonction I = -log2P à chaque côté de l’inégalité, les probabilités étant conditionnées par l'occurrence de Y. Pour le voir, considérons X un événement spécifié survenu à la suite de Y. Puis, par la loi des petites probabilités,
 +
 +* P (X | Y)> = 10^-150
 +* <=> P (Y & X)> = P (Y) × 10^-150 (puisque P (Y & X) = P (Y) × P (X | Y))
 +* <=> I (Y & X) <= I (Y) + 500 (en enlevant log2 des deux côtés).
 +Dans ce cas, la LCI n’est qu’une limite de probabilité et n’a aucun rapport avec l’information ni avec la complexité. Je ne vais donc pas examiner cette interprétation plus avant.
 +===6.6 Contre-exemple: réseaux  neuronaux joueurs de dames===
 +Mon premier contre-exemple avec le LCI est celui que Dembski présente courageusement, à savoir les réseaux neuronaux évolutifs de Chellapilla et de Fogel, qui jouent aux dames (p. 221-223)((37)). Je commencerai par une brève description de l'algorithme évolutif. Les réseaux neuronaux ont été définis par un ensemble de paramètres (les détails sont sans importance) qui déterminent leur stratégie pour jouer aux dames. Au début du programme, une population de 15 réseaux de neurones a été créée avec des paramètres aléatoires. Ils n'avaient pas de structures spéciales correspondant aux principes stratégiques du jeu de dame. Ils n'ont reçu que l'emplacement, le nombre et le type de pièces - les mêmes informations de base qu'un joueur novice aurait lors de son premier match. À chaque génération, la population actuelle de 15 réseaux de neurones a engendré 15 descendants, avec des variations aléatoires de leurs paramètres. Les 30 réseaux de neurones résultants ont ensuite participé à un tournoi, chaque réseau de neurones jouant 5 parties en rouge (déplacement en premier) contre des adversaires sélectionnés au hasard. Les réseaux de neurones ont reçu +1 point pour une victoire, 0 pour un match nul et -2 pour une défaite. Ensuite, les 15 réseaux de neurones avec les notes totales les plus élevés sont passés à la génération suivante. Je ferai référence au triplet (+1, 0, -2) en tant que //régime de notation// et à la survie des 15 réseaux de neurones avec la notation total le plus élevé en tant que //critère de survie//.
 +Les réseaux de neurones produits par cet algorithme étaient de très bons joueurs de dames, et Dembski suppose qu'ils présentaient une complexité spécifiée (CSI). Il ne donne aucune justification pour cette hypothèse, mais cela semble raisonnable compte tenu de l'interprétation de probabilité uniforme. Vraisemblablement, la spécification ici est, grosso modo, la production d’un bon joueur de dames, et l’espace de phase est l’espace de toutes les valeurs possibles des paramètres d’un réseau neuronal. Si les paramètres étaient tirés au hasard, la probabilité d'obtenir un bon joueur de dames serait extrêmement faible. Comme le résultat du programme montre une CSI, Dembski doit montrer qu'il y avait une CSI à l’origine. À son crédit, Dembski ne prend pas la solution de facilité et affirme que le CSI se trouvait dans l'ordinateur ou dans le programme dans son ensemble. La programmation des réseaux de neurones était assez indépendante de l'algorithme évolutif. Au lieu de cela, Dembski prétend que le CSI a été "inséré" par Chellapilla et Fogel à la suite de leur décision de maintenir le "critère de victoire" constant de génération en génération! Mais un critère constant est l'option //la plus simple//, pas complexe, et l'idée qu'une décision aussi simple aurait pu insérer beaucoup d'informations est absurde.
 +
 +Comme nous l'avons vu précédemment, la fonction fitness reflète le problème à résoudre. Dans ce cas, le problème est de produire des réseaux de neurones qui joueront bien aux dames dans les conditions prévalentes. Etant donné que les conditions dans lesquelles les réseaux neuronaux évolués seraient joués étaient (probablement) inconnues au moment de la programmation de l'algorithme, on pourrait soutenir que le choix du critère de victoire était libre. Les programmeurs auraient pu dès lors choisir le critère de leur choix. Néanmoins, le choix naturel dans une telle situation est de choisir l'option la plus simple. En choisissant un critère constant de victoire, c'est ce que les programmeurs ont fait. Comme ils n'avaient aucune raison de penser que les réseaux de neurones se retrouveraient dans un tournoi avec des conditions de victoire variables, il n'y avait aucune raison de les faire évoluer dans de telles conditions.
 +
 +Contrairement à l'affirmation de Dembski selon laquelle le choix d'un critère constant "est dépourvu d'analogue naturel", l'analogue naturel du critère constant de victoire est la constance des lois de la physique et de la logique.
 +// En outre, leur choix est sans analogue naturel. Chellapilla et Fogel ont maintenu leur critère de "victoire au tournoi". Pour les systèmes biologiques, le critère de "victoire au tournoi" variera considérablement en fonction de la personne participant au tournoi. // [p. 223]
 +Ce que Dembski entend par "critère de la victoire dans un tournoi" n'est pas clair. Cependant, le fait que le succès d'un système biologique dépend de celui qui "joue dans le tournoi" a certainement un analogue dans l'algorithme de Chellapilla et Fogel. Le succès d'un réseau de neurones dépendait des autres de réseau de neurones participants au tournoi.
 +
 +
 +Avant d'examiner d'autres objections à l’affirmation de Dembski, je dois décider ce qu'il entend par "critère de victoire". Veut-il simplement parler du régime de notation ? Ou veut-il dire l’ensemble des règles du tournoi: la sélection des adversaires, le régime de notation et le critère de survie? Par souci de brièveté, je n’examinerai que le régime de notation, mais des arguments similaires peuvent être avancés en ce qui concerne les autres éléments du règlement du tournoi.
 +
 +Dembski insiste sur le fait que le SI "inséré" par Chellapilla et le choix de Fogel sont déterminés en ce qui concerne "l'espace de toutes les combinaisons possibles de fonctions de fitness locales parmi lesquelles ils ont choisi leur ensemble coordonné de fonctions de fitness locales". On ne voit pas bien ce que Dembski entend par «//fonction de fitness//» ici. Comme nous l’avons vu, dans une situation où le succès d’un individu dépend de ses interactions avec d’autres individus de la population (dans ce cas, la population de réseaux de neurones), la fonction de fitness varie en fonction de la population, car l'individu est relatif à son environnement, qui inclut le reste de la population. Dembski semble le reconnaître, puisqu'il écrit:
 +//Il n'y a même pas de fonction de fitness définie sur tout l'espace des réseaux de neurones jouant aux dames. Au lieu de cela, chaque collection de 30 réseaux de neurones reçoit sa propre fonction de fitness qui assigne le fitness en fonction de la manière dont un réseau de neurones se comporte dans un tournoi avec d'autres réseaux de neurones ...// [p. 222]
 +
 +Lorsque Dembski fait ici référence à une "fonction de fitness locale", il entend apparemment la fonction de fitness d'une génération en particulier((38)). Cependant, contrairement à ce que prétend Dembski, la séquence des fonctions de fitness n'a pas été "coordonnée" par Chellapilla et Fogel. Cela dépendait de l'évolution de la population de réseaux de neurones. Il est donc insensé de parler de Chellapilla et de Fogel comme choisissant parmi "l’espace de toutes les combinaisons possibles de fonctions de mise en forme locales". Cependant, il //serait// logique de parler d’un choix dans l’espace des phases de tous les régimes de notation temps-dépendants (un triplet par génération), et je vais supposer que c’est ce que Dembski veut dire.
 +
 +Pour les raisons déjà exposées, il n’est guère raisonnable de considérer que le système de notation a été choisi dans un tel espace de phase. Néanmoins, même si nous le faisons, la quantité de SI insérée par le choix de Chellapilla et Fogel était minime. En effet, la SI doit être basé sur une région de rejet comprenant tous les régimes de notation  temps-dépendants qui auraient été aussi performants que ceux de Chellapilla et de Fogel ou mieux. Supposons qu'au lieu d'utiliser un régime de notation constant, le programme génère de manière aléatoire un nouveau triplet de notation (W, D, L) pour chaque génération, sous réserve uniquement de la contrainte W> D> L. Cette contrainte n'est pas une imposition artificielle; c'est une caractéristique du problème à résoudre. Si le problème était de trouver de bons joueurs aux dames suicide (où le but du jeu est de "perdre"), la contrainte serait L> D> W. Puisque la SI est basée sur une distribution de probabilité uniforme, les valeurs de W, D et L seraient tirés d'une distribution de probabilité uniforme sur une plage continue, par exemple [+2, -2]. Nous ne nous intéressons qu'aux valeurs relatives de W, D et L, le choix de la plage est donc arbitraire et peut être effectué de manière aléatoire au début de chaque exécution. La question est alors de savoir combien de fois un tel programme fonctionnerait aussi bien que l’original, c’est-à-dire produirait de bons joueurs dans le même laps de temps. Si, par exemple, le programme révisé fonctionne aussi bien que le programme original 1 fois sur 8 (sur un échantillon suffisamment grand), cela signifie qu'un régime temps-dépendant sur huit fonctionne aussi bien que celui de Chellapilla et de Fogel. La SI du régime de Chellapilla et Fogel serait alors seulement -log2 (1/8) = 3 bits. Pour que Dembski maintienne sa thèse selon laquelle ce choix introduit de la CSI, il lui incomberait de démontrer que la proportion de régimes performants aussi bien que ceux de Chellapilla et de Fogel est inférieure à 1 sur 10^150, ce qui semble très peu probable.
 +
 +Dans le cas où Dembski aurait un problème avec même la contrainte naturelle que j'ai suggérée ci-dessus, considérons une alternative qui n'a pas de contrainte préalable. Supposons qu'au début de chaque exécution, le programme tire 6 nombres aléatoires d'une plage arbitraire (comme ci-dessus). Appelez ces numéros W-, W +, D-, D +, L-, L +. Pour chaque génération, le programme génère un nouveau triplet de notation (W, D, L), sélectionnant ces paramètres de manière aléatoire à partir de distributions de probabilités uniformes sur les plages [W-, W +], [D-, D +] et [L-, L +]. respectivement. Beaucoup de programmes ne réussiront pas à produire de bons joueurs de dames (bien qu’ils puissent produire des joueurs qui savent bien jouer au suicide ou forcer un match nul). Cependant, sur une petite proportion de lancement  (1/720 en moyenne), il va arriver que W +> W-> D +> D-> L +> L-, et nous pouvons nous attendre à ce que ces lancements produisent de bons joueurs.((39)). Ainsi, si nous exécutons le programme assez de fois, la sortie affichera //parfois// une CSI même s’il n’y a pas de SI dans le régime de pointage. Alternativement, nous pouvons dire qu'un régime réussi comme celui de Chellapilla et Fogel's((40)) a une SI de -log2 (1/720) = 9,49 bits, plus quelques bits pour tenir compte du fait que tous les régimes réussis ne fonctionnent pas aussi bien que celui-ci, tel que discuté plus haut.
 +Ayant constaté que très peu de SI, voire aucune, n’était "insérée" dans le choix du régime de notation, Dembski pourrait choisir de se concentrer sur d’autres paramètres, tels que la taille de la population. La beauté de l’algorithme de Chellapilla et Fogel réside toutefois dans le fait qu’il a très peu de paramètres et que même ceux-ci peuvent être modifiés de façon considérable sans nuire aux performances du programme. Rien n'a été peaufiné. Tout comme dans le cas du système de notation, la sélection de ces autres paramètres implique donc peu de SI.
 +
 +
 +===6.7 Contre-exemple: séquences mathématiques===
 +
 +Comme indiqué précédemment, Dembski considère apparemment que la séquence SETI de 1126 bits présente 1126 bits de SI. Mais s'il en est ainsi, il s'ensuit qu'une séquence de //n// bits présenterait //n// bits de SI. Ainsi, un programme informatique qui produit cette séquence peut produire autant de SI que nous le souhaitons, simplement en laissant le programme s'exécuter suffisamment longtemps. La SI de  sortie peut atteindre des millions de bits et facilement dépasser la SI du programme, quelle que soit la taille de celui-ci. La tâche de générer des nombres premiers est peut-être trop difficile pour que cela soit une possibilité pratique. Dans ce cas, nous pouvons simplement choisir une séquence plus simple, telle que la séquence de Fibonacci. Si nous prenons une séquence très simple comme celle de Champernowne (p. 64), nous pouvons même la programmer en quelques instructions de code machine et l'exécuter sur un ordinateur nu (sans système d'exploitation), de sorte que la SI totale du logiciel est inférieur à 500 bits, pas même suffisant pour constituer de la CSI.
 +
 +Je donne la justification suivante pour affirmer que la SI d'un programme n'est pas supérieur à sa longueur. Considérons un programme donné de longueur N bits. Par analogie avec l'exemple METHINKS de Dembski (p. 166), je soutiens que je peux prendre comme espace de phase l'espace de tous les programmes de la même longueur que mon programme donné. Ensuite, la probabilité de tirer un programme donné (c'est-à-dire une séquence de bits) depuis une distribution uniforme sur cet espace est de 1 / 2^N, de sorte que les informations d'un programme particulier sont -log2 (1 / 2^N) = N bits. La SI présenté par le programme peut être inférieur à celui-ci (si plusieurs programmes correspondent aux mêmes spécifications que le programme donné), mais ne peut pas être supérieure.
 +
 +Puisque le SI du programme est fini (N bits) mais que la SI de la séquence de sortie est illimité, le programme peut générer une quantité illimitée de SI.
 +
 +Permettez-moi de répondre à toutes les objections que Dembski pourrait faire à cet argument:
 +* "Toute la SI dans la sortie était contenu dans le programme." Cela signifie que le programme contient une quantité illimitée de SI. Je doute que Dembski veuille affirmer qu'un programme trivial peut contenir une quantité illimitée de SI.
 +* "La SI d'une séquence mathématique est limité à la longueur du programme nécessaire à sa génération." Ceci est vrai pour les informations algorithmiques (complexité de Kolmogorov) ((41)), mais pas pour la SI de Dembski.
 +* "La sortie d'un processus déterministe ne présente pas de SI car elle n'est pas //contingente//, comme l'exige le Filtre Explicatif." Mais cela rendrait l'évaluation de la SI dépendante du type de processus causal menant au phénomène, la question même qui est en cause. Si la séquence SETI présente une CSI lorsqu’elle est reçue de l’espace, pourquoi la même séquence ne devrait-elle pas présenter une CSI lorsqu’elle est produite par un ordinateur? Et pour autant que nous sachions, la séquence SETI pourrait également avoir été générée par un programme informatique déterministe (programmé par les ET). Dans tous les cas, nous pouvons rendre notre programme informatique non déterministe si nécessaire, par ex. en démarrant la séquence principale à partir d'un nombre premier sélectionné au hasard.
 +
 +Le problème pour Dembski est que les phénomènes hautement structurés sont spécifiés avec précision, ce qui leur confère une faible probabilité et donc une SI élevée. Contrairement aux informations algorithmiques (complexité de Kolmogorov), qui constituent une mesure de l'incompressibilité, la SI est en corrélation avec la //compressibilité//. Les séquences hautement compressibles telles que la séquence SETI présentent une SI élevé. Dembski semble assez content de ce fait:
 +
 +
 +//C’est la CSI qui, dans la théorie des informations algorithmiques de Chaitin-Kolmogorov-Solomonoff,  identifie les chaînes de chiffre hautement compressibles et non aléatoires ...// [p. 144]
 +L'information de Dembski (SI) tend donc à varier inversement avec l'information algorithmique. Une séquence hautement compressible peut être riche en SI mais faible en informations algorithmiques. Dembski laisse croire que son CSI est équivalent au terme de //complexité spécifiée// utilisé par d'autres auteurs, citant la citation suivante du livre de Paul Davies, //The Fifth Miracle//, pas moins de quatre fois:
 +//Les organismes vivants sont mystérieux non pas pour leur complexité en soi, mais pour leur complexité étroitement spécifiée. //[p. 180]
 +Pourtant, si on lit //The Fifth Miracle//, on s'aperçoit que Davies utilise la complexité au sens d'informations algorithmiques (complexité de Kolmogorov), et non dans le sens de Dembski de probabilité-sous-distribution-uniforme. Davies appelle également sa mesure un caractère //aléatoirement spécifique//, alors que Dembski identifie la CSI, dans la citation ci-dessus, avec des chaînes //non aléatoires//((42)).
 +
 +Dans le même ordre d'idées, Dembski cite Leslie Orgel:
 +
 +//Les organismes vivants se distinguent par leur complexité spécifiée. Les cristaux tels que le granit ne peuvent pas être considérés comme vivants car ils manquent de complexité; les mélanges de polymères aléatoires ne sont pas admissibles car ils manquent de spécificité. //[p. 229n5]
 +Mais, selon la définition de Dembski, les cristaux ont une grande complexité, car la probabilité d'obtenir une forme cristalline par une combinaison purement aléatoire de molécules est très faible. Comme Davies, Orgel définit la complexité en termes de "nombre minimal d’instructions nécessaires pour spécifier la structure" .((43))
 +
 +Donc, contrairement à l'implication de Dembski s, sa conception de la complexité spécifiée est assez différente de celle de Davies et d’Orgel.((44)).
 +
 +
 +===6.8 Justification mathématique de Dembski===
 +Dembski prétend avoir fourni une justification mathématique pour sa LCI. Comme nous venons de voir que des contre-exemples à la LCI peuvent facilement être trouvés, il doit y avoir un problème avec la justification mathématique. En fait, les erreurs ne sont pas trop difficiles à voir.
 +
 +Les quatre premières pages de la justification de Dembski (p. 151-155) visent à montrer que la LCI est vrai pour les processus déterministes. L'erreur dans cet argument peut être vue plus clairement en partant de l'équation suivante (p. 152):
 +
 +I (A & B) = I (A) + I (B | A).
 +
 +Comme B (le résultat d'un processus déterministe) est entièrement déterminé par A (les conditions antécédentes), soutient Dembski, I (B | A) = 0, et donc I (A & B) = I (A). Ainsi, aucune nouvelle information n'a été produite par le processus. (J'ai simplifié un peu la notation de Dembski.)
 +
 +L'équation ci-dessus a été dérivée de l'équation de probabilité de base suivante, simplement en transformant les deux côtés de l'équation par la transformation triviale I (E) = -log2P (E):
 +
 +P (A & B) = P (A) × P (B | A)
 +
 +que Dembski déclare sous la forme suivante (pp. 128-129):
 +
 +P (B | A) = P (A & B) / P (A).
 +
 +Le résultat de Dembski est donc simplement une autre façon de dire que le résultat d'un processus déterministe se produit avec la probabilité 1. Mais cela ne nous dit rien sur les informations spécifiées présentées par le résultat, car elles reposent sur une distribution de probabilité uniforme, quelle que soit la probabilité réelle. 
 +
 +Pour illustrer un exemple concret, considérons l’une des séquences mathématiques ci-dessus, par exemple la séquence principale SETI de 1126 bits. Alors A est le programme qui produit la séquence et B est la séquence elle-même. Alors il est vrai que P (B | A) (la probabilité que B donne A) est égal à 1, puisque A conduit toujours à B. Par conséquent, en appliquant la transformation I (E) = -log2P (E), on arrive à I (B | A) = 0. Jusqu'ici, tout va bien. 
 +Cependant, I (B | A) ne correspond //pas// à l'information spécifiée par Dembski, SI. Je suppose que les événements en question sont spécifiés, le problème n’a donc rien à voir avec la spécification. Le problème est que I (B | A) est juste une transformation de P (B | A), et P (B | A) est la //vraie// probabilité conditionnelle de l'événement, qui dans ce cas est 1. La SI, par contre, repose sur l'hypothèse d'une distribution de probabilité uniforme, quelle que soit la probabilité réelle de l'événement. Dans le cas SETI, la SI présenté par B est donné par
 +
 +SI = -log2 (P (B | U)) = -log2 (2^-1126) = 1126 bits
 +
 +où U indique une distribution de probabilité uniforme sur l'espace de toutes les séquences possibles de 1126 bits.
 +
 +En bref, Dembski est équivoque entre deux sens différents d’information.
 +
 +Des processus déterministes //peuvent// donc générer de la CSI. Cependant, Dembski aurait pu éviter ce problème en adoptant une mesure d’information raisonnable, telle que la complexité de Kolmogorov spécifiée par Davies. Avec cette mesure, il serait vrai que les processus déterministes ne peuvent pas générer d'informations, car la sortie d'un programme déterministe a par définition une complexité de Kolmogorov identique ou inférieure à celle du programme. Pour répondre aux arguments de Dembski concernant les processus stochastiques, je vais prétendre, pour le reste de cette section, que la SI ne peut pas être généré par des processus déterministes.
 +La prochaine étape de la justification de Dembski est de faire valoir que des processus purement aléatoires ne peuvent pas générer de CSI (p. 155-157). Je conviens volontiers que tel est bien le cas, compte tenu de l’élaboration suivante de ce que j’entends par là : nous considérons qu’il est effectivement impossible qu’un phénomène hautement spécifié (tel qu’un organisme vivant) puisse être tiré d’une distribution de probabilité uniforme sur l’espace de tous les objets. combinaisons possibles des composants du phénomène (si nous prenons des composants suffisamment simples). La probabilité est trop faible. C'est ce que Richard Dawkins appelle la //sélection en une étape//((45)). Cependant, comme le souligne Dembski, des processus purement aléatoires peuvent produire de plus petites quantités de SI, en deçà de la CSI, car elles correspondent à des événements de probabilité forte. En d'autres termes, la LCI n'interdit pas aux processus naturels de produire du SI.
 +
 +Mais qu'en est-il de la //sélection cumulative// (pour reprendre le terme contrasté de Dawkins)? La sélection cumulative est une série de petites étapes dans l'espace de phase (l'ensemble de toutes les configurations possibles), basées sur des essais et des erreurs, dans lesquelles des étapes avantageuses sont conservées et utilisées comme base pour un développement ultérieur. Quel est l'argument de Dembski contre la génération de CSI par sélection cumulative? En cherchant à savoir si un processus stochastique peut générer un CSI (p. 157-158), Dembski décompose le processus en deux étapes: une étape purement aléatoire suivie d’une étape déterministe. Il fait valoir qu'aucune étape ne peut produire de CSI, de sorte que le processus combiné en deux étapes ne peut pas le faire non plus. Étrangement, Dembski ne mentionne pas la possibilité de multiples itérations de hasard et de processus déterministes. Mais c’est exactement sur quoi repose la sélection cumulative (par exemple, l’évolution biologique). Chaque stade aléatoire (mutation aléatoire) peut produire un peu d'IS, et la sélection naturelle peut empêcher la perte de l'IS existant, ce qui lui permet de s'accumuler dans le temps dans un processus semblable à un cliquet.
 +
 +
 +Dembski revient sur cette question plusieurs pages plus tard (p. 165-166), lorsqu'il prétend que la CSI est //holistique// et ne peut donc pas être accumulé. Mais son argument à l’appui de l’affirmation n’aborde absolument pas le problème. Il souligne que la phrase "METHINKS IT IS LIKE A WEASEL" présente plus de SI que l'ensemble agrégé de mots individuels {A, IS, IT, LIKE, WEASEL, METHINKS}, car le premier est constitué d'une séquence de mots spécifiée. Selon les spécifications que nous choisissons, cela peut être vrai. Mais cela n’a aucune importance, car il n’existe toujours pas de limite quant à la quantité de SI qu’un agrégat peut présenter, à condition de disposer de suffisamment de mots. En tout état de cause, Dembski ne nous a donné aucune raison de penser que les causes naturelles se limitent à la production d’agrégats ordonnés au hasard.
 +
 +La question n'est pas de savoir combien de SI peut présenter une structure, mais si cette SI peut provenir de processus naturels, et Dembski ne donne aucune raison de penser que la SI ne peut pas être accumulé à plusieurs étapes de la sélection cumulative. Peut-être que Dembski répondrait que la probabilité que l'ensemble du processus aboutisse à un résultat donné est le produit des probabilités des étapes individuelles et restera donc inférieure à la probabilité universelle. Mais cela ne permettrait pas de reconnaître qu’à chaque étape il y aura de nombreuses tentatives (beaucoup d’individus dans la population sur plusieurs générations), la probabilité de succès sera donc beaucoup plus grande que si un seul individu devait franchir le seuil de chaque étape de la succession. 
 +
 +En résumé, Dembski n'a pas démontré que les processus naturels ne peuvent pas produire la complexité spécifiée ou CSI, quelle que soit sa définition. Il a simplement évité la question de la sélection cumulative.
 +
 +Dembski affirme de manière audacieuse que sa LCI peut être considéré comme une "quatrième loi de la thermodynamique". Comme j'ai prouvé que la LCI était sans fondement, je ne considérerai pas cette revendication supplémentaire.
 +
 +
 +
 +
 +
 +====7. Le cas positif pour le design====
 +//Recherche! Une simple excuse pour l'oisiveté; il n'a jamais été atteint,
 +et n'obtiendra jamais aucun résultat de la moindre valeur.//
 +Benjamin Jowett (1817-93), universitaire et maître au Balliol College, Oxford
 +
 +Ayant précédemment nié l’intérêt de la comparaison d’hypothèses et s’appuyant sur une approche purement éliminatoire pour déduire de la conception, Dembski change de cap dans son dernier chapitre et tente de présenter un argument positif en faveur de son hypothèse de conception. Cela repose en grande partie sur la prémisse que la complexité spécifiée est un marqueur de conception, une prémisse que nous avons vue être fausse. Je vais ignorer ces parties et me concentrer sur les revendications supplémentaires.
 +
 +===7.1 Aperçu d'un programme de recherche positif===
 +Le mouvement de la conception intelligente a souvent été critiqué pour ne pas avoir mené ou même proposé aucune recherche, et Dembski tente de répondre à cette préoccupation ici (pp. 311-314). La première partie de ce "programme" est la recherche d’un plus grand nombre de cas de complexité spécifiée, c’est-à-dire de davantage de systèmes biologiques pour lesquels il n’y a apparemment aucune explication naturelle connue. Au-delà de ça, il ne présente qu'une liste de questions, dont les suivantes sont typiques:
 +
 +<well>//Problème de construction - Comment l'objet conçu a-t-il été construit? Avec suffisamment d'informations sur l'historique causal d'un objet, cette question peut admettre une réponse. //[p. 313] ((46))</well>
 +Aucune tentative sérieuse n'est faite pour suggérer comment on pourrait répondre à ces questions. Une liste de questions ne constitue pas un programme de recherche!
 +
 +La dernière question de Dembski est la suivante: "Qui ou quel est le designer?", Mais il ajoute rapidement qu'il ne s'agit pas d'une question de science. Comme c'est étrange. Je pensais que Dembski, comme d’autres partisans de l’Intelligent Design, était opposé au tracé de lignes arbitraires entre ce qui peut et ne peut pas être inclus dans la science. Pourquoi l'identité du designer devrait-elle être un sujet interdit?
 +
 +
 +
 +
 +Opposabilité (falsifiabilité)
 +Les partisans et les opposants à l’Intelligent Design ont malheureusement tendance à affirmer qu ’« Un design intelligent est / n’est pas opposable », sans préciser l’hypothèse à laquelle ils font référence. En fait, comme nous l’avons déjà vu, l’hypothèse de conception de Dembski nous dit seulement qu’un concepteur était impliqué quelque part dans la chaîne causale des événements menant au flagelle bactérien (et éventuellement à d’autres systèmes biologiques). L'hypothèse de conception ne dit rien sur l'identité, les capacités ou les objectifs du concepteur; s'il y avait beaucoup de designers ou un seul; ou comment et quand la conception a été mise en œuvre.
 +Le philosophe des sciences, Karl Popper, a soutenu que l’ opposabilité est une condition nécessaire pour qu'une proposition soit considérée comme une hypothèse scientifique. Ce principe a souvent été utilisé comme critère de démarcation pour séparer la science de la pseudoscience. S'il n'existe aucune preuve susceptible de contredire une hypothèse, celle-ci peut être maintenue indépendamment de la preuve. Le principe a été affaibli par l'observation (attribuée à Duhem et Quine) que toute hypothèse peut être sauvée de l’opposabilité en abandonnant une hypothèse auxiliaire. Par exemple, il est parfois avancé que la découverte d'un crâne humain fossilisé dans une strate précambrienne s’opposerait à la théorie de l'évolution. Mais, même face à une telle observation, la théorie de l'évolution pourrait être sauvée en supposant qu'il existe des moyens inconnus par lesquels un fossile pourrait couler à travers de vieilles strates. Néanmoins, nous pouvons penser en termes de degré d’opposabilité La théorie de l'évolution est //relativement// opposable, car il existe de nombreuses observations hypothétiques, telles qu'un crâne dans le précambrien, qui causeraient une consternation importante parmi les scientifiques, nécessitant la ré-évaluation d'au moins une hypothèse scientifique bien étayée.
 +
 +En revanche, il n’existe aucune observation potentielle susceptible de poser un problème de ce type aux promoteurs de l’hypothèse de conception, car toute observation est conforme à cette hypothèse, avec ou sans hypothèse auxiliaire. Malgré cela, Dembski prétend que l'hypothèse de conception est opposable, tout en concédant qu'il a été "rapide et lâche" dans son utilisation du terme (p. 357). Son usage est indiqué par le passage suivant:
 +
 +//S'il était possible de démontrer que des systèmes biologiques tels que le flagelle bactérien, merveilleusement complexes, élégants et intégrés, auraient pu être formés par un processus darwinien progressif (qui, par définition, n'est pas télique), la conception intelligente serait alors falsifiée au motif on n'invoque pas des causes intelligentes quand des causes purement naturelles feront l'affaire. Dans ce cas, le rasoir d'Occam achève le design intelligent.// [p.357]
 +Tout ce que Dembski dit, c’est que l’hypothèse de conception pourrait être remplacée par une meilleure. Mais c'est vrai de n'importe quelle hypothèse, donc le point est assez inintéressant. Ce n’est certainement pas ce que Popper entendait par opposabilité.
 +
 +==Parcimonie==
 +Il est rafraîchissant de constater que, par son invocation du rasoir d'Occam, Dembski semble avoir reconnu que l'hypothèse de l'évolution naturelle est plus parcimonieuse que celle de la conception. On est donc obligé de se demander pourquoi, selon lui, une hypothèse (conception) qui manque totalement de détail devrait être préférée à une hypothèse plus parcimonieuse (évolution naturelle) avec des détails limités. Il est clair que les hypothèses de conception ont un statut très privilégié dans le système de Dembski.
 +
 +==Pouvoir prédictif==
 +Le pouvoir prédictif (ou //prévisibilité//, comme l'appelle Dembski) est étroitement lié à la falsifiabilité (au sens de Popper), puisqu’une hypothèse est falsifiée en faisant une observation qui contredit une prédiction de l’hypothèse. Pour qu'une hypothèse puisse faire des prédictions, elle doit être en mesure de faire la distinction entre les observations possibles sous l'hypothèse et celles qui ne le sont pas, ou bien celles qui sont plus probables que d'autres. L'hypothèse de conception échoue absolument à cet égard. En l'absence de connaissances sur les capacités et les objectifs du concepteur, toutes les possibilités imaginables apparaissent également probables.
 +
 +Dans un article précédent, Dembski avait reconnu le manque de pouvoir prédictif de l'hypothèse de conception: "Oui, la conception intelligente concède la prévisibilité". ((47)) Dans // No Free Lunch//, il recule devant cette concession en proposant deux exemples de prédictions faites par l'hypothèse de conception. Aucun de ceux-ci ne résiste à l'examen.
 +
 +* En premier lieu, il nous dit que "le design intelligent nous offre une prédiction évidente, à savoir que la nature devrait être bourrée de complexité spécifiée et devrait donc contenir de nombreux indicateurs de conception" (p. 362). Pas du tout. L’hypothèse de conception ne nous dit rien sur le nombre de structures conçues, et Dembski lui-même nous avait déjà dit (p. 24) que la conception ne laissait pas nécessairement de traces détectables. Il écrit même:
 +<well>//Veuillez noter que je ne propose pas de théorie sur la fréquence ou l'intermittence avec laquelle un concepteur non incarné communique des informations au monde. Je ne serais pas surpris si la plupart des informations communiquées par un tel concepteur nous échappent sans nous conformer à aucun modèle qui pourrait nous permettre de détecter ce concepteur ... //[pp. 346-347]</well>
 + * Ensuite, il fait appel à des modèles reconnus dans l'évolution de la technologie humaine, affirmant que l'hypothèse de conception prédit que nous devrions également observer de tels modèles dans l'évolution biologique (p. 362). Mais pourquoi cela devrait-il être le cas ? Dembski nous dit-il maintenant que son designer non incarné est contraint de suivre des modèles de développement similaires à ceux des designers humains ? Si tel est le cas, il s’agit là d’un ajout à l’hypothèse de conception qui a effectivement des implications prévisionnelles. Mais cela va dans les deux sens. Si nous trouvons des modèles d'évolution qui ne sont pas typiques du développement technologique humain, cela sera considéré comme une preuve contre l'hypothèse de conception. Et nous trouvons de tels modèles. Par exemple, nous voyons que les changements biologiques évolutifs se produisent de manière fragmentée, les systèmes étant adaptés à des fonctions complètement nouvelles, où un concepteur humain redessinerait le système à partir de zero. Cela conduit souvent à des systèmes sous-optimaux tels que la rétine inversée de mammifère, avec son angle mort, qui pourrait être amélioré par un simple changement, facilement effectué par un ingénieur humain mais éventuellement inaccessible à l'évolution naturelle.((48)) Donc, Dembski a le choix ici : pouvoir ou panne prédictive. Lequel sera-t’il ?
 +
 +N'ayant pas réussi à établir de pouvoir prédictif pour sa propre hypothèse, il tente de renverser la théorie évolutionniste, soulignant que celle-ci ne prédit pas l'existence de faits tels que l'existence d'espèces particulières (p. 361). C’est vrai, car de tels faits sont le résultat de contingences historiques imprévisibles. Mais la théorie de l'évolution fait certainement de nombreuses prédictions de la même façon.((49)) Par exemple, la théorie de l'évolution prédit qu'il y aura un degré élevé de congruence entre les arbres phylogénétiques dérivés d'études morphologiques et d'études moléculaires indépendantes. Cette prévision a été confirmée et continue de l'être à mesure que davantage d'espèces sont testées.((50))
 +
 +Les partisans de la conception intelligente diront parfois qu'une grande partie du pouvoir prédictif de la théorie de l'évolution peut être assimilée par la conception intelligente. Par exemple, ceux qui acceptent l'ascendance commune des espèces peuvent faire valoir que la congruence des arbres phylogénétiques est une prédiction d'ascendance commune, que la descendance d'un ancêtre commun soit contrôlée ou non par un designer. Dembski ne semble pas avoir un tel argument et est en fait assez ambivalent à propos de l'ascendance commune (pp. 314-316). En tout état de cause, l’introduction d’un concepteur dans le processus évolutif affaiblit les prédictions d’ascendance commune, car elle nous oblige à permettre, par exemple, au concepteur d’introduire soudainement un matériel génétique entièrement nouveau. Le seul moyen de préserver pleinement le pouvoir prédictif de la théorie de l'évolution tout en introduisant un concepteur consiste à émettre une hypothèse selon laquelle le concepteur imite parfaitement les effets empiriques de l'évolution naturelle. Une telle hypothèse est totalement superflue d'un point de vue scientifique.
 +
 +==Pouvoir explicatif==
 +Le terme //pouvoir explicatif// est largement utilisé mais difficile à définir. Je ne tenterai pas de définition, mais je ferai remarquer qu’il s’agit, en partie, d’un autre visage du //pouvoir prédictif//, à savoir la capacité de "rétrodire" les observations passées. En ce sens, l'hypothèse de conception manque tout autant de pouvoir explicatif que de pouvoir prédictif.
 +
 +Dembski prétend qu'il existe "des phénomènes de la biologie susceptibles de donner lieu à un cadre théorique de la conception qui rendrait un compte rendu meilleur et plus précis qu'un cadre purement darwinien et donc non téléologique" (p. 363). Pour appuyer cette affirmation, il ne donne qu'un exemple:
 +
 +//Pour voir cela, supposons que je sois un génie de la biologiste moléculaire et que j’ai inventé une machine moléculaire jusque-là inconnue, bien plus complexe et merveilleuse que le flagelle bactérien. Supposons en outre que je mette cette machine dans une bactérie, libère cet organisme génétiquement modifié, la permette de se reproduire à l'état sauvage et détruit tout indice de ma création de la machine moléculaire. Supposons, pour l’exemple, que la machine soit un dard qui pique d’autres bactéries et les fait exploser en y injectant rapidement un gaz (je ne connais aucune machine moléculaire de ce type dans la nature), permettant ainsi aux bactéries dotées de mon invention de consommer leur proie malheureuse.
 +Posons maintenant la question suivante: si un darwiniste découvrait cette bactérie avec la nouvelle machine moléculaire à l'état sauvage, cette machine serait-elle attribuée au design ou à la sélection naturelle? "//[P. 364]
 +Dembski nous dit qu '"le design intelligent, en se concentrant sur la complexité spécifiée du dard, confirmerait la conception alors que le darwinisme ne pourrait jamais le faire" (p. 364). Quelle absurdité! Il n’existe aucune raison pour laquelle un darwiniste (c’est-à-dire un scientifique traditionnel) ne devrait pas envisager la possibilité d’une conception humaine, tout comme il ou elle pourrait soupçonner la modification génétique d’une nouvelle variété de tomate inhabituelle ou l’élevage sélectif d’un chien. Dans le cas du dard de Dembski, nous examinerions des facteurs tels que le fait que le dispositif soit à la portée de la technologie actuelle, quel motivation pourrait exister pour le créer, si le dispositif avait l'apparence d'une structure évoluée, s'il existait une structure similaire connue chez des organismes à partir desquels celui-ci aurait pu évoluer, etc...
 +En tout état de cause, cela n’a aucun rapport avec la question de savoir s’il existe un quelconque pouvoir explicatif à l’hypothèse selon laquelle un être inconnu à conçu le flagelle bactérien. Dans l'exemple de Dembski, nous envisagerions un concepteur humain doté de capacités et de motivations connues (dans une certaine mesure).
 +
 +La théorie de l'évolution l'emporte donc sur l'hypothèse de conception en termes de productivité en tant que programme de recherche, d’opposabilité, de parcimonie, de pouvoir prédictif et (au moins selon la définition considérée ci-dessus) de pouvoir explicatif.
 +
 +===7.3 Les concepteurs non incarnés ===
 +Dembski ne cherche pas à dissimuler le fait que le concepteur qu’il a en tête n’est pas une personne matérielle. Pourquoi, demande-t-il, les scientifiques sont-ils disposés à envisager des conceptions impliquant des êtres extraterrestres (comme le SETI) mais non des concepteurs non incarnés ? Il répond à la question lui-même:
 +
 +//Au moins avec les intelligences extraterrestres, on peut deviner ce qui aurait pu se passer. Mais nous n’avons aucune expérience avec des concepteurs non incarnés, et c’est clairement ce à quoi nous sommes confrontés lorsqu’il s’agit de conception en biologie. //[p. 359]
 +C'est exactement le point. Dans le cas de SETI, nous pouvons envisager la possibilité que des extraterrestres évoluent naturellement, développent la technologie permettant d'envoyer un signal radio à travers l'espace interstellaire et décident qu'il vaut la peine d'essayer de communiquer avec nous. Il existe d'énormes incertitudes, mais nous pouvons deviner, en connaissance de cause, la plausibilité relative d'une telle hypothèse, par rapport à l'hypothèse selon laquelle un signal radio extraterrestre est d'origine naturelle.
 +
 +En revanche, un designer non incarné est une tout autre affaire. Dembski définit un concepteur désincarné comme "une intelligence dont le mode de fonctionnement ne peut être confiné à une entité physique située dans l'espace-temps" (pp. 333-334). Nous n'avons aucune idée de la façon dont un tel être pourrait exister ni même de ce que cela signifie pour un tel être. Pour ma part, je ne règle pas par principe les êtres non incarnés en dehors de la science, mais il faudrait que de nouveaux développements scientifiques très importants soient nécessaires avant de pouvoir sérieusement envisager une telle hypothèse. Entre-temps, les concepteurs non incarnés constituent une explication hautement non parcimonieuse.
 +
 +Non seulement Dembski ne parvient pas à expliquer la nature de son concepteur non incarné, il essaie même de se débarrasser des questions sur son origine :
 +
 +//La question "qui a conçu le concepteur" invite à une régression facile et rapide. La raison pour laquelle cette régression peut être refusée est qu’une telle régression se produit chaque fois que les scientifiques introduisent une nouvelle entité théorique. Par exemple, lorsque Ludwig Boltzman a présenté sa théorie cinétique de la chaleur à la fin des années 1800 et a invoqué le mouvement de particules non observables (ce que nous appelons maintenant des atomes et des molécules) pour expliquer la chaleur, on aurait tout aussi bien pu dire que de telles particules non observables n’expliquent quoi que ce soit parce qu'elles ont elles-mêmes besoin d'être expliqués. //[p. 354]
 +Bien sûr, il est vrai que les explications scientifiques créent souvent de nouvelles questions sans réponse. Mais, pour évaluer la valeur d'une explication, ces questions ne sont pas sans importance. Elles doivent être mis en balance avec les améliorations de notre compréhension fournies par l'explication. Invoquer un être inexpliqué pour expliquer l'origine des autres êtres (nous-mêmes) n'est guère plus qu'une pétition de principe. La nouvelle question posée par l'explication est aussi problématique que celle à laquelle l'explication prétend répondre. Comme le dit Dawkins (cité par Dembski):
 +
 +//Vous devez dire quelque chose comme "Dieu était toujours là", et si vous vous permettez ce genre de sortie paresseuse, vous pourriez tout aussi bien dire que "l'ADN était toujours là" ou "la vie était toujours là" et en finir là.// [p. 353]
 +La réponse de Dembski consiste à attaquer "la vision réductionniste de Dawkins de la science" (p. 353). Mais ce n'est pas réductionnisme. C'est le principe selon lequel les explications scientifiques devraient en réalité //expliquer// les choses, et pas seulement poser la question !
 +
 +Jay Richards, un autre partisan de l’Intelligent Design, ajoute une rhétorique vide: "Si un détective explique la mort à la suite d’un meurtre commis, par exemple, par Jeffrey Dahmer, personne ne dit:" OK, alors qui a fait Jeffrey Dahmer? '"(p. 355). Puisque nous savons parfaitement que Jeffrey Dahmer a existé, nous n'avons évidemment aucune raison de poser cette question. Si, au contraire, le détective annonçait que la victime avait été tuée par un androïde (type de personne artificielle décrite par de nombreux romans de science-fiction), et si nous n'avions aucune preuve indépendante de l'existence des androïdes, nous exigerions certainement une explication de la façon dont un tel être aurait pu naître.
 +
 +Une chose que Dembski //est// prêt à dire au sujet de son concepteur non incarné proposé est qu’il intervient probablement dans le monde en manipulant des événements quantiques non déterministes:
 +
 +//Les limitations thermodynamiques s'appliquent s'il s'agit de concepteurs incarnés qui ont besoin de produire de l'énergie pour transmettre des informations. Mais les concepteurs non-corporels qui cooptent des processus aléatoires et les incitent à présenter une complexité spécifiée ne sont pas tenus de dépenser de l'énergie. Pour eux, le problème du "déplacement des particules" ne se pose tout simplement pas. En effet, ils sont totalement libres de toute accusation de substitution contrefactuelle, dans laquelle les lois naturelles dictent que les particules doivent se déplacer dans un sens mais finissent par en suivre un autre, car un concepteur non incarné est intervenu. L'indéterminisme signifie qu'un concepteur non incarné peut affecter de manière substantielle la structure du monde physique en transmettant des informations sans transmettre d'énergie.// [p. 341]
 +//Pour le moment ,cependant, la théorie quantique est probablement le meilleur endroit pour localiser l'indéterminisme.// [p. 336]
 +Aucune suggestion n'est faite sur //comment// les événements quantiques souhaités pourraient être "induits".
 +
 +====8. Dembski et examen par les pairs====
 +//Les navires vides font le plus de bruit.//
 +Proverbe traditionnel
 +Il est habituel que les universitaires, en particulier ceux des domaines techniques, soumettent leurs travaux à un examen par leurs pairs, leurs collègues universitaires ayant une expertise dans les domaines pertinents. Cela prend généralement la forme de soumission à des revues spécialisées dans lesquelles les articles doivent être soumis à un processus d'examen par les pairs avant publication. À long terme, l’important est de savoir si une idée est acceptée par les experts du domaine concerné, mais le processus d’examen par les pairs fournit un premier filtrage pour éliminer les idées mal dégrossie. Les universitaires présentent également leurs travaux à leurs pairs lors de conférences universitaires. Cependant, comme d’autres partisans de l’Intelligent Design, Dembski évite ces processus, préférant vendre ses idées directement au public et évitant d’être revus par les experts. Il est cité pour avoir dis :
 +//Je suis juste blasé de vouloir soumettre des choses à des revues où il faut souvent attendre deux ans avant de les voir imprimer. Et je trouve que je peux réellement obtenir le revireent plus rapidement en écrivant un livre et en y exprimant des idées. Mes livres se vendent bien. Je reçois des redevances. Et le matériel est plus lu// ((51)).
 +
 +Dembski affirme avoir fourni une base rationnelle à l'approche fisherienne par la statistique et avoir découvert une nouvelle loi sur la conservation de l'information. Si ces affirmations étaient vraies, elles revêtiraient une importance capitale pour les statisticiens et les théoriciens de l’information. Il a même été salué par l’un de ses alliés de l’Institut Discovery comme «l’Isaac Newton de la théorie de l’information»((52)). Pourtant, ses travaux sur ces sujets ne sont pas parus dans un journal de statistique ou de théorie de l’information et, autant que je peux déterminer, aucun statisticien professionnel ou théoricien de l’information n’a approuvé ce travail. Si cela avait été fait, je suis sûr que nous en aurions entendu parler de Dembski lui-même, car il a l'habitude d'utiliser des références informelles pour remplacer l'évaluation par les pairs :
 +//Les mathématiciens et les statisticiens ont été beaucoup plus réceptifs [que les philosophes] à ma codification des inférences de conception. Prenez, par exemple, l'avis positif de "The Design Inference" dans le numéro de mai 1999 de "American Mathematical Monthly" ainsi que les remarques élogieuses du mathématicien Keith Devlin sur mon travail dans son article de juillet / août 2000 pour " The Sciences "intitulé "Snake Eyes in the Garden of Eden ":" La théorie de Dembski a largement contribué à la compréhension du caractère aléatoire, ne serait-ce qu'en soulignant à quel point il peut être difficile de différencier les empreintes de la conception de ceux du hasard. "//((53)) [p. 372n2]
 +Keith Devlin est un mathématicien respecté et largement publié, mais il n'est pas un statisticien. Son article était de nature générale dans un magazine populaire, pas un journal savant, et ne traitait pas des détails du travail de Dembski. Le contenu de l'article était globalement plutôt négatif à l'égard des travaux de Dembski que ne le suggère la remarque finale((54)). Le "message positif" de l'//American Mathematical Monthly// se lit comme suit dans son intégralité:
 +Probabilité, S, P, L. //The Design Inference: Eliminating Chance Through Small Probabilities.// William A. Dembski. Etudiant en prob., induction et théorie de la décision. Université de Cambridge, 1998, xvii + 243 pages, 54,95 $. [ISBN 0-521-62387-1] Ce n'est pas un texte mais un tract philosophique sur le moment où l'on peut déduire une conception derrière des événements de très faible probabilité. Provocateur, amusant à lire, plein d'exemples intéressants. SN((55))
 +Le fait que Dembski doive recourir à des références de soutien aussi peu favorables indique l'absence totale d'acceptation de son travail par les experts des domaines techniques concernés.
 +Dembski et l'éditeur nous ont dit que //The Design Inference// avait été soumis à un processus de révision, bien qu'aucun détail de ce processus ne soit disponible. Il est intéressant de noter cependant que //The Design Inference// constituait à l'origine la thèse de Dembski pour son doctorat en //philosophie// et que ses directeurs de doctorat étaient des philosophes et non des statisticiens. L'éditeur (Cambridge University Press) catalogue le livre sous le titre "Philosophie de la science". On soupçonne que les critiques qui ont considéré le livre au nom de l'éditeur étaient des philosophes qui n'avaient peut-être pas les connaissances statistiques nécessaires pour comprendre les mathématiques déconcertantes de Dembski. En tout état de cause, une grande partie de la matière de //No Free Lunch//, y compris l'application des méthodes de Dembski à la biologie, ne figurait pas dans //The Design Inference// et n'a donc fait l'objet d'aucun examen.
 +
 +====9. Conclusion====
 +
 +Mieux vaut la fin d'une chose que son début ...
 +Ecclésiaste 7: 8.
 +
 +//No Free Lunch// est caractérisé par une pensée confuse, des arguments fallacieux, des erreurs, une équivoque et un usage trompeur du jargon technique. Une fois que ceux-ci sont clarifiés, les conclusions suivantes deviennent apparentes :
 +* La méthode d'élimination du hasard n'est qu'un argument de dieu-bouche-trou. Cela nous dit simplement d'inférer la conception lorsque nous avons rejeté toutes les hypothèses non-conceptuelles auxquelles nous pouvons penser.
 +* En appliquant la méthode d'élimination du hasard à un système biochimique (le flagelle bactérien), Dembski n'a pas tenu compte des explications évolutives impliquant un changement de fonction. Au lieu de cela, il ne fait que considérer et rejeter une hypothèse absurde fondée sur une combinaison purement aléatoire de parties – le scénario tornade dans une décharge.
 + * Les théorèmes No Free Lunch ne s'appliquent pas à l'évolution biologique.
 +* L'argument tiré d'un prétendu réglage précis des fonctions de fitness s'avère être simplement une variation triviale de l'argument bien connu issu du réglage précis cosmologique et terrestre.
 +* Les concepts idiosyncratiques de Dembski sur la //complexité// et l'//information// sont trompeurs et sa soi-disant Loi sur la Conservation de l'Information est fatalement imparfaite.
 +* La complexité spécifiée (CSI) n'est pas un marqueur de conception intelligente. Si la complexité spécifiée est déterminée selon l'interprétation de probabilité uniforme, les processus naturels sont parfaitement capables de la générer. Si elle est déterminée par la méthode de l’élimination du hasard, la complexité spécifiée est simplement un déguisement de l'argument divin.
 +* Les affirmations de Dembski sur les statistiques, la théorie de l'information, les algorithmes évolutifs et la thermodynamique n'ont pas fait l'objet d'un examen par les pairs et n'ont pas été acceptées par les experts dans ces domaines.
 +
 +En bref, //No Free Lunch// ne vaut absolument rien, sauf en tant que travail de rhétorique pseudoscientifique destiné à un public mathématiquement peu averti qui pourrait confondre son charabia mathématique avec une véritable érudition. Cependant, comme que j'ai été invité à trouver quelque chose de positif à écrire à ce sujet, je suis heureux de pouvoir signaler que le livre a un excellent index.
 +
 +====Remerciements====
 +Je suis reconnaissant de l’assistance de Wesley Elsberry, de Jeffrey Shallit, d’Erik Tellgren et de tous ceux qui ont partagé leurs idées avec moi.
  
 +====Annexes====
  
 +En cours
  • Dernière modification : 2020/12/09 16:11
  • de kawekaweau