pas_de_buffet_gratuit_mais_une_boite_de_chocolat

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Dernière révisionLes deux révisions suivantes
pas_de_buffet_gratuit_mais_une_boite_de_chocolat [2019/11/07 20:15] kawekaweaupas_de_buffet_gratuit_mais_une_boite_de_chocolat [2019/11/10 14:40] – [7. Le cas positif pour le design] kawekaweau
Ligne 3: Ligne 3:
 Une critique du livre //No Free Lunch// de William Dembski  Une critique du livre //No Free Lunch// de William Dembski 
  
-<note warning>Traduction en cours</note> +<callout type="info" icon="true"> 
- +Not a Free Lunch But a Box of Chocolates - A critique of William Dembski's book //No Free Lunch//  
-<callout type="info" icon="true">Pas de buffet gratuit mais une boite de chocolat+\\ 
-Une critique du livre de William Dembski //No Free Lunch// Par Richard Wein - 2002+(Pas de buffet gratuit mais une boite de chocolat Une critique du livre de William Dembski //No Free Lunch//
 +\\Par Richard Wein - 2002
  
 Lien de la page originale : http://www.talkorigins.org/design/faqs/nfl/</callout> Lien de la page originale : http://www.talkorigins.org/design/faqs/nfl/</callout>
- 
  
 ====Résumé==== ====Résumé====
Ligne 20: Ligne 20:
 Dembski a proposé une méthode d'inférence qui, dit-il, est une formulation rigoureuse de la manière dont nous reconnaissons habituellement le design. Si nous pouvons montrer qu'un événement ou un objet observé a une faible probabilité de se produire sous toutes les hypothèses (ou explications) autres que la conception que nous pouvons imaginer, Dembski nous dit d'inférer la conception. Cette méthode est purement éliminatoire - nous devons en déduire la conception lorsque nous avons rejeté toutes les autres hypothèses auxquelles nous pouvons penser - et est communément appelée un argument tiré de l'ignorance ou un //dieu des lacunes//. Dembski a proposé une méthode d'inférence qui, dit-il, est une formulation rigoureuse de la manière dont nous reconnaissons habituellement le design. Si nous pouvons montrer qu'un événement ou un objet observé a une faible probabilité de se produire sous toutes les hypothèses (ou explications) autres que la conception que nous pouvons imaginer, Dembski nous dit d'inférer la conception. Cette méthode est purement éliminatoire - nous devons en déduire la conception lorsque nous avons rejeté toutes les autres hypothèses auxquelles nous pouvons penser - et est communément appelée un argument tiré de l'ignorance ou un //dieu des lacunes//.
  
-Parce que les scientifiques et les philosophes de la science reconnaissent presque unanimement que les arguments reposant sur un //dieu des lacunes// sont invalides comme  inférences scientifiques, Dembski s'efforce de dissimuler la nature de sa méthode. Par exemple, il insère un intermédiaire appelé //complexité spécifiée//: après avoir rejeté toutes les hypothèses non conceptuelles imaginables, il nous dit d'inférer que l'objet en question présente une complexité spécifiée, puis affirme que la complexité spécifiée est un indicateur fiable de la conception.+Parce que les scientifiques et les philosophes de la science reconnaissent presque unanimement que les arguments reposant sur un //dieu des lacunes// sont invalides comme inférences scientifiques, Dembski s'efforce de dissimuler la nature de sa méthode. Par exemple, il insère un intermédiaire appelé //complexité spécifiée//: après avoir rejeté toutes les hypothèses non conceptuelles imaginables, il nous dit d'inférer que l'objet en question présente une complexité spécifiée, puis affirme que la complexité spécifiée est un indicateur fiable de la conception.
  
 Le seul objet biologique auquel Dembski applique sa méthode est le flagelle de la bactérie E. coli. En premier lieu, il tente de montrer que l'évolution darwinienne ne pouvait donner naissance au flagelle, faisant appel à une version modifiée de l'argument de Michael Behe ​​à partir d'une complexité irréductible. Cependant, l'argument de Dembski souffre du même défaut fondamental que celui de Behe: il ne permet pas de changements dans le fonctionnement d'un système biologique au fur et à mesure de son évolution. Le seul objet biologique auquel Dembski applique sa méthode est le flagelle de la bactérie E. coli. En premier lieu, il tente de montrer que l'évolution darwinienne ne pouvait donner naissance au flagelle, faisant appel à une version modifiée de l'argument de Michael Behe ​​à partir d'une complexité irréductible. Cependant, l'argument de Dembski souffre du même défaut fondamental que celui de Behe: il ne permet pas de changements dans le fonctionnement d'un système biologique au fur et à mesure de son évolution.
  
-Comme la méthode de Dembski est supposée être basée sur la probabilité et qu'il a promis aux lecteurs de ses travaux précédents un calcul de cette probabilité, il procède au calcul pour l'origine du flagelle. Mais ce calcul est basé sur l'hypothèse que le flagelle est apparu soudainement, sous la forme d'une combinaison totalement aléatoire de protéines. Le calcul est complexe mais totalement hors de propos, car aucun biologiste de l'évolution ne propose que des systèmes biologiques complexes apparaissent de cette manière. En fait, il s'agit de la même hypothèse d'homme de paille fréquemment faite par les créationnistes dans le passé et qui a été comparée à un Boeing 747 assemblé par une tornade soufflant dans une décharge.+Comme la méthode de Dembski est supposée être basée sur la probabilité et qu'il a promis aux lecteurs de ses travaux précédents un calcul de cette probabilité, il procède au calcul pour l'origine du flagelle. Mais ce calcul est basé sur l'hypothèse que le flagelle est apparu soudainement, sous la forme d'une combinaison totalement aléatoire de protéines. Le calcul est complexe mais totalement hors de propos, car aucun biologiste de l'évolution ne propose que des systèmes biologiques complexes apparaissent de cette manière. En fait, il s'agit de la même hypothèse d'homme de paille fréquemment faite par les créationnistes dans le passé et qui a été comparée à un Boeing 747 assemblé par une tornade passant dans une décharge.
  
 C'est tout ce qu'il y a dans l'argument principal de Dembski. Il avance ensuite un second argument dans lequel il tente de montrer que, même si des systèmes biologiques complexes ont évolué par évolution non dirigée, ils ne l’auraient pu que si un concepteur avait affiné la //fonction fitness// ou inséré des //informations spécifiées complexes// au début du processus.  C'est tout ce qu'il y a dans l'argument principal de Dembski. Il avance ensuite un second argument dans lequel il tente de montrer que, même si des systèmes biologiques complexes ont évolué par évolution non dirigée, ils ne l’auraient pu que si un concepteur avait affiné la //fonction fitness// ou inséré des //informations spécifiées complexes// au début du processus. 
  
-L'argument de la mise au point des fonctions de fitness fait appel à un ensemble de théorèmes mathématiques appelés théorèmes "No Free Lunch" ("Pas de buffet gratuit"). Bien que ces théorèmes soient parfaitement clairs, ils n’ont pas les implications que Dembski leur attribue. En fait, ils ne s'appliquent pas du tout à l'évolution biologique. Tout cela ne  laisse à l'argument de Dembski que l'affirmation selon laquelle la vie n'aurait pu évoluer que si les conditions initiales de l'Univers et de la Terre n’étaient parfaitement adaptées à cet objectif. C’est un vieil argument, généralement connu sous le nom d’argument issu du réglage cosmologique (et terrestre). Dembski n'a rien ajouté de nouveau à celui-ci. +L'argument de la mise au point des fonctions de fitness fait appel à un ensemble de théorèmes mathématiques appelés théorèmes "No Free Lunch" ("Pas de buffet gratuit"). Bien que ces théorèmes soient parfaitement clairs, ils n’ont pas les implications que Dembski leur attribue. En fait, ils ne s'appliquent pas du tout à l'évolution biologique. Tout cela ne  laisse à l'argument de Dembski que l'affirmation selon laquelle la vie n'aurait pu évoluer que si les conditions initiales de l'Univers et de la Terre n’étaient parfaitement adaptées à cet objectif. C’est un vieil argument, généralement connu sous le nom d’argument issu du réglage cosmologique (et terrestre). Dembski n'a rien ajouté de nouveau à celui-ci. 
- +Les informations spécifiées complexes (CSI) sont un concept de la propre invention de Dembski, qui est assez différent de toute forme d’information utilisée par les théoriciens de l’information. En effet, Dembski lui-même a déjà critiqué ses détracteurs pour avoir confondu la CSI avec d'autres formes d'informations. Cette critique montre que la CSI est défini de façon équivoque et ne caractérise pas les structures complexes comme Dembski le prétend. Sur la base de ce concept imparfait, il propose avec audace une nouvelle loi sur la conservation de l'information, qui est démontrée ici comme totalement dénuée de fondement.
-Les informations spécifiées complexes (CSI) sont un concept de la propre invention de Dembski, qui est assez différent de toute forme d’information utilisée par les théoriciens de l’information. En effet, Dembski lui-même a déjà critiqué ses détracteurs pour avoir confondu CSI avec d'autres formes d'informations. Cette critique montre que CSI est défini de façon équivoque et ne caractérise pas les structures complexes comme Dembski le prétend. Sur la base de ce concept imparfait, il propose avec audace une nouvelle loi sur la conservation de l'information, qui est démontrée ici comme totalement dénuée de fondement. +
 Dembski affirme avoir apporté une contribution majeure aux domaines de la statistique, de la théorie de l'information et de la thermodynamique. Pourtant, son travail n'a été accepté par aucun expert dans ces domaines et n'a été publié dans aucune revue scientifique pertinente. Dembski affirme avoir apporté une contribution majeure aux domaines de la statistique, de la théorie de l'information et de la thermodynamique. Pourtant, son travail n'a été accepté par aucun expert dans ces domaines et n'a été publié dans aucune revue scientifique pertinente.
- 
 //No Free Lunch// consiste en une série de vieux arguments antivolutionnistes fatigués: dieu des lacunes, complexité irréductible, tornade dans une casse, et réglage cosmologique. Dembski tente de donner un nouveau souffle à ces vieux arguments en les cachant sous des voiles de terminologie déroutante et de calcul mathématique inutile. Le niveau d’érudition est extrêmement bas, et le livre est mieux considéré comme une rhétorique pseudoscientifique destinée à un public non averti qui pourrait confondre le charabia mathématique de Dembski avec l’érudition académique. //No Free Lunch// consiste en une série de vieux arguments antivolutionnistes fatigués: dieu des lacunes, complexité irréductible, tornade dans une casse, et réglage cosmologique. Dembski tente de donner un nouveau souffle à ces vieux arguments en les cachant sous des voiles de terminologie déroutante et de calcul mathématique inutile. Le niveau d’érudition est extrêmement bas, et le livre est mieux considéré comme une rhétorique pseudoscientifique destinée à un public non averti qui pourrait confondre le charabia mathématique de Dembski avec l’érudition académique.
  
-====1. Introduction===+====1. Introduction====
 <TEXT align="center">//Dans le théâtre de la confusion, ce qui compte, c'est de connaître l'emplacement des issues.// <TEXT align="center">//Dans le théâtre de la confusion, ce qui compte, c'est de connaître l'emplacement des issues.//
 +\\
 Mason Cooley, aphoriste américain</TEXT> Mason Cooley, aphoriste américain</TEXT>
  
-Le livre de William Dembski, //No Free Lunch: Why Specified Complexity Cannot be Purchased without Intelligence// (Pourquoi la complexité spécifiée ne peut être achetée sans intelligence) ((William Dembski, No Free Lunch: Why Specified Complexity Cannot be Purchased without Intelligence, Rowman & Littlefield, 2002. )) : est le dernier de ses nombreux livres et articles sur la conception inférée en biologie, et jouera probablement un rôle central dans la promotion de la pseudoscience ((Je ne cherche pas à tracer une ligne de démarcation clair entre science et pseudoscience. Par pseudoscience, je veux dire une science extrêmement mauvaise. Voir également: "pseudoscience", The Skeptic's Dictionary, http://skepdic.com/pseudosc.html. )) de la conception intelligente dans les prochaines années. C’est l’exposé le plus complet de ses arguments à ce jour. La présente critique a pour but de fournir un examen approfondi de ces arguments. Dembski lui-même s’est souvent plaint que ses détracteurs n’aient pas pleinement retenu ses arguments. Je pense que cette plainte est injustifiée, même si je conviens que certaines critiques formulées précédemment ont été mal formulées. Cette critique devrait permettre de régler ces plaintes. +Le livre de William Dembski, //No Free Lunch: Why Specified Complexity Cannot be Purchased without Intelligence// (Pourquoi la complexité spécifiée ne peut être achetée sans intelligence) (1) : est le dernier de ses nombreux livres et articles sur la conception inférée en biologie, et jouera probablement un rôle central dans la promotion de la pseudoscience (2) de la conception intelligente dans les prochaines années. C’est l’exposé le plus complet de ses arguments à ce jour. La présente critique a pour but de fournir un examen approfondi de ces arguments. Dembski lui-même s’est souvent plaint que ses détracteurs n’aient pas pleinement retenu ses arguments. Je pense que cette plainte est injustifiée, même si je conviens que certaines critiques formulées précédemment ont été mal formulées. Cette critique devrait permettre de régler ces plaintes.
 Comme dans ses travaux précédents, Dembski définit mal ses propres termes, attribue de nouvelles significations aux termes existants (généralement sans préavis) et utilise nombre de ces termes de manière équivoque. Ses affirmations semblent souvent se contredire. Il introduit beaucoup de notation mathématique inutile. Ainsi, une grande partie de cet article sera consacrée à la corvée plutôt fastidieuse d’établir exactement ce que les arguments et les revendications de Dembski signifient réellement. J'ai essayé très fort de trouver des interprétations charitables, mais il en manque souvent. J'ai également demandé des éclaircissements à Dembski lui-même, mais aucun n'a été annoncé. Comme dans ses travaux précédents, Dembski définit mal ses propres termes, attribue de nouvelles significations aux termes existants (généralement sans préavis) et utilise nombre de ces termes de manière équivoque. Ses affirmations semblent souvent se contredire. Il introduit beaucoup de notation mathématique inutile. Ainsi, une grande partie de cet article sera consacrée à la corvée plutôt fastidieuse d’établir exactement ce que les arguments et les revendications de Dembski signifient réellement. J'ai essayé très fort de trouver des interprétations charitables, mais il en manque souvent. J'ai également demandé des éclaircissements à Dembski lui-même, mais aucun n'a été annoncé.
- +Il y a quelque temps, j'ai posté une critique (3) du précédent livre de Dembski, //The Design Inference// (4), sur le forum en ligne Metaviews, auquel il contribue, soulignant les ambiguïtés fondamentales de ses arguments. Sa seule réponse fut de m'appeler "harceleur Internet" tout en refusant de traiter les questions que j'ai soulevées, au motif que "Internet est un forum peu fiable pour régler les problèmes techniques en statistique et en philosophie de la science" (5). Il a clairement lu ma critique, cependant, car il me reconnaît maintenant comme ayant contribué à son travail (p. XXIV). Certaines des ambiguïtés sur lesquelles j'avais attiré l'attention dans cette critique ont été résolues dans le présent volume, mais d'autres sont restées et de nombreuses nouvelles ont été ajoutées.
-Il y a quelque temps, j'ai posté une critique ((3)) du précédent livre de Dembski, //The Design Inference// ((4)), sur le forum en ligne Metaviews, auquel il contribue, soulignant les ambiguïtés fondamentales de ses arguments. Sa seule réponse fut de m'appeler "harceleur Internet" tout en refusant de traiter les questions que j'ai soulevées, au motif que "Internet est un forum peu fiable pour régler les problèmes techniques en statistique et en philosophie de la science" ((5)). Il a clairement lu ma critique, cependant, car il me reconnaît maintenant comme ayant contribué à son travail (p. XXIV). Certaines des ambiguïtés sur lesquelles j'avais attiré l'attention dans cette critique ont été résolues dans le présent volume, mais d'autres sont restées et de nombreuses nouvelles ont été ajoutées. +
 Certains lecteurs peuvent ne pas aimer le ton franchement méprisant que j'ai adopté à l'égard du travail de Dembski. Les critiques de la pseudoscience de la Conception Intelligente sont confrontés à un dilemme. S'ils discutent en termes académiques polis, les propagandistes de la conception intelligente l'utilisent comme preuve que leurs arguments retiennent l'attention des érudits, suggérant que cela implique un certain mérite. Si les critiques ignorent simplement les arguments de Intelligent Design, les propagandistes insinuent que c'est parce qu'ils ne peuvent pas y répondre. Ma solution à ce dilemme consiste à réfuter de manière approfondie les arguments, tout en précisant que je le fais sans accorder aucun respect à ces arguments. Certains lecteurs peuvent ne pas aimer le ton franchement méprisant que j'ai adopté à l'égard du travail de Dembski. Les critiques de la pseudoscience de la Conception Intelligente sont confrontés à un dilemme. S'ils discutent en termes académiques polis, les propagandistes de la conception intelligente l'utilisent comme preuve que leurs arguments retiennent l'attention des érudits, suggérant que cela implique un certain mérite. Si les critiques ignorent simplement les arguments de Intelligent Design, les propagandistes insinuent que c'est parce qu'ils ne peuvent pas y répondre. Ma solution à ce dilemme consiste à réfuter de manière approfondie les arguments, tout en précisant que je le fais sans accorder aucun respect à ces arguments.
- 
 Cette critique suppose une connaissance de base des mathématiques, de la théorie des probabilités et de la théorie de l'évolution du lecteur. Afin de simplifier certains de mes arguments, j'ai relégué de nombreux détails aux notes de fin, auxquelles on peut accéder par des liens numérotés. Dans certains cas, les assertions qui ne sont pas justifiées dans le corps du texte sont appuyées par des arguments dans les notes de fin. Cette critique suppose une connaissance de base des mathématiques, de la théorie des probabilités et de la théorie de l'évolution du lecteur. Afin de simplifier certains de mes arguments, j'ai relégué de nombreux détails aux notes de fin, auxquelles on peut accéder par des liens numérotés. Dans certains cas, les assertions qui ne sont pas justifiées dans le corps du texte sont appuyées par des arguments dans les notes de fin.
- 
 Les citations composées uniquement de numéros de page font référence à des pages de //No Free Lunch//. Les citations composées uniquement de numéros de page font référence à des pages de //No Free Lunch//.
- 
 Malheureusement, certains navigateurs plus anciens ne peuvent pas afficher un certain nombre de symboles mathématiques utilisés dans cet article. Netscape 4 en fait partie. Malheureusement, certains navigateurs plus anciens ne peuvent pas afficher un certain nombre de symboles mathématiques utilisés dans cet article. Netscape 4 en fait partie.
-===2. Design et Nature==== +====2. Design et Nature==== 
-//Au printemps, quand les bois deviennent verts, +<TEXT align="center">//Au printemps, quand les bois deviennent verts, je vais essayer de vous dire ce que je veux dire.// 
-Je vais essayer de vous dire ce que je veux dire.// +\\ 
-Lewis Carroll, de l'autre côté du miroir (Humpty Dumpty)+Lewis Carroll, de l'autre côté du miroir (Humpty Dumpty)</TEXT>
  
 Pour un livre axé sur la //conception//, il est étonnant de découvrir que //No Free Lunch// ne définit pas clairement le terme. Le design est assimilé à un //agent intelligente//, mais ce terme n'est pas défini non plus. Il est également décrit négativement comme le complément de la nécessité (processus déterministes) et du hasard (processus stochastiques). Cependant, les processus déterministes et stochastiques sont généralement définis comme des compléments mutuellement exhaustifs: les processus qui ne comportent aucune incertitude et ceux qui le font. Il est donc difficile de savoir ce qui reste, le cas échéant, après l’exclusion de ces deux catégories. Dembski associe le design aux actions des animaux, des êtres humains et des divinités, mais semble nier l’étiquette aux actions des ordinateurs, quelle que soit l’innovation de leur production. Qu'est-ce qui distingue un esprit d'animal, par exemple, d'un ordinateur? De toute évidence, il existe de nombreuses différences physiques. Mais pourquoi les actions de l’un devraient-elles être considérées comme du design et non de l’autre? La seule explication à laquelle je puisse penser est que l'un est conscient et l'autre, vraisemblablement, ne l'est pas. Je conclus que, lorsqu'il infère le design, Dembski signifie qu'un esprit conscient a été impliqué. Pour un livre axé sur la //conception//, il est étonnant de découvrir que //No Free Lunch// ne définit pas clairement le terme. Le design est assimilé à un //agent intelligente//, mais ce terme n'est pas défini non plus. Il est également décrit négativement comme le complément de la nécessité (processus déterministes) et du hasard (processus stochastiques). Cependant, les processus déterministes et stochastiques sont généralement définis comme des compléments mutuellement exhaustifs: les processus qui ne comportent aucune incertitude et ceux qui le font. Il est donc difficile de savoir ce qui reste, le cas échéant, après l’exclusion de ces deux catégories. Dembski associe le design aux actions des animaux, des êtres humains et des divinités, mais semble nier l’étiquette aux actions des ordinateurs, quelle que soit l’innovation de leur production. Qu'est-ce qui distingue un esprit d'animal, par exemple, d'un ordinateur? De toute évidence, il existe de nombreuses différences physiques. Mais pourquoi les actions de l’un devraient-elles être considérées comme du design et non de l’autre? La seule explication à laquelle je puisse penser est que l'un est conscient et l'autre, vraisemblablement, ne l'est pas. Je conclus que, lorsqu'il infère le design, Dembski signifie qu'un esprit conscient a été impliqué.
Ligne 74: Ligne 66:
 <well>//Selon le matérialisme méthodologique, pour expliquer tout phénomène naturel, les sciences naturelles ne sont autorisées à invoquer que des causes naturelles à l'exclusion des causes intelligentes.// [p. xvi]</well> <well>//Selon le matérialisme méthodologique, pour expliquer tout phénomène naturel, les sciences naturelles ne sont autorisées à invoquer que des causes naturelles à l'exclusion des causes intelligentes.// [p. xvi]</well>
  
-Mais le naturalisme méthodologique sur lequel insistent la plupart des scientifiques n'exige que le rejet d'explications surnaturelles, et non d'explications impliquant une action intelligente. En effet, nous venons de voir que la science contemporaine permet des explications impliquant des concepteurs humains et, selon moi, des êtres extraterrestres intelligents. Peut-être ce que Dembski signifie réellement, c'est que le naturalisme méthodologique rejette l'invocation d'un "concepteur non incarné" (pour utiliser son terme) ((6)).+Mais le naturalisme méthodologique sur lequel insistent la plupart des scientifiques n'exige que le rejet d'explications surnaturelles, et non d'explications impliquant une action intelligente. En effet, nous venons de voir que la science contemporaine permet des explications impliquant des concepteurs humains et, selon moi, des êtres extraterrestres intelligents. Peut-être ce que Dembski signifie réellement, c'est que le naturalisme méthodologique rejette l'invocation d'un "concepteur non incarné" (pour utiliser son terme) (6).
  
 Dembski introduit le terme //hypothèse de hasard// pour décrire les explications proposées qui reposent entièrement sur des causes naturelles. Cela inclut les processus comprenant des éléments de hasard et de nécessité (p.15), ainsi que les processus purement déterministes. Il peut sembler étrange de considérer les hypothèses purement déterministes comme des hypothèses fortuites, mais Dembski nous dit que "la nécessité peut être considérée comme un cas particulier de hasard dans lequel la distribution de probabilité qui régit la nécessité réduit toutes les probabilités à zéro ou à un" (p.71). ). Dembski définissant le design comme le complément du hasard et de la nécessité, il s'ensuit qu'une hypothèse de hasard pourrait tout aussi bien (et avec plus de clarté) être appelée une hypothèse de non-design. Et puisqu'il définit les causes naturelles comme le complément de la conception, nous pouvons également appeler les hypothèses fortuites des hypothèses naturelles. L'utilisation par Dembski de l'hypothèse de "hasard" a créé une grande confusion dans le passé, de nombreuses personnes ayant compris que cela voulait dire purement aléatoire, c'est-à-dire que tous les résultats étaient également probables. Bien que l'utilisation de Dembski ait été clarifiée dans //No Free Lunch//, je pense qu'elle peut encore être confuse. Par souci de cohérence avec le travail de Dembski, j'utiliserai généralement le terme //hypothèse de hasard//, mais je vais passer au synonyme //hypothèse de naturelle// ou à //hypothèse de non-conception// lorsque je pense que cela augmentera la clarté. Dembski introduit le terme //hypothèse de hasard// pour décrire les explications proposées qui reposent entièrement sur des causes naturelles. Cela inclut les processus comprenant des éléments de hasard et de nécessité (p.15), ainsi que les processus purement déterministes. Il peut sembler étrange de considérer les hypothèses purement déterministes comme des hypothèses fortuites, mais Dembski nous dit que "la nécessité peut être considérée comme un cas particulier de hasard dans lequel la distribution de probabilité qui régit la nécessité réduit toutes les probabilités à zéro ou à un" (p.71). ). Dembski définissant le design comme le complément du hasard et de la nécessité, il s'ensuit qu'une hypothèse de hasard pourrait tout aussi bien (et avec plus de clarté) être appelée une hypothèse de non-design. Et puisqu'il définit les causes naturelles comme le complément de la conception, nous pouvons également appeler les hypothèses fortuites des hypothèses naturelles. L'utilisation par Dembski de l'hypothèse de "hasard" a créé une grande confusion dans le passé, de nombreuses personnes ayant compris que cela voulait dire purement aléatoire, c'est-à-dire que tous les résultats étaient également probables. Bien que l'utilisation de Dembski ait été clarifiée dans //No Free Lunch//, je pense qu'elle peut encore être confuse. Par souci de cohérence avec le travail de Dembski, j'utiliserai généralement le terme //hypothèse de hasard//, mais je vais passer au synonyme //hypothèse de naturelle// ou à //hypothèse de non-conception// lorsque je pense que cela augmentera la clarté.
  
 ====3. la méthode d’élimination de la Chance==== ====3. la méthode d’élimination de la Chance====
-<TEXT align="center"> +<TEXT align="center">Ignorance, madame, pure ignorance. 
-Ignorance, madame, pure ignorance.+\\
 Samuel Johnson (lorsqu'on lui a demandé comment il en était arrivé à définir un mot de manière incorrecte dans son dictionnaire)</TEXT> Samuel Johnson (lorsqu'on lui a demandé comment il en était arrivé à définir un mot de manière incorrecte dans son dictionnaire)</TEXT>
  
-Dans le chapitre 2 de //No Free Lunch//, Dembski décrit une méthode de déduction de la conception basée sur ce qu'il appelle l'argument d'élimination générique de la chance (Generic Chance Elimination Argument.). Je me référerai à cette méthode comme la //méthode de chance-élimination//. Cette méthode suppose que nous avons observé un événement et souhaite déterminer si une conception a été impliquée dans cet événement.+Dans le chapitre 2 de //No Free Lunch//, Dembski décrit une méthode de déduction de la conception basée sur ce qu'il appelle l'argument d'élimination générique de la chance (Generic Chance Elimination Argument). Je me référerai à cette méthode comme la //méthode de l’ élimination du hasard//. Cette méthode suppose que nous avons observé un événement et souhaite déterminer si une conception a été impliquée dans cet événement.
 La méthode d'élimination du hasard est éliminatoire - elle repose sur le rejet des hypothèses du hasard. Dembski propose deux méthodes pour éliminer les hypothèses hasard: une méthode statistique pour éliminer les hypothèses hasard individuelles et les généralisations //proscriptives// pour éliminer des catégories entières d'hypothèses aléatoires. La méthode d'élimination du hasard est éliminatoire - elle repose sur le rejet des hypothèses du hasard. Dembski propose deux méthodes pour éliminer les hypothèses hasard: une méthode statistique pour éliminer les hypothèses hasard individuelles et les généralisations //proscriptives// pour éliminer des catégories entières d'hypothèses aléatoires.
  
  
 ===3.1 Méthode statistique de Dembski=== ===3.1 Méthode statistique de Dembski===
-L’intuition fondamentale de la méthode statistique de Dembski est la suivante: nous avons observé un événement particulier (résultat) E et souhaitons vérifier si une hypothèse donnée du hasard *Hfournit une explication raisonnable de ce résultat.((7)Nous sélectionnons une //zone de rejet// appropriée (un ensemble de résultats potentiels) R, où E est dans R, et calculons la probabilité d’observer un résultat dans cette zone de rejet étant donné que *Hest vrai, c’est-à-dire P (R/*H*). Si P (R/H) <α, où α est une probabilité appropriée liée, nous considérons qu’il est invraisemblable qu’un événement d’une probabilité aussi faible ait pu se produire. Nous rejetons donc l’hypothèse fortuite H qui a donné lieu à cette probabilité faible.+L’intuition fondamentale de la méthode statistique de Dembski est la suivante: nous avons observé un événement particulier (résultat) E et souhaitons vérifier si une hypothèse donnée du hasard H fournit une explication raisonnable de ce résultat (7)Nous sélectionnons une //zone de rejet// appropriée (un ensemble de résultats potentiels) R, où E est dans R, et calculons la probabilité d’observer un résultat dans cette zone de rejet étant donné que H est vrai, c’est-à-dire P (R/H). Si P (R/H) <α, où α est une probabilité appropriée liée, nous considérons qu’il est invraisemblable qu’un événement d’une probabilité aussi faible ait pu se produire. Nous rejetons donc l’hypothèse fortuite H qui a donné lieu à cette probabilité faible.
  
 Il est important de noter que nous devons combiner les probabilités de tous les résultats dans une zone de rejet appropriée et ne pas simplement prendre la probabilité du résultat particulier observé, car les résultats peuvent individuellement avoir de petites probabilités sans que leur occurrence ne soit significative. Une zone de rejet qui est appropriée pour être utilisée de cette manière est dite //détachable// du résultat observé, et une description d'une zone de rejet détachable est appelée une spécification (bien que Dembski utilise souvent les termes //zone de rejet// et //spécification// de manière interchangeable). Il est important de noter que nous devons combiner les probabilités de tous les résultats dans une zone de rejet appropriée et ne pas simplement prendre la probabilité du résultat particulier observé, car les résultats peuvent individuellement avoir de petites probabilités sans que leur occurrence ne soit significative. Une zone de rejet qui est appropriée pour être utilisée de cette manière est dite //détachable// du résultat observé, et une description d'une zone de rejet détachable est appelée une spécification (bien que Dembski utilise souvent les termes //zone de rejet// et //spécification// de manière interchangeable).
  
-Prenons l'exemple préféré de Dembski, l'affaire Caputo (p. 55-58). Un homme politique démocrate, Nicholas Caputo, était responsable de procéder à un tirage au sort pour déterminer l'ordre dans lequel les deux partis (démocrate et républicain) seraient inscrits sur des bulletins de vote. Occuper la première place sur le bulletin de vote était connu pour conférer un avantage au parti lors des élections, et il a été observé que Caputo avait tiré au sort un démocrate pour occuper cette position privilégiée. En 1985, Caputo aurait délibérément manipulé les tirages au sort pour donner à son propre parti un avantage indu. Le tribunal qui a examiné l'allégation contre Caputo a noté que la probabilité de choisir son propre parti 40 fois sur 41 était inférieure à 1 sur 50 milliards, et a conclu que "confrontés à ces probabilités, peu de gens rationnels accepteraient l'explication du simple hasard". . "((8))+Prenons l'exemple préféré de Dembski, l'affaire Caputo (p. 55-58). Un homme politique démocrate, Nicholas Caputo, était responsable de procéder à un tirage au sort pour déterminer l'ordre dans lequel les deux partis (démocrate et républicain) seraient inscrits sur des bulletins de vote. Occuper la première place sur le bulletin de vote était connu pour conférer un avantage au parti lors des élections, et il a été observé que Caputo avait tiré au sort un démocrate pour occuper cette position privilégiée. En 1985, Caputo aurait délibérément manipulé les tirages au sort pour donner à son propre parti un avantage indu. Le tribunal qui a examiné l'allégation contre Caputo a noté que la probabilité de choisir son propre parti 40 fois sur 41 était inférieure à 1 sur 50 milliards, et a conclu que "confrontés à ces probabilités, peu de gens rationnels accepteraient l'explication du simple hasard". . " (8)
 En effectuant sa propre analyse de cet événement, Dembski arrive avec la même probabilité que le tribunal et explique le raisonnement qui sous-tend sa conclusion. L’hypothèse hasard H, qui est selon lui, que Caputo a procédé au tirage au sort équitablement, chaque parti (D et R) ayant une probabilité sur deux d'être sélectionnée à la première place. En effectuant sa propre analyse de cet événement, Dembski arrive avec la même probabilité que le tribunal et explique le raisonnement qui sous-tend sa conclusion. L’hypothèse hasard H, qui est selon lui, que Caputo a procédé au tirage au sort équitablement, chaque parti (D et R) ayant une probabilité sur deux d'être sélectionnée à la première place.
  
 Supposons que nous ayons observé une séquence typique de 41 tirages, comme suit: Supposons que nous ayons observé une séquence typique de 41 tirages, comme suit:
-DRRDRDRRDDDRDRDDRDRRDRRDRRRDRRRDRDDDRDRDD+<TEXT align="center">DRRDRDRRDDDRDRDDRDRRDRRDRRRDRRRDRDDDRDRDD</TEXT>
  
  
-La probabilité que cette séquence précise se produise, H, est extrêmement petite: (1/2)^^41 = 4,55 × 10^-13. Cependant, à moins que cette séquence particulière ait été prédite à l'avance, nous ne considérerions pas le résultat comme exceptionnel, malgré sa faible probabilité, car il était très probable qu'une telle séquence d'aspect aléatoire se produirait. La séquence historique, d’autre part, ne contenait qu’un seul R et ressemblait donc à ceci:+La probabilité que cette séquence précise se produise, H, est extrêmement petite: (1/2)<sup>41</sup>= 4,55 × 10<sup>-13</sup>. Cependant, à moins que cette séquence particulière ait été prédite à l'avance, nous ne considérerions pas le résultat comme exceptionnel, malgré sa faible probabilité, car il était très probable qu'une telle séquence d'aspect aléatoire se produirait. La séquence historique, d’autre part, ne contenait qu’un seul R et ressemblait donc à ceci:
  
-DDDDDDDDDDDDDDDDDDDDDDRDDDDDDDDDDDDDDDDDD+<TEXT align="center">DDDDDDDDDDDDDDDDDDDDDDRDDDDDDDDDDDDDDDDDD</TEXT>
  
-La deuxième séquence (appelez-la E) a exactement la même probabilité que la première, c'est-à-dire P (E | H) = 4,55 × 10^-13, mais cette fois nous la considérerions comme exceptionnelle, car la probabilité d'observer autant de D est extrêmement petit. Tout résultat montrant autant de D que celui-ci (40 D ou plus sur 41 tirages au sort) serait considéré au moins comme exceptionnel. La probabilité qui nous intéresse est donc la probabilité d'observer 40 D ou plus. "40 D ou plus" est donc notre spécification, et il se trouve qu'il y a 42 séquences différentes correspondant à cette spécification, donc P (R | H) = 42 × P (E | H) = 1,91 × 10^-11 ou environ 1 sur 50 milliards. En d'autres termes, la probabilité qui nous intéresse ici n'est pas la probabilité de la séquence exacte observée, mais la probabilité d'observer un résultat correspondant à la spécification. Si nous décidons que cette probabilité est suffisamment petite, nous rejetons *H*, c’est-à-dire que nous déduisons que les tirages de Caputo n’étaient pas équitables. A partir de maintenant, j'utiliserai l'expression "petite probabilité" pour signifier "probabilité inférieure à une probabilité appropriée".+La deuxième séquence (appelez-la E) a exactement la même probabilité que la première, c'est-à-dire P (E | H) = 4,55 × 10<sup>-13</sup>, mais cette fois nous la considérerions comme exceptionnelle, car la probabilité d'observer autant de D est extrêmement petit. Tout résultat montrant autant de D que celui-ci (40 D ou plus sur 41 tirages au sort) serait considéré au moins comme exceptionnel. La probabilité qui nous intéresse est donc la probabilité d'observer 40 D ou plus. "40 D ou plus" est donc notre spécification, et il se trouve qu'il y a 42 séquences différentes correspondant à cette spécification, donc P (R | H) = 42 × P (E | H) = 1,91 × 10<sup>-11</sup> ou environ 1 sur 50 milliards. En d'autres termes, la probabilité qui nous intéresse ici n'est pas la probabilité de la séquence exacte observée, mais la probabilité d'observer un résultat correspondant à la spécification. Si nous décidons que cette probabilité est suffisamment petite, nous rejetons *H*, c’est-à-dire que nous déduisons que les tirages de Caputo n’étaient pas équitables. A partir de maintenant, j'utiliserai l'expression "petite probabilité" pour signifier "probabilité inférieure à une probabilité appropriée".
  
  
 Pour appliquer la méthode de Dembski, nous devons savoir comment sélectionner une spécification appropriée et une limite de probabilité. Dembski expose en détail un ensemble de règles pour la sélection de ces paramètres, mais elles peuvent être résumées comme suit: Pour appliquer la méthode de Dembski, nous devons savoir comment sélectionner une spécification appropriée et une limite de probabilité. Dembski expose en détail un ensemble de règles pour la sélection de ces paramètres, mais elles peuvent être résumées comme suit:
  
-* Une spécification appropriée est simplement une spécification qui peut être dérivée (dans un sens vague) des connaissances de base qui nous étaient disponibles avant d’observer l’événement en question. Par exemple, lorsque Dembski applique sa méthode au flagellum bactérien - son seul exemple biologique -, il ne se donne pas la peine d’utiliser les règles techniques qu’il a précédemment développées, ni même d’énoncer explicitement la spécification. En lisant entre les lignes, sa spécification semble être "tout ce qui a la fonction d’un moteur rotatif hors-bord", et la seule justification qu’il donne à cette spécification est la déclaration selon laquelle "les humains ont mis au point des moteurs rotatifs hors-bord bien avant de comprendre que le flagelle était une telle machine "(p. 289).+* Une spécification appropriée est simplement une spécification qui peut être dérivée (dans un sens vague) des connaissances de base qui nous étaient disponibles avant d’observer l’événement en question. Par exemple, lorsque Dembski applique sa méthode au flagellum bactérien - son seul exemple biologique -, il ne se donne pas la peine d’utiliser les règles techniques qu’il a précédemment développées, ni même d’énoncer explicitement la spécification. En lisant entre les lignes, sa spécification semble être "tout ce qui a la fonction d’un moteur rotatif hors-bord", et la seule justification qu’il donne à cette spécification est la déclaration selon laquelle "les humains ont mis au point des moteurs rotatifs hors-bord bien avant de comprendre que le flagelle était une telle machine " (p. 289).
  
-* Dembski fait la distinction entre des limites de probabilité //locales// et //universelles//. Un lien de probabilité locale est celui qui est calculée aux fins d'un test statistique particulier.((9)La procédure de calcul d'une telle limite est difficile et hautement arbitraire (p. 83), de sorte que Dembski a généralement recours à sa limite de probabilité universelle. C’est un très petit nombre, 10^-150 (c’est-à-dire 1 sur 10^150), qui, selon Dembski, est la plus petite probabilité limite dont nous ayons besoin, et que nous pouvons toujours utiliser en l’absence d’une limite de probabilité locale appropriée. Il la calcule en multipliant le nombre de particules élémentaires dans l'univers, le nombre maximal possible de transitions de particules élémentaires (l'inverse du temps de Planck) par seconde, et le nombre de secondes sur un milliard de fois l'âge actuel de l'univers, jusqu'à donnez un chiffre qui, fait-il valoir, est le nombre maximal de ressources probabilistes que nous devons prendre en compte (p. 22):+* Dembski fait la distinction entre des limites de probabilité //locales// et //universelles//. Un lien de probabilité locale est celui qui est calculée aux fins d'un test statistique particulier (9)La procédure de calcul d'une telle limite est difficile et hautement arbitraire (p. 83), de sorte que Dembski a généralement recours à sa limite de probabilité universelle. C’est un très petit nombre, 10<sup>-150</sup> (c’est-à-dire 1 sur 10<sup>150</sup>), qui, selon Dembski, est la plus petite probabilité limite dont nous ayons besoin, et que nous pouvons toujours utiliser en l’absence d’une limite de probabilité locale appropriée. Il la calcule en multipliant le nombre de particules élémentaires dans l'univers, le nombre maximal possible de transitions de particules élémentaires (l'inverse du temps de Planck) par seconde, et le nombre de secondes sur un milliard de fois l'âge actuel de l'univers, jusqu'à donnez un chiffre qui, fait-il valoir, est le nombre maximal de ressources probabilistes que nous devons prendre en compte (p. 22):
  
-10^80 × 10^45 × 10^25 = 10^150+10<sup>80</sup> × 10<sup>45</sup> × 10<sup>25</sup> = 10<sup>150</sup>
  
 Bien que je pense que la méthode statistique de Dembski est sérieusement imparfaite, la question n’est pas importante pour réfuter l’inférence de conception de Dembski. Pour le reste du corps de cette critique, je vais donc supposer, pour des raisons de thèse, que la méthode est valide. Une discussion sur les défauts sera laissée à une annexe. Il convient toutefois de noter que cette méthode n'a été publiée dans aucun journal professionnel de statistiques et ne semble avoir été reconnue par aucun autre statisticien. Bien que je pense que la méthode statistique de Dembski est sérieusement imparfaite, la question n’est pas importante pour réfuter l’inférence de conception de Dembski. Pour le reste du corps de cette critique, je vais donc supposer, pour des raisons de thèse, que la méthode est valide. Une discussion sur les défauts sera laissée à une annexe. Il convient toutefois de noter que cette méthode n'a été publiée dans aucun journal professionnel de statistiques et ne semble avoir été reconnue par aucun autre statisticien.
Ligne 124: Ligne 116:
 La conclusion de l'argument d'élimination du hasard générique (étape 8) est énoncée par Dembski comme suit: La conclusion de l'argument d'élimination du hasard générique (étape 8) est énoncée par Dembski comme suit:
  
-//S [le sujet qui fait l'inférence] est fondé sur la déduction que E [le résultat observé] ne s'est produit selon aucune des hypothèses aléatoires de {Hi} i in I et que, par conséquent, E présente une complexité spécifiée. [p. 73]//+<well>//S [le sujet qui fait l'inférence] est fondé sur la déduction que E [le résultat observé] ne s'est produit selon aucune des hypothèses aléatoires de {Hi}<sub>i in I</sub> et que, par conséquent, E présente une complexité spécifiée. [p. 73]//</well>
  
 {Hi} est l'ensemble de toutes les hypothèses de chance que nous pensons "aurait pu fonctionner pour produire E" (p.72). Dembski écrit aussi: {Hi} est l'ensemble de toutes les hypothèses de chance que nous pensons "aurait pu fonctionner pour produire E" (p.72). Dembski écrit aussi:
  
-//Mais que se passe-t-il une fois trouvé un mécanisme causal tenant compte d'une instance donnée d'une complexité spécifiée? Quelque chose de spécifique et de complexe est hautement improbable pour tous les mécanismes causaux actuellement connus. Par conséquent, si un mécanisme causal se présente et explique quelque chose qui était considéré auparavant comme spécifié et complexe, cela signifie que l'élément en question n'est en fait plus spécifié et complexe par rapport au mécanisme causal récemment découvert. // [p. 330]+<well>//Mais que se passe-t-il une fois trouvé un mécanisme causal tenant compte d'une instance donnée d'une complexité spécifiée? Quelque chose de spécifique et de complexe est hautement improbable pour tous les mécanismes causaux actuellement connus. Par conséquent, si un mécanisme causal se présente et explique quelque chose qui était considéré auparavant comme spécifié et complexe, cela signifie que l'élément en question n'est en fait plus spécifié et complexe par rapport au mécanisme causal récemment découvert. // [p. 330]</well>
  
 Ainsi, lorsque nous avons éliminé toutes les hypothèses de chance auxquelles nous pouvons penser, nous en déduisons que l'événement était hautement improbable en ce qui concerne tous les mécanismes causaux connus, et nous appelons cela  //complexité spécifiée//. Plus tard, Dembski nous dit qu'une inférence de complexité spécifiée devrait inévitablement conduire à une inférence de conception. Cela étant, il n’est pas clair que la notion de complexité spécifiée soit utile à cet égard. Pourquoi ne pas couper l'intermédiaire et passer directement de l'argument générique d'élimination du hasard à la conception? Malheureusement, l’introduction de cet intermédiaire sert à créer une confusion considérable, car Dembski use de faux-semblants entre ce sens de complexité spécifiée et le sens attribué à sa méthode d’inférence à probabilité uniforme (que je vais expliquer dans la section 6). Pour dissiper cette confusion, je ferai référence à ce sens d'intermédiaire comme //complexité spécifiée éliminative// et à l'autre sens, à une //complexité spécifiée à probabilité uniforme//. Notez que la complexité spécifiée de Dembski n'est pas une quantité: un événement présente simplement la complexité spécifiée ou ne le fait pas. Ainsi, lorsque nous avons éliminé toutes les hypothèses de chance auxquelles nous pouvons penser, nous en déduisons que l'événement était hautement improbable en ce qui concerne tous les mécanismes causaux connus, et nous appelons cela  //complexité spécifiée//. Plus tard, Dembski nous dit qu'une inférence de complexité spécifiée devrait inévitablement conduire à une inférence de conception. Cela étant, il n’est pas clair que la notion de complexité spécifiée soit utile à cet égard. Pourquoi ne pas couper l'intermédiaire et passer directement de l'argument générique d'élimination du hasard à la conception? Malheureusement, l’introduction de cet intermédiaire sert à créer une confusion considérable, car Dembski use de faux-semblants entre ce sens de complexité spécifiée et le sens attribué à sa méthode d’inférence à probabilité uniforme (que je vais expliquer dans la section 6). Pour dissiper cette confusion, je ferai référence à ce sens d'intermédiaire comme //complexité spécifiée éliminative// et à l'autre sens, à une //complexité spécifiée à probabilité uniforme//. Notez que la complexité spécifiée de Dembski n'est pas une quantité: un événement présente simplement la complexité spécifiée ou ne le fait pas.
  
-Ainsi, nous voyons que la méthode de la chance-élimination est purement éliminative. Il nous dit de déduire la conception lorsque nous avons éliminé toutes les hypothèses aléatoires (c’est-à-dire non conçues) que nous pouvons imaginer. L'hypothèse de conception ne dit absolument rien sur l'identité, la nature, les objectifs, les capacités ou les méthodes du concepteur. En fait, cela signifie simplement "qu'un designer l'a fait" .((10))+Ainsi, nous voyons que la méthode de la chance-élimination est purement éliminative. Il nous dit de déduire la conception lorsque nous avons éliminé toutes les hypothèses aléatoires (c’est-à-dire non conçues) que nous pouvons imaginer. L'hypothèse de conception ne dit absolument rien sur l'identité, la nature, les objectifs, les capacités ou les méthodes du concepteur. En fait, cela signifie simplement "qu'un designer l'a fait" (10).
  
 Ce type d'argument est communément appelé argument de l'ignorance ou de l'argument dieu-bouche-trou. Pour éviter tout malentendu, permettez-moi de préciser que l'accusation d'argumentation fondée sur l'ignorance n'est pas une affirmation selon laquelle les auteurs de l'argument ignorent les faits, ou même qu'ils n'utilisent pas les faits disponibles. Les partisans d'un argument d'ignorance demandent que leur explication soit acceptée simplement parce que la communauté scientifique ignore (au moins partiellement) comment un événement s'est produit, plutôt que parce que leur propre explication s'est révélée bonne. Notez qu'un argument de l'ignorance scientifique diffère de la déduction fallacieuse de l'argument de l'ignorance. L'erreur fallacieuse prend la forme suivante: "Ma proposition n'a pas été prouvée fausse, elle est donc vraie." L'argument scientifique de l'ignorance n'est pas une erreur déductive, car les inférences scientifiques ne sont pas des arguments déductifs. Ce type d'argument est communément appelé argument de l'ignorance ou de l'argument dieu-bouche-trou. Pour éviter tout malentendu, permettez-moi de préciser que l'accusation d'argumentation fondée sur l'ignorance n'est pas une affirmation selon laquelle les auteurs de l'argument ignorent les faits, ou même qu'ils n'utilisent pas les faits disponibles. Les partisans d'un argument d'ignorance demandent que leur explication soit acceptée simplement parce que la communauté scientifique ignore (au moins partiellement) comment un événement s'est produit, plutôt que parce que leur propre explication s'est révélée bonne. Notez qu'un argument de l'ignorance scientifique diffère de la déduction fallacieuse de l'argument de l'ignorance. L'erreur fallacieuse prend la forme suivante: "Ma proposition n'a pas été prouvée fausse, elle est donc vraie." L'argument scientifique de l'ignorance n'est pas une erreur déductive, car les inférences scientifiques ne sont pas des arguments déductifs.
Ligne 143: Ligne 135:
 Comme les scientifiques et les philosophes de la science rejettent presque universellement les arguments de l'ignorance, Dembski est sensible à l'accusation, mais ses tentatives pour éviter de faire face à l'évidence ne sont que des évasions. Comme les scientifiques et les philosophes de la science rejettent presque universellement les arguments de l'ignorance, Dembski est sensible à l'accusation, mais ses tentatives pour éviter de faire face à l'évidence ne sont que des évasions.
  
-//En réponse à cette critique, notons d’abord que, même si la complexité spécifiée est établie au moyen d’un argument éliminatoire, il n’est pas juste de dire qu’elle s’établit au moyen d’un argument //purement// éliminatoire. Si l’argument était purement éliminatoire, il serait justifié de dire que le passage de la complexité spécifiée à une intelligence de conception est un argument tiré de l’ignorance (c’est-à-dire pas X donc Y). Mais contrairement à l'approche de Fisher en matière de test d'hypothèses, dans laquelle les hypothèses de hasard individuelles sont éliminées sans référence à l'ensemble des hypothèses aléatoires pertinentes susceptibles d'expliquer un phénomène, la complexité spécifiée suppose que l'ensemble complet des hypothèses aléatoires pertinentes ait d'abord été identifié. Cela prend en compte une base de connaissances considérables. De plus, il faut beaucoup de connaissances de base pour trouver le bon modèle (c.-à-d. la spécification) pour éliminer toutes ces hypothèses de hasard et donc pour en déduire la conception.// [p. 111]+<well>//En réponse à cette critique, notons d’abord que, même si la complexité spécifiée est établie au moyen d’un argument éliminatoire, il n’est pas juste de dire qu’elle s’établit au moyen d’un argument //purement// éliminatoire. Si l’argument était purement éliminatoire, il serait justifié de dire que le passage de la complexité spécifiée à une intelligence de conception est un argument tiré de l’ignorance (c’est-à-dire pas X donc Y). Mais contrairement à l'approche de Fisher en matière de test d'hypothèses, dans laquelle les hypothèses de hasard individuelles sont éliminées sans référence à l'ensemble des hypothèses aléatoires pertinentes susceptibles d'expliquer un phénomène, la complexité spécifiée suppose que l'ensemble complet des hypothèses aléatoires pertinentes ait d'abord été identifié. Cela prend en compte une base de connaissances considérables. De plus, il faut beaucoup de connaissances de base pour trouver le bon modèle (c.-à-d. la spécification) pour éliminer toutes ces hypothèses de hasard et donc pour en déduire la conception.// [p. 111]</well>
  
 Dembski interprète mal l'accusation d'argumentation par ignorance. Ce n’est pas une question de savoir combien de connaissances nous avons utilisées. Les connaissances scientifiques sont toujours incomplètes. La méthode d'élimination du hasard est purement éliminatoire, car elle n'essaie pas de considérer le bien-fondé de l'hypothèse de conception, mais repose simplement sur l'élimination des alternatives disponibles. Dembski interprète mal l'accusation d'argumentation par ignorance. Ce n’est pas une question de savoir combien de connaissances nous avons utilisées. Les connaissances scientifiques sont toujours incomplètes. La méthode d'élimination du hasard est purement éliminatoire, car elle n'essaie pas de considérer le bien-fondé de l'hypothèse de conception, mais repose simplement sur l'élimination des alternatives disponibles.
  
-//Les inférences de conception qui déduisent la conception en identifiant la complexité spécifiée ne sont donc pas purement éliminatoires. Ils ne font pas qu'exclure, mais ils excluent d'un ensemble exhaustif dans lequel le design est tout ce qui reste une fois que l'inférence a fonctionné (ce qui ne veut pas dire que l'ensemble est logiquement exhaustif; il s'agit plutôt d'une liste exhaustive par rapport à l’état de l'enquête en question - c’est tout ce que nous pouvons jamais faire en science). Les déductions de conception, en identifiant la complexité spécifiée, excluent tout ce qui pourrait à son tour exclure la conception.// [p. 111]+<well>//Les inférences de conception qui déduisent la conception en identifiant la complexité spécifiée ne sont donc pas purement éliminatoires. Ils ne font pas qu'exclure, mais ils excluent d'un ensemble exhaustif dans lequel le design est tout ce qui reste une fois que l'inférence a fonctionné (ce qui ne veut pas dire que l'ensemble est logiquement exhaustif; il s'agit plutôt d'une liste exhaustive par rapport à l’état de l'enquête en question - c’est tout ce que nous pouvons jamais faire en science). Les déductions de conception, en identifiant la complexité spécifiée, excluent tout ce qui pourrait à son tour exclure la conception.// [p. 111]</well>
  
 L'expression "exhaustive en ce qui concerne l'enquête en question" de Dembski est le type de circonlocution dans lequel il excelle. Cela signifie simplement que l'ensemble est aussi exhaustif que possible. En d’autres termes, c’est une façon élégante de dire que nous avons éliminé toutes les hypothèses de chance auxquelles nous pouvions penser. L'expression "exhaustive en ce qui concerne l'enquête en question" de Dembski est le type de circonlocution dans lequel il excelle. Cela signifie simplement que l'ensemble est aussi exhaustif que possible. En d’autres termes, c’est une façon élégante de dire que nous avons éliminé toutes les hypothèses de chance auxquelles nous pouvions penser.
  
-//Les déductions de conception éliminent donc le hasard dans le sens global, en fermant la porte à toutes les explications de hasard pertinentes. Certes, cela ne peut être fait avec une finalité absolue car il est toujours possible qu'une distribution de probabilité cruciale ait été omise. Néanmoins, le sceptique en matière de conception ne se limite pas à remarquer que le fait d'ajouter une nouvelle explication de hasard au mélange peut bouleverser l'inférence de conception. Au lieu de cela, le sceptique doit proposer explicitement une nouvelle explication de hasard et plaider pour sa pertinence par rapport au cas d'espèce.// [pp. 67-68]+<well>//Les déductions de conception éliminent donc le hasard dans le sens global, en fermant la porte à toutes les explications de hasard pertinentes. Certes, cela ne peut être fait avec une finalité absolue car il est toujours possible qu'une distribution de probabilité cruciale ait été omise. Néanmoins, le sceptique en matière de conception ne se limite pas à remarquer que le fait d'ajouter une nouvelle explication de hasard au mélange peut bouleverser l'inférence de conception. Au lieu de cela, le sceptique doit proposer explicitement une nouvelle explication de hasard et plaider pour sa pertinence par rapport au cas d'espèce.// [pp. 67-68]</well>
  
 Ceci est un argument clair par ignorance. À moins que les sceptiques du design ne puissent proposer une explication naturelle explicite, nous devrions en déduire la conception, nous dit Dembski. Ceci est un argument clair par ignorance. À moins que les sceptiques du design ne puissent proposer une explication naturelle explicite, nous devrions en déduire la conception, nous dit Dembski.
  
-//Pour quelque événement que ce soit, il existe une distribution de probabilité qui concentre toute probabilité sur cet événement et lui attribue ainsi une probabilité de un. Par conséquent, cela n’a aucun sens de critiquer ma généralisation de l’approche de Fisher en matière de test d’hypothèses pour ne pas avoir tenu compte de toutes les hypothèses fortuites possibles.// [p. 70]+<well>//Pour quelque événement que ce soit, il existe une distribution de probabilité qui concentre toute probabilité sur cet événement et lui attribue ainsi une probabilité de un. Par conséquent, cela n’a aucun sens de critiquer ma généralisation de l’approche de Fisher en matière de test d’hypothèses pour ne pas avoir tenu compte de toutes les hypothèses fortuites possibles.// [p. 70]</well>
  
 On ne reproche pas à Dembski d’avoir omis d’éliminer toutes les hypothèses fortuites, mais bien d’avoir adopté une méthode purement éliminatoire. On ne reproche pas à Dembski d’avoir omis d’éliminer toutes les hypothèses fortuites, mais bien d’avoir adopté une méthode purement éliminatoire.
  
-//Les archéologues déduisent que certains morceaux de roche sont des pointes de flèches. Les détectives déduisent que certains décès ont été délibérés. Les cryptographes en déduisent que certaines chaînes de symboles d'aspect aléatoire sont en réalité des messages chiffrés. Dans tous les cas, ils peuvent se tromper et des connaissances supplémentaires pourraient révéler une hypothèse fortuite et plausible derrière ce qui semblait à l'origine avoir été conçu. Mais de telles possibilités en elles-mêmes ne font rien pour renverser notre confiance dans les inférences de conception.// [p. 71]+<well>//Les archéologues déduisent que certains morceaux de roche sont des pointes de flèches. Les détectives déduisent que certains décès ont été délibérés. Les cryptographes en déduisent que certaines chaînes de symboles d'aspect aléatoire sont en réalité des messages chiffrés. Dans tous les cas, ils peuvent se tromper et des connaissances supplémentaires pourraient révéler une hypothèse fortuite et plausible derrière ce qui semblait à l'origine avoir été conçu. Mais de telles possibilités en elles-mêmes ne font rien pour renverser notre confiance dans les inférences de conception.// [p. 71]</well>
  
 Oui, ces inférences de conception sont faillibles, de même que toutes les inférences scientifiques. Ce n'est pas le problème. La différence est que ces inférences ne sont pas purement éliminatoires. Les experts en question ont à l’esprit un type particulier de concepteurs intelligents (êtres humains) dont ils connaissent grandement les capacités et les motivations. Ils peuvent donc comparer les avantages d'une telle explication avec ceux d'autres explications. Oui, ces inférences de conception sont faillibles, de même que toutes les inférences scientifiques. Ce n'est pas le problème. La différence est que ces inférences ne sont pas purement éliminatoires. Les experts en question ont à l’esprit un type particulier de concepteurs intelligents (êtres humains) dont ils connaissent grandement les capacités et les motivations. Ils peuvent donc comparer les avantages d'une telle explication avec ceux d'autres explications.
Ligne 166: Ligne 158:
  
  
-==3.5 Inférences comparatives et éliminatoires===+===3.5 Inférences comparatives et éliminatoires===
 Dembski tente notamment de défendre sa méthode en suggérant qu’il n’y a pas d’alternative viable. L'alternative évidente consiste toutefois à examiner toutes les hypothèses disponibles, y compris les hypothèses de conception, sur le fond, puis à sélectionner les meilleures. C'est la position adoptée par presque tous les philosophes de la science, bien qu'ils soient en désaccord sur la manière d'évaluer le bien-fondé des hypothèses. Il ne semble pas y avoir de raison de traiter les inférences impliquant des agents intelligents différemment des autres inférences scientifiques. Dembski tente notamment de défendre sa méthode en suggérant qu’il n’y a pas d’alternative viable. L'alternative évidente consiste toutefois à examiner toutes les hypothèses disponibles, y compris les hypothèses de conception, sur le fond, puis à sélectionner les meilleures. C'est la position adoptée par presque tous les philosophes de la science, bien qu'ils soient en désaccord sur la manière d'évaluer le bien-fondé des hypothèses. Il ne semble pas y avoir de raison de traiter les inférences impliquant des agents intelligents différemment des autres inférences scientifiques.
  
Ligne 173: Ligne 165:
 Prenons, par exemple, le cas des archéologues qui font des inférences sur le fait que les silex sont des pointes de flèches fabriquées par les premiers hommes ou bien des morceaux de roche naturels. Prenons un cas limite, dans lequel un groupe d'archéologues est divisé sur le fait de savoir si un silex donné, pris sur un site habité par des humains primitifs, est une pointe de flèche. Supposons maintenant qu’au même panel, on ait  présenté  le même silex, mais que celui-ci provenait d'un endroit qui n'a jamais été habité par des humains utilisant du silex, disons l'Antarctique. Les archéologues seraient maintenant beaucoup plus enclins à douter que le silex soit fabriqué par l'homme et plus enclins à l'attribuer à des causes naturelles. Une plus petite proportion (peut-être même aucune) n’inférerait maintenant la conception. L'inférence de conception, donc, était clairement influencée par des facteurs affectant la plausibilité de l'hypothèse de conception: si l'on savait  ou non que des humains utilisant du silex vivaient dans la région. L'inférence ne repose pas uniquement sur l'élimination des hypothèses naturelles. Prenons, par exemple, le cas des archéologues qui font des inférences sur le fait que les silex sont des pointes de flèches fabriquées par les premiers hommes ou bien des morceaux de roche naturels. Prenons un cas limite, dans lequel un groupe d'archéologues est divisé sur le fait de savoir si un silex donné, pris sur un site habité par des humains primitifs, est une pointe de flèche. Supposons maintenant qu’au même panel, on ait  présenté  le même silex, mais que celui-ci provenait d'un endroit qui n'a jamais été habité par des humains utilisant du silex, disons l'Antarctique. Les archéologues seraient maintenant beaucoup plus enclins à douter que le silex soit fabriqué par l'homme et plus enclins à l'attribuer à des causes naturelles. Une plus petite proportion (peut-être même aucune) n’inférerait maintenant la conception. L'inférence de conception, donc, était clairement influencée par des facteurs affectant la plausibilité de l'hypothèse de conception: si l'on savait  ou non que des humains utilisant du silex vivaient dans la région. L'inférence ne repose pas uniquement sur l'élimination des hypothèses naturelles.
  
-Mon intention n’est pas de plaider en faveur d’une méthode particulière de comparaison d’hypothèses. Les philosophes des sciences ont proposé un certain nombre d'approches comparatives, associant généralement les critères suivants:+Mon intention n’est pas de plaider en faveur d’une méthode particulière de comparaison d’hypothèses. Les philosophes des sciences ont proposé un certain nombre d'approches comparatives, associant généralement les critères suivants :
  
-* Vraisemblance. La probabilité que la preuve se produise compte tenu de l'hypothèse en question. +  * Vraisemblance. La probabilité que la preuve se produise compte tenu de l'hypothèse en question. 
- * Plausibilité ou probabilité préalable. Notre degré de confiance dans l'hypothèse avant d'observer la preuve ou si nous ne l'avions pas observée. +  * Plausibilité ou probabilité préalable. Notre degré de confiance dans l'hypothèse avant d'observer la preuve ou si nous ne l'avions pas observée. 
-* Pouvoir prédictif. La mesure dans laquelle l'hypothèse détermine quelles observations potentielles sont possibles (ou probables) et lesquelles sont impossibles (ou improbables). +  * Pouvoir prédictif. La mesure dans laquelle l'hypothèse détermine quelles observations potentielles sont possibles (ou probables) et lesquelles sont impossibles (ou improbables). 
-* Opposabilité. La mesure dans laquelle l'hypothèse "risque" d'être contredite par de nouvelles preuves. +  * Opposabilité. La mesure dans laquelle l'hypothèse "risque" d'être contredite par de nouvelles preuves. 
-* Parcimonie. La mesure dans laquelle l'hypothèse observe le principe du //rasoir d'Occam//: "Ne multipliez pas les entités inutilement." ((11))+  * Parcimonie. La mesure dans laquelle l'hypothèse observe le principe du //rasoir d'Occam//: "Ne multipliez pas les entités inutilement." (11)
  
 Parmi les autres critères souvent cités figurent le pouvoir explicatif, les antécédents, la portée, la cohérence et l’élégance. Parmi les autres critères souvent cités figurent le pouvoir explicatif, les antécédents, la portée, la cohérence et l’élégance.
Ligne 186: Ligne 178:
  
 ===3.6 Fiabilité et contre-exemples=== ===3.6 Fiabilité et contre-exemples===
- 
 Dembski soutient, sur la base d'une inférence inductive, que la méthode d'élimination du hasard est fiable: Dembski soutient, sur la base d'une inférence inductive, que la méthode d'élimination du hasard est fiable:
- +<well>Premièrement (section 1.6), j’ai présenté un argument inductif montrant que, dans tous les cas où nous connaissions l’histoire causale et où la complexité spécifiée était en jeu, une intelligence était également impliquée. La généralisation inductive qui suit est que tous les cas de complexité spécifiée impliquent l'intelligence. [p. 110]</well>
-Premièrement (section 1.6), j’ai présenté un argument inductif montrant que, dans tous les cas où nous connaissions l’histoire causale et où la complexité spécifiée était en jeu, une intelligence était également impliquée. La généralisation inductive qui suit est que tous les cas de complexité spécifiée impliquent l'intelligence. [p. 110]+
  
 Laissant de côté la question de savoir si une telle induction serait justifiée si son principe était vrai, considérons simplement si le principe est vrai ou non. Contrairement à l’affirmation de Dembski, sa section 1.6 n’indique rien de la sorte. En fait, les seuls cas où nous savons que la méthode de Dembski a été utilisée pour déduire la conception sont les deux exemples que Dembski lui-même décrit: le cas Caputo et le flagelle bactérien. Et dans aucun de ces cas, la conception n'a été établie de manière indépendante. Laissant de côté la question de savoir si une telle induction serait justifiée si son principe était vrai, considérons simplement si le principe est vrai ou non. Contrairement à l’affirmation de Dembski, sa section 1.6 n’indique rien de la sorte. En fait, les seuls cas où nous savons que la méthode de Dembski a été utilisée pour déduire la conception sont les deux exemples que Dembski lui-même décrit: le cas Caputo et le flagelle bactérien. Et dans aucun de ces cas, la conception n'a été établie de manière indépendante.
  
 Dembski veut nous faire croire que sa méthode d'inférence est fondamentalement la même que celle utilisée dans nos inférences quotidiennes et scientifiques de la conception. J'ai déjà fait valoir que cela est faux. Mais même si nous supposons, pour les besoins de l’argumentation, que nos déductions de conception typiques reposent bien sur le type d’approche purement éliminatoire proposée par Dembski, il n’est pas difficile de trouver des contre-exemples dans lesquels la conception a été inférée à tort en raison de l’ignorance de la vraie cause naturelle: Dembski veut nous faire croire que sa méthode d'inférence est fondamentalement la même que celle utilisée dans nos inférences quotidiennes et scientifiques de la conception. J'ai déjà fait valoir que cela est faux. Mais même si nous supposons, pour les besoins de l’argumentation, que nos déductions de conception typiques reposent bien sur le type d’approche purement éliminatoire proposée par Dembski, il n’est pas difficile de trouver des contre-exemples dans lesquels la conception a été inférée à tort en raison de l’ignorance de la vraie cause naturelle:
-  * Les anneaux de  fée . Ce sont des cernes de champignons causés par un champignon qui se propage dans l'herbe à un rythme uniforme à partir d'un point de départ donné. Les champignons se manifestent sur le bord extérieur du cercle affecté. Avant que la cause ne soit connue, ces anneaux étaient souvent attribuées à des concepteurs intelligents ("fées"). Si nous prenons l'hypothèse du hasard selon laquelle les champignons étaient situés au hasard dans un pré (avec une distribution de probabilité uniforme), la probabilité qu'ils forment un cercle net est suffisamment faible pour justifier le rejet de cette hypothèse (en utilisant une limite de probabilité locale appropriée ou sinon la limite de probabilité universelle de ).((12)En utilisant la méthode d'élimination aléatoire de Dembski, la complexité spécifiée (et donc la conception) aurait été déduite à tort. + 
-* Les Cratères de lune. En observant les principaux cratères de la Lune, Johannes Kepler a conclu qu'ils étaient trop circulaires pour avoir eu lieu par hasard et qu'ils ont donc dû être créés par les habitants de la Lune. Si nous prenons l'hypothèse du hasard selon laquelle les cratères sont formés de nombreuses collines individuelles et que ces collines sont réparties de manière aléatoire sur la surface de la Lune, la probabilité qu'elles forment de si bons cercles est clairement suffisamment faible pour rejeter cette hypothèse. En utilisant la méthode d'élimination aléatoire de Dembski, la complexité spécifiée (et donc la conception) aurait été déduite, mais nous savons maintenant que ces cratères ont une explication naturelle: les impacts dus à la chute d'objets. Je suis redevable de cet exemple à Dembski lui-même, qui le décrit((13)) mais ne remarque pas qu'il fournit un contre-exemple à son argumentation.+  * Les anneaux de  fée. Ce sont des cernes de champignons causés par un champignon qui se propage dans l'herbe à un rythme uniforme à partir d'un point de départ donné. Les champignons se manifestent sur le bord extérieur du cercle affecté. Avant que la cause ne soit connue, ces anneaux étaient souvent attribuées à des concepteurs intelligents ("fées"). Si nous prenons l'hypothèse du hasard selon laquelle les champignons étaient situés au hasard dans un pré (avec une distribution de probabilité uniforme), la probabilité qu'ils forment un cercle net est suffisamment faible pour justifier le rejet de cette hypothèse (en utilisant une limite de probabilité locale appropriée ou sinon la limite de probabilité universelle) (12)En utilisant la méthode d'élimination aléatoire de Dembski, la complexité spécifiée (et donc la conception) aurait été déduite à tort. 
 + 
 +* Les Cratères de la  lune. En observant les principaux cratères de la Lune, Johannes Kepler a conclu qu'ils étaient trop circulaires pour avoir eu lieu par hasard et qu'ils ont donc dû être créés par les habitants de la Lune. Si nous prenons l'hypothèse du hasard selon laquelle les cratères sont formés de nombreuses collines individuelles et que ces collines sont réparties de manière aléatoire sur la surface de la Lune, la probabilité qu'elles forment de si bons cercles est clairement suffisamment faible pour rejeter cette hypothèse. En utilisant la méthode d'élimination aléatoire de Dembski, la complexité spécifiée (et donc la conception) aurait été déduite, mais nous savons maintenant que ces cratères ont une explication naturelle: les impacts dus à la chute d'objets. Je suis redevable de cet exemple à Dembski lui-même, qui le décrit (13) mais ne remarque pas qu'il fournit un contre-exemple à son argumentation.
  
 Peut-être que Dembski objecterait que son affirmation ("dans tous les cas où nous connaissons l’histoire causale et où une complexité spécifiée était en jeu, une intelligence était également impliquée") faisait uniquement référence à des cas où nous observons une complexité spécifiée aujourd’hui. Mais, par définition, ce sont des cas où nous n’avons pas d’explication naturelle plausible. Si nous en avions une, nous ne déduirions pas la complexité spécifiée. Si nous connaissons l’histoire causale et que ce n’est pas une cause naturelle, c’est sans doute la conception. Donc, si tel est le sens de Dembski, sa prétention est une tautologie. Il dit que, chaque fois que la cause est connue pour être le design, la cause est le design! Vous ne pouvez pas faire d'inférence inductive à partir d'une tautologie. Peut-être que Dembski objecterait que son affirmation ("dans tous les cas où nous connaissons l’histoire causale et où une complexité spécifiée était en jeu, une intelligence était également impliquée") faisait uniquement référence à des cas où nous observons une complexité spécifiée aujourd’hui. Mais, par définition, ce sont des cas où nous n’avons pas d’explication naturelle plausible. Si nous en avions une, nous ne déduirions pas la complexité spécifiée. Si nous connaissons l’histoire causale et que ce n’est pas une cause naturelle, c’est sans doute la conception. Donc, si tel est le sens de Dembski, sa prétention est une tautologie. Il dit que, chaque fois que la cause est connue pour être le design, la cause est le design! Vous ne pouvez pas faire d'inférence inductive à partir d'une tautologie.
Ligne 201: Ligne 193:
 Cela ne servirait à rien à Dembski de prétendre qu'il s'agit de modèles de //conception dérivés// (voir 6.1 ci-dessous), par ex. que les champignons et le système solaire ont été conçus à l'origine. La méthode d'élimination du hasard permet de déduire la conception de l'événement particulier qui aurait une faible probabilité de se produire sous des causes naturelles. Par exemple, dans le cas du flagellum, Dembski prétend que le design était impliqué dans l'origine du flagellum lui-même, et pas simplement indirectement, en termes de conception de la Terre ou de l'Univers. Cela ne servirait à rien à Dembski de prétendre qu'il s'agit de modèles de //conception dérivés// (voir 6.1 ci-dessous), par ex. que les champignons et le système solaire ont été conçus à l'origine. La méthode d'élimination du hasard permet de déduire la conception de l'événement particulier qui aurait une faible probabilité de se produire sous des causes naturelles. Par exemple, dans le cas du flagellum, Dembski prétend que le design était impliqué dans l'origine du flagellum lui-même, et pas simplement indirectement, en termes de conception de la Terre ou de l'Univers.
  
-==3.7 Le filtre explicatif===+===3.7 Le filtre explicatif===
 La méthode d'élimination du hasard est initialement présentée sous une forme simplifiée appelée //filtre explicatif// ( Explanatory Filter). Le critère permettant au filtre de reconnaître la conception est appelé //critère de complexité spécifique//. Malheureusement, l'utilisation de ce terme simplifié a provoqué une grande confusion dans le passé, car il présente deux caractéristiques fallacieuse : La méthode d'élimination du hasard est initialement présentée sous une forme simplifiée appelée //filtre explicatif// ( Explanatory Filter). Le critère permettant au filtre de reconnaître la conception est appelé //critère de complexité spécifique//. Malheureusement, l'utilisation de ce terme simplifié a provoqué une grande confusion dans le passé, car il présente deux caractéristiques fallacieuse :
  
-* La description du filtre explicatif ne mentionne guère le concept d'hypothèses de hasard, et implique qu'il ne faut considérer qu'une distribution de probabilité. L'organigramme du filtre (p. 13) devrait contenir une boucle à exécuter pour chaque hypothèse de hasard. De nombreux lecteurs des travaux antérieurs de Dembski ont été amenés à la conclusion erronée qu'il fallait seulement calculer la probabilité en fonction d'une distribution de probabilité uniforme.+  * La description du filtre explicatif ne mentionne guère le concept d'hypothèses de hasard, et implique qu'il ne faut considérer qu'une distribution de probabilité. L'organigramme du filtre (p. 13) devrait contenir une boucle à exécuter pour chaque hypothèse de hasard. De nombreux lecteurs des travaux antérieurs de Dembski ont été amenés à la conclusion erronée qu'il fallait seulement calculer la probabilité en fonction d'une distribution de probabilité uniforme.
  
-* Le filtre explicatif a des nœuds distincts pour la complexité (que Dembski utilise ici comme synonyme d'improbabilité) suivis d'une spécification, comme s'il s'agissait de deux critères distincts. Mais, comme nous l'avons vu ci-dessus, nous ne pouvons calculer la probabilité qu'après avoir formulé une spécification. Dans le passé, de nombreux lecteurs de Dembski ont interprété le filtre de manière erronée comme suit: notez que le résultat observé est spécifié (dans un certain sens), puis calculez la probabilité de ce résultat unique (alors qu'ils auraient dû calculer la probabilité d'une zone de rejet complète). .+  * Le filtre explicatif a des nœuds distincts pour la complexité (que Dembski utilise ici comme synonyme d'improbabilité) suivis d'une spécification, comme s'il s'agissait de deux critères distincts. Mais, comme nous l'avons vu ci-dessus, nous ne pouvons calculer la probabilité qu'après avoir formulé une spécification. Dans le passé, de nombreux lecteurs de Dembski ont interprété le filtre de manière erronée comme suit: notez que le résultat observé est spécifié (dans un certain sens), puis calculez la probabilité de ce résultat unique (alors qu'ils auraient dû calculer la probabilité d'une zone de rejet complète). .
  
 Bien que Dembski ait tenté de clarifier la situation dans //No Free Lunch//, son utilisation continue du filtre explicatif dans sa forme hautement fallacieuse est inexplicable. Et la confusion ne se limite pas au filtre explicatif lui-même. Cela se produit ailleurs aussi, dans des déclarations comme celle-ci: Bien que Dembski ait tenté de clarifier la situation dans //No Free Lunch//, son utilisation continue du filtre explicatif dans sa forme hautement fallacieuse est inexplicable. Et la confusion ne se limite pas au filtre explicatif lui-même. Cela se produit ailleurs aussi, dans des déclarations comme celle-ci:
  
-//Déterminer si un système irréductiblement complexe présente une complexité spécifiée implique deux choses: montrer que le système est spécifié et calculer sa probabilité ...// [p. 289]+<well>//Déterminer si un système irréductiblement complexe présente une complexité spécifiée implique deux choses: montrer que le système est spécifié et calculer sa probabilité ...// [p. 289]</well>
  
 ====4. Appliquer la méthode à la nature==== ====4. Appliquer la méthode à la nature====
-//Il utilise les statistiques comme un homme ivre utilise des lampadaires - pour se soutenir plutôt que pour s'éclairer.// +<TEXT align="center">//Il utilise les statistiques comme un homme ivre utilise des lampadaires - pour se soutenir plutôt que pour s'éclairer.// 
-Andrew Lang (1844-1912), poète et romancier+\\ 
 +Andrew Lang (1844-1912), poète et romancier</TEXT>
  
 ===4.1 Une tornade dans une décharge=== ===4.1 Une tornade dans une décharge===
-Cela fait plusieurs années que Dembski prétend avoir détecté pour la première fois le design en biologie en appliquant sa méthode d'inférence. Cependant, jusqu'à la publication de //No Free Lunch//, il n'avait jamais fourni ni cité les détails d'une telle application. Les critiques étaient donc impatients de voir le calcul de probabilité promis depuis longtemps qui corroborerait cette affirmation. Pour ma part, je ne m'attendais pas à un calcul convaincant, mais j'ai quand même été étonné de découvrir que Dembski ne nous avait offert qu'une variante de la vieille "tornade dans une décharge" créationniste ((14)), à savoir la probabilité qu'une structure biologique se produise par combinaison purement aléatoire de composants.+Cela fait plusieurs années que Dembski prétend avoir détecté pour la première fois le design en biologie en appliquant sa méthode d'inférence. Cependant, jusqu'à la publication de //No Free Lunch//, il n'avait jamais fourni ni cité les détails d'une telle application. Les critiques étaient donc impatients de voir le calcul de probabilité promis depuis longtemps qui corroborerait cette affirmation. Pour ma part, je ne m'attendais pas à un calcul convaincant, mais j'ai quand même été étonné de découvrir que Dembski ne nous avait offert qu'une variante de la vieille "tornade dans une décharge" créationniste (14), à savoir la probabilité qu'une structure biologique se produise par combinaison purement aléatoire de composants.
  
 La seule structure biologique à laquelle Dembski applique sa méthode est le flagelle de la bactérie //E. coli//. Comme sa méthode l’oblige à commencer par déterminer l’ensemble {Hi} des hypothèses de hasard qui "auraient pu fonctionner pour produire E [le résultat observé]" (p. 72), on pourrait s’attendre à une identification explicite de l’hypothèse de hasard à l’étude. Dembski ne fournit pas une telle identification explicite, et le lecteur est autorisé à la déduire des détails du calcul. La raison pour laquelle Dembski n’a pas pu identifier son hypothèse de hasard est peut-être que, quand elle est clairement exposée, c’est un homme de paille évident. Aucun biologiste ne suggère que le flagelle ne soit apparu par une combinaison purement aléatoire de protéines - ils pensent qu'il a évolué par sélection naturelle - et tous s'accorderaient pour dire que la probabilité d'apparition par combinaison aléatoire est si minuscule que ce n'est pas une explication scientifique satisfaisante. Par conséquent, fournir à Dembski un calcul de probabilité fondé sur ce scénario absurde est une perte de temps. Il n'est pas nécessaire de déterminer si le calcul de Dembski est correct, car il n'a aucun rapport avec le problème. Néanmoins, Dembski ne déclarant pas clairement qu'il a fondé son calcul sur une hypothèse de combinaison purement aléatoire, je décrirai brièvement le calcul afin de démontrer que tel est le cas. La seule structure biologique à laquelle Dembski applique sa méthode est le flagelle de la bactérie //E. coli//. Comme sa méthode l’oblige à commencer par déterminer l’ensemble {Hi} des hypothèses de hasard qui "auraient pu fonctionner pour produire E [le résultat observé]" (p. 72), on pourrait s’attendre à une identification explicite de l’hypothèse de hasard à l’étude. Dembski ne fournit pas une telle identification explicite, et le lecteur est autorisé à la déduire des détails du calcul. La raison pour laquelle Dembski n’a pas pu identifier son hypothèse de hasard est peut-être que, quand elle est clairement exposée, c’est un homme de paille évident. Aucun biologiste ne suggère que le flagelle ne soit apparu par une combinaison purement aléatoire de protéines - ils pensent qu'il a évolué par sélection naturelle - et tous s'accorderaient pour dire que la probabilité d'apparition par combinaison aléatoire est si minuscule que ce n'est pas une explication scientifique satisfaisante. Par conséquent, fournir à Dembski un calcul de probabilité fondé sur ce scénario absurde est une perte de temps. Il n'est pas nécessaire de déterminer si le calcul de Dembski est correct, car il n'a aucun rapport avec le problème. Néanmoins, Dembski ne déclarant pas clairement qu'il a fondé son calcul sur une hypothèse de combinaison purement aléatoire, je décrirai brièvement le calcul afin de démontrer que tel est le cas.
Ligne 223: Ligne 216:
 Dembski nous dit de multiplier trois probabilités partielles pour arriver à la probabilité d'un "objet combinatoire discret": Dembski nous dit de multiplier trois probabilités partielles pour arriver à la probabilité d'un "objet combinatoire discret":
  
-pdco porig × plocal × pconfig+p<sub>dco</sub>p<sub>orig</sub>× p<sub>local</sub>× p<sub>config</sub> 
 + 
 + * p<sub>local</sub> est la probabilité qu'une collection appropriée de protéines soit extraite d'un ensemble de protéines existantes, qui inclue celles requises. Dembski suppose que les protéines sont tirées au hasard parmi les 4289 protéines codées par l'ADN de //E. coli//, qu'il faut 5 copies de chacune des 50 protéines différentes (pour un total de 250 protéines), et qu'il existe dans chaque cas 10  protéines qui seraient acceptables (c’est-à-dire qu’il existe 9 substituts possibles à la protéine réelle. En fait, nous devons tirer 250 tirages et à chaque tirage, nous avons une probabilité de 500/4289 de choisir une protéine utile, ce qui donne une probabilité globale de (500/4289)<sup>250</sup>.
  
- Plocal est la probabilité qu'une collection appropriée de protéines soit extraite d'un ensemble de protéines existantesqui inclue celles requises. Dembski suppose que les protéines sont tirées au hasard parmi les 4289 protéines codées par l'ADN de //E. coli//, qu'il faut 5 copies de chacune des 50 protéines différentes (pour un total de 250 protéines), et qu'il existe dans chaque cas 10  protéines qui seraient acceptables (c’est-à-dire qu’il existe 9 substituts possibles à la protéine réelle. En fait, nous devons tirer 250 tirages et à chaque tirage, nous avons une probabilité de 500/4289 de choisir une protéine utile, ce qui donne une probabilité globale de (500/4289)^250.+ p<sub>config</sub> est la probabilité pour que, avec la bonne collection de protéines, celles-ci forment un flagelle viable si elles sont disposées au hasard. Dembski //vise// à tirer d'une distribution de probabilité uniforme à partir de toutes les manières possibles de disposer les protéines sélectionnées:
  
- * pconfig est la probabilité pour queavec la bonne collection de protéines, celles-ci forment un flagelle viable si elles sont disposées au hasard. Dembski //vise// à tirer d'une distribution de probabilité uniforme à partir de toutes les manières possibles de disposer les protéines sélectionnées:+<well>//À proprement parler, la probabilité de configuration pour un objet combinatoire discret présentant une fonction donnée est le rapport entre toutes les manières d’arranger ses blocs de construction qui préservent la fonction divisée par toutes les manières possibles d’organiser les blocs de construction.// [pp. 294-295]</well>
  
-//À proprement parler, la probabilité de configuration pour un objet combinatoire discret présentant une fonction donnée est le rapport entre toutes les manières d’arranger ses blocs de construction qui préservent la fonction divisée par toutes les manières possibles d’organiser les blocs de construction.// [pp. 294-295] 
 Comme il ne peut pas calculer cela directement, il utilise une approximation qu'il appelle une //probabilité de perturbation//. Nous n'avons pas besoin de nous préoccuper des détails. Comme il ne peut pas calculer cela directement, il utilise une approximation qu'il appelle une //probabilité de perturbation//. Nous n'avons pas besoin de nous préoccuper des détails.
  
-  *porig est la probabilité que toutes les protéines individuelles se forment par combinaison aléatoire d'acides aminés et est à nouveau basée sur une probabilité de perturbation.+  *p<sub>orig</sub> est la probabilité que toutes les protéines individuelles se forment par combinaison aléatoire d'acides aminés et est à nouveau basée sur une probabilité de perturbation.
  
 Chacune de ces probabilités est individuellement inférieure à la probabilité universelle de Dembski, il n’a donc pas même pas à les multiplier. Chacune de ces probabilités est individuellement inférieure à la probabilité universelle de Dembski, il n’a donc pas même pas à les multiplier.
  
-Soi dit en passant, Dembski a tort de choisir de calculer une probabilité de formation pour le flagelle lui-même. Il aurait dû envisager la formation de l'ADN à coder pour un flagelle. Si un flagelle apparaît sans être coder dans l'ADN, il ne serait pas hérité par la prochaine génération de bactéries et serait donc perdu.+Soit dit en passant, Dembski a tort de choisir de calculer une probabilité de formation pour le flagelle lui-même. Il aurait dû envisager la formation de l'ADN à coder pour un flagelle. Si un flagelle apparaît sans être coder dans l'ADN, il ne serait pas hérité par la prochaine génération de bactéries et serait donc perdu.
  
 ===4.2 Complexité irréductible=== ===4.2 Complexité irréductible===
-Pour justifier son incapacité à calculer la probabilité du flagelle résultant de l'évolution darwinienne, Dembski invoque la notion de //complexité irréductible// qui, selon lui, fournit une généralisation proscriptive contre l'évolution darwinienne du flagelle. La complexité irréductible a été introduite dans l'argument de la conception intelligente par le biochimiste Michael Behe. Le sujet a été traité en détail ailleurs, donc je ne répéterai pas toutes les objections.((15)). Cependant, je voudrais attirer l'attention sur un point que certains lecteurs de Behe ​​ont négligé. Behe a divisé les voies darwiniennes potentielles pour l'évolution d'un système irréductiblement complexe (ci-après dénommé IC) en deux catégories: //directe// et //indirecte//((16)). Les voies //directes// sont celles dans lesquelles un système évolue uniquement par l'ajout de plusieurs nouvelles parties qui ne présentent aucun avantage pour le système jusqu'à ce que toutes soient en place. Toutes les autres voies potentielles sont dites //indirectes//. Behe soutient ensuite que les systèmes IC ne peuvent pas évoluer via des voies directes. Mais ses voies directes excluent deux éléments essentiels du processus évolutif: (a) l’évolution des différentes parties d’un système; et b) le changement de la fonction d'un système au fil du temps, de sorte que, même si une partie donnée n'a rien apporté à la fonction actuelle du système jusqu'à ce que les autres parties soient en place, il est fort possible qu'il ait contribué à une fonction antérieure. En ce qui concerne les voies indirectes, Behe ​​n’a rien de plus qu’un argument d’ignorance: personne n’a donné de compte rendu détaillé de cette voie. La vérité de cette affirmation a été contestée, mais cela dépend uniquement de la quantité de détails demandés. Behe en exige beaucoup. Il affirme ensuite qu'il est extrêmement improbable de mettre au point un système de IC par voies indirectes, mais il n'a fourni aucun argument à l'appui de cette affirmation. C'est simplement son intuition.((17))+Pour justifier son incapacité à calculer la probabilité du flagelle résultant de l'évolution darwinienne, Dembski invoque la notion de //complexité irréductible// qui, selon lui, fournit une généralisation proscriptive contre l'évolution darwinienne du flagelle. La complexité irréductible a été introduite dans l'argument de la conception intelligente par le biochimiste Michael Behe. Le sujet a été traité en détail ailleurs, donc je ne répéterai pas toutes les objections (15). Cependant, je voudrais attirer l'attention sur un point que certains lecteurs de Behe ​​ont négligé. Behe a divisé les voies darwiniennes potentielles pour l'évolution d'un système irréductiblement complexe (ci-après dénommé IC) en deux catégories: //directe// et //indirecte//(16). Les voies //directes// sont celles dans lesquelles un système évolue uniquement par l'ajout de plusieurs nouvelles parties qui ne présentent aucun avantage pour le système jusqu'à ce que toutes soient en place. Toutes les autres voies potentielles sont dites //indirectes//. Behe soutient ensuite que les systèmes IC ne peuvent pas évoluer via des voies directes. Mais ses voies directes excluent deux éléments essentiels du processus évolutif: (a) l’évolution des différentes parties d’un système; et b) le changement de la fonction d'un système au fil du temps, de sorte que, même si une partie donnée n'a rien apporté à la fonction actuelle du système jusqu'à ce que les autres parties soient en place, il est fort possible qu'il ait contribué à une fonction antérieure. En ce qui concerne les voies indirectes, Behe ​​n’a rien de plus qu’un argument d’ignorance: personne n’a donné de compte rendu détaillé de cette voie. La vérité de cette affirmation a été contestée, mais cela dépend uniquement de la quantité de détails demandés. Behe en exige beaucoup. Il affirme ensuite qu'il est extrêmement improbable de mettre au point un système de IC par voies indirectes, mais il n'a fourni aucun argument à l'appui de cette affirmation. C'est simplement son intuition (17).
  
-Dembski réitère l'affirmation selon laquelle le problème de l'explication de l'évolution des systèmes moléculaires de la IC s'est "révélé totalement insoluble" (p. 246), mais des explications évolutives ont maintenant été proposées pour plusieurs des systèmes cités par Behe, notamment la cascade de la coagulation sanguine, le système immunitaire, le système du complément et le flagelle bactérien. Le dernier de ceux-ci est hautement spéculatif, mais est suffisant pour réfuter l'affirmation de l’insolubilité absolue((18)).+Dembski réitère l'affirmation selon laquelle le problème de l'explication de l'évolution des systèmes moléculaires de la IC s'est "révélé totalement insoluble" (p. 246), mais des explications évolutives ont maintenant été proposées pour plusieurs des systèmes cités par Behe, notamment la cascade de la coagulation sanguine, le système immunitaire, le système du complément et le flagelle bactérien. Le dernier de ceux-ci est hautement spéculatif, mais est suffisant pour réfuter l'affirmation de l’insolubilité absolue (18).
  
-Qu'a donc ajouté Dembski au débat sur la complexité irréductible? Premièrement, il a tenté de contrer les objections des critiques de Behe. Je ne commenterai pas ces propos, si ce n'est pour dire que certains de ces critiques semblent avoir mal compris ce que Behe ​​entendait par complexité irréductible. Cela n’est pas surprenant puisque sa définition était vague et s’accompagnait de plusieurs déclarations trompeuses. En effet, Behe ​​lui-même a admis que sa définition était ambiguë.((19)Il a même tenté de proposer une définition totalement nouvelle.((20))+Qu'a donc ajouté Dembski au débat sur la complexité irréductible? Premièrement, il a tenté de contrer les objections des critiques de Behe. Je ne commenterai pas ces propos, si ce n'est pour dire que certains de ces critiques semblent avoir mal compris ce que Behe ​​entendait par complexité irréductible. Cela n’est pas surprenant puisque sa définition était vague et s’accompagnait de plusieurs déclarations trompeuses. En effet, Behe ​​lui-même a admis que sa définition était ambiguë (19)Il a même tenté de proposer une définition totalement nouvelle (20).
  
  
Ligne 249: Ligne 243:
  
   * Behe était très vague sur la façon dont un système devrait être divisé en plusieurs parties. Parfois, il prenait des protéines individuelles comme parties, mais dans le cas du flagelle bactérien, il divisait le système en trois parties seulement, "une palette, un rotor et un moteur", chacune consistant en plusieurs protéines (//Darwin's Black Box//, p. 72). Dembski exige que les parties soient "individualisées de manière non arbitraire" (p. 285), ce qui ne nous en dit pas beaucoup. Ce qui est important, cependant, c'est que dans le cas du flagelle bactérien, il choisisse des protéines individuelles comme ses parties. En fait, il ne semble même pas avoir remarqué que Behe ​​avait divisé le flagelle en trois parties seulement:   * Behe était très vague sur la façon dont un système devrait être divisé en plusieurs parties. Parfois, il prenait des protéines individuelles comme parties, mais dans le cas du flagelle bactérien, il divisait le système en trois parties seulement, "une palette, un rotor et un moteur", chacune consistant en plusieurs protéines (//Darwin's Black Box//, p. 72). Dembski exige que les parties soient "individualisées de manière non arbitraire" (p. 285), ce qui ne nous en dit pas beaucoup. Ce qui est important, cependant, c'est que dans le cas du flagelle bactérien, il choisisse des protéines individuelles comme ses parties. En fait, il ne semble même pas avoir remarqué que Behe ​​avait divisé le flagelle en trois parties seulement:
-//Behe montre que la machinerie complexe de ce moteur moléculaire - comprenant un rotor, un stator, des anneaux, des bagues et un arbre d’entraînement - nécessite l’interaction coordonnée d’une trentaine de protéines et d’une vingtaine de protéines pour faciliter leur assemblage. Pourtant, l’absence de l’une de ces protéines entraînerait la perte totale de la fonction motrice ... Mais un flagelle sans son contingent complet de protéines ne fonctionne pas du tout. Behe conclut donc que si le mécanisme darwinien doit produire le flagellum, il devra le faire en une génération.// [pp. 249-251]+<well>//Behe montre que la machinerie complexe de ce moteur moléculaire - comprenant un rotor, un stator, des anneaux, des bagues et un arbre d’entraînement - nécessite l’interaction coordonnée d’une trentaine de protéines et d’une vingtaine de protéines pour faciliter leur assemblage. Pourtant, l’absence de l’une de ces protéines entraînerait la perte totale de la fonction motrice ... Mais un flagelle sans son contingent complet de protéines ne fonctionne pas du tout. Behe conclut donc que si le mécanisme darwinien doit produire le flagellum, il devra le faire en une génération.// [pp. 249-251]</well>
   * Alors que Behe ​​ne considérait un système comme un IC que si toutes ses parties étaient indispensables, Dembski envisage un système IC si celui-ci avait un //noyau irréductible// de parties indispensables.   * Alors que Behe ​​ne considérait un système comme un IC que si toutes ses parties étaient indispensables, Dembski envisage un système IC si celui-ci avait un //noyau irréductible// de parties indispensables.
- 
   * Dembski a ajouté deux nouvelles conditions qui doivent être remplies avant qu'un système puisse être considéré comme une preuve de conception intelligente. En plus d'être un IC, le noyau irréductible du système doit posséder «de nombreuses et diverses parties» et posséder la propriété de «complexité et fonction minimales» (p. 287). Ces deux conditions sont plutôt vagues. "Nombreux" et "divers" ne sont pas quantifiés. La complexité du système n’a pas besoin d’être minimal, car, dans le cas du flagelle bactérien, Dembski affirme uniquement que "la complexité des flagelles connus //n’est pas très différente// de la complexité minimale que de tels systèmes pourraient en principe exiger" (p. 288, c'est moi qui souligne).   * Dembski a ajouté deux nouvelles conditions qui doivent être remplies avant qu'un système puisse être considéré comme une preuve de conception intelligente. En plus d'être un IC, le noyau irréductible du système doit posséder «de nombreuses et diverses parties» et posséder la propriété de «complexité et fonction minimales» (p. 287). Ces deux conditions sont plutôt vagues. "Nombreux" et "divers" ne sont pas quantifiés. La complexité du système n’a pas besoin d’être minimal, car, dans le cas du flagelle bactérien, Dembski affirme uniquement que "la complexité des flagelles connus //n’est pas très différente// de la complexité minimale que de tels systèmes pourraient en principe exiger" (p. 288, c'est moi qui souligne).
  
 Le dernier de ces changements ne manquera pas de créer encore plus de confusion. Selon Dembski, il ne suffit plus de montrer qu'un système est IC. Il doit également répondre aux deux critères supplémentaires. Pourtant, ailleurs dans son livre, Dembski continue de faire référence à la complexité irréductible comme condition suffisante pour déduire un design: Le dernier de ces changements ne manquera pas de créer encore plus de confusion. Selon Dembski, il ne suffit plus de montrer qu'un système est IC. Il doit également répondre aux deux critères supplémentaires. Pourtant, ailleurs dans son livre, Dembski continue de faire référence à la complexité irréductible comme condition suffisante pour déduire un design:
-//En particulier, l'affirmation selon laquelle le mécanisme darwinien peut rendre compte de toute la diversité des formes de vie devra être rejetée car ce mécanisme est incapable de générer la complexité spécifiée inhérente - pour prendre l'exemple le plus populaire - de systèmes biochimiques d'une complexité irréductible (voir chapitre 5).// [p. 324]+<well>//En particulier, l'affirmation selon laquelle le mécanisme darwinien peut rendre compte de toute la diversité des formes de vie devra être rejetée car ce mécanisme est incapable de générer la complexité spécifiée inhérente - pour prendre l'exemple le plus populaire - de systèmes biochimiques d'une complexité irréductible (voir chapitre 5).// [p. 324]</well>
  
 Je peux comprendre la tentation d’utiliser  //complexe irréductible// comme un raccourci pour un //complexe irréductible avec un noyau irréductible qui comporte des parties nombreuses et variées et présente une complexité et une fonction minimales//, mais Dembski aurait vraiment dû introduire un nouveau terme pour ce dernier. Désormais, lorsqu'ils prétendent avoir trouvé un exemple de complexité irréductible dans la nature, les promoteurs d'Intelligent Design doivent préciser laquelle des définitions suivantes ils ont à l'esprit: la définition d'origine de Behe; La version corrigée de Behe ​​de sa définition originale; Nouvelle définition proposée par Behe; La définition de Dembski; ou la définition de Dembski plus les deux critères supplémentaires. Je prédis que la plupart échoueront à le faire. Pour la suite de cet article, je vais utiliser le terme IC dans le dernier sens. Il ne faut pas supposer que tous les exemples de systèmes IC proposés par Behe ​​répondent nécessairement aux critères de Dembski. Dembski ne considère que le flagelle bactérien. Reste à déterminer si les autres systèmes de Behe sont IC dans ce nouveau sens. Je peux comprendre la tentation d’utiliser  //complexe irréductible// comme un raccourci pour un //complexe irréductible avec un noyau irréductible qui comporte des parties nombreuses et variées et présente une complexité et une fonction minimales//, mais Dembski aurait vraiment dû introduire un nouveau terme pour ce dernier. Désormais, lorsqu'ils prétendent avoir trouvé un exemple de complexité irréductible dans la nature, les promoteurs d'Intelligent Design doivent préciser laquelle des définitions suivantes ils ont à l'esprit: la définition d'origine de Behe; La version corrigée de Behe ​​de sa définition originale; Nouvelle définition proposée par Behe; La définition de Dembski; ou la définition de Dembski plus les deux critères supplémentaires. Je prédis que la plupart échoueront à le faire. Pour la suite de cet article, je vais utiliser le terme IC dans le dernier sens. Il ne faut pas supposer que tous les exemples de systèmes IC proposés par Behe ​​répondent nécessairement aux critères de Dembski. Dembski ne considère que le flagelle bactérien. Reste à déterminer si les autres systèmes de Behe sont IC dans ce nouveau sens.
Ligne 261: Ligne 254:
 Admettons, pour les besoins de l’argumentation, que la définition de Dembski est suffisamment restrictive pour que les systèmes IC ne puissent pas évoluer par des voies //directes//. Qu'a-t-il dit sur le sujet vital que Behe ​​a échoué à abordé - le sujet des voies indirectes? La réponse est rien. Le noeud de son argument est le suivant: Admettons, pour les besoins de l’argumentation, que la définition de Dembski est suffisamment restrictive pour que les systèmes IC ne puissent pas évoluer par des voies //directes//. Qu'a-t-il dit sur le sujet vital que Behe ​​a échoué à abordé - le sujet des voies indirectes? La réponse est rien. Le noeud de son argument est le suivant:
  
-//Pour parvenir à un système irréductiblement complexe, le mécanisme darwinien n'a que deux options. Tout d'abord, il peut essayer de réaliser le système d'un seul coup. Mais si le noyau d’un système complexe irréductiblement est constitué de nombreuses et diverses parties, cette option est résolument exclue. La seule autre option pour le mécanisme darwinien consiste alors à essayer de réaliser le système progressivement en exploitant des intermédiaires fonctionnels. Mais cette option ne peut fonctionner que si le système admet des simplifications substantielles. La deuxième condition [que le noyau irréductible du système se trouve au niveau de complexité minimal requis pour remplir sa fonction] bloque cette autre option. Permettez-moi de souligner qu'il n'y a pas de faux dilemme ici - ce n'est pas comme s'il y avait d'autres options que j'ai commodément ignorées, mais que le mécanisme darwinien a à sa disposition.// [P. 287]+<well>//Pour parvenir à un système irréductiblement complexe, le mécanisme darwinien n'a que deux options. Tout d'abord, il peut essayer de réaliser le système d'un seul coup. Mais si le noyau d’un système complexe irréductiblement est constitué de nombreuses et diverses parties, cette option est résolument exclue. La seule autre option pour le mécanisme darwinien consiste alors à essayer de réaliser le système progressivement en exploitant des intermédiaires fonctionnels. Mais cette option ne peut fonctionner que si le système admet des simplifications substantielles. La deuxième condition [que le noyau irréductible du système se trouve au niveau de complexité minimal requis pour remplir sa fonction] bloque cette autre option. Permettez-moi de souligner qu'il n'y a pas de faux dilemme ici - ce n'est pas comme s'il y avait d'autres options que j'ai commodément ignorées, mais que le mécanisme darwinien a à sa disposition.// [P. 287]</well>
 Mais il y a bien une option que Dembski a négligé. Le système aurait pu évoluer d'un système plus simple avec une fonction //différente//. Dans ce cas, il pourrait y avoir des intermédiaires fonctionnels après tout. L'erreur de Dembski est de supposer que les seuls intermédiaires fonctionnels possibles sont des intermédiaires ayant la //même// fonction. Mais il y a bien une option que Dembski a négligé. Le système aurait pu évoluer d'un système plus simple avec une fonction //différente//. Dans ce cas, il pourrait y avoir des intermédiaires fonctionnels après tout. L'erreur de Dembski est de supposer que les seuls intermédiaires fonctionnels possibles sont des intermédiaires ayant la //même// fonction.
  
 L'absence de prise en compte par Dembski de la possibilité d'un changement de fonction transparaît dans sa définition de la complexité irréductible: L'absence de prise en compte par Dembski de la possibilité d'un changement de fonction transparaît dans sa définition de la complexité irréductible:
  
-//Définition ICfinal - Un système remplissant une fonction de base donnée est //irréductiblement complexe// s’il comprend un ensemble de parties bien appariées, en interaction mutuelle et individualisées de manière non arbitraire, de sorte que chaque partie de l’ensemble est indispensable au maintien de la base du système, et donc de son originalité, sa fonction. L'ensemble de ces éléments indispensables est appelé le //noyau irréductible// du système.// [p. 285]+<well>//Définition ICfinal - Un système remplissant une fonction de base donnée est //irréductiblement complexe// s’il comprend un ensemble de parties bien appariées, en interaction mutuelle et individualisées de manière non arbitraire, de sorte que chaque partie de l’ensemble est indispensable au maintien de la base du système, et donc de son originalité, sa fonction. L'ensemble de ces éléments indispensables est appelé le //noyau irréductible// du système.// [p. 285]</well>
 Il n'y a aucune raison pour que la fonction de base d'un système soit celle d'origine. Les concepts même de fonction de base et de fonction d'origine peuvent ne pas être bien définis. Si un système remplit deux fonctions vitales, quelle est la base? Le concept de fonction originale suppose qu'il existe un moment identifiable à l’existence du système. Mais le système peut avoir une longue histoire dans laquelle des parties sont entrées et sorties et les fonctions ont changé, rendant impossible de retracer l'origine du système à une époque donnée. Et qu'est-ce qu'un système? Si deux protéines commencent à interagir de manière bénéfique, deviennent-elles immédiatement un système? Si tel est le cas, il nous faudra peut-être retracer l'historique d'un système jusqu'à l'époque où il ne s'agissait que de deux protéines en interaction. Il n'y a aucune raison pour que la fonction de base d'un système soit celle d'origine. Les concepts même de fonction de base et de fonction d'origine peuvent ne pas être bien définis. Si un système remplit deux fonctions vitales, quelle est la base? Le concept de fonction originale suppose qu'il existe un moment identifiable à l’existence du système. Mais le système peut avoir une longue histoire dans laquelle des parties sont entrées et sorties et les fonctions ont changé, rendant impossible de retracer l'origine du système à une époque donnée. Et qu'est-ce qu'un système? Si deux protéines commencent à interagir de manière bénéfique, deviennent-elles immédiatement un système? Si tel est le cas, il nous faudra peut-être retracer l'historique d'un système jusqu'à l'époque où il ne s'agissait que de deux protéines en interaction.
  
Ligne 272: Ligne 265:
  
 Quelques autres points sont à noter: Quelques autres points sont à noter:
- * Les changements de fonction ne sont pas une idée //ad hoc// conçue comme une tentative ultime de résoudre un problème épineux. Ils sont une caractéristique fondamentale de l'évolution. Les nouveaux systèmes n'apparaissent pas juste de nulle part. La plupart des systèmes auront évolué à partir d'un système antérieur ayant une fonction différente. +  * Les changements de fonction ne sont pas une idée //ad hoc// conçue comme une tentative ultime de résoudre un problème épineux. Ils sont une caractéristique fondamentale de l'évolution. Les nouveaux systèmes n'apparaissent pas juste de nulle part. La plupart des systèmes auront évolué à partir d'un système antérieur ayant une fonction différente. 
-* Les changements de fonction peuvent se produire de deux manières. Premièrement, une mutation peut créer une nouvelle capacité. Deuxièmement, une modification de l'environnement peut fournir une nouvelle utilisation à un système, par exemple l'aileron d'un poisson commence à être utilisé comme jambe primitive dans des eaux peu profondes. Dans les deux cas, le système peut exécuter la nouvelle fonction très mal au début, puis muter pour mieux le faire. Behe et Dembski soulignent tous deux à quel point les parties d'un système semblent être bien coordonnées. Mais ils ont peut-être été beaucoup moins bien coordonnés dans le passé. +  * Les changements de fonction peuvent se produire de deux manières. Premièrement, une mutation peut créer une nouvelle capacité. Deuxièmement, une modification de l'environnement peut fournir une nouvelle utilisation à un système, par exemple l'aileron d'un poisson commence à être utilisé comme jambe primitive dans des eaux peu profondes. Dans les deux cas, le système peut exécuter la nouvelle fonction très mal au début, puis muter pour mieux le faire. Behe et Dembski soulignent tous deux à quel point les parties d'un système semblent être bien coordonnées. Mais ils ont peut-être été beaucoup moins bien coordonnés dans le passé. 
-* Un système peut avoir plus d'une fonction. Dans l'exemple ci-dessus, l'aileron du poisson peut continuer à être utilisé pour nager et escalader des rochers submergés. +  * Un système peut avoir plus d'une fonction. Dans l'exemple ci-dessus, l'aileron du poisson peut continuer à être utilisé pour nager et escalader des rochers submergés. 
-* Il n'y a pas de distinction claire entre les systèmes et les pièces. Toute structure fonctionnelle peut être considérée à la fois comme un système à part entière et comme faisant partie d’un système plus vaste. Nous n’avons donc pas besoin de penser en termes de système acquérant un grand nombre de parties constituées de protéines individuelles, comme le voudrait Dembski. Un système peut plutôt acquérir un petit nombre de sous-systèmes, chacun composé de plusieurs protéines. +  * Il n'y a pas de distinction claire entre les systèmes et les pièces. Toute structure fonctionnelle peut être considérée à la fois comme un système à part entière et comme faisant partie d’un système plus vaste. Nous n’avons donc pas besoin de penser en termes de système acquérant un grand nombre de parties constituées de protéines individuelles, comme le voudrait Dembski. Un système peut plutôt acquérir un petit nombre de sous-systèmes, chacun composé de plusieurs protéines. 
-* Au lieu de créer un système IC par la combinaison simultanée de nombreuses parties, nous voyons maintenant qu’il peut résulter de l’acquisition progressive de quelques parties. Cela ne semble plus aussi improbable que Behe ​​et Dembski l'ont fait paraître.+  * Au lieu de créer un système IC par la combinaison simultanée de nombreuses parties, nous voyons maintenant qu’il peut résulter de l’acquisition progressive de quelques parties. Cela ne semble plus aussi improbable que Behe ​​et Dembski l'ont fait paraître.
  
 Avant de terminer cette section, il pourrait être utile de dissiper quelques faux-fuyants que Dembski introduit dans son analyse de la complexité irréductible. Avant de terminer cette section, il pourrait être utile de dissiper quelques faux-fuyants que Dembski introduit dans son analyse de la complexité irréductible.
-* //Spécificité causale//. Ceci est juste une autre couverture pour l'argument de l'ignorance: +  * //Spécificité causale//. Ceci est juste une autre couverture pour l'argument de l'ignorance: 
-//À moins de proposer un modèle concret suffisamment détaillé pour être sérieusement critiqué, il ne sera pas possible de déterminer son adéquation. Ceci est bien sûr une autre façon de dire que l'objection d'échafaudage n'a pas encore démontré de spécificité causale lorsqu'elle est appliquée à des systèmes biochimiques irréductiblement complexes.// [p. 254]+<well>//À moins de proposer un modèle concret suffisamment détaillé pour être sérieusement critiqué, il ne sera pas possible de déterminer son adéquation. Ceci est bien sûr une autre façon de dire que l'objection d'échafaudage n'a pas encore démontré de spécificité causale lorsqu'elle est appliquée à des systèmes biochimiques irréductiblement complexes.// [p. 254]</well>
 En d’autres termes, jusqu’à ce qu’une hypothèse naturelle suffisamment détaillée soit fournie, nous devrions poursuivre et en déduire la conception. Cela ne dérange pas Dembski (ni Behe ​​qui avance le même argument) que leur hypothèse alternative (la conception) ne comporte aucune précision que ce soit. En d’autres termes, jusqu’à ce qu’une hypothèse naturelle suffisamment détaillée soit fournie, nous devrions poursuivre et en déduire la conception. Cela ne dérange pas Dembski (ni Behe ​​qui avance le même argument) que leur hypothèse alternative (la conception) ne comporte aucune précision que ce soit.
-* //Invariants.// Dembski décrit certains problèmes géométriques sans solution et explique comment prouver la non-existence d'une solution en montrant qu'une certaine propriété est invariante lors de la transformation du système. Comment est-ce pertinent pour la complexité irréductible? Dembski utilise-t-il l'invariance de certaines propriétés pour établir que les systèmes IC ne peuvent pas évoluer? Non, la propriété qu'il prétend invariante (en évolution naturelle) est la propriété de la complexité irréductible elle-même. Mais l’affirmation selon laquelle l’évolution naturelle ne peut produire une complexité irréductible est précisément le but qu’il s’efforce d’établir. En d'autres termes, l'invariance ne permet pas d'établir la conclusion de Dembski. C'est juste une autre façon d'exprimer cette conclusion.+  * //Invariants.// Dembski décrit certains problèmes géométriques sans solution et explique comment prouver la non-existence d'une solution en montrant qu'une certaine propriété est invariante lors de la transformation du système. Comment est-ce pertinent pour la complexité irréductible? Dembski utilise-t-il l'invariance de certaines propriétés pour établir que les systèmes IC ne peuvent pas évoluer? Non, la propriété qu'il prétend invariante (en évolution naturelle) est la propriété de la complexité irréductible elle-même. Mais l’affirmation selon laquelle l’évolution naturelle ne peut produire une complexité irréductible est précisément le but qu’il s’efforce d’établir. En d'autres termes, l'invariance ne permet pas d'établir la conclusion de Dembski. C'est juste une autre façon d'exprimer cette conclusion.
 En essayant de relier le sujet des invariants à l'évolution, Dembski écrit: "Pensez ici à un invariant efficace comme un obstacle insurmontable pour le mécanisme darwinien" (p. 285). On peut se demander pourquoi il ne se contente pas d'utiliser l'expression «obstacle insurmontable» dès le début, et de sauter toute la discussion non pertinente sur les invariants. En essayant de relier le sujet des invariants à l'évolution, Dembski écrit: "Pensez ici à un invariant efficace comme un obstacle insurmontable pour le mécanisme darwinien" (p. 285). On peut se demander pourquoi il ne se contente pas d'utiliser l'expression «obstacle insurmontable» dès le début, et de sauter toute la discussion non pertinente sur les invariants.
-* //Complexité spécifiée.// Dembski aime à dire que "la complexité irréductible est un cas particulier de complexité spécifiée" (p. 289), comme si cela démontrait l'intégration de deux concepts dans un cadre cohérent. Mais nous avons déjà vu que la complexité spécifiée est simplement une étiquette que nous appliquons lorsque nous n’avons aucune hypothèse naturelle plausible pour expliquer un événement. Donc, dire que la complexité irréductible est un cas de complexité spécifiée n’est qu’un autre moyen de répéter l’affirmation selon laquelle nous n’avons aucune explication naturelle à l’origine du flagelle bactérien (qui est le seul système biologique que Dembski ait montré qu’il était IC au sens qu’il lui donne).+  * //Complexité spécifiée.// Dembski aime à dire que "la complexité irréductible est un cas particulier de complexité spécifiée" (p. 289), comme si cela démontrait l'intégration de deux concepts dans un cadre cohérent. Mais nous avons déjà vu que la complexité spécifiée est simplement une étiquette que nous appliquons lorsque nous n’avons aucune hypothèse naturelle plausible pour expliquer un événement. Donc, dire que la complexité irréductible est un cas de complexité spécifiée n’est qu’un autre moyen de répéter l’affirmation selon laquelle nous n’avons aucune explication naturelle à l’origine du flagelle bactérien (qui est le seul système biologique que Dembski ait montré qu’il était IC au sens qu’il lui donne).
  
  
-5. Algorithmes évolutifs +====5. Algorithmes évolutifs==== 
-//Tentez d’atteindre la fin, et ne doutez jamais; +<TEXT align="center">//Tentez d’atteindre la fin, et ne doutez jamais; Rien n'est si difficile, mais la recherche le découvrira.// 
-Rien n'est si difficile, mais la recherche le découvrira.// +\\ 
-Robert Herrick (1591-1674)+Robert Herrick (1591-1674)</TEXT>
  
-Ces dernières années, les algorithmes évolutifs, exécutés sur ordinateur, ont suscité un intérêt croissant en tant que moyen de résoudre des problèmes d'optimisation. Comme leur nom l'indique, les algorithmes évolutifs sont basés sur les mêmes principes sous-jacents que l'évolution biologique: reproduction avec variations aléatoires et sélection du "plus apte". Comme ils semblent montrer que des processus non guidés peuvent produire le type de complexité fonctionnelle((21)) que nous voyons en biologie, ils constituent un problème que Dembski doit résoudre. En outre, il tente de tirer parti du sujet en faisant appel à un ensemble de théorèmes mathématiques, connus sous le nom de théorèmes No Free Lunch, qui imposent des contraintes aux capacités de résolution de problèmes des algorithmes évolutifs.+Ces dernières années, les algorithmes évolutifs, exécutés sur ordinateur, ont suscité un intérêt croissant en tant que moyen de résoudre des problèmes d'optimisation. Comme leur nom l'indique, les algorithmes évolutifs sont basés sur les mêmes principes sous-jacents que l'évolution biologique: reproduction avec variations aléatoires et sélection du "plus apte". Comme ils semblent montrer que des processus non guidés peuvent produire le type de complexité fonctionnelle (21) que nous voyons en biologie, ils constituent un problème que Dembski doit résoudre. En outre, il tente de tirer parti du sujet en faisant appel à un ensemble de théorèmes mathématiques, connus sous le nom de théorèmes No Free Lunch, qui imposent des contraintes aux capacités de résolution de problèmes des algorithmes évolutifs.
  
-5.1 Algorithmes d'optimisation Black-Box+===5.1 Algorithmes d'optimisation Black-Box===
 Nous nous intéresserons ici à un type d'algorithme connu sous le nom d'algorithme d'optimisation (ou de recherche) de //boîte noire// (black-box) . Ces algorithmes incluent des algorithmes évolutifs, mais ne s'y limitent pas. Les problèmes résolus par les algorithmes d’optimisation de la boîte noire ne comportent que deux attributs: un //espace de phase// et une //fonction de fitness// définie sur cet espace de phase. Dans le contexte de ces algorithmes, les //espaces de phase// sont généralement appelés //espaces de recherche//. De plus, le terme //fonction de fitness// est généralement réservé aux algorithmes évolutifs, le terme le plus général étant fonction objective ou fonction de coût (maximiser une fonction objective équivaut à minimiser une fonction de coût). Mais je vais adopter la terminologie de Dembski par souci de cohérence. Nous nous intéresserons ici à un type d'algorithme connu sous le nom d'algorithme d'optimisation (ou de recherche) de //boîte noire// (black-box) . Ces algorithmes incluent des algorithmes évolutifs, mais ne s'y limitent pas. Les problèmes résolus par les algorithmes d’optimisation de la boîte noire ne comportent que deux attributs: un //espace de phase// et une //fonction de fitness// définie sur cet espace de phase. Dans le contexte de ces algorithmes, les //espaces de phase// sont généralement appelés //espaces de recherche//. De plus, le terme //fonction de fitness// est généralement réservé aux algorithmes évolutifs, le terme le plus général étant fonction objective ou fonction de coût (maximiser une fonction objective équivaut à minimiser une fonction de coût). Mais je vais adopter la terminologie de Dembski par souci de cohérence.
  
Ligne 312: Ligne 305:
 Dembski adopte une définition très large de //l’algorithme évolutif// qui inclut //tous// les algorithmes d’optimisation que nous considérons ici, y compris la recherche aléatoire (p. 180, 229n9, 232n31). Dembski adopte une définition très large de //l’algorithme évolutif// qui inclut //tous// les algorithmes d’optimisation que nous considérons ici, y compris la recherche aléatoire (p. 180, 229n9, 232n31).
  
-Un autre terme utilisé par Dembski est la //recherche à l'aveugle//. Il l'utilise dans deux sens. Il s’agit d’abord d’une //marche aléatoire//, d’un algorithme qui passe d’un emplacement de l’espace des phases à un autre emplacement sélectionné aléatoirement à partir de points proches (p. 190). Plus tard, il l'utilise pour désigner toute recherche dans laquelle la fonction fitness n'a que deux valeurs possibles: le point en cours d'évaluation est ,ou non, dans une zone cible (p. 197). La signification habituelle (bien que non exclusive) de la //recherche aveugle// dans la littérature sur les algorithmes évolutionnistes est synonyme d’algorithme de //boîte noire//.((22))+Un autre terme utilisé par Dembski est la //recherche à l'aveugle//. Il l'utilise dans deux sens. Il s’agit d’abord d’une //marche aléatoire//, d’un algorithme qui passe d’un emplacement de l’espace des phases à un autre emplacement sélectionné aléatoirement à partir de points proches (p. 190). Plus tard, il l'utilise pour désigner toute recherche dans laquelle la fonction fitness n'a que deux valeurs possibles: le point en cours d'évaluation est ,ou non, dans une zone cible (p. 197). La signification habituelle (bien que non exclusive) de la //recherche aveugle// dans la littérature sur les algorithmes évolutionnistes est synonyme d’algorithme de //boîte noire// (22).
  
-5.2 Réglage précis de la fonction fitness+===5.2 Réglage précis de la fonction fitness===
 Dembski reconnaît que les algorithmes évolutifs peuvent produire des résultats assez novateurs, mais il ne peut le faire que parce que leur fonction de fitness a été affinée par le programmeur. Ce faisant, affirme-t-il, le programmeur a "introduit" en des //informations spécifiées complexes// ou une //complexité spécifiée// dans le résultat. (Ces deux termes seront discutés plus tard.) Dembski reconnaît que les algorithmes évolutifs peuvent produire des résultats assez novateurs, mais il ne peut le faire que parce que leur fonction de fitness a été affinée par le programmeur. Ce faisant, affirme-t-il, le programmeur a "introduit" en des //informations spécifiées complexes// ou une //complexité spécifiée// dans le résultat. (Ces deux termes seront discutés plus tard.)
  
-//Malgré tout, il y a quelque chose de curieusement convaincant et presque magique dans la façon dont les algorithmes évolutifs trouvent des solutions à des problèmes où les solutions ne ressemblent à rien de ce que nous avons imaginé. Un exemple particulièrement frappant est celui des "antennes génétiques à fils torsadés" de Edward Altshuler et Derek Linden. Le problème que ces chercheurs ont résolu avec des algorithmes évolutifs (ou génétiques) était de trouver une antenne émettant aussi bien dans toutes les directions sur un hémisphère situé au-dessus d'un plan de sol d'étendue infinie. Contrairement aux attentes, aucun fil avec une forme géométrique symétrique et nette ne résout ce problème. Au lieu de cela, les meilleures solutions à ce problème ressemblent à des enchevêtrements en zigzag. De plus, les algorithmes évolutifs se frayent un chemin à travers les divers enchevêtrements en zigzag, dont la plupart ne fonctionnent pas, vers un qui le fait. C'est remarquable. Même dans ce cas, la fonction de finess qui prescrit les performances optimales de l’antenne est bien définie et fournit facilement l’information complexe spécifiée qu’une antenne génétique de fil tordue optimale semble acquérir gratuitement.// [p. 221]+<well>//Malgré tout, il y a quelque chose de curieusement convaincant et presque magique dans la façon dont les algorithmes évolutifs trouvent des solutions à des problèmes où les solutions ne ressemblent à rien de ce que nous avons imaginé. Un exemple particulièrement frappant est celui des "antennes génétiques à fils torsadés" de Edward Altshuler et Derek Linden. Le problème que ces chercheurs ont résolu avec des algorithmes évolutifs (ou génétiques) était de trouver une antenne émettant aussi bien dans toutes les directions sur un hémisphère situé au-dessus d'un plan de sol d'étendue infinie. Contrairement aux attentes, aucun fil avec une forme géométrique symétrique et nette ne résout ce problème. Au lieu de cela, les meilleures solutions à ce problème ressemblent à des enchevêtrements en zigzag. De plus, les algorithmes évolutifs se frayent un chemin à travers les divers enchevêtrements en zigzag, dont la plupart ne fonctionnent pas, vers un qui le fait. C'est remarquable. Même dans ce cas, la fonction de finess qui prescrit les performances optimales de l’antenne est bien définie et fournit facilement l’information complexe spécifiée qu’une antenne génétique de fil tordue optimale semble acquérir gratuitement.// [p. 221]</well>
 Une affirmation similaire est faite concernant l'évolution biologique: Une affirmation similaire est faite concernant l'évolution biologique:
  
-//Ainsi, je soutiens que même si l'évolution darwinienne est le moyen par lequel la panoplie de la vie sur Terre est apparue, la fonction de fitness sous-jacente qui limite l'évolution biologique ne serait pas un buffet gratuit ni un don brutal, mais un assemblage finement conçu de gradients qui présupposent beaucoup de complexité spécifiée préalable//. [p. 212] +<well>//Ainsi, je soutiens que même si l'évolution darwinienne est le moyen par lequel la panoplie de la vie sur Terre est apparue, la fonction de fitness sous-jacente qui limite l'évolution biologique ne serait pas un buffet gratuit ni un don brutal, mais un assemblage finement conçu de gradients qui présupposent beaucoup de complexité spécifiée préalable//. [p. 212]</well> 
-Ces affirmations sont basées sur une idée fondamentalent fausse du rôle de la fonction de fitness dans un algorithme évolutif. Une fonction fitness intègre deux éléments:+Ces affirmations sont basées sur une idée fondamentalement fausse du rôle de la fonction de fitness dans un algorithme évolutif. Une fonction fitness intègre deux éléments:
   * Il reflète nos objectifs. Si notre objectif est de concevoir un pont, nous devrons peut-être décider du poids à accorder à un certain nombre d'objectifs conflictuels tels que la capacité de trafic, l'intégrité structurelle, les coûts et l'impact environnemental.   * Il reflète nos objectifs. Si notre objectif est de concevoir un pont, nous devrons peut-être décider du poids à accorder à un certain nombre d'objectifs conflictuels tels que la capacité de trafic, l'intégrité structurelle, les coûts et l'impact environnemental.
   * Il englobe nos connaissances pertinentes sur le monde réel, afin d'évaluer dans quelle mesure une solution potentielle répond à nos objectifs.   * Il englobe nos connaissances pertinentes sur le monde réel, afin d'évaluer dans quelle mesure une solution potentielle répond à nos objectifs.
Ligne 329: Ligne 322:
 Dans l'un de ses articles, Dembski cite le psychologue de l'évolution, Geoffrey Miller, à l'appui de son affirmation selon laquelle la fonction de fitness doit être affinée: Dans l'un de ses articles, Dembski cite le psychologue de l'évolution, Geoffrey Miller, à l'appui de son affirmation selon laquelle la fonction de fitness doit être affinée:
  
-//Et où exactement la conception est-elle intégrée dans un algorithme évolutif ou génétique? Selon Miller, cela fait partie de la fonction fitness. Il écrit: +<well>//Et où exactement la conception est-elle intégrée dans un algorithme évolutif ou génétique? Selon Miller, cela fait partie de la fonction fitness. Il écrit: 
-« La fonction de mise en forme doit incarner non seulement les objectifs conscients de l'ingénieur, mais également son sens commun. Ce sens commun est en grande partie intuitif et inconscient, il est donc difficile à formaliser en une fonction de fitness explicite. Les solutions d'algorithmes génétiques vaant autant que les fonctions de mise en forme utilisées pour les faire évoluer, le développement minutieux de fonctions de fitness appropriées intégrant toutes les contraintes de conception, les compromis et le choix de critères pertinents sont une étape clé de l'ingénierie évolutive »//((23)).+« La fonction de mise en forme doit incarner non seulement les objectifs conscients de l'ingénieur, mais également son sens commun. Ce sens commun est en grande partie intuitif et inconscient, il est donc difficile à formaliser en une fonction de fitness explicite. Les solutions d'algorithmes génétiques vaant autant que les fonctions de mise en forme utilisées pour les faire évoluer, le développement minutieux de fonctions de fitness appropriées intégrant toutes les contraintes de conception, les compromis et le choix de critères pertinents sont une étape clé de l'ingénierie évolutive »// (23).</well>
 Mais les objectifs, les contraintes, les compromis, etc., de l’ingénieur sont des paramètres du problème à résoudre. Ils doivent être choisis avec soin pour que l'algorithme évolutif résolve le bon problème et non pour le guider vers la solution d'un autre, comme nous le dit Miller dans le paragraphe précédent: Mais les objectifs, les contraintes, les compromis, etc., de l’ingénieur sont des paramètres du problème à résoudre. Ils doivent être choisis avec soin pour que l'algorithme évolutif résolve le bon problème et non pour le guider vers la solution d'un autre, comme nous le dit Miller dans le paragraphe précédent:
-//Si la fonction de mise en forme ne reflète pas de manière réaliste les contraintes du monde réel et les exigences auxquelles les conceptions phénotypiques seront confrontées, l'algorithme génétique peut offrir une bonne solution au mauvais problème//((24.))+<well>//Si la fonction de mise en forme ne reflète pas de manière réaliste les contraintes du monde réel et les exigences auxquelles les conceptions phénotypiques seront confrontées, l'algorithme génétique peut offrir une bonne solution au mauvais problème// (24).</well>
 Ce sont d’autres éléments de l’algorithme évolutif qui devront peut-être être soigneusement choisis pour que cet algorithme fonctionne bien: Ce sont d’autres éléments de l’algorithme évolutif qui devront peut-être être soigneusement choisis pour que cet algorithme fonctionne bien:
-//Le truc dans les algorithmes génétiques est de trouver des schémas permettant de mapper efficacement et élégamment une chaîne binaire binaire à une conception technique, plutôt que par force brute .... Les opérateurs génétiques copient et modifient les génotypes d’une génération à l’autre .... Il est particulièrement important de trouver le bon équilibre entre mutation et sélection .... Enfin, les paramètres évolutifs [tels que la taille de la population et le taux de mutation] déterminent le contexte général de l'évolution et les détails quantitatifs du fonctionnement des opérateurs génétiques. .... Décider des meilleures valeurs pour ces paramètres dans une application donnée restent un art , davantage motivé par une intuition aveugle et une tradition commune que par de solides principes d'ingénierie//((24)).+<well>//Le truc dans les algorithmes génétiques est de trouver des schémas permettant de mapper efficacement et élégamment une chaîne binaire binaire à une conception technique, plutôt que par force brute .... Les opérateurs génétiques copient et modifient les génotypes d’une génération à l’autre .... Il est particulièrement important de trouver le bon équilibre entre mutation et sélection .... Enfin, les paramètres évolutifs [tels que la taille de la population et le taux de mutation] déterminent le contexte général de l'évolution et les détails quantitatifs du fonctionnement des opérateurs génétiques. .... Décider des meilleures valeurs pour ces paramètres dans une application donnée restent un art , davantage motivé par une intuition aveugle et une tradition commune que par de solides principes d'ingénierie//(24).</well>
  
 Wolpert et Macready font une remarque similaire: Wolpert et Macready font une remarque similaire:
-//En fin de compte, bien entendu, la seule question importante est "Comment trouver les bonnes solutions pour ma fonction de coût donnée « f »?" La bonne réponse à cette question est de commencer par le « f » donné, d'en déterminer certaines caractéristiques essentielles, puis de construire un algorithme de recherche, spécifiquement adapté à ces caractéristiques. La procédure inverse - beaucoup plus répandue dans certaines communautés - consiste à étudier la performance d’algorithmes spécifiques sur différents f. Cette procédure inverse n’a d’intérêt que dans la mesure où elle nous aide dans notre procédure principale, de passer de (caractéristiques concernant) »f » à un « a » approprié.//((25))+<well>//En fin de compte, bien entendu, la seule question importante est "Comment trouver les bonnes solutions pour ma fonction de coût donnée « f »?" La bonne réponse à cette question est de commencer par le « f » donné, d'en déterminer certaines caractéristiques essentielles, puis de construire un algorithme de recherche, spécifiquement adapté à ces caractéristiques. La procédure inverse - beaucoup plus répandue dans certaines communautés - consiste à étudier la performance d’algorithmes spécifiques sur différents f. Cette procédure inverse n’a d’intérêt que dans la mesure où elle nous aide dans notre procédure principale, de passer de (caractéristiques concernant) »f » à un « a » approprié.//(25)</well>
  
-Peut-être que la confusion de Dembski à ce sujet peut s’expliquer par son obsession pour le programme Weasel de Richard Dawkins ((26)), auquel il consacre une grande partie de son chapitre sur les algorithmes évolutifs. Dans cet exemple, inventé uniquement pour illustrer un point spécifique, la fonction de fitness a bien été choisie afin de faire converger l'algorithme sur la solution. Ce programme n'a cependant pas été créé pour résoudre un problème d'optimisation. Le programme avait un point cible spécifique, contrairement aux algorithmes d'optimisation réels, où la solution est inconnue.+Peut-être que la confusion de Dembski à ce sujet peut s’expliquer par son obsession pour le programme Weasel de Richard Dawkins (26), auquel il consacre une grande partie de son chapitre sur les algorithmes évolutifs. Dans cet exemple, inventé uniquement pour illustrer un point spécifique, la fonction de fitness a bien été choisie afin de faire converger l'algorithme sur la solution. Ce programme n'a cependant pas été créé pour résoudre un problème d'optimisation. Le programme avait un point cible spécifique, contrairement aux algorithmes d'optimisation réels, où la solution est inconnue.
  
  
Ligne 346: Ligne 339:
 Lorsque Dembski parle d’'ajustement de la fonction de fitness pour l'évolution biologique, ce qu'il veut vraiment dire, c'est l'ajustement des conditions initiales cosmologiques et terrestres, y compris les lois de la physique. Lorsque ces conditions sont acquises, comme c’est le cas pour des raisons pratiques, elles contribuent à déterminer la fonction de fitness. Mais Dembski soutient que ces conditions doivent avoir été choisies parmi un ensemble de possibilités alternatives afin de rendre l'évolution de la vie possible. Considéré ainsi, les autres paramètres de conditions initiales doivent être considérés comme des éléments d'un autre espace de phase et non pas comme faisant partie de la fonction de fitness. Dembski fait parfois référence à cela comme à un espace de phase de fonctions de fitness. On peut comprendre ce qu’il veut dire par là, mais cela risque d’être confusant, notamment parce que les fonctions fitness des organismes biologiques ne sont pas figées, mais évoluent au même rythme que leur environnement. Lorsque Dembski parle d’'ajustement de la fonction de fitness pour l'évolution biologique, ce qu'il veut vraiment dire, c'est l'ajustement des conditions initiales cosmologiques et terrestres, y compris les lois de la physique. Lorsque ces conditions sont acquises, comme c’est le cas pour des raisons pratiques, elles contribuent à déterminer la fonction de fitness. Mais Dembski soutient que ces conditions doivent avoir été choisies parmi un ensemble de possibilités alternatives afin de rendre l'évolution de la vie possible. Considéré ainsi, les autres paramètres de conditions initiales doivent être considérés comme des éléments d'un autre espace de phase et non pas comme faisant partie de la fonction de fitness. Dembski fait parfois référence à cela comme à un espace de phase de fonctions de fitness. On peut comprendre ce qu’il veut dire par là, mais cela risque d’être confusant, notamment parce que les fonctions fitness des organismes biologiques ne sont pas figées, mais évoluent au même rythme que leur environnement.
  
-Nous voyons alors que l'argument de Dembski concernant le réglage précis des fonctions de fitness n'est qu'une version déguisée de l'argument bien connu du réglage précis des conditions initiales cosmologiques et terrestres.((27)Dembski énumère un catalogue des conditions cosmologiques et terrestres qui sont nécessaires pour l'origine de la vie (pp. 210-211). Cet argument est ancien et je n'en parlerai pas ici. La seule nouvelle tournure que Dembski lui donne est de présenter l'argument en termes de //fonctions de fitness// et de faire appel aux théorèmes No Free Lunch. Cet appel sera examiné ci-dessous, mais je voudrais d’abord faire quelques observations.+Nous voyons alors que l'argument de Dembski concernant le réglage précis des fonctions de fitness n'est qu'une version déguisée de l'argument bien connu du réglage précis des conditions initiales cosmologiques et terrestres (27)Dembski énumère un catalogue des conditions cosmologiques et terrestres qui sont nécessaires pour l'origine de la vie (pp. 210-211). Cet argument est ancien et je n'en parlerai pas ici. La seule nouvelle tournure que Dembski lui donne est de présenter l'argument en termes de //fonctions de fitness// et de faire appel aux théorèmes No Free Lunch. Cet appel sera examiné ci-dessous, mais je voudrais d’abord faire quelques observations.
  
 Les deux conclusions de Dembski ne peuvent pas être vraies toutes les deux. D'une part, il soutient que les conditions initiales ont été ajustées pour permettre l'évolution naturelle de la vie. D'autre part, il soutient que l'évolution naturelle de la vie n'a pas été possible. Non pas que Dembski n’ait pas droit à une deuxième chance. Si un argument échoue, il peut se rabattre sur l'autre. Alternativement, Dembski pourrait soutenir que le concepteur cosmique a rendu l’Univers //presque// prêt pour l’évolution naturelle de la vie, mais s’est laissé un peu de travail à faire plus tard. Les deux conclusions de Dembski ne peuvent pas être vraies toutes les deux. D'une part, il soutient que les conditions initiales ont été ajustées pour permettre l'évolution naturelle de la vie. D'autre part, il soutient que l'évolution naturelle de la vie n'a pas été possible. Non pas que Dembski n’ait pas droit à une deuxième chance. Si un argument échoue, il peut se rabattre sur l'autre. Alternativement, Dembski pourrait soutenir que le concepteur cosmique a rendu l’Univers //presque// prêt pour l’évolution naturelle de la vie, mais s’est laissé un peu de travail à faire plus tard.
Ligne 353: Ligne 346:
  
  
-5.3 Les théorèmes No Free Lunch +===5.3 Les théorèmes No Free Lunch ===
  
-Dembski tente d'utiliser les théorèmes No Free Lunch (ci-après NFL) de David Wolpert et William Macready((28)) pour étayer son affirmation selon laquelle les fonctions de fitness doivent être ajustées. Il considère vraisemblablement que les NFL sont importants pour son cas, puisque le tire de son livre y fait référence. Cependant, je montrerai que les NFL ne sont  pas applicables à l'évolution biologique et que, même pour les algorithmes évolutifs auxquels ils  s'appliquent, ils ne valident pas l'allégation d'ajustement. Je commencerai par donner une brève explication de ce que dit les NFL, en apportant un certain nombre de simplifications et en omettant des détails qui ne nous concernent pas nécessairement.+Dembski tente d'utiliser les théorèmes No Free Lunch (ci-après NFL) de David Wolpert et William Macready (28) pour étayer son affirmation selon laquelle les fonctions de fitness doivent être ajustées. Il considère vraisemblablement que les NFL sont importants pour son cas, puisque le tire de son livre y fait référence. Cependant, je montrerai que les NFL ne sont  pas applicables à l'évolution biologique et que, même pour les algorithmes évolutifs auxquels ils  s'appliquent, ils ne valident pas l'allégation d'ajustement. Je commencerai par donner une brève explication de ce que dit les NFL, en apportant un certain nombre de simplifications et en omettant des détails qui ne nous concernent pas nécessairement.
  
 NFL s'appliquent uniquement aux algorithmes répondant aux conditions suivantes: NFL s'appliquent uniquement aux algorithmes répondant aux conditions suivantes:
Ligne 361: Ligne 354:
 *En principe, il doit y avoir un nombre fini de points dans l’espace des phases et un nombre fini de valeurs de fitness possibles. En pratique, toutefois, les variables continues peuvent être arrondies à certaines valeurs. *En principe, il doit y avoir un nombre fini de points dans l’espace des phases et un nombre fini de valeurs de fitness possibles. En pratique, toutefois, les variables continues peuvent être arrondies à certaines valeurs.
 * L'algorithme ne doit pas visiter le même point deux fois. Ceci peut être évité en faisant en sorte que l’algorithme garde une trace de tous les points qu’il a visités jusqu’à présent, avec leurs valeurs de fitness, afin d’éviter les visites répétées à un point donné. Cela n’est peut-être pas pratique dans un programme informatique réel, mais la plupart des espaces de phase réels sont suffisamment vastes pour ne pas être revisités souvent, de sorte que nous pouvons ignorer ce problème. * L'algorithme ne doit pas visiter le même point deux fois. Ceci peut être évité en faisant en sorte que l’algorithme garde une trace de tous les points qu’il a visités jusqu’à présent, avec leurs valeurs de fitness, afin d’éviter les visites répétées à un point donné. Cela n’est peut-être pas pratique dans un programme informatique réel, mais la plupart des espaces de phase réels sont suffisamment vastes pour ne pas être revisités souvent, de sorte que nous pouvons ignorer ce problème.
-* La fonction de fitness peut rester fixe tout au long de l'exécution du programme ou peut varier dans le temps d'une manière indépendante de la progression de l'algorithme. Ces deux options correspondent respectivement aux théorèmes 1 et 2 de Wolpert et de Macready. Toutefois, la fonction de fitness ne peut pas varier en fonction de la progression de l’algorithme. En d’autres termes, l’algorithme peut ne pas déformer le paysage de fitness.((29))+* La fonction de fitness peut rester fixe tout au long de l'exécution du programme ou peut varier dans le temps d'une manière indépendante de la progression de l'algorithme. Ces deux options correspondent respectivement aux théorèmes 1 et 2 de Wolpert et de Macready. Toutefois, la fonction de fitness ne peut pas varier en fonction de la progression de l’algorithme. En d’autres termes, l’algorithme peut ne pas déformer le paysage de fitness (29).
  
-Le même algorithme peut être utilisé avec n’importe quel problème, c’est-à-dire dans n’importe quel paysage de fitness, même s’il ne sera pas efficace pour tous. En termes de programme informatique, nous pouvons imaginer insérer différents modules de fonctions de fitness dans le programme. Nous pouvons également imaginer l'ensemble de toutes les fonctions de fitness possibles. C'est le vaste ensemble constitué de toutes les formes possibles de paysage sur notre espace de phase donné. S'il y a S points dans l'espace de phase et F valeurs possibles de la fonction de fitness, le nombre total de fonctions de fitness possibles est F^S, car chaque point peut avoir n'importe laquelle des valeurs de F et nous devons permettre toutes les permutations possibles sur les S points.+Le même algorithme peut être utilisé avec n’importe quel problème, c’est-à-dire dans n’importe quel paysage de fitness, même s’il ne sera pas efficace pour tous. En termes de programme informatique, nous pouvons imaginer insérer différents modules de fonctions de fitness dans le programme. Nous pouvons également imaginer l'ensemble de toutes les fonctions de fitness possibles. C'est le vaste ensemble constitué de toutes les formes possibles de paysage sur notre espace de phase donné. S'il y a S points dans l'espace de phase et F valeurs possibles de la fonction de fitness, le nombre total de fonctions de fitness possibles est F<sup>S</sup>, car chaque point peut avoir n'importe laquelle des valeurs de F et nous devons permettre toutes les permutations possibles sur les S points.
  
 Nous sommes maintenant en mesure de comprendre ce que disent les NFL. Supposons que nous prenions un algorithme a1, mesurions ses performances pour chaque fonction de fitness dans ce vaste ensemble de fonctions de fitness possibles, et prenions la moyenne pour toutes ces valeurs de performances. Ensuite, nous répétons cela pour tout autre algorithme a2. Les NFL nous disent que la performance moyenne sera la même pour les deux algorithmes, quelle que soit la paire d'algorithmes que nous avons sélectionnée. Comme c'est le cas pour toutes les paires d'algorithmes et que la recherche aléatoire est l'un de ces algorithmes, cela signifie qu'aucun algorithme n'est meilleur (ou pire) qu'une recherche aléatoire, lorsqu'il est moyenné sur toutes les fonctions de mise en forme possibles. Cela signifie même que, en moyenne sur toutes les fonctions de fitness possibles, un algorithme descendant sera tout aussi efficace qu'un algorithme grimpeur pour trouver des points hauts! (Un descendant est comme un grimpeur sauf qu'il se déplace vers le plus bas des points disponibles au lieu du plus haut.) Nous sommes maintenant en mesure de comprendre ce que disent les NFL. Supposons que nous prenions un algorithme a1, mesurions ses performances pour chaque fonction de fitness dans ce vaste ensemble de fonctions de fitness possibles, et prenions la moyenne pour toutes ces valeurs de performances. Ensuite, nous répétons cela pour tout autre algorithme a2. Les NFL nous disent que la performance moyenne sera la même pour les deux algorithmes, quelle que soit la paire d'algorithmes que nous avons sélectionnée. Comme c'est le cas pour toutes les paires d'algorithmes et que la recherche aléatoire est l'un de ces algorithmes, cela signifie qu'aucun algorithme n'est meilleur (ou pire) qu'une recherche aléatoire, lorsqu'il est moyenné sur toutes les fonctions de mise en forme possibles. Cela signifie même que, en moyenne sur toutes les fonctions de fitness possibles, un algorithme descendant sera tout aussi efficace qu'un algorithme grimpeur pour trouver des points hauts! (Un descendant est comme un grimpeur sauf qu'il se déplace vers le plus bas des points disponibles au lieu du plus haut.)
Ligne 372: Ligne 365:
  
 Nous pouvons déjà voir que la pertinence des NFL par rapport à de vrais problèmes est limitée. Les paysages de fitness de problèmes réels ne sont pas chaotiques. Ce fait a été noté par plusieurs chercheurs: Nous pouvons déjà voir que la pertinence des NFL par rapport à de vrais problèmes est limitée. Les paysages de fitness de problèmes réels ne sont pas chaotiques. Ce fait a été noté par plusieurs chercheurs:
-//Malgré la justesse de ce "théorème du sans-buffet-gratuit" (Wolpert et Macready, 1997), le résultat n’est pas trop intéressant. Il est facile de voir que la moyenne de toutes les fonctions de fitness ne correspond pas à la situation d'optimisation de  boîte noire dans la pratique. On peut même montrer que, dans des scénarios d'optimisation plus réalistes, il ne peut exister de théorème du «sans buffet»// (Droste, Jansen et Wegener, 1999) ((30)). +//Malgré la justesse de ce "théorème du sans-buffet-gratuit" (Wolpert et Macready, 1997), le résultat n’est pas trop intéressant. Il est facile de voir que la moyenne de toutes les fonctions de fitness ne correspond pas à la situation d'optimisation de  boîte noire dans la pratique. On peut même montrer que, dans des scénarios d'optimisation plus réalistes, il ne peut exister de théorème du «sans buffet»// (Droste, Jansen et Wegener, 1999) (30).
- +
-5.4 La non-pertinence des NFL par rapport aux arguments de Dembski+
  
 +===5.4 La non-pertinence des NFL par rapport aux arguments de Dembski===
 Les NFL ne sont pas applicables à l'évolution biologique, car l'évolution biologique ne peut être représentée par aucun algorithme satisfaisant les conditions données ci-dessus. Contrairement aux algorithmes évolutifs plus simples, où le succès de la reproduction est déterminé par une comparaison du fitness inné de différents individus, le succès de la reproduction dans la nature est déterminé par tous les événements contingents se produisant dans la vie des individus. La fonction fitness ne peut pas prendre en compte ces événements, car ils dépendent d'interactions avec le reste de la population et donc des caractéristiques d'autres organismes qui évoluent également sous l'influence de l'algorithme. En d’autres termes, la fonction fitness des organismes biologiques évolue dans le temps en fonction de l’évolution de la population (de la même espèce et d’autres espèces), en violation de la dernière condition susmentionnée. Il en va de même pour toutes les simulations non biologiques dans lesquelles les individus interagissent, telles que les réseaux neuronaux jouant aux dames, qui sont décrites ci-dessous. Les NFL ne sont pas applicables à l'évolution biologique, car l'évolution biologique ne peut être représentée par aucun algorithme satisfaisant les conditions données ci-dessus. Contrairement aux algorithmes évolutifs plus simples, où le succès de la reproduction est déterminé par une comparaison du fitness inné de différents individus, le succès de la reproduction dans la nature est déterminé par tous les événements contingents se produisant dans la vie des individus. La fonction fitness ne peut pas prendre en compte ces événements, car ils dépendent d'interactions avec le reste de la population et donc des caractéristiques d'autres organismes qui évoluent également sous l'influence de l'algorithme. En d’autres termes, la fonction fitness des organismes biologiques évolue dans le temps en fonction de l’évolution de la population (de la même espèce et d’autres espèces), en violation de la dernière condition susmentionnée. Il en va de même pour toutes les simulations non biologiques dans lesquelles les individus interagissent, telles que les réseaux neuronaux jouant aux dames, qui sont décrites ci-dessous.
  
 Il ne servirait à rien de suggérer que les interactions entre individus pourraient être modélisées dans l'algorithme d'optimisation plutôt que dans la fonction fitness. Ceci est empêché par la contrainte de boîte noire, qui empêche l'algorithme d'optimisation d'avoir un accès direct aux informations sur l'environnement. Il ne servirait à rien de suggérer que les interactions entre individus pourraient être modélisées dans l'algorithme d'optimisation plutôt que dans la fonction fitness. Ceci est empêché par la contrainte de boîte noire, qui empêche l'algorithme d'optimisation d'avoir un accès direct aux informations sur l'environnement.
  
-Ce problème est similaire au problème de la coévolution des paysages de fitness soulevé par Stuart Kauffman (p. 224-227). La réponse de Dembski à Kauffman ne répond toutefois pas à mon argument. Rien de ce que Dembski écrit (p. 226) ne change le fait que, dans l'évolution biologique, la fonction de fitness à un moment donné ne peut être déterminée indépendamment de l'état de la population et que, par conséquent, les NFL ne s'appliquent pas((31)).+Ce problème est similaire au problème de la coévolution des paysages de fitness soulevé par Stuart Kauffman (p. 224-227). La réponse de Dembski à Kauffman ne répond toutefois pas à mon argument. Rien de ce que Dembski écrit (p. 226) ne change le fait que, dans l'évolution biologique, la fonction de fitness à un moment donné ne peut être déterminée indépendamment de l'état de la population et que, par conséquent, les NFL ne s'appliquent pas (31).
  
 De plus, la thèse de Dembski n’est guère pertinente, même pour les algorithmes évolutifs les plus simples et non interactifs auxquels elle s’applique (ceux où le succès de reproduction des individus est déterminé par une comparaison de leur aptitude innée). Les NFL nous indiquent que, parmi toutes les fonctions de fitness possibles du point de vue mathématique, seuls quelques algorithmes évolutifs fonctionnent aussi bien qu’observédans la pratique. Dembski soutient qu'il serait donc extrêmement malencontreux qu'une fonction de fitness appropriée se produise sans que le réglage d’un concepteur. Mais l’alternative à la conception n’est pas une sélection purement aléatoire parmi l’ensemble des fonctions de fitness possibles mathématiquement. Les fonctions de fitness sont déterminées par des règles et non générées aléatoirement. Dans le monde réel, ces règles sont les lois physiques de l'univers. Dans un modèle informatique, elles peuvent être les règles choisies par le programmeur, mais si le modèle est une simulation de la réalité, elles seront basées dans une certaine mesure sur des lois physiques réelles. Les règles donnent inévitablement lieu à des modèles, de sorte que les fonctions de fitness structurées par le modèle seront privilégiées par rapport aux fonctions totalement chaotiques. Si les règles sont raisonnablement régulières, nous nous attendons à ce que le paysage de fitness soit relativement lisse. En fait, les lois physiques sont généralement régulières, dans le sens où elles correspondent à des fonctions mathématiques continues, telles que "F = ma", "E = mc2", etc. Avec ces fonctions, un petit changement d’entrée entraîne un petit changement de sortie. Ainsi, lorsque le fitness est déterminée par une combinaison de ces lois, il est raisonnable de s’attendre à ce qu’un petit mouvement dans l’espace des phases entraîne généralement un changement relativement modeste de la valeur de fitness, c’est-à-dire que le paysage de fitness sera lisse. D'autre part, nous nous attendons à ce qu'il y ait des exceptions, car les théories du chaos et des catastrophes nous disent que même des lois harmonieuses peuvent donner lieu à des discontinuités. Mais les espaces de phase réels ont plusieurs dimensions. Si le mouvement dans certaines dimensions est bloqué par des discontinuités, il peut rester des contours lisses dans d'autres dimensions. Bien que de nombreuses mutations potentielles soient catastrophiques, de nombreuses autres ne le sont pas. De plus, la thèse de Dembski n’est guère pertinente, même pour les algorithmes évolutifs les plus simples et non interactifs auxquels elle s’applique (ceux où le succès de reproduction des individus est déterminé par une comparaison de leur aptitude innée). Les NFL nous indiquent que, parmi toutes les fonctions de fitness possibles du point de vue mathématique, seuls quelques algorithmes évolutifs fonctionnent aussi bien qu’observédans la pratique. Dembski soutient qu'il serait donc extrêmement malencontreux qu'une fonction de fitness appropriée se produise sans que le réglage d’un concepteur. Mais l’alternative à la conception n’est pas une sélection purement aléatoire parmi l’ensemble des fonctions de fitness possibles mathématiquement. Les fonctions de fitness sont déterminées par des règles et non générées aléatoirement. Dans le monde réel, ces règles sont les lois physiques de l'univers. Dans un modèle informatique, elles peuvent être les règles choisies par le programmeur, mais si le modèle est une simulation de la réalité, elles seront basées dans une certaine mesure sur des lois physiques réelles. Les règles donnent inévitablement lieu à des modèles, de sorte que les fonctions de fitness structurées par le modèle seront privilégiées par rapport aux fonctions totalement chaotiques. Si les règles sont raisonnablement régulières, nous nous attendons à ce que le paysage de fitness soit relativement lisse. En fait, les lois physiques sont généralement régulières, dans le sens où elles correspondent à des fonctions mathématiques continues, telles que "F = ma", "E = mc2", etc. Avec ces fonctions, un petit changement d’entrée entraîne un petit changement de sortie. Ainsi, lorsque le fitness est déterminée par une combinaison de ces lois, il est raisonnable de s’attendre à ce qu’un petit mouvement dans l’espace des phases entraîne généralement un changement relativement modeste de la valeur de fitness, c’est-à-dire que le paysage de fitness sera lisse. D'autre part, nous nous attendons à ce qu'il y ait des exceptions, car les théories du chaos et des catastrophes nous disent que même des lois harmonieuses peuvent donner lieu à des discontinuités. Mais les espaces de phase réels ont plusieurs dimensions. Si le mouvement dans certaines dimensions est bloqué par des discontinuités, il peut rester des contours lisses dans d'autres dimensions. Bien que de nombreuses mutations potentielles soient catastrophiques, de nombreuses autres ne le sont pas.
Ligne 389: Ligne 381:
  
 ====6. La méthode des probabilités uniformes==== ====6. La méthode des probabilités uniformes====
-Operator... Give me Information. +<TEXT align="center">//Operator... Give me Information.// 
-Song par William Spivery +\\ 
 +chanson de William Spivery</TEXT>
 ===6.1 Conception dérivée=== ===6.1 Conception dérivée===
 Dembski nous dit qu'il a deux arguments différents pour le design dans la nature. En plus de tenter de montrer qu'il existe dans la nature des phénomènes que l'évolution darwinienne n'a pas la capacité de générer (comme le flagelle bactérien), Dembski déploie également un autre argument. Même si l'évolution darwinienne avait bel et bien cette capacité, il ne pourrait en être autrement qu'en raison de la conception impliquée dans la sélection des conditions initiales sous-jacentes à l'évolution. Dembski nous dit qu'il a deux arguments différents pour le design dans la nature. En plus de tenter de montrer qu'il existe dans la nature des phénomènes que l'évolution darwinienne n'a pas la capacité de générer (comme le flagelle bactérien), Dembski déploie également un autre argument. Même si l'évolution darwinienne avait bel et bien cette capacité, il ne pourrait en être autrement qu'en raison de la conception impliquée dans la sélection des conditions initiales sous-jacentes à l'évolution.
-//Le darwiniste objecte donc que l'évolution darwinienne "de la vie réelle" peut en fait générer une complexité spécifiée sans l'introduire en douce. La fonction de fitness dans l'évolution biologique découle directement de la survie et de la reproduction différentiées, ce qui, selon le darwiniste, //peut// légitimement être considéré comme un "buffet gratuit" ... Si cette objection est acceptée, le seul moyen de montrer que le mécanisme darwinien ne peut pas générer de complexité spécifiée en démontrant que les gradients de la fonction de fitness induits par la survie et la reproduction différentiées ne sont pas suffisamment lisses pour que le mécanisme darwinien puisse conduire à une évolution biologique à grande échelle. Pour utiliser une autre métaphore de Dawkins, il faut montrer qu’il n’existe aucun moyen progressif de gravir le "Mont Improbable". C’est une argumentation distincte que je traiterai dans le chapitre suivant [qui traite de la complexité irréductible et du flagelle bactérien]. Ici, cependant, je veux montrer que cette concession ne doit pas être accordée et que le déplacement du problème sape effectivement le darwinisme. //[p. 208]+<well>//Le darwiniste objecte donc que l'évolution darwinienne "de la vie réelle" peut en fait générer une complexité spécifiée sans l'introduire en douce. La fonction de fitness dans l'évolution biologique découle directement de la survie et de la reproduction différentiées, ce qui, selon le darwiniste, //peut// légitimement être considéré comme un "buffet gratuit" ... Si cette objection est acceptée, le seul moyen de montrer que le mécanisme darwinien ne peut pas générer de complexité spécifiée en démontrant que les gradients de la fonction de fitness induits par la survie et la reproduction différentiées ne sont pas suffisamment lisses pour que le mécanisme darwinien puisse conduire à une évolution biologique à grande échelle. Pour utiliser une autre métaphore de Dawkins, il faut montrer qu’il n’existe aucun moyen progressif de gravir le "Mont Improbable". C’est une argumentation distincte que je traiterai dans le chapitre suivant [qui traite de la complexité irréductible et du flagelle bactérien]. Ici, cependant, je veux montrer que cette concession ne doit pas être accordée et que le déplacement du problème sape effectivement le darwinisme. //[p. 208]</well>
  
 Ceci est un argument pour ce que j'appellerai un design //dérivé//. (Dembski utilise le terme //d'intentionnalité dérivée//). Il ne préconise pas la conception dans un événement particulier (tel que l'évolution d'une structure), mais affirme simplement que la conception doit avoir été impliquée à un moment ou à un autre dans la chaîne causale d'événements conduisant à un phénomène que nous observons. Ceci est un argument pour ce que j'appellerai un design //dérivé//. (Dembski utilise le terme //d'intentionnalité dérivée//). Il ne préconise pas la conception dans un événement particulier (tel que l'évolution d'une structure), mais affirme simplement que la conception doit avoir été impliquée à un moment ou à un autre dans la chaîne causale d'événements conduisant à un phénomène que nous observons.
Ligne 400: Ligne 392:
 Nous avons déjà vu cet argument en termes de réglage des fonctions de fitness. Dembski le présente également en termes de //complexité spécifiée//. Auparavant, la complexité spécifiée était introduite comme une chose à inférer lorsque nous avions éliminé toutes les hypothèses naturelles auxquelles nous pouvions penser pour expliquer un événement. Mais maintenant, Dembski nous dit que, même si nous ne pouvons pas éliminer l'évolution darwinienne en tant qu'explication, nous devrions quand même déduire une conception dérivée si nous observons une complexité spécifiée. Clairement, il s'agit donc d'un sens différent de la complexité spécifiée. Cette nouvelle signification est une propriété observée d'un phénomène et non une propriété inférée d'un événement. Cela indique que le phénomène a une configuration complexe (dans un sens particulier). Cette propriété porte également le nom d’//information spécifiée complexe// (CSI). Nous avons déjà vu cet argument en termes de réglage des fonctions de fitness. Dembski le présente également en termes de //complexité spécifiée//. Auparavant, la complexité spécifiée était introduite comme une chose à inférer lorsque nous avions éliminé toutes les hypothèses naturelles auxquelles nous pouvions penser pour expliquer un événement. Mais maintenant, Dembski nous dit que, même si nous ne pouvons pas éliminer l'évolution darwinienne en tant qu'explication, nous devrions quand même déduire une conception dérivée si nous observons une complexité spécifiée. Clairement, il s'agit donc d'un sens différent de la complexité spécifiée. Cette nouvelle signification est une propriété observée d'un phénomène et non une propriété inférée d'un événement. Cela indique que le phénomène a une configuration complexe (dans un sens particulier). Cette propriété porte également le nom d’//information spécifiée complexe// (CSI).
  
-Notez que ceci est une autre méthode purement éliminative; elle déduit la conception de l'absence alléguée de tout processus naturel capable de générer des CSI. Si l'affirmation était vraie, cela pourrait être considéré comme une généralisation proscriptive, mais nous verrons que l'affirmation est sans fondement.+Notez que ceci est une autre méthode purement éliminative; elle déduit la conception de l'absence alléguée de tout processus naturel capable de générer une CSI. Si l'affirmation était vraie, cela pourrait être considéré comme une généralisation proscriptive, mais nous verrons que l'affirmation est sans fondement.
  
 ===6.2 L’ Information Spécifiée Complexe (CSI)=== ===6.2 L’ Information Spécifiée Complexe (CSI)===
-Dembski élabore sa propre mesure de la complexité de la configuration d'un phénomène et l'appelle une //information spécifiée// (que je vais abréger en SI). Il calcule cette mesure en choisissant une spécification (comme décrit en 3.1 ci-dessus), puis en calculant la probabilité qu'un résultat corresponde à cette spécification //si le phénomène avait été généré par un processus ayant une distribution de probabilité uniforme//. Une distribution de probabilité uniforme est une distribution dans laquelle tous les résultats possibles (c'est-à-dire les configurations) ont la même probabilité, et Dembski calcule le SI sur cette base, même s'il est connu que le phénomène en question n'a pas été généré par un tel processus. (Ceci sera considéré plus en détail dans la section suivante.) La probabilité ainsi calculée est ensuite convertie en "information" en appliquant la fonction I (R) = -log2P (R), c'est-à-dire que l'information est la négation du logarithme (en base 2) de la probabilité, et il se réfère à la mesure résultante comme un nombre de //bits//. +Dembski élabore sa propre mesure de la complexité de la configuration d'un phénomène et l'appelle une //information spécifiée// (que je vais abréger en SI). Il calcule cette mesure en choisissant une spécification (comme décrit en 3.1 ci-dessus), puis en calculant la probabilité qu'un résultat corresponde à cette spécification //si le phénomène avait été généré par un processus ayant une distribution de probabilité uniforme//. Une distribution de probabilité uniforme est une distribution dans laquelle tous les résultats possibles (c'est-à-dire les configurations) ont la même probabilité, et Dembski calcule la SI sur cette base, même s'il est connu que le phénomène en question n'a pas été généré par un tel processus. (Ceci sera considéré plus en détail dans la section suivante.) La probabilité ainsi calculée est ensuite convertie en "information" en appliquant la fonction I (R) = -log<sub>2</sub>(R), c'est-à-dire que l'information est la négation du logarithme (en base 2) de la probabilité, et il se réfère à la mesure résultante comme un nombre de //bits//. 
-Si le SI d'un phénomène dépasse une //limite de complexité universelle// de 500 bits, alors Dembski affirme que le phénomène présente une //information spécifiée complexe// (ou CSI) ((32)). La liaison de complexité universelle est obtenue directement à partir de la borne de probabilité universelle de Dembski de 10^-150, puisque: -log2 (10-150) vaut environ 500. Dembski désigne également CSI par //complexité spécifiée//, en utilisant les deux termes de façon interchangeable. Comme indiqué ci-dessus, cette signification de complexité spécifiée est différente de celle que nous avons rencontrée précédemment. Je l'appellerai //complexité spécifiée probabilité uniforme//. Pour être clair: la //complexité spécifiée éliminative// est un attribut inféré d’un événement, ce qui indique que nous pensons que cet événement était hautement improbable en ce qui concerne tous les mécanismes de causalité connus; la //complexité spécifiée à probabilité uniforme// (ou CSI) est un attribut observé d'un phénomène, indiquant que le phénomène a une configuration "complexe", sans rapport avec la façon dont il est né. Nous verrons que la notion de "complexité" de Dembski est très différente de notre compréhension habituelle du mot.+Si la SI d'un phénomène dépasse une //limite de complexité universelle// de 500 bits, alors Dembski affirme que le phénomène présente une //information spécifiée complexe// (ou CSI) (32). La liaison de complexité universelle est obtenue directement à partir de la borne de probabilité universelle de Dembski de 10<sup>-150</sup>, puisque: -log<sub>2</sub>(10<sup>-150</sup>) vaut environ 500. Dembski désigne également la CSI par //complexité spécifiée//, en utilisant les deux termes de façon interchangeable. Comme indiqué ci-dessus, cette signification de complexité spécifiée est différente de celle que nous avons rencontrée précédemment. Je l'appellerai //complexité spécifiée probabilité uniforme//. Pour être clair : la //complexité spécifiée éliminative// est un attribut inféré d’un événement, ce qui indique que nous pensons que cet événement était hautement improbable en ce qui concerne tous les mécanismes de causalité connus; la //complexité spécifiée à probabilité uniforme// (ou CSI) est un attribut observé d'un phénomène, indiquant que le phénomène a une configuration "complexe", sans rapport avec la façon dont il est né. Nous verrons que la notion de "complexité" de Dembski est très différente de notre compréhension habituelle du mot.
 ===6.3 Preuve de l'interprétation de la probabilité uniforme=== ===6.3 Preuve de l'interprétation de la probabilité uniforme===
-Le fait que la probabilité utilisée pour calculer l'IS repose toujours sur une distribution de probabilité uniforme est extrêmement important. Dembski utilise une distribution uniforme (ou "purement aléatoire") même si on sait que le phénomène a été provoqué par un processus ayant une autre distribution de probabilité. Comme cela n’est pas explicitement indiqué par Dembski et que cela peut paraître surprenant, je présenterai plusieurs éléments de preuve pour justifier mon interprétation. +Le fait que la probabilité utilisée pour calculer la SI repose toujours sur une distribution de probabilité uniforme est extrêmement important. Dembski utilise une distribution uniforme (ou "purement aléatoire") même si on sait que le phénomène a été provoqué par un processus ayant une autre distribution de probabilité. Comme cela n’est pas explicitement indiqué par Dembski et que cela peut paraître surprenant, je présenterai plusieurs éléments de preuve pour justifier mon interprétation. 
-Pièce 1 - L'argument de la conception dérivée +==Pièce 1 - L'argument de la conception dérivée== 
-Comme indiqué au point 6.1 ci-dessus, l'argument de conception dérivé de Dembski implique que SI est une propriété observée d'un phénomène, ce qui nous permet prétendument de déduire une conception dans un passé lointain, quels que soient les processus naturels ultérieurs qui auraient pu conduire au phénomène. Il n'y a donc pas de distribution de probabilité pertinente pour laquelle on peut calculer la probabilité pour SI. Nous devons utiliser une distribution de probabilité //par défaut//, et une distribution uniforme semble être le seul candidat possible. +Comme indiqué au point 6.1 ci-dessus, l'argument de conception dérivé de Dembski implique que la SI est une propriété observée d'un phénomène, ce qui nous permet prétendument de déduire une conception dans un passé lointain, quels que soient les processus naturels ultérieurs qui auraient pu conduire au phénomène. Il n'y a donc pas de distribution de probabilité pertinente pour laquelle on peut calculer la probabilité pour SI. Nous devons utiliser une distribution de probabilité //par défaut//, et une distribution uniforme semble être le seul candidat possible. 
-Pièce n ° 2 - Le programme Weasel26+==Pièce n ° 2 - Le programme Weasel26==
 Dembski mentionne ici spécifiquement une distribution de probabilité uniforme: Dembski mentionne ici spécifiquement une distribution de probabilité uniforme:
  
-//Par exemple, dans l'exemple de Dawkins dans METHINKS-IT-IS-LIKE-A-WEASEL (voir la section 4.1), l'espace de phase est constitué de toutes les séquences d'une longueur de 28 caractères comprenant des lettres romaines majuscules et des espaces (les espaces étant représentés par des puces). Une probabilité uniforme sur cet espace attribue une probabilité égale à chacune de ces séquences - la valeur de probabilité est d'environ 1 sur 10^40 et signale un état de fait extrêmement improbable. C’est cette improbabilité qui correspond à la complexité de la séquence cible et qui, par son identification explicite, spécifie la séquence et en fait ainsi une instance de complexité spécifiée (bien que, comme indiqué dans la section 4.1, nous sommes  peu rigoureux dans cet exemple sur le niveau de complexité requis pour la complexité spécifiée - techniquement, le niveau de complexité devrait correspondre à la limite de probabilité universelle de 1 sur 10^150).// [p. 188-189]+<well>//Par exemple, dans l'exemple de Dawkins dans METHINKS-IT-IS-LIKE-A-WEASEL (voir la section 4.1), l'espace de phase est constitué de toutes les séquences d'une longueur de 28 caractères comprenant des lettres romaines majuscules et des espaces (les espaces étant représentés par des puces). Une probabilité uniforme sur cet espace attribue une probabilité égale à chacune de ces séquences - la valeur de probabilité est d'environ 1 sur 10<sup>40</sup>et signale un état de fait extrêmement improbable. C’est cette improbabilité qui correspond à la complexité de la séquence cible et qui, par son identification explicite, spécifie la séquence et en fait ainsi une instance de complexité spécifiée (bien que, comme indiqué dans la section 4.1, nous sommes  peu rigoureux dans cet exemple sur le niveau de complexité requis pour la complexité spécifiée - techniquement, le niveau de complexité devrait correspondre à la limite de probabilité universelle de 1 sur 10<sup>150</sup>).// [p. 188-189]</well>
 Cela semble clair. Cependant, Dembski poursuit en affirmant que "E [l'algorithme de l'évolution] n'a en fait généré aucune complexité spécifiée, mais l'a simplement déplacée" (p. 195). (À ce stade, Dembski est passé à une autre version du programme Weasel, mais le changement est sans conséquence.) Bien qu'il ne l'énonce pas explicitement, cela implique que le résultat //présente bien// une complexité spécifiée, bien que cela ait été "introduit clandestinement" dans le programme et non //généré// par lui. Cela semble clair. Cependant, Dembski poursuit en affirmant que "E [l'algorithme de l'évolution] n'a en fait généré aucune complexité spécifiée, mais l'a simplement déplacée" (p. 195). (À ce stade, Dembski est passé à une autre version du programme Weasel, mais le changement est sans conséquence.) Bien qu'il ne l'énonce pas explicitement, cela implique que le résultat //présente bien// une complexité spécifiée, bien que cela ait été "introduit clandestinement" dans le programme et non //généré// par lui.
  
-Pièce n ° 3 - Algorithmes d'évolution +==Pièce n ° 3 - Algorithmes d'évolution== 
-Ma pièce à conviction suivante provient des récits de Dembski sur la simulation de site de liaison de Tom Schneider((33)) (p. 213-218) et des réseaux neuronaux joueurs de dames de Kumar Chellapilla et David Fogel (p. 221-223), que je décrirai plus tard. Ces programmes ont une forte probabilité de produire une bonne solution (comme me l'ont confirmé leurs programmeurs). Puisque Dembski affirme que les résultats ont présenté une complexité spécifiée (CSI), ce qui implique une faible probabilité de produire un résultat spécifié (une bonne solution), il s'ensuit qu'il doit avoir estimé la probabilité par rapport à une distribution de probabilité autre que la distribution réelle. Le seul candidat apparent est une distribution de probabilité uniforme. +Ma pièce à conviction suivante provient des récits de Dembski sur la simulation de site de liaison de Tom Schneider (33) (p. 213-218) et des réseaux neuronaux joueurs de dames de Kumar Chellapilla et David Fogel (p. 221-223), que je décrirai plus tard. Ces programmes ont une forte probabilité de produire une bonne solution (comme me l'ont confirmé leurs programmeurs). Puisque Dembski affirme que les résultats ont présenté une complexité spécifiée (CSI), ce qui implique une faible probabilité de produire un résultat spécifié (une bonne solution), il s'ensuit qu'il doit avoir estimé la probabilité par rapport à une distribution de probabilité autre que la distribution réelle. Le seul candidat apparent est une distribution de probabilité uniforme. 
-Pièce n ° 4 - La séquence SETI+==Pièce n ° 4 - La séquence SETI==
 L'un des exemples de Dembski (p. 6 à 9) est un événement tiré du film //Contact//, mettant en vedette Jodie Foster, dans lequel les astronomes de SETI (Search for Extraterrestrial Intelligence) détectent un signal radio d'origine extraterrestre. Le signal comprend une séquence de 1126 son et pauses représentant les 25 premiers nombres premiers: 2, 3, 5, 7, ..., 101. Chaque nombre premier est représenté par une séquence de son égaux au nombre, avec des nombres consécutifs séparés par une pause. En convertissant les sons en 1 et les pauses en 0, le signal peut être représenté par une séquence de 1126 chiffres binaires (bits), commençant par "110111011111011111110 ...". Les astronomes fictifs ont immédiatement reconnu ce signal comme ayant une origine intelligente. L'un des exemples de Dembski (p. 6 à 9) est un événement tiré du film //Contact//, mettant en vedette Jodie Foster, dans lequel les astronomes de SETI (Search for Extraterrestrial Intelligence) détectent un signal radio d'origine extraterrestre. Le signal comprend une séquence de 1126 son et pauses représentant les 25 premiers nombres premiers: 2, 3, 5, 7, ..., 101. Chaque nombre premier est représenté par une séquence de son égaux au nombre, avec des nombres consécutifs séparés par une pause. En convertissant les sons en 1 et les pauses en 0, le signal peut être représenté par une séquence de 1126 chiffres binaires (bits), commençant par "110111011111011111110 ...". Les astronomes fictifs ont immédiatement reconnu ce signal comme ayant une origine intelligente.
-Dembski nous dit que la séquence SETI présente une complexité spécifiée (p. 359). Aux pages 143-144, il donne une version abrégée de 1000 bits de cette séquence, nous indiquant qu'elle a une probabilité de 1 sur 2^1000, donnant un SI supérieur à 500 bits (vraisemblablement 1000 bits). Ce dernier exemple est basé sur une cause connue (agent intelligent ou tirage au sort), mais la séquence a vraisemblablement le même SI, quelle que soit sa cause. Après tout, nous ne connaissons pas la véritable cause de la séquence SETI, mais Dembski nous dit toujours qu’elle présente une complexité spécifiée. Il est très peu probable que la séquence SETI ait été produite avec l’équivalent du tirage au sort. Un scénario beaucoup plus probable est que les extraterrestres ont programmé un ordinateur pour générer la séquence automatiquement. Dans ce cas, nous sommes revenus à la même situation que le programme Weasel. En outre, si nous examinions toutes les hypothèses fortuites pertinentes, nous devrions envisager la possibilité que les deux résultats alternatifs de chaque son / pause ne soient pas également probables. En l'absence de toute autre information, la meilleure estimation des probabilités de sons et de pause serait respectivement de 1102/1126 et 24/1126, puisque nous avons observé 1102 sons et 24 pauses. Avec ces probabilités (et en supposant toujours que chaque son / pause est indépendant des autres), la probabilité de recevoir la séquence SETI serait de (1102/1126)^1102 × (24/1126)^24 = 3,78 × 10^-51, considérablement plus grande que la probabilité universelle liée de 10^-150. Je conclus donc que Dembski calcule le SI de la séquence SETI sur la base que les sons et les pauses ont la même probabilité  (1/2) et que la séquence présente 1126 bits de SI. +Dembski nous dit que la séquence SETI présente une complexité spécifiée (p. 359). Aux pages 143-144, il donne une version abrégée de 1000 bits de cette séquence, nous indiquant qu'elle a une probabilité de 1 sur 2<sup>1000</sup>, donnant une SI supérieur à 500 bits (vraisemblablement 1000 bits). Ce dernier exemple est basé sur une cause connue (agent intelligent ou tirage au sort), mais la séquence a vraisemblablement la même SI, quelle que soit sa cause. Après tout, nous ne connaissons pas la véritable cause de la séquence SETI, mais Dembski nous dit toujours qu’elle présente une complexité spécifiée. Il est très peu probable que la séquence SETI ait été produite avec l’équivalent du tirage au sort. Un scénario beaucoup plus probable est que les extraterrestres ont programmé un ordinateur pour générer la séquence automatiquement. Dans ce cas, nous sommes revenus à la même situation que le programme Weasel. En outre, si nous examinions toutes les hypothèses fortuites pertinentes, nous devrions envisager la possibilité que les deux résultats alternatifs de chaque son / pause ne soient pas également probables. En l'absence de toute autre information, la meilleure estimation des probabilités de sons et de pause serait respectivement de 1102/1126 et 24/1126, puisque nous avons observé 1102 sons et 24 pauses. Avec ces probabilités (et en supposant toujours que chaque son / pause est indépendant des autres), la probabilité de recevoir la séquence SETI serait de (1102/1126)<sup>1102</sup>× (24/1126)<sup>24</sup> = 3,78 × 10<sup>-51</sup>, considérablement plus grande que la probabilité universelle liée de 10<sup>-150</sup>. Je conclus donc que Dembski calcule la SI de la séquence SETI sur la base que les sons et les pauses ont la même probabilité  (1/2) et que la séquence présente 1126 bits de SI. 
-Pièce n ° 5 - URF13 +==Pièce n ° 5 - URF13== 
-Enfin, je dois mentionner un contre-exemple à mon interprétation de la probabilité uniforme. Dembski considère le cas d'un gène, T-urf13, présent dans une souche de maïs particulière (pp. 218-219). Ce gène code pour un produit protéique appelé URF13. Pour déterminer si URF13 présente une CSI, Dembski commence par calculer une probabilité de 20^83, au motif que la taille fonctionnelle minimale de URF13 est de 83 acides aminés et qu'il existe 20 acides aminés possibles. Donc, il suppose que URF13 est tiré d'une distribution de probabilité uniforme sur l'espace de toutes les séquences possibles de 83 acides aminés. Il souligne ensuite que la probabilité est vraiment plus élevée que cela, car nous devons prévoir la possibilité que d’autres séquences aient la même fonction que URF13, c’est-à-dire d’autres séquences correspondant à la même spécification. Jusqu'ici, cela appuie donc l'interprétation de probabilité uniforme. Plus bas dans la page, cependant, il soutient que la probabilité sur laquelle le SI doit être basé est encore plus élevée: +Enfin, je dois mentionner un contre-exemple à mon interprétation de la probabilité uniforme. Dembski considère le cas d'un gène, T-urf13, présent dans une souche de maïs particulière (pp. 218-219). Ce gène code pour un produit protéique appelé URF13. Pour déterminer si URF13 présente une CSI, Dembski commence par calculer une probabilité de 20<sup>83</sup>, au motif que la taille fonctionnelle minimale de URF13 est de 83 acides aminés et qu'il existe 20 acides aminés possibles. Donc, il suppose que URF13 est tiré d'une distribution de probabilité uniforme sur l'espace de toutes les séquences possibles de 83 acides aminés. Il souligne ensuite que la probabilité est vraiment plus élevée que cela, car nous devons prévoir la possibilité que d’autres séquences aient la même fonction que URF13, c’est-à-dire d’autres séquences correspondant à la même spécification. Jusqu'ici, cela appuie donc l'interprétation de probabilité uniforme. Plus bas dans la page, cependant, il soutient que la probabilité sur laquelle la SI doit être basé est encore plus élevée: 
-//Et si en le découpant, les improbabilités calculées se révélaient inférieures à la probabilité universelle? Cela démontrerait-il que CSI a été générée de manière naturaliste? Non. Tout d’abord, il n’y a aucune raison de penser que les segments de gènes non codants pour les protéines sont eux-mêmes véritablement aléatoires - comme indiqué plus haut, T-urf13, qui est composé de tels segments, est homologue à l’ARN ribosomal. Ce n’est donc pas comme si ces segments avaient été produits en échantillonnant une urne remplie d’acides nucléiques mal mélangés. De plus, il n'est pas clair que la recombinaison elle-même soit vraiment aléatoire.// [p. 219] +<well>//Et si en le découpant, les improbabilités calculées se révélaient inférieures à la probabilité universelle? Cela démontrerait-il que la CSI a été générée de manière naturaliste? Non. Tout d’abord, il n’y a aucune raison de penser que les segments de gènes non codants pour les protéines sont eux-mêmes véritablement aléatoires - comme indiqué plus haut, T-urf13, qui est composé de tels segments, est homologue à l’ARN ribosomal. Ce n’est donc pas comme si ces segments avaient été produits en échantillonnant une urne remplie d’acides nucléiques mal mélangés. De plus, il n'est pas clair que la recombinaison elle-même soit vraiment aléatoire.// [p. 219]</well> 
-Dembski dit maintenant que nous ne devrions pas simplement calculer le SI sur la base d'un modèle de probabilité uniforme (urne), mais que nous devrions également prendre en compte les processus de causalité que nous pensons opérer. Mais cela contredit les exemples informatiques donnés ci-dessus, dans lesquels nous connaissions le processus de causalité proprement dit (exécution d'un programme informatique) et ce processus donnait un résultat précis avec une probabilité élevée. Pourtant, Dembski nous a dit que le résultat montrait quand même une CSI. +Dembski dit maintenant que nous ne devrions pas simplement calculer la SI sur la base d'un modèle de probabilité uniforme (urne), mais que nous devrions également prendre en compte les processus de causalité que nous pensons opérer. Mais cela contredit les exemples informatiques donnés ci-dessus, dans lesquels nous connaissions le processus de causalité proprement dit (exécution d'un programme informatique) et ce processus donnait un résultat précis avec une probabilité élevée. Pourtant, Dembski nous a dit que le résultat montrait quand même une CSI.
- +
- +
 Bien que la preuve ne soit pas concluante, elle semble privilégier de manière prédominante l’interprétation de la probabilité uniforme, et c’est celle que je vais examiner ci-après. Mais laissez-moi regarder brièvement les alternatives: Bien que la preuve ne soit pas concluante, elle semble privilégier de manière prédominante l’interprétation de la probabilité uniforme, et c’est celle que je vais examiner ci-après. Mais laissez-moi regarder brièvement les alternatives:
-Le SI est basé sur la probabilité relative au véritable processus de causalité responsable de l'événement. Cela rendrait le SI inutile pour faire des déductions sur la cause d'un phénomène. Il faudrait connaître la cause pour en déduire la cause! En outre, il serait insensé de dire qu'un phénomène conçu présente une valeur CSI, car il n'y a pas de distribution de probabilité pour laquelle on puisse calculer le SI d'un phénomène conçu (comme Dembski nous dit que la conception n'est pas un processus probabiliste). Cette interprétation est clairement intenable. +  La SI est basé sur la probabilité relative au véritable processus de causalité responsable de l'événement. Cela rendrait la SI inutile pour faire des déductions sur la cause d'un phénomène. Il faudrait connaître la cause pour en déduire la cause! En outre, il serait insensé de dire qu'un phénomène conçu présente une valeur CSI, car il n'y a pas de distribution de probabilité pour laquelle on puisse calculer la SI d'un phénomène conçu (comme Dembski nous dit que la conception n'est pas un processus probabiliste). Cette interprétation est clairement intenable. 
-      Le SI repose sur notre meilleure compréhension des processus de causalité qui, selon nous, pourraient être à la base de l'événement à l'origine du phénomène observé. Mais ceci est juste à nouveau la méthode d’élimination du hasard. Nous calculons le SI sous l'hypothèse de la meilleure chance à laquelle nous puissions penser (celle conférant la probabilité la plus élevée à une région de rejet détachable). Si le SI sous cette hypothèse de hasard est suffisamment élevé (probabilité suffisamment faible), nous rejetons cette hypothèse de hasard et en déduisons la conception. De manière implicite, nous avons déjà examiné et rejeté toutes les hypothèses de hasard inférieures auxquelles nous pouvions penser (celles qui confèrent uniquement des probabilités plus faibles aux régions de rejet détachables). Dans ce cas, l’affirmation selon laquelle un phénomène met en évidence l’ISC n’est qu’une affirmation qu’il est improbable sous toutes les hypothèses fortuites auxquelles on peut penser. En d'autres termes, c'est le même argument d'ignorance qui a été abordé plus tôt. +  La SI repose sur notre meilleure compréhension des processus de causalité qui, selon nous, pourraient être à la base de l'événement à l'origine du phénomène observé. Mais ceci est juste à nouveau la méthode d’élimination du hasard. Nous calculons la SI sous l'hypothèse de la meilleure chance à laquelle nous puissions penser (celle conférant la probabilité la plus élevée à une zone de rejet détachable). Si la SI sous cette hypothèse de hasard est suffisamment élevé (probabilité suffisamment faible), nous rejetons cette hypothèse de hasard et en déduisons la conception. De manière implicite, nous avons déjà examiné et rejeté toutes les hypothèses de hasard inférieures auxquelles nous pouvions penser (celles qui confèrent uniquement des probabilités plus faibles aux zones de rejet détachables). Dans ce cas, l’affirmation selon laquelle un phénomène met en évidence la CSI n’est qu’une affirmation qu’il est improbable sous toutes les hypothèses fortuites auxquelles on peut penser. En d'autres termes, c'est le même argument d'ignorance qui a été abordé plus tôt. 
-Si Dembski insiste sur le fait qu’il n’y a qu’une méthode d’inférence de conception et que c’est la méthode de l’élimination du hasard, il doit alors expliquer les voies exposées ci-dessus et justifier son introduction des termes "complexité" et "information". La méthode d'élimination du hasard utilise une technique statistique (probabiliste) pour éliminer les hypothèses. Cela n'a rien à voir avec la complexité ou l'information. Transformer les probabilités en appliquant la fonction triviale I = -log2P ne les convertit pas comme par magie en mesures de complexité ou d'informations. Cela ne sert qu'à dissimuler la nature de l'argument.+Si Dembski insiste sur le fait qu’il n’y a qu’une méthode d’inférence de conception et que c’est la méthode de l’élimination du hasard, il doit alors expliquer les voies exposées ci-dessus et justifier son introduction des termes "complexité" et "information". La méthode d'élimination du hasard utilise une technique statistique (probabiliste) pour éliminer les hypothèses. Cela n'a rien à voir avec la complexité ou l'information. Transformer les probabilités en appliquant la fonction triviale I = -log<sub>2</sub>ne les convertit pas comme par magie en mesures de complexité ou d'informations. Cela ne sert qu'à dissimuler la nature de l'argument.
 Je suppose que Dembski n’a pas remarqué qu’il avait deux méthodes différentes. Une des raisons de sa confusion est peut-être que toutes les hypothèses fortuites qu’il a envisagées dans ses exemples sont celles qui donnent lieu à une distribution de probabilité uniforme, à la seule exception d’un cas trivial (p. 70). Je suppose que Dembski n’a pas remarqué qu’il avait deux méthodes différentes. Une des raisons de sa confusion est peut-être que toutes les hypothèses fortuites qu’il a envisagées dans ses exemples sont celles qui donnent lieu à une distribution de probabilité uniforme, à la seule exception d’un cas trivial (p. 70).
 Dembski semble également considérer les distributions de probabilités uniformes comme "privilégiées" dans un certain sens (p. 50). Se référant à l'espace de phase d'un algorithme d'optimisation, il écrit: Dembski semble également considérer les distributions de probabilités uniformes comme "privilégiées" dans un certain sens (p. 50). Se référant à l'espace de phase d'un algorithme d'optimisation, il écrit:
-//De plus, ces espaces ont généralement une probabilité uniforme qui est adaptée à la topologie de l’espace de phase. Cela signifie que Ω [l'espace de phase] possède une mesure de probabilité uniforme U adaptée à la métrique sur Ω de sorte que des probabilités identiques soient affectées aux parties de Ω géométriquement congruentes (voir section 2.2)//. [p. 188] +<well>//De plus, ces espaces ont généralement une probabilité uniforme qui est adaptée à la topologie de l’espace de phase. Cela signifie que Ω [l'espace de phase] possède une mesure de probabilité uniforme U adaptée à la métrique sur Ω de sorte que des probabilités identiques soient affectées aux parties de Ω géométriquement congruentes (voir section 2.2)//. [p. 188]</well> 
-Mais un espace de phase (en tant qu'espace de recherche d'un algorithme d'optimisation) ne vient pas avec une distribution de probabilité attachée. C’est simplement un espace de solutions possibles dans laquelle que nous sommes invités à chercher.((34))+Mais un espace de phase (en tant qu'espace de recherche d'un algorithme d'optimisation) ne vient pas avec une distribution de probabilité attachée. C’est simplement un espace de solutions possibles dans laquelle que nous sommes invités à chercher (34).
 ===6.4 Le choix de l'espace de phase=== ===6.4 Le choix de l'espace de phase===
-Bien que baser le SI sur une distribution de probabilité uniforme aide à le rendre indépendant du processus de causalité qui a produit le phénomène, il ne peut pas le rendre complètement indépendant. Étant donné un //espace de phase// (ou une //classe de référence de possibilités//, comme l'appelle Dembski), il n'y a qu'une seule distribution uniforme possible, celle dans laquelle tous les résultats ont une probabilité égale. Mais comment choisit-on un espace de phase? Dans le cas de la séquence SETI, il peut sembler évident que l’espace de phase considéré est l’espace de toutes les séquences de bits possibles de longueur 1126. Mais pourquoi supposer que la séquence a été dessinée à partir d’un espace de séquences de 1126 bits et non de séquences de longueur variable? Pourquoi devrions-nous supposer que le son et la pause sont les deux seules valeurs possibles? Les supposés extraterrestres auraient pu choisir de transmettre des sons d'amplitudes variables.+Bien que baser la SI sur une distribution de probabilité uniforme aide à le rendre indépendant du processus de causalité qui a produit le phénomène, il ne peut pas le rendre complètement indépendant. Étant donné un //espace de phase// (ou une //classe de référence de possibilités//, comme l'appelle Dembski), il n'y a qu'une seule distribution uniforme possible, celle dans laquelle tous les résultats ont une probabilité égale. Mais comment choisit-on un espace de phase? Dans le cas de la séquence SETI, il peut sembler évident que l’espace de phase considéré est l’espace de toutes les séquences de bits possibles de longueur 1126. Mais pourquoi supposer que la séquence a été dessinée à partir d’un espace de séquences de 1126 bits et non de séquences de longueur variable? Pourquoi devrions-nous supposer que le son et la pause sont les deux seules valeurs possibles? Les supposés extraterrestres auraient pu choisir de transmettre des sons d'amplitudes variables. 
 + 
 +Des problèmes similaires se posent ailleurs. A la p.166, Dembski calcule la complexité du mot METHINKS sous la forme -log<sub>2</sub>(1/2<sup>78</sup>) = 38 bits. (35) Ceci est basé sur un espace de phase de chaînes de 8 caractères, chaque caractère ayant 27 possibilités (26 lettres dans l'alphabet plus un espace). Il n'envisage pas la possibilité de plus ou moins de 8 caractères. Ainsi Dembski a clairement  une règle, qui est que nous ne devrions considérer que les permutations possibles du //même nombre// de caractères (ou composants) que nous avons réellement observé. Aucune justification n'est donnée pour une telle règle et cela nous laisse toujours un choix arbitraire à faire en ce qui concerne l'unité de permutation. Dans le cas de METHINKS, on pourrait soutenir que la seule unité de permutation sensible est le caractère. Mais dans d'autres cas, nous devons faire un choix. Dans une phrase, devrions-nous considérer les permutations de caractères ou de mots? Dans un génome, devrions-nous considérer les permutations de gènes, de codons, de paires de bases ou d’atomes?
  
-Des problèmes similaires se posent ailleurs. A la p.166, Dembski calcule la complexité du mot METHINKS sous la forme -log2 (1/2^78) = 38 bits.((35)) Ceci est basé sur un espace de phase de chaînes de 8 caractères, chaque caractère ayant 27 possibilités (26 lettres dans l'alphabet plus un espace). Il n'envisage pas la possibilité de plus ou moins de 8 caractères. Ainsi Dembski a clairement  une règle, qui est que nous ne devrions considérer que les permutations possibles du //même nombre// de caractères (ou composants) que nous avons réellement observé. Aucune justification n'est donnée pour une telle règle et cela nous laisse toujours un choix arbitraire à faire en ce qui concerne l'unité de permutation. Dans le cas de METHINKS, on pourrait soutenir que la seule unité de permutation sensible est le caractère. Mais dans d'autres cas, nous devons faire un choix. Dans une phrase, devrions-nous considérer les permutations de caractères ou de mots? Dans un génome, devrions-nous considérer les permutations de gènes, de codons, de paires de bases ou d’atomes? 
 Encore plus problématique est la gamme de caractères possibles. Ici, Dembski a choisi les 26 lettres majuscules et un espace comme seules possibilités. Mais pourquoi ne pas inclure des lettres minuscules, des chiffres, des signes de ponctuation, des symboles mathématiques, des lettres grecques, etc.? Ce n’est pas parce que nous n’avons observé aucun de ceux-ci qu’ils n’étaient pas de réelles possibilités. Et si nous ne devons considérer que les valeurs que nous avons réellement observées, pourquoi Dembski a-t-il inclus les 26 lettres de l'alphabet? Beaucoup de ces lettres ne figuraient ni dans le mot METHINKS, ni même dans la phrase plus longue dans laquelle il était intégré. Peut-être que Dembski s’appuie sur la connaissance du processus de causalité qui a donné lieu à ce mot, sachant que les lettres ont été tirées d’une collection de 27 tuiles de Scrabble, par exemple. Mais s’appuyer sur la connaissance du processus de causalité rend le critère inutile pour les cas où nous ne connaissons pas la cause. Et tout le but du critère était de nous permettre de déduire le type de processus causal (naturel ou conception) quand il est inconnu. Encore plus problématique est la gamme de caractères possibles. Ici, Dembski a choisi les 26 lettres majuscules et un espace comme seules possibilités. Mais pourquoi ne pas inclure des lettres minuscules, des chiffres, des signes de ponctuation, des symboles mathématiques, des lettres grecques, etc.? Ce n’est pas parce que nous n’avons observé aucun de ceux-ci qu’ils n’étaient pas de réelles possibilités. Et si nous ne devons considérer que les valeurs que nous avons réellement observées, pourquoi Dembski a-t-il inclus les 26 lettres de l'alphabet? Beaucoup de ces lettres ne figuraient ni dans le mot METHINKS, ni même dans la phrase plus longue dans laquelle il était intégré. Peut-être que Dembski s’appuie sur la connaissance du processus de causalité qui a donné lieu à ce mot, sachant que les lettres ont été tirées d’une collection de 27 tuiles de Scrabble, par exemple. Mais s’appuyer sur la connaissance du processus de causalité rend le critère inutile pour les cas où nous ne connaissons pas la cause. Et tout le but du critère était de nous permettre de déduire le type de processus causal (naturel ou conception) quand il est inconnu.
-Le choix d’un espace de phase approprié n’est pas un problème tel que dans la théorie de l’information de Shannon ((36)), car nous nous intéressons ici à la mesure des informations transmises (ou produites) par un //processus//. Dembski, quant à lui, veut mesurer les informations présentées par un //phénomène// donné et en tirer une conclusion sur le processus de causalité qui a produit le phénomène. Cela l'oblige à choisir un espace de phase sans connaître le processus de causalité, le résultat étant que ses espaces de phase sont arbitraires.+ 
 +Le choix d’un espace de phase approprié n’est pas un problème tel que dans la théorie de l’information de Shannon (36), car nous nous intéressons ici à la mesure des informations transmises (ou produites) par un //processus//. Dembski, quant à lui, veut mesurer les informations présentées par un //phénomène// donné et en tirer une conclusion sur le processus de causalité qui a produit le phénomène. Cela l'oblige à choisir un espace de phase sans connaître le processus de causalité, le résultat étant que ses espaces de phase sont arbitraires. 
 Dembski consacre une partie de son livre (p. 133-137) au problème de la sélection d'un espace de phase, mais ne parvient pas à résoudre le problème. Il soutient que nous devrions "pécher par excès d'abondance et inclure autant de possibilités qu'il serait plausible d'obtenir dans ce contexte" (p. 136). Mais cela signifie que nous penchons pour la surestimation de la quantité d'informations présentées par un phénomène, et donc pour la conception faussement inférée. Cela n’est guère raisonnable pour une méthode supposée déduire de manière fiable la conception. En tout cas, Dembski ne suit pas ses propres conseils. Dans l'exemple de METHINKS, nous venons de voir qu'il a choisi un espace basé sur 27 caractères seulement - ce n'est pas le nombre maximum plausible sans aucune connaissance du processus de causalité. Dembski consacre une partie de son livre (p. 133-137) au problème de la sélection d'un espace de phase, mais ne parvient pas à résoudre le problème. Il soutient que nous devrions "pécher par excès d'abondance et inclure autant de possibilités qu'il serait plausible d'obtenir dans ce contexte" (p. 136). Mais cela signifie que nous penchons pour la surestimation de la quantité d'informations présentées par un phénomène, et donc pour la conception faussement inférée. Cela n’est guère raisonnable pour une méthode supposée déduire de manière fiable la conception. En tout cas, Dembski ne suit pas ses propres conseils. Dans l'exemple de METHINKS, nous venons de voir qu'il a choisi un espace basé sur 27 caractères seulement - ce n'est pas le nombre maximum plausible sans aucune connaissance du processus de causalité.
  
-Étant donné que le SI est basé sur une distribution de probabilité uniforme, il n’y a guère de doute que le CSI existe dans la nature. En effet, on peut trouver que toutes sortes de phénomènes naturels présentant un CSI si un espace de phase approprié est choisi. Prenons l'exemple mentionné précédemment de cratères sur la Lune. Si nous prenons l’espace de tous les paysages lunaires théoriquement possibles et choisissons aléatoirement un paysage dans une distribution uniforme sur cet espace, la probabilité d’obtenir un paysage présentant de telles formations circulaires que nous observons réellement sur la Lune est extrêmement petite, suffisamment petite pour conclure que le paysage lunaire actuel expose un CSI. Même les orbites des planètes présentent un CSI. Si une orbite planétaire était choisie au hasard parmi une distribution de probabilité uniforme sur l’espace de toutes les manières possibles de tracer un chemin autour du Soleil, alors la probabilité d’obtenir un chemin aussi lisse et elliptique qu’une orbite de planète est minuscule.+Étant donné que la SI est basé sur une distribution de probabilité uniforme, il n’y a guère de doute que la CSI existe dans la nature. En effet, on peut trouver que toutes sortes de phénomènes naturels présentant une CSI si un espace de phase approprié est choisi. Prenons l'exemple mentionné précédemment de cratères sur la Lune. Si nous prenons l’espace de tous les paysages lunaires théoriquement possibles et choisissons aléatoirement un paysage dans une distribution uniforme sur cet espace, la probabilité d’obtenir un paysage présentant de telles formations circulaires que nous observons réellement sur la Lune est extrêmement petite, suffisamment petite pour conclure que le paysage lunaire actuel expose une CSI. Même les orbites des planètes présentent une CSI. Si une orbite planétaire était choisie au hasard parmi une distribution de probabilité uniforme sur l’espace de toutes les manières possibles de tracer un chemin autour du Soleil, alors la probabilité d’obtenir un chemin aussi lisse et elliptique qu’une orbite de planète est minuscule.
 ===6.5 La loi de la conservation de l'information=== ===6.5 La loi de la conservation de l'information===
-La loi sur la conservation de l'information (ci-après LCI) est l'affirmation formelle de Dembski selon laquelle il affirme que les causes naturelles ne peuvent pas générer de CSI; ils ne peuvent que le déplacer d'un endroit à un autre. La LCI indique que, si un ensemble de conditions Y suffit à causer X, le SI présenté par Y et X combinés ne peut dépasser le SI de Y seul de plus que la limite de complexité universelle, c'est-à-dire+La loi sur la conservation de l'information (ci-après LCI) est l'affirmation formelle de Dembski selon laquelle il affirme que les causes naturelles ne peuvent pas générer de CSI; ils ne peuvent que le déplacer d'un endroit à un autre. La LCI indique que, si un ensemble de conditions Y suffit à causer X, la SI présenté par Y et X combinés ne peut dépasser la SI de Y seul de plus que la limite de complexité universelle, c'est-à-dire
 I (Y & X) <= I (Y) + 500 I (Y & X) <= I (Y) + 500
 où I (Y) est la quantité de SI exposée par Y. (J'ai créé Y antécédent de X, plutôt que l'inverse, par souci de cohérence avec l'explication de Dembski, pages 162-163.) où I (Y) est la quantité de SI exposée par Y. (J'ai créé Y antécédent de X, plutôt que l'inverse, par souci de cohérence avec l'explication de Dembski, pages 162-163.)
Ligne 451: Ligne 443:
 Malgré son nom, la LCI n’est pas une loi de conservation. Puisque Dembski reconnaît que de petites quantités de SI (moins de 500 bits) peuvent être générées par des processus aléatoires (p. 155-156), la LCI ne peut être interprétée comme une loi de //conservation// au sens le plus raisonnable du terme. C'est plutôt une //limite// sur la quantité de SI pouvant être générée. Malgré son nom, la LCI n’est pas une loi de conservation. Puisque Dembski reconnaît que de petites quantités de SI (moins de 500 bits) peuvent être générées par des processus aléatoires (p. 155-156), la LCI ne peut être interprétée comme une loi de //conservation// au sens le plus raisonnable du terme. C'est plutôt une //limite// sur la quantité de SI pouvant être générée.
  
-Mon analyse du LCI ci-dessous sera basée sur mon interprétation de l’IS avec probabilité uniforme. Cependant, dans le cas où Dembski rejetterait cette interprétation, permettez-moi d'abord d'examiner ce que le LCI signifierait si l'IS est basé sur les probabilités réelles des événements. Il ne s'agirait alors que d'une version déguisée de l'ancienne loi des petites probabilités de Dembski, tirée de //The Design Inference//, qui stipule que des événements spécifiés de faible probabilité (moins de 10150) ne se produisent pas. Il a simplement converti la probabilité en "information" en appliquant la fonction I = -log2P à chaque côté de l’inégalité, les probabilités étant conditionnées par l'occurrence de Y. Pour le voir, considérons X un événement spécifié survenu à la suite de Y. Puis, par la loi des petites probabilités,+Mon analyse du LCI ci-dessous sera basée sur mon interprétation de la SI avec probabilité uniforme. Cependant, dans le cas où Dembski rejetterait cette interprétation, permettez-moi d'abord d'examiner ce que le LCI signifierait si la SI est basée sur les probabilités réelles des événements. Il ne s'agirait alors que d'une version déguisée de l'ancienne loi des petites probabilités de Dembski, tirée de //The Design Inference//, qui stipule que des événements spécifiés de faible probabilité (moins de 10<sup>-150</sup>) ne se produisent pas. Il a simplement converti la probabilité en "information" en appliquant la fonction I = -log<sub>2</sub>à chaque côté de l’inégalité, les probabilités étant conditionnées par l'occurrence de Y. Pour le voir, considérons X un événement spécifié survenu à la suite de Y. Puis, par la loi des petites probabilités,
  
-* P (X | Y)> = 10^-150 +* P (X | Y)> = 10<sup>-150</sup> 
-* <=> P (Y & X)> = P (Y) × 10^-150 (puisque P (Y & X) = P (Y) × P (X | Y))+* <=> P (Y & X)> = P (Y) × 10<sup>-150</sup> (puisque P (Y & X) = P (Y) × P (X | Y))
 * <=> I (Y & X) <= I (Y) + 500 (en enlevant log2 des deux côtés). * <=> I (Y & X) <= I (Y) + 500 (en enlevant log2 des deux côtés).
 Dans ce cas, la LCI n’est qu’une limite de probabilité et n’a aucun rapport avec l’information ni avec la complexité. Je ne vais donc pas examiner cette interprétation plus avant. Dans ce cas, la LCI n’est qu’une limite de probabilité et n’a aucun rapport avec l’information ni avec la complexité. Je ne vais donc pas examiner cette interprétation plus avant.
 ===6.6 Contre-exemple: réseaux  neuronaux joueurs de dames=== ===6.6 Contre-exemple: réseaux  neuronaux joueurs de dames===
-Mon premier contre-exemple avec le LCI est celui que Dembski présente courageusement, à savoir les réseaux neuronaux évolutifs de Chellapilla et de Fogel, qui jouent aux dames (p. 221-223)((37)). Je commencerai par une brève description de l'algorithme évolutif. Les réseaux neuronaux ont été définis par un ensemble de paramètres (les détails sont sans importance) qui déterminent leur stratégie pour jouer aux dames. Au début du programme, une population de 15 réseaux de neurones a été créée avec des paramètres aléatoires. Ils n'avaient pas de structures spéciales correspondant aux principes stratégiques du jeu de dame. Ils n'ont reçu que l'emplacement, le nombre et le type de pièces - les mêmes informations de base qu'un joueur novice aurait lors de son premier match. À chaque génération, la population actuelle de 15 réseaux de neurones a engendré 15 descendants, avec des variations aléatoires de leurs paramètres. Les 30 réseaux de neurones résultants ont ensuite participé à un tournoi, chaque réseau de neurones jouant 5 parties en rouge (déplacement en premier) contre des adversaires sélectionnés au hasard. Les réseaux de neurones ont reçu +1 point pour une victoire, 0 pour un match nul et -2 pour une défaite. Ensuite, les 15 réseaux de neurones avec les notes totales les plus élevés sont passés à la génération suivante. Je ferai référence au triplet (+1, 0, -2) en tant que //régime de notation// et à la survie des 15 réseaux de neurones avec la notation total le plus élevé en tant que //critère de survie//. +Mon premier contre-exemple avec le LCI est celui que Dembski présente courageusement, à savoir les réseaux neuronaux évolutifs de Chellapilla et de Fogel, qui jouent aux dames (p. 221-223) (37) Je commencerai par une brève description de l'algorithme évolutif. Les réseaux neuronaux ont été définis par un ensemble de paramètres (les détails sont sans importance) qui déterminent leur stratégie pour jouer aux dames. Au début du programme, une population de 15 réseaux de neurones a été créée avec des paramètres aléatoires. Ils n'avaient pas de structures spéciales correspondant aux principes stratégiques du jeu de dame. Ils n'ont reçu que l'emplacement, le nombre et le type de pièces - les mêmes informations de base qu'un joueur novice aurait lors de son premier match. À chaque génération, la population actuelle de 15 réseaux de neurones a engendré 15 descendants, avec des variations aléatoires de leurs paramètres. Les 30 réseaux de neurones résultants ont ensuite participé à un tournoi, chaque réseau de neurones jouant 5 parties en rouge (déplacement en premier) contre des adversaires sélectionnés au hasard. Les réseaux de neurones ont reçu +1 point pour une victoire, 0 pour un match nul et -2 pour une défaite. Ensuite, les 15 réseaux de neurones avec les notes totales les plus élevés sont passés à la génération suivante. Je ferai référence au triplet (+1, 0, -2) en tant que //régime de notation// et à la survie des 15 réseaux de neurones avec la notation total le plus élevé en tant que //critère de survie//. 
-Les réseaux de neurones produits par cet algorithme étaient de très bons joueurs de dames, et Dembski suppose qu'ils présentaient une complexité spécifiée (CSI). Il ne donne aucune justification pour cette hypothèse, mais cela semble raisonnable compte tenu de l'interprétation de probabilité uniforme. Vraisemblablement, la spécification ici est, grosso modo, la production d’un bon joueur de dames, et l’espace de phase est l’espace de toutes les valeurs possibles des paramètres d’un réseau neuronal. Si les paramètres étaient tirés au hasard, la probabilité d'obtenir un bon joueur de dames serait extrêmement faible. Comme le résultat du programme montre une CSI, Dembski doit montrer qu'il y avait une CSI à l’origine. À son crédit, Dembski ne prend pas la solution de facilité et affirme que le CSI se trouvait dans l'ordinateur ou dans le programme dans son ensemble. La programmation des réseaux de neurones était assez indépendante de l'algorithme évolutif. Au lieu de cela, Dembski prétend que le CSI a été "inséré" par Chellapilla et Fogel à la suite de leur décision de maintenir le "critère de victoire" constant de génération en génération! Mais un critère constant est l'option //la plus simple//, pas complexe, et l'idée qu'une décision aussi simple aurait pu insérer beaucoup d'informations est absurde.+Les réseaux de neurones produits par cet algorithme étaient de très bons joueurs de dames, et Dembski suppose qu'ils présentaient une complexité spécifiée (CSI). Il ne donne aucune justification pour cette hypothèse, mais cela semble raisonnable compte tenu de l'interprétation de probabilité uniforme. Vraisemblablement, la spécification ici est, grosso modo, la production d’un bon joueur de dames, et l’espace de phase est l’espace de toutes les valeurs possibles des paramètres d’un réseau neuronal. Si les paramètres étaient tirés au hasard, la probabilité d'obtenir un bon joueur de dames serait extrêmement faible. Comme le résultat du programme montre une CSI, Dembski doit montrer qu'il y avait une CSI à l’origine. À son crédit, Dembski ne prend pas la solution de facilité et affirme que la CSI se trouvait dans l'ordinateur ou dans le programme dans son ensemble. La programmation des réseaux de neurones était assez indépendante de l'algorithme évolutif. Au lieu de cela, Dembski prétend que la CSI a été "inséré" par Chellapilla et Fogel à la suite de leur décision de maintenir le "critère de victoire" constant de génération en génération! Mais un critère constant est l'option //la plus simple//, pas complexe, et l'idée qu'une décision aussi simple aurait pu insérer beaucoup d'informations est absurde.
  
 Comme nous l'avons vu précédemment, la fonction fitness reflète le problème à résoudre. Dans ce cas, le problème est de produire des réseaux de neurones qui joueront bien aux dames dans les conditions prévalentes. Etant donné que les conditions dans lesquelles les réseaux neuronaux évolués seraient joués étaient (probablement) inconnues au moment de la programmation de l'algorithme, on pourrait soutenir que le choix du critère de victoire était libre. Les programmeurs auraient pu dès lors choisir le critère de leur choix. Néanmoins, le choix naturel dans une telle situation est de choisir l'option la plus simple. En choisissant un critère constant de victoire, c'est ce que les programmeurs ont fait. Comme ils n'avaient aucune raison de penser que les réseaux de neurones se retrouveraient dans un tournoi avec des conditions de victoire variables, il n'y avait aucune raison de les faire évoluer dans de telles conditions. Comme nous l'avons vu précédemment, la fonction fitness reflète le problème à résoudre. Dans ce cas, le problème est de produire des réseaux de neurones qui joueront bien aux dames dans les conditions prévalentes. Etant donné que les conditions dans lesquelles les réseaux neuronaux évolués seraient joués étaient (probablement) inconnues au moment de la programmation de l'algorithme, on pourrait soutenir que le choix du critère de victoire était libre. Les programmeurs auraient pu dès lors choisir le critère de leur choix. Néanmoins, le choix naturel dans une telle situation est de choisir l'option la plus simple. En choisissant un critère constant de victoire, c'est ce que les programmeurs ont fait. Comme ils n'avaient aucune raison de penser que les réseaux de neurones se retrouveraient dans un tournoi avec des conditions de victoire variables, il n'y avait aucune raison de les faire évoluer dans de telles conditions.
  
 Contrairement à l'affirmation de Dembski selon laquelle le choix d'un critère constant "est dépourvu d'analogue naturel", l'analogue naturel du critère constant de victoire est la constance des lois de la physique et de la logique. Contrairement à l'affirmation de Dembski selon laquelle le choix d'un critère constant "est dépourvu d'analogue naturel", l'analogue naturel du critère constant de victoire est la constance des lois de la physique et de la logique.
-// En outre, leur choix est sans analogue naturel. Chellapilla et Fogel ont maintenu leur critère de "victoire au tournoi". Pour les systèmes biologiques, le critère de "victoire au tournoi" variera considérablement en fonction de la personne participant au tournoi. // [p. 223]+<well>// En outre, leur choix est sans analogue naturel. Chellapilla et Fogel ont maintenu leur critère de "victoire au tournoi". Pour les systèmes biologiques, le critère de "victoire au tournoi" variera considérablement en fonction de la personne participant au tournoi. // [p. 223]</well>
 Ce que Dembski entend par "critère de la victoire dans un tournoi" n'est pas clair. Cependant, le fait que le succès d'un système biologique dépend de celui qui "joue dans le tournoi" a certainement un analogue dans l'algorithme de Chellapilla et Fogel. Le succès d'un réseau de neurones dépendait des autres de réseau de neurones participants au tournoi. Ce que Dembski entend par "critère de la victoire dans un tournoi" n'est pas clair. Cependant, le fait que le succès d'un système biologique dépend de celui qui "joue dans le tournoi" a certainement un analogue dans l'algorithme de Chellapilla et Fogel. Le succès d'un réseau de neurones dépendait des autres de réseau de neurones participants au tournoi.
  
Ligne 470: Ligne 462:
 Avant d'examiner d'autres objections à l’affirmation de Dembski, je dois décider ce qu'il entend par "critère de victoire". Veut-il simplement parler du régime de notation ? Ou veut-il dire l’ensemble des règles du tournoi: la sélection des adversaires, le régime de notation et le critère de survie? Par souci de brièveté, je n’examinerai que le régime de notation, mais des arguments similaires peuvent être avancés en ce qui concerne les autres éléments du règlement du tournoi. Avant d'examiner d'autres objections à l’affirmation de Dembski, je dois décider ce qu'il entend par "critère de victoire". Veut-il simplement parler du régime de notation ? Ou veut-il dire l’ensemble des règles du tournoi: la sélection des adversaires, le régime de notation et le critère de survie? Par souci de brièveté, je n’examinerai que le régime de notation, mais des arguments similaires peuvent être avancés en ce qui concerne les autres éléments du règlement du tournoi.
  
-Dembski insiste sur le fait que le SI "inséré" par Chellapilla et le choix de Fogel sont déterminés en ce qui concerne "l'espace de toutes les combinaisons possibles de fonctions de fitness locales parmi lesquelles ils ont choisi leur ensemble coordonné de fonctions de fitness locales". On ne voit pas bien ce que Dembski entend par «//fonction de fitness//» ici. Comme nous l’avons vu, dans une situation où le succès d’un individu dépend de ses interactions avec d’autres individus de la population (dans ce cas, la population de réseaux de neurones), la fonction de fitness varie en fonction de la population, car l'individu est relatif à son environnement, qui inclut le reste de la population. Dembski semble le reconnaître, puisqu'il écrit: +Dembski insiste sur le fait que la SI "inséré" par Chellapilla et le choix de Fogel sont déterminés en ce qui concerne "l'espace de toutes les combinaisons possibles de fonctions de fitness locales parmi lesquelles ils ont choisi leur ensemble coordonné de fonctions de fitness locales". On ne voit pas bien ce que Dembski entend par «//fonction de fitness//» ici. Comme nous l’avons vu, dans une situation où le succès d’un individu dépend de ses interactions avec d’autres individus de la population (dans ce cas, la population de réseaux de neurones), la fonction de fitness varie en fonction de la population, car l'individu est relatif à son environnement, qui inclut le reste de la population. Dembski semble le reconnaître, puisqu'il écrit: 
-//Il n'y a même pas de fonction de fitness définie sur tout l'espace des réseaux de neurones jouant aux dames. Au lieu de cela, chaque collection de 30 réseaux de neurones reçoit sa propre fonction de fitness qui assigne le fitness en fonction de la manière dont un réseau de neurones se comporte dans un tournoi avec d'autres réseaux de neurones ...// [p. 222]+<well>//Il n'y a même pas de fonction de fitness définie sur tout l'espace des réseaux de neurones jouant aux dames. Au lieu de cela, chaque collection de 30 réseaux de neurones reçoit sa propre fonction de fitness qui assigne le fitness en fonction de la manière dont un réseau de neurones se comporte dans un tournoi avec d'autres réseaux de neurones ...// [p. 222]</well>
  
-Lorsque Dembski fait ici référence à une "fonction de fitness locale", il entend apparemment la fonction de fitness d'une génération en particulier((38)). Cependant, contrairement à ce que prétend Dembski, la séquence des fonctions de fitness n'a pas été "coordonnée" par Chellapilla et Fogel. Cela dépendait de l'évolution de la population de réseaux de neurones. Il est donc insensé de parler de Chellapilla et de Fogel comme choisissant parmi "l’espace de toutes les combinaisons possibles de fonctions de mise en forme locales". Cependant, il //serait// logique de parler d’un choix dans l’espace des phases de tous les régimes de notation temps-dépendants (un triplet par génération), et je vais supposer que c’est ce que Dembski veut dire.+Lorsque Dembski fait ici référence à une "fonction de fitness locale", il entend apparemment la fonction de fitness d'une génération en particulier (38). Cependant, contrairement à ce que prétend Dembski, la séquence des fonctions de fitness n'a pas été "coordonnée" par Chellapilla et Fogel. Cela dépendait de l'évolution de la population de réseaux de neurones. Il est donc insensé de parler de Chellapilla et de Fogel comme choisissant parmi "l’espace de toutes les combinaisons possibles de fonctions de mise en forme locales". Cependant, il //serait// logique de parler d’un choix dans l’espace des phases de tous les régimes de notation temps-dépendants (un triplet par génération), et je vais supposer que c’est ce que Dembski veut dire.
  
-Pour les raisons déjà exposées, il n’est guère raisonnable de considérer que le système de notation a été choisi dans un tel espace de phase. Néanmoins, même si nous le faisons, la quantité de SI insérée par le choix de Chellapilla et Fogel était minime. En effet, la SI doit être basé sur une région de rejet comprenant tous les régimes de notation  temps-dépendants qui auraient été aussi performants que ceux de Chellapilla et de Fogel ou mieux. Supposons qu'au lieu d'utiliser un régime de notation constant, le programme génère de manière aléatoire un nouveau triplet de notation (W, D, L) pour chaque génération, sous réserve uniquement de la contrainte W> D> L. Cette contrainte n'est pas une imposition artificielle; c'est une caractéristique du problème à résoudre. Si le problème était de trouver de bons joueurs aux dames suicide (où le but du jeu est de "perdre"), la contrainte serait L> D> W. Puisque la SI est basée sur une distribution de probabilité uniforme, les valeurs de W, D et L seraient tirés d'une distribution de probabilité uniforme sur une plage continue, par exemple [+2, -2]. Nous ne nous intéressons qu'aux valeurs relatives de W, D et L, le choix de la plage est donc arbitraire et peut être effectué de manière aléatoire au début de chaque exécution. La question est alors de savoir combien de fois un tel programme fonctionnerait aussi bien que l’original, c’est-à-dire produirait de bons joueurs dans le même laps de temps. Si, par exemple, le programme révisé fonctionne aussi bien que le programme original 1 fois sur 8 (sur un échantillon suffisamment grand), cela signifie qu'un régime temps-dépendant sur huit fonctionne aussi bien que celui de Chellapilla et de Fogel. La SI du régime de Chellapilla et Fogel serait alors seulement -log2 (1/8) = 3 bits. Pour que Dembski maintienne sa thèse selon laquelle ce choix introduit de la CSI, il lui incomberait de démontrer que la proportion de régimes performants aussi bien que ceux de Chellapilla et de Fogel est inférieure à 1 sur 10^150, ce qui semble très peu probable.+Pour les raisons déjà exposées, il n’est guère raisonnable de considérer que le système de notation a été choisi dans un tel espace de phase. Néanmoins, même si nous le faisons, la quantité de SI insérée par le choix de Chellapilla et Fogel était minime. En effet, la SI doit être basé sur une zone de rejet comprenant tous les régimes de notation temps-dépendants qui auraient été aussi performants que ceux de Chellapilla et de Fogel ou mieux. Supposons qu'au lieu d'utiliser un régime de notation constant, le programme génère de manière aléatoire un nouveau triplet de notation (W, D, L) pour chaque génération, sous réserve uniquement de la contrainte W> D> L. Cette contrainte n'est pas une imposition artificielle; c'est une caractéristique du problème à résoudre. Si le problème était de trouver de bons joueurs aux dames suicide (où le but du jeu est de "perdre"), la contrainte serait L> D> W. Puisque la SI est basée sur une distribution de probabilité uniforme, les valeurs de W, D et L seraient tirés d'une distribution de probabilité uniforme sur une plage continue, par exemple [+2, -2]. Nous ne nous intéressons qu'aux valeurs relatives de W, D et L, le choix de la plage est donc arbitraire et peut être effectué de manière aléatoire au début de chaque exécution. La question est alors de savoir combien de fois un tel programme fonctionnerait aussi bien que l’original, c’est-à-dire produirait de bons joueurs dans le même laps de temps. Si, par exemple, le programme révisé fonctionne aussi bien que le programme original 1 fois sur 8 (sur un échantillon suffisamment grand), cela signifie qu'un régime temps-dépendant sur huit fonctionne aussi bien que celui de Chellapilla et de Fogel. La SI du régime de Chellapilla et Fogel serait alors seulement -log<sub>2</sub> (1/8) = 3 bits. Pour que Dembski maintienne sa thèse selon laquelle ce choix introduit de la CSI, il lui incomberait de démontrer que la proportion de régimes performants aussi bien que ceux de Chellapilla et de Fogel est inférieure à 1 sur 10<sup>150</sup>, ce qui semble très peu probable.
  
-Dans le cas où Dembski aurait un problème avec même la contrainte naturelle que j'ai suggérée ci-dessus, considérons une alternative qui n'a pas de contrainte préalable. Supposons qu'au début de chaque exécution, le programme tire 6 nombres aléatoires d'une plage arbitraire (comme ci-dessus). Appelez ces numéros W-, W +, D-, D +, L-, L +. Pour chaque génération, le programme génère un nouveau triplet de notation (W, D, L), sélectionnant ces paramètres de manière aléatoire à partir de distributions de probabilités uniformes sur les plages [W-, W +], [D-, D +] et [L-, L +]. respectivement. Beaucoup de programmes ne réussiront pas à produire de bons joueurs de dames (bien qu’ils puissent produire des joueurs qui savent bien jouer au suicide ou forcer un match nul). Cependant, sur une petite proportion de lancement  (1/720 en moyenne), il va arriver que W +> W-> D +> D-> L +> L-, et nous pouvons nous attendre à ce que ces lancements produisent de bons joueurs.((39)). Ainsi, si nous exécutons le programme assez de fois, la sortie affichera //parfois// une CSI même s’il n’y a pas de SI dans le régime de pointage. Alternativement, nous pouvons dire qu'un régime réussi comme celui de Chellapilla et Fogel's((40)) a une SI de -log2 (1/720) = 9,49 bits, plus quelques bits pour tenir compte du fait que tous les régimes réussis ne fonctionnent pas aussi bien que celui-ci, tel que discuté plus haut.+Dans le cas où Dembski aurait un problème avec même la contrainte naturelle que j'ai suggérée ci-dessus, considérons une alternative qui n'a pas de contrainte préalable. Supposons qu'au début de chaque exécution, le programme tire 6 nombres aléatoires d'une plage arbitraire (comme ci-dessus). Appelez ces numéros W-, W +, D-, D +, L-, L +. Pour chaque génération, le programme génère un nouveau triplet de notation (W, D, L), sélectionnant ces paramètres de manière aléatoire à partir de distributions de probabilités uniformes sur les plages [W-, W +], [D-, D +] et [L-, L +]. respectivement. Beaucoup de programmes ne réussiront pas à produire de bons joueurs de dames (bien qu’ils puissent produire des joueurs qui savent bien jouer au suicide ou forcer un match nul). Cependant, sur une petite proportion de lancement  (1/720 en moyenne), il va arriver que W +> W-> D +> D-> L +> L-, et nous pouvons nous attendre à ce que ces lancements produisent de bons joueurs (39). Ainsi, si nous exécutons le programme assez de fois, la sortie affichera //parfois// une CSI même s’il n’y a pas de SI dans le régime de pointage. Alternativement, nous pouvons dire qu'un régime réussi comme celui de Chellapilla et Fogel's (40) a une SI de -log<sub>2</sub> (1/720) = 9,49 bits, plus quelques bits pour tenir compte du fait que tous les régimes réussis ne fonctionnent pas aussi bien que celui-ci, tel que discuté plus haut.
 Ayant constaté que très peu de SI, voire aucune, n’était "insérée" dans le choix du régime de notation, Dembski pourrait choisir de se concentrer sur d’autres paramètres, tels que la taille de la population. La beauté de l’algorithme de Chellapilla et Fogel réside toutefois dans le fait qu’il a très peu de paramètres et que même ceux-ci peuvent être modifiés de façon considérable sans nuire aux performances du programme. Rien n'a été peaufiné. Tout comme dans le cas du système de notation, la sélection de ces autres paramètres implique donc peu de SI. Ayant constaté que très peu de SI, voire aucune, n’était "insérée" dans le choix du régime de notation, Dembski pourrait choisir de se concentrer sur d’autres paramètres, tels que la taille de la population. La beauté de l’algorithme de Chellapilla et Fogel réside toutefois dans le fait qu’il a très peu de paramètres et que même ceux-ci peuvent être modifiés de façon considérable sans nuire aux performances du programme. Rien n'a été peaufiné. Tout comme dans le cas du système de notation, la sélection de ces autres paramètres implique donc peu de SI.
  
Ligne 485: Ligne 477:
 Comme indiqué précédemment, Dembski considère apparemment que la séquence SETI de 1126 bits présente 1126 bits de SI. Mais s'il en est ainsi, il s'ensuit qu'une séquence de //n// bits présenterait //n// bits de SI. Ainsi, un programme informatique qui produit cette séquence peut produire autant de SI que nous le souhaitons, simplement en laissant le programme s'exécuter suffisamment longtemps. La SI de  sortie peut atteindre des millions de bits et facilement dépasser la SI du programme, quelle que soit la taille de celui-ci. La tâche de générer des nombres premiers est peut-être trop difficile pour que cela soit une possibilité pratique. Dans ce cas, nous pouvons simplement choisir une séquence plus simple, telle que la séquence de Fibonacci. Si nous prenons une séquence très simple comme celle de Champernowne (p. 64), nous pouvons même la programmer en quelques instructions de code machine et l'exécuter sur un ordinateur nu (sans système d'exploitation), de sorte que la SI totale du logiciel est inférieur à 500 bits, pas même suffisant pour constituer de la CSI. Comme indiqué précédemment, Dembski considère apparemment que la séquence SETI de 1126 bits présente 1126 bits de SI. Mais s'il en est ainsi, il s'ensuit qu'une séquence de //n// bits présenterait //n// bits de SI. Ainsi, un programme informatique qui produit cette séquence peut produire autant de SI que nous le souhaitons, simplement en laissant le programme s'exécuter suffisamment longtemps. La SI de  sortie peut atteindre des millions de bits et facilement dépasser la SI du programme, quelle que soit la taille de celui-ci. La tâche de générer des nombres premiers est peut-être trop difficile pour que cela soit une possibilité pratique. Dans ce cas, nous pouvons simplement choisir une séquence plus simple, telle que la séquence de Fibonacci. Si nous prenons une séquence très simple comme celle de Champernowne (p. 64), nous pouvons même la programmer en quelques instructions de code machine et l'exécuter sur un ordinateur nu (sans système d'exploitation), de sorte que la SI totale du logiciel est inférieur à 500 bits, pas même suffisant pour constituer de la CSI.
  
-Je donne la justification suivante pour affirmer que la SI d'un programme n'est pas supérieur à sa longueur. Considérons un programme donné de longueur N bits. Par analogie avec l'exemple METHINKS de Dembski (p. 166), je soutiens que je peux prendre comme espace de phase l'espace de tous les programmes de la même longueur que mon programme donné. Ensuite, la probabilité de tirer un programme donné (c'est-à-dire une séquence de bits) depuis une distribution uniforme sur cet espace est de 1 / 2^N, de sorte que les informations d'un programme particulier sont -log2 (1 / 2^N) = N bits. La SI présenté par le programme peut être inférieur à celui-ci (si plusieurs programmes correspondent aux mêmes spécifications que le programme donné), mais ne peut pas être supérieure.+Je donne la justification suivante pour affirmer que la SI d'un programme n'est pas supérieur à sa longueur. Considérons un programme donné de longueur N bits. Par analogie avec l'exemple METHINKS de Dembski (p. 166), je soutiens que je peux prendre comme espace de phase l'espace de tous les programmes de la même longueur que mon programme donné. Ensuite, la probabilité de tirer un programme donné (c'est-à-dire une séquence de bits) depuis une distribution uniforme sur cet espace est de 1 / 2<sup>N</sup>, de sorte que les informations d'un programme particulier sont -log<sub>2</sub> (1 / 2<sup>N</sup>) = N bits. La SI présentée par le programme peut être inférieur à celui-ci (si plusieurs programmes correspondent aux mêmes spécifications que le programme donné), mais ne peut pas être supérieure.
  
-Puisque le SI du programme est fini (N bits) mais que la SI de la séquence de sortie est illimité, le programme peut générer une quantité illimitée de SI.+Puisque la SI du programme est finie (N bits) mais que la SI de la séquence de sortie est illimitée, le programme peut générer une quantité illimitée de SI.
  
 Permettez-moi de répondre à toutes les objections que Dembski pourrait faire à cet argument: Permettez-moi de répondre à toutes les objections que Dembski pourrait faire à cet argument:
 * "Toute la SI dans la sortie était contenu dans le programme." Cela signifie que le programme contient une quantité illimitée de SI. Je doute que Dembski veuille affirmer qu'un programme trivial peut contenir une quantité illimitée de SI. * "Toute la SI dans la sortie était contenu dans le programme." Cela signifie que le programme contient une quantité illimitée de SI. Je doute que Dembski veuille affirmer qu'un programme trivial peut contenir une quantité illimitée de SI.
-* "La SI d'une séquence mathématique est limité à la longueur du programme nécessaire à sa génération." Ceci est vrai pour les informations algorithmiques (complexité de Kolmogorov) ((41)), mais pas pour la SI de Dembski.+* "La SI d'une séquence mathématique est limitée à la longueur du programme nécessaire à sa génération." Ceci est vrai pour les informations algorithmiques (complexité de Kolmogorov) (41), mais pas pour la SI de Dembski.
 * "La sortie d'un processus déterministe ne présente pas de SI car elle n'est pas //contingente//, comme l'exige le Filtre Explicatif." Mais cela rendrait l'évaluation de la SI dépendante du type de processus causal menant au phénomène, la question même qui est en cause. Si la séquence SETI présente une CSI lorsqu’elle est reçue de l’espace, pourquoi la même séquence ne devrait-elle pas présenter une CSI lorsqu’elle est produite par un ordinateur? Et pour autant que nous sachions, la séquence SETI pourrait également avoir été générée par un programme informatique déterministe (programmé par les ET). Dans tous les cas, nous pouvons rendre notre programme informatique non déterministe si nécessaire, par ex. en démarrant la séquence principale à partir d'un nombre premier sélectionné au hasard. * "La sortie d'un processus déterministe ne présente pas de SI car elle n'est pas //contingente//, comme l'exige le Filtre Explicatif." Mais cela rendrait l'évaluation de la SI dépendante du type de processus causal menant au phénomène, la question même qui est en cause. Si la séquence SETI présente une CSI lorsqu’elle est reçue de l’espace, pourquoi la même séquence ne devrait-elle pas présenter une CSI lorsqu’elle est produite par un ordinateur? Et pour autant que nous sachions, la séquence SETI pourrait également avoir été générée par un programme informatique déterministe (programmé par les ET). Dans tous les cas, nous pouvons rendre notre programme informatique non déterministe si nécessaire, par ex. en démarrant la séquence principale à partir d'un nombre premier sélectionné au hasard.
  
-Le problème pour Dembski est que les phénomènes hautement structurés sont spécifiés avec précision, ce qui leur confère une faible probabilité et donc une SI élevée. Contrairement aux informations algorithmiques (complexité de Kolmogorov), qui constituent une mesure de l'incompressibilité, la SI est en corrélation avec la //compressibilité//. Les séquences hautement compressibles telles que la séquence SETI présentent une SI élevé. Dembski semble assez content de ce fait: +Le problème pour Dembski est que les phénomènes hautement structurés sont spécifiés avec précision, ce qui leur confère une faible probabilité et donc une SI élevée. Contrairement aux informations algorithmiques (complexité de Kolmogorov), qui constituent une mesure de l'incompressibilité, la SI est en corrélation avec la //compressibilité//. Les séquences hautement compressibles telles que la séquence SETI présentent une SI élevée. Dembski semble assez satisfait de cela :
  
-//C’est la CSI qui, dans la théorie des informations algorithmiques de Chaitin-Kolmogorov-Solomonoff,  identifie les chaînes de chiffre hautement compressibles et non aléatoires ...// [p. 144]+<well>//C’est la CSI qui, dans la théorie des informations algorithmiques de Chaitin-Kolmogorov-Solomonoff,  identifie les chaînes de chiffre hautement compressibles et non aléatoires ...// [p. 144]</well>
 L'information de Dembski (SI) tend donc à varier inversement avec l'information algorithmique. Une séquence hautement compressible peut être riche en SI mais faible en informations algorithmiques. Dembski laisse croire que son CSI est équivalent au terme de //complexité spécifiée// utilisé par d'autres auteurs, citant la citation suivante du livre de Paul Davies, //The Fifth Miracle//, pas moins de quatre fois: L'information de Dembski (SI) tend donc à varier inversement avec l'information algorithmique. Une séquence hautement compressible peut être riche en SI mais faible en informations algorithmiques. Dembski laisse croire que son CSI est équivalent au terme de //complexité spécifiée// utilisé par d'autres auteurs, citant la citation suivante du livre de Paul Davies, //The Fifth Miracle//, pas moins de quatre fois:
-//Les organismes vivants sont mystérieux non pas pour leur complexité en soi, mais pour leur complexité étroitement spécifiée. //[p. 180] +<well>//Les organismes vivants sont mystérieux non pas pour leur complexité en soi, mais pour leur complexité étroitement spécifiée. //[p. 180]</well> 
-Pourtant, si on lit //The Fifth Miracle//, on s'aperçoit que Davies utilise la complexité au sens d'informations algorithmiques (complexité de Kolmogorov), et non dans le sens de Dembski de probabilité-sous-distribution-uniforme. Davies appelle également sa mesure un caractère //aléatoirement spécifique//, alors que Dembski identifie la CSI, dans la citation ci-dessus, avec des chaînes //non aléatoires//((42)).+Pourtant, si on lit //The Fifth Miracle//, on s'aperçoit que Davies utilise la complexité au sens d'informations algorithmiques (complexité de Kolmogorov), et non dans le sens de Dembski de probabilité-sous-distribution-uniforme. Davies appelle également sa mesure un caractère //aléatoirement spécifique//, alors que Dembski identifie la CSI, dans la citation ci-dessus, avec des chaînes //non aléatoires// (42).
  
 Dans le même ordre d'idées, Dembski cite Leslie Orgel: Dans le même ordre d'idées, Dembski cite Leslie Orgel:
  
-//Les organismes vivants se distinguent par leur complexité spécifiée. Les cristaux tels que le granit ne peuvent pas être considérés comme vivants car ils manquent de complexité; les mélanges de polymères aléatoires ne sont pas admissibles car ils manquent de spécificité. //[p. 229n5] +<well>//Les organismes vivants se distinguent par leur complexité spécifiée. Les cristaux tels que le granit ne peuvent pas être considérés comme vivants car ils manquent de complexité; les mélanges de polymères aléatoires ne sont pas admissibles car ils manquent de spécificité. //[p. 229n5]</well> 
-Mais, selon la définition de Dembski, les cristaux ont une grande complexité, car la probabilité d'obtenir une forme cristalline par une combinaison purement aléatoire de molécules est très faible. Comme Davies, Orgel définit la complexité en termes de "nombre minimal d’instructions nécessaires pour spécifier la structure" .((43))+Mais, selon la définition de Dembski, les cristaux ont une grande complexité, car la probabilité d'obtenir une forme cristalline par une combinaison purement aléatoire de molécules est très faible. Comme Davies, Orgel définit la complexité en termes de "nombre minimal d’instructions nécessaires pour spécifier la structure" .(43)
  
-Donc, contrairement à l'implication de Dembski s, sa conception de la complexité spécifiée est assez différente de celle de Davies et d’Orgel.((44)).+Donc, contrairement à l'implication de Dembski s, sa conception de la complexité spécifiée est assez différente de celle de Davies et d’Orgel (44).
  
  
Ligne 514: Ligne 505:
  
 Les quatre premières pages de la justification de Dembski (p. 151-155) visent à montrer que la LCI est vrai pour les processus déterministes. L'erreur dans cet argument peut être vue plus clairement en partant de l'équation suivante (p. 152): Les quatre premières pages de la justification de Dembski (p. 151-155) visent à montrer que la LCI est vrai pour les processus déterministes. L'erreur dans cet argument peut être vue plus clairement en partant de l'équation suivante (p. 152):
 +<TEXT align="center">I (A & B) = I (A) + I (B | A).</TEXT>
  
-I (A & B) = I (A) + I (B | A). 
  
 Comme B (le résultat d'un processus déterministe) est entièrement déterminé par A (les conditions antécédentes), soutient Dembski, I (B | A) = 0, et donc I (A & B) = I (A). Ainsi, aucune nouvelle information n'a été produite par le processus. (J'ai simplifié un peu la notation de Dembski.) Comme B (le résultat d'un processus déterministe) est entièrement déterminé par A (les conditions antécédentes), soutient Dembski, I (B | A) = 0, et donc I (A & B) = I (A). Ainsi, aucune nouvelle information n'a été produite par le processus. (J'ai simplifié un peu la notation de Dembski.)
  
-L'équation ci-dessus a été dérivée de l'équation de probabilité de base suivante, simplement en transformant les deux côtés de l'équation par la transformation triviale I (E) = -log2P (E):+L'équation ci-dessus a été dérivée de l'équation de probabilité de base suivante, simplement en transformant les deux côtés de l'équation par la transformation triviale I (E) = -log<sub>2</sub>(E): 
 +<TEXT align="center">P (A & B) = P (A) × P (B | A)</TEXT>
  
-P (A & B) = P (A) × P (B | A) 
  
 que Dembski déclare sous la forme suivante (pp. 128-129): que Dembski déclare sous la forme suivante (pp. 128-129):
 +<TEXT align="center">P (B | A) = P (A & B) / P (A)</TEXT>
  
-P (B | A) = P (A & B) / P (A). 
  
 Le résultat de Dembski est donc simplement une autre façon de dire que le résultat d'un processus déterministe se produit avec la probabilité 1. Mais cela ne nous dit rien sur les informations spécifiées présentées par le résultat, car elles reposent sur une distribution de probabilité uniforme, quelle que soit la probabilité réelle.  Le résultat de Dembski est donc simplement une autre façon de dire que le résultat d'un processus déterministe se produit avec la probabilité 1. Mais cela ne nous dit rien sur les informations spécifiées présentées par le résultat, car elles reposent sur une distribution de probabilité uniforme, quelle que soit la probabilité réelle. 
  
-Pour illustrer un exemple concret, considérons l’une des séquences mathématiques ci-dessus, par exemple la séquence principale SETI de 1126 bits. Alors A est le programme qui produit la séquence et B est la séquence elle-même. Alors il est vrai que P (B | A) (la probabilité que B donne A) est égal à 1, puisque A conduit toujours à B. Par conséquent, en appliquant la transformation I (E) = -log2P (E), on arrive à I (B | A) = 0. Jusqu'ici, tout va bien.  +Pour illustrer un exemple concret, considérons l’une des séquences mathématiques ci-dessus, par exemple la séquence principale SETI de 1126 bits. Alors A est le programme qui produit la séquence et B est la séquence elle-même. Alors il est vrai que P (B | A) (la probabilité que B donne A) est égal à 1, puisque A conduit toujours à B. Par conséquent, en appliquant la transformation I (E) = -log<sub>2</sub>(E), on arrive à I (B | A) = 0. Jusqu'ici, tout va bien.  
-Cependant, I (B | A) ne correspond //pas// à l'information spécifiée par Dembski, SI. Je suppose que les événements en question sont spécifiés, le problème n’a donc rien à voir avec la spécification. Le problème est que I (B | A) est juste une transformation de P (B | A), et P (B | A) est la //vraie// probabilité conditionnelle de l'événement, qui dans ce cas est 1. La SI, par contre, repose sur l'hypothèse d'une distribution de probabilité uniforme, quelle que soit la probabilité réelle de l'événement. Dans le cas SETI, la SI présenté par B est donné par +Cependant, I (B | A) ne correspond //pas// à l'information spécifiée par Dembski, SI. Je suppose que les événements en question sont spécifiés, le problème n’a donc rien à voir avec la spécification. Le problème est que I (B | A) est juste une transformation de P (B | A), et P (B | A) est la //vraie// probabilité conditionnelle de l'événement, qui dans ce cas est 1. La SI, par contre, repose sur l'hypothèse d'une distribution de probabilité uniforme, quelle que soit la probabilité réelle de l'événement. Dans le cas SETI, la SI présenté par B est donnée par 
- +<TEXT align="center">SI = -log<sub>2</sub> (P (B | U)) = -log<sub>2</sub> (2<sup>-1126</sup>) = 1126 bits</TEXT>
-SI = -log2 (P (B | U)) = -log2 (2^-1126) = 1126 bits+
  
 où U indique une distribution de probabilité uniforme sur l'espace de toutes les séquences possibles de 1126 bits. où U indique une distribution de probabilité uniforme sur l'espace de toutes les séquences possibles de 1126 bits.
Ligne 539: Ligne 529:
  
 Des processus déterministes //peuvent// donc générer de la CSI. Cependant, Dembski aurait pu éviter ce problème en adoptant une mesure d’information raisonnable, telle que la complexité de Kolmogorov spécifiée par Davies. Avec cette mesure, il serait vrai que les processus déterministes ne peuvent pas générer d'informations, car la sortie d'un programme déterministe a par définition une complexité de Kolmogorov identique ou inférieure à celle du programme. Pour répondre aux arguments de Dembski concernant les processus stochastiques, je vais prétendre, pour le reste de cette section, que la SI ne peut pas être généré par des processus déterministes. Des processus déterministes //peuvent// donc générer de la CSI. Cependant, Dembski aurait pu éviter ce problème en adoptant une mesure d’information raisonnable, telle que la complexité de Kolmogorov spécifiée par Davies. Avec cette mesure, il serait vrai que les processus déterministes ne peuvent pas générer d'informations, car la sortie d'un programme déterministe a par définition une complexité de Kolmogorov identique ou inférieure à celle du programme. Pour répondre aux arguments de Dembski concernant les processus stochastiques, je vais prétendre, pour le reste de cette section, que la SI ne peut pas être généré par des processus déterministes.
-La prochaine étape de la justification de Dembski est de faire valoir que des processus purement aléatoires ne peuvent pas générer de CSI (p. 155-157). Je conviens volontiers que tel est bien le cas, compte tenu de l’élaboration suivante de ce que j’entends par là : nous considérons qu’il est effectivement impossible qu’un phénomène hautement spécifié (tel qu’un organisme vivant) puisse être tiré d’une distribution de probabilité uniforme sur l’espace de tous les objets. combinaisons possibles des composants du phénomène (si nous prenons des composants suffisamment simples). La probabilité est trop faible. C'est ce que Richard Dawkins appelle la //sélection en une étape//((45)). Cependant, comme le souligne Dembski, des processus purement aléatoires peuvent produire de plus petites quantités de SI, en deçà de la CSI, car elles correspondent à des événements de probabilité forte. En d'autres termes, la LCI n'interdit pas aux processus naturels de produire du SI.+La prochaine étape de la justification de Dembski est de faire valoir que des processus purement aléatoires ne peuvent pas générer de CSI (p. 155-157). Je conviens volontiers que tel est bien le cas, compte tenu de l’élaboration suivante de ce que j’entends par là : nous considérons qu’il est effectivement impossible qu’un phénomène hautement spécifié (tel qu’un organisme vivant) puisse être tiré d’une distribution de probabilité uniforme sur l’espace de tous les objets. combinaisons possibles des composants du phénomène (si nous prenons des composants suffisamment simples). La probabilité est trop faible. C'est ce que Richard Dawkins appelle la //sélection en une étape// (45). Cependant, comme le souligne Dembski, des processus purement aléatoires peuvent produire de plus petites quantités de SI, en deçà de la CSI, car elles correspondent à des événements de probabilité forte. En d'autres termes, la LCI n'interdit pas aux processus naturels de produire de la SI.
  
-Mais qu'en est-il de la //sélection cumulative// (pour reprendre le terme contrasté de Dawkins)? La sélection cumulative est une série de petites étapes dans l'espace de phase (l'ensemble de toutes les configurations possibles), basées sur des essais et des erreurs, dans lesquelles des étapes avantageuses sont conservées et utilisées comme base pour un développement ultérieur. Quel est l'argument de Dembski contre la génération de CSI par sélection cumulative? En cherchant à savoir si un processus stochastique peut générer un CSI (p. 157-158), Dembski décompose le processus en deux étapes: une étape purement aléatoire suivie d’une étape déterministe. Il fait valoir qu'aucune étape ne peut produire de CSI, de sorte que le processus combiné en deux étapes ne peut pas le faire non plus. Étrangement, Dembski ne mentionne pas la possibilité de multiples itérations de hasard et de processus déterministes. Mais c’est exactement sur quoi repose la sélection cumulative (par exemple, l’évolution biologique). Chaque stade aléatoire (mutation aléatoire) peut produire un peu d'IS, et la sélection naturelle peut empêcher la perte de l'IS existant, ce qui lui permet de s'accumuler dans le temps dans un processus semblable à un cliquet.+Mais qu'en est-il de la //sélection cumulative// (pour reprendre le terme contrasté de Dawkins)? La sélection cumulative est une série de petites étapes dans l'espace de phase (l'ensemble de toutes les configurations possibles), basées sur des essais et des erreurs, dans lesquelles des étapes avantageuses sont conservées et utilisées comme base pour un développement ultérieur. Quel est l'argument de Dembski contre la génération de CSI par sélection cumulative ? En cherchant à savoir si un processus stochastique peut générer une CSI (p. 157-158), Dembski décompose le processus en deux étapes: une étape purement aléatoire suivie d’une étape déterministe. Il fait valoir qu'aucune étape ne peut produire de CSI, de sorte que le processus combiné en deux étapes ne peut pas le faire non plus. Étrangement, Dembski ne mentionne pas la possibilité de multiples itérations de hasard et de processus déterministes. Mais c’est exactement sur quoi repose la sélection cumulative (par exemple, l’évolution biologique). Chaque stade aléatoire (mutation aléatoire) peut produire un peu de SI, et la sélection naturelle peut empêcher la perte de la SI existante, ce qui lui permet de s'accumuler dans le temps dans un processus semblable à un cliquet.
  
  
Ligne 557: Ligne 547:
  
 ====7. Le cas positif pour le design==== ====7. Le cas positif pour le design====
-//Recherche! Une simple excuse pour l'oisiveté; il n'a jamais été atteint, +<TEXT align="center">//Recherche! Une simple excuse pour l'oisiveté; il n'a jamais été atteint, et n'obtiendra jamais aucun résultat de la moindre valeur.// 
-et n'obtiendra jamais aucun résultat de la moindre valeur.// +\\ 
-Benjamin Jowett (1817-93), universitaire et maître au Balliol College, Oxford+Benjamin Jowett (1817-93), universitaire et maître au Balliol College, Oxford</TEXT>
  
 Ayant précédemment nié l’intérêt de la comparaison d’hypothèses et s’appuyant sur une approche purement éliminatoire pour déduire de la conception, Dembski change de cap dans son dernier chapitre et tente de présenter un argument positif en faveur de son hypothèse de conception. Cela repose en grande partie sur la prémisse que la complexité spécifiée est un marqueur de conception, une prémisse que nous avons vue être fausse. Je vais ignorer ces parties et me concentrer sur les revendications supplémentaires. Ayant précédemment nié l’intérêt de la comparaison d’hypothèses et s’appuyant sur une approche purement éliminatoire pour déduire de la conception, Dembski change de cap dans son dernier chapitre et tente de présenter un argument positif en faveur de son hypothèse de conception. Cela repose en grande partie sur la prémisse que la complexité spécifiée est un marqueur de conception, une prémisse que nous avons vue être fausse. Je vais ignorer ces parties et me concentrer sur les revendications supplémentaires.
Ligne 566: Ligne 556:
 Le mouvement de la conception intelligente a souvent été critiqué pour ne pas avoir mené ou même proposé aucune recherche, et Dembski tente de répondre à cette préoccupation ici (pp. 311-314). La première partie de ce "programme" est la recherche d’un plus grand nombre de cas de complexité spécifiée, c’est-à-dire de davantage de systèmes biologiques pour lesquels il n’y a apparemment aucune explication naturelle connue. Au-delà de ça, il ne présente qu'une liste de questions, dont les suivantes sont typiques: Le mouvement de la conception intelligente a souvent été critiqué pour ne pas avoir mené ou même proposé aucune recherche, et Dembski tente de répondre à cette préoccupation ici (pp. 311-314). La première partie de ce "programme" est la recherche d’un plus grand nombre de cas de complexité spécifiée, c’est-à-dire de davantage de systèmes biologiques pour lesquels il n’y a apparemment aucune explication naturelle connue. Au-delà de ça, il ne présente qu'une liste de questions, dont les suivantes sont typiques:
  
-<well>//Problème de construction - Comment l'objet conçu a-t-il été construit? Avec suffisamment d'informations sur l'historique causal d'un objet, cette question peut admettre une réponse. //[p. 313] ((46))</well>+<well>//Problème de construction - Comment l'objet conçu a-t-il été construit? Avec suffisamment d'informations sur l'historique causal d'un objet, cette question peut admettre une réponse. //[p. 313] (46)</well>
 Aucune tentative sérieuse n'est faite pour suggérer comment on pourrait répondre à ces questions. Une liste de questions ne constitue pas un programme de recherche! Aucune tentative sérieuse n'est faite pour suggérer comment on pourrait répondre à ces questions. Une liste de questions ne constitue pas un programme de recherche!
  
 La dernière question de Dembski est la suivante: "Qui ou quel est le designer?", Mais il ajoute rapidement qu'il ne s'agit pas d'une question de science. Comme c'est étrange. Je pensais que Dembski, comme d’autres partisans de l’Intelligent Design, était opposé au tracé de lignes arbitraires entre ce qui peut et ne peut pas être inclus dans la science. Pourquoi l'identité du designer devrait-elle être un sujet interdit? La dernière question de Dembski est la suivante: "Qui ou quel est le designer?", Mais il ajoute rapidement qu'il ne s'agit pas d'une question de science. Comme c'est étrange. Je pensais que Dembski, comme d’autres partisans de l’Intelligent Design, était opposé au tracé de lignes arbitraires entre ce qui peut et ne peut pas être inclus dans la science. Pourquoi l'identité du designer devrait-elle être un sujet interdit?
  
 +===7.2 testabilité===
  
 +L'hypothèse conception est souvent critiqué pour être non testable. Ce qu'on entend par //testable// n'est pas clair, mais Dembski utilise le terme comme une rubrique générale permettant de considérer un certain nombre de critères plus spécifiques.
  
 +==Opposabilité (falsifiabilité)==
 +Les partisans et les opposants à l’Intelligent Design ont malheureusement tendance à affirmer qu’« Un design intelligent est / n’est pas opposable », sans préciser l’hypothèse à laquelle ils font référence. En fait, comme nous l’avons déjà vu, l’hypothèse de conception de Dembski nous dit seulement qu’un concepteur était impliqué quelque part dans la chaîne causale des événements menant au flagelle bactérien (et éventuellement à d’autres systèmes biologiques). L'hypothèse de conception ne dit rien sur l'identité, les capacités ou les objectifs du concepteur; s'il y avait beaucoup de designers ou un seul; ou comment et quand la conception a été mise en œuvre.
  
-Opposabilité (falsifiabilité) 
-Les partisans et les opposants à l’Intelligent Design ont malheureusement tendance à affirmer qu ’« Un design intelligent est / n’est pas opposable », sans préciser l’hypothèse à laquelle ils font référence. En fait, comme nous l’avons déjà vu, l’hypothèse de conception de Dembski nous dit seulement qu’un concepteur était impliqué quelque part dans la chaîne causale des événements menant au flagelle bactérien (et éventuellement à d’autres systèmes biologiques). L'hypothèse de conception ne dit rien sur l'identité, les capacités ou les objectifs du concepteur; s'il y avait beaucoup de designers ou un seul; ou comment et quand la conception a été mise en œuvre. 
 Le philosophe des sciences, Karl Popper, a soutenu que l’ opposabilité est une condition nécessaire pour qu'une proposition soit considérée comme une hypothèse scientifique. Ce principe a souvent été utilisé comme critère de démarcation pour séparer la science de la pseudoscience. S'il n'existe aucune preuve susceptible de contredire une hypothèse, celle-ci peut être maintenue indépendamment de la preuve. Le principe a été affaibli par l'observation (attribuée à Duhem et Quine) que toute hypothèse peut être sauvée de l’opposabilité en abandonnant une hypothèse auxiliaire. Par exemple, il est parfois avancé que la découverte d'un crâne humain fossilisé dans une strate précambrienne s’opposerait à la théorie de l'évolution. Mais, même face à une telle observation, la théorie de l'évolution pourrait être sauvée en supposant qu'il existe des moyens inconnus par lesquels un fossile pourrait couler à travers de vieilles strates. Néanmoins, nous pouvons penser en termes de degré d’opposabilité La théorie de l'évolution est //relativement// opposable, car il existe de nombreuses observations hypothétiques, telles qu'un crâne dans le précambrien, qui causeraient une consternation importante parmi les scientifiques, nécessitant la ré-évaluation d'au moins une hypothèse scientifique bien étayée. Le philosophe des sciences, Karl Popper, a soutenu que l’ opposabilité est une condition nécessaire pour qu'une proposition soit considérée comme une hypothèse scientifique. Ce principe a souvent été utilisé comme critère de démarcation pour séparer la science de la pseudoscience. S'il n'existe aucune preuve susceptible de contredire une hypothèse, celle-ci peut être maintenue indépendamment de la preuve. Le principe a été affaibli par l'observation (attribuée à Duhem et Quine) que toute hypothèse peut être sauvée de l’opposabilité en abandonnant une hypothèse auxiliaire. Par exemple, il est parfois avancé que la découverte d'un crâne humain fossilisé dans une strate précambrienne s’opposerait à la théorie de l'évolution. Mais, même face à une telle observation, la théorie de l'évolution pourrait être sauvée en supposant qu'il existe des moyens inconnus par lesquels un fossile pourrait couler à travers de vieilles strates. Néanmoins, nous pouvons penser en termes de degré d’opposabilité La théorie de l'évolution est //relativement// opposable, car il existe de nombreuses observations hypothétiques, telles qu'un crâne dans le précambrien, qui causeraient une consternation importante parmi les scientifiques, nécessitant la ré-évaluation d'au moins une hypothèse scientifique bien étayée.
  
-En revanche, il n’existe aucune observation potentielle susceptible de poser un problème de ce type aux promoteurs de l’hypothèse de conception, car toute observation est conforme à cette hypothèse, avec ou sans hypothèse auxiliaire. Malgré cela, Dembski prétend que l'hypothèse de conception est opposable, tout en concédant qu'il a été "rapide et lâche" dans son utilisation du terme (p. 357). Son usage est indiqué par le passage suivant:+En revanche, il n’existe aucune observation potentielle susceptible de poser un problème de ce type aux promoteurs de l’hypothèse de conception, car toute observation est conforme à cette hypothèse, avec ou sans hypothèse auxiliaire. Malgré cela, Dembski prétend que l'hypothèse de conception est opposable, tout en concédant qu'il a été "désinvolte" dans son utilisation du terme (p. 357). Son usage est indiqué par le passage suivant:
  
-//S'il était possible de démontrer que des systèmes biologiques tels que le flagelle bactérien, merveilleusement complexes, élégants et intégrés, auraient pu être formés par un processus darwinien progressif (qui, par définition, n'est pas télique), la conception intelligente serait alors falsifiée au motif on n'invoque pas des causes intelligentes quand des causes purement naturelles feront l'affaire. Dans ce cas, le rasoir d'Occam achève le design intelligent.// [p.357]+<well>//S'il était possible de démontrer que des systèmes biologiques tels que le flagelle bactérien, merveilleusement complexes, élégants et intégrés, auraient pu être formés par un processus darwinien progressif (qui, par définition, n'est pas télique), la conception intelligente serait alors falsifiée au motif on n'invoque pas des causes intelligentes quand des causes purement naturelles feront l'affaire. Dans ce cas, le rasoir d'Occam achève le design intelligent.// [p.357]</well>
 Tout ce que Dembski dit, c’est que l’hypothèse de conception pourrait être remplacée par une meilleure. Mais c'est vrai de n'importe quelle hypothèse, donc le point est assez inintéressant. Ce n’est certainement pas ce que Popper entendait par opposabilité. Tout ce que Dembski dit, c’est que l’hypothèse de conception pourrait être remplacée par une meilleure. Mais c'est vrai de n'importe quelle hypothèse, donc le point est assez inintéressant. Ce n’est certainement pas ce que Popper entendait par opposabilité.
  
Ligne 589: Ligne 581:
 Le pouvoir prédictif (ou //prévisibilité//, comme l'appelle Dembski) est étroitement lié à la falsifiabilité (au sens de Popper), puisqu’une hypothèse est falsifiée en faisant une observation qui contredit une prédiction de l’hypothèse. Pour qu'une hypothèse puisse faire des prédictions, elle doit être en mesure de faire la distinction entre les observations possibles sous l'hypothèse et celles qui ne le sont pas, ou bien celles qui sont plus probables que d'autres. L'hypothèse de conception échoue absolument à cet égard. En l'absence de connaissances sur les capacités et les objectifs du concepteur, toutes les possibilités imaginables apparaissent également probables. Le pouvoir prédictif (ou //prévisibilité//, comme l'appelle Dembski) est étroitement lié à la falsifiabilité (au sens de Popper), puisqu’une hypothèse est falsifiée en faisant une observation qui contredit une prédiction de l’hypothèse. Pour qu'une hypothèse puisse faire des prédictions, elle doit être en mesure de faire la distinction entre les observations possibles sous l'hypothèse et celles qui ne le sont pas, ou bien celles qui sont plus probables que d'autres. L'hypothèse de conception échoue absolument à cet égard. En l'absence de connaissances sur les capacités et les objectifs du concepteur, toutes les possibilités imaginables apparaissent également probables.
  
-Dans un article précédent, Dembski avait reconnu le manque de pouvoir prédictif de l'hypothèse de conception: "Oui, la conception intelligente concède la prévisibilité". ((47)Dans // No Free Lunch//, il recule devant cette concession en proposant deux exemples de prédictions faites par l'hypothèse de conception. Aucun de ceux-ci ne résiste à l'examen.+Dans un article précédent, Dembski avait reconnu le manque de pouvoir prédictif de l'hypothèse de conception: "Oui, la conception intelligente concède la prévisibilité" (47)Dans // No Free Lunch//, il recule devant cette concession en proposant deux exemples de prédictions faites par l'hypothèse de conception. Aucun de ceux-ci ne résiste à l'examen.
  
-* En premier lieu, il nous dit que "le design intelligent nous offre une prédiction évidente, à savoir que la nature devrait être bourrée de complexité spécifiée et devrait donc contenir de nombreux indicateurs de conception" (p. 362). Pas du tout. L’hypothèse de conception ne nous dit rien sur le nombre de structures conçues, et Dembski lui-même nous avait déjà dit (p. 24) que la conception ne laissait pas nécessairement de traces détectables. Il écrit même:+  * En premier lieu, il nous dit que "le design intelligent nous offre une prédiction évidente, à savoir que la nature devrait être bourrée de complexité spécifiée et devrait donc contenir de nombreux indicateurs de conception" (p. 362). Pas du tout. L’hypothèse de conception ne nous dit rien sur le nombre de structures conçues, et Dembski lui-même nous avait déjà dit (p. 24) que la conception ne laissait pas nécessairement de traces détectables. Il écrit même:
 <well>//Veuillez noter que je ne propose pas de théorie sur la fréquence ou l'intermittence avec laquelle un concepteur non incarné communique des informations au monde. Je ne serais pas surpris si la plupart des informations communiquées par un tel concepteur nous échappent sans nous conformer à aucun modèle qui pourrait nous permettre de détecter ce concepteur ... //[pp. 346-347]</well> <well>//Veuillez noter que je ne propose pas de théorie sur la fréquence ou l'intermittence avec laquelle un concepteur non incarné communique des informations au monde. Je ne serais pas surpris si la plupart des informations communiquées par un tel concepteur nous échappent sans nous conformer à aucun modèle qui pourrait nous permettre de détecter ce concepteur ... //[pp. 346-347]</well>
- * Ensuite, il fait appel à des modèles reconnus dans l'évolution de la technologie humaine, affirmant que l'hypothèse de conception prédit que nous devrions également observer de tels modèles dans l'évolution biologique (p. 362). Mais pourquoi cela devrait-il être le cas ? Dembski nous dit-il maintenant que son designer non incarné est contraint de suivre des modèles de développement similaires à ceux des designers humains ? Si tel est le cas, il s’agit là d’un ajout à l’hypothèse de conception qui a effectivement des implications prévisionnelles. Mais cela va dans les deux sens. Si nous trouvons des modèles d'évolution qui ne sont pas typiques du développement technologique humain, cela sera considéré comme une preuve contre l'hypothèse de conception. Et nous trouvons de tels modèles. Par exemple, nous voyons que les changements biologiques évolutifs se produisent de manière fragmentée, les systèmes étant adaptés à des fonctions complètement nouvelles, où un concepteur humain redessinerait le système à partir de zero. Cela conduit souvent à des systèmes sous-optimaux tels que la rétine inversée de mammifère, avec son angle mort, qui pourrait être amélioré par un simple changement, facilement effectué par un ingénieur humain mais éventuellement inaccessible à l'évolution naturelle.((48)) Donc, Dembski a le choix ici : pouvoir ou panne prédictive. Lequel sera-t’il ? 
  
-N'ayant pas réussi à établir de pouvoir prédictif pour sa propre hypothèse, il tente de renverser la théorie évolutionniste, soulignant que celle-ci ne prédit pas l'existence de faits tels que l'existence d'espèces particulières (p. 361). C’est vrai, car de tels faits sont le résultat de contingences historiques imprévisibles. Mais la théorie de l'évolution fait certainement de nombreuses prédictions de la même façon.((49)Par exemple, la théorie de l'évolution prédit qu'il y aura un degré élevé de congruence entre les arbres phylogénétiques dérivés d'études morphologiques et d'études moléculaires indépendantes. Cette prévision a été confirmée et continue de l'être à mesure que davantage d'espèces sont testées.((50))+  * Ensuite, il fait appel à des modèles reconnus dans l'évolution de la technologie humaine, affirmant que l'hypothèse de conception prédit que nous devrions également observer de tels modèles dans l'évolution biologique (p. 362). Mais pourquoi cela devrait-il être le cas ? Dembski nous dit-il maintenant que son designer non incarné est contraint de suivre des modèles de développement similaires à ceux des designers humains ? Si tel est le cas, il s’agit là d’un ajout à l’hypothèse de conception qui a effectivement des implications prévisionnelles. Mais cela va dans les deux sens. Si nous trouvons des modèles d'évolution qui ne sont pas typiques du développement technologique humain, cela sera considéré comme une preuve contre l'hypothèse de conception. Et nous trouvons de tels modèles. Par exemple, nous voyons que les changements biologiques évolutifs se produisent de manière fragmentée, les systèmes étant adaptés à des fonctions complètement nouvelles, où un concepteur humain redessinerait le système à partir de zero. Cela conduit souvent à des systèmes sous-optimaux tels que la rétine inversée de mammifère, avec son angle mort, qui pourrait être amélioré par un simple changement, facilement effectué par un ingénieur humain mais éventuellement inaccessible à l'évolution naturelle (48). Donc, Dembski a le choix ici : pouvoir ou panne prédictive. Lequel sera-t’il ? 
 + 
 +N'ayant pas réussi à établir de pouvoir prédictif pour sa propre hypothèse, il tente de renverser la théorie évolutionniste, soulignant que celle-ci ne prédit pas l'existence de faits tels que l'existence d'espèces particulières (p. 361). C’est vrai, car de tels faits sont le résultat de contingences historiques imprévisibles. Mais la théorie de l'évolution fait certainement de nombreuses prédictions de la même façon (49)Par exemple, la théorie de l'évolution prédit qu'il y aura un degré élevé de congruence entre les arbres phylogénétiques dérivés d'études morphologiques et d'études moléculaires indépendantes. Cette prévision a été confirmée et continue de l'être à mesure que davantage d'espèces sont testées (50).
  
 Les partisans de la conception intelligente diront parfois qu'une grande partie du pouvoir prédictif de la théorie de l'évolution peut être assimilée par la conception intelligente. Par exemple, ceux qui acceptent l'ascendance commune des espèces peuvent faire valoir que la congruence des arbres phylogénétiques est une prédiction d'ascendance commune, que la descendance d'un ancêtre commun soit contrôlée ou non par un designer. Dembski ne semble pas avoir un tel argument et est en fait assez ambivalent à propos de l'ascendance commune (pp. 314-316). En tout état de cause, l’introduction d’un concepteur dans le processus évolutif affaiblit les prédictions d’ascendance commune, car elle nous oblige à permettre, par exemple, au concepteur d’introduire soudainement un matériel génétique entièrement nouveau. Le seul moyen de préserver pleinement le pouvoir prédictif de la théorie de l'évolution tout en introduisant un concepteur consiste à émettre une hypothèse selon laquelle le concepteur imite parfaitement les effets empiriques de l'évolution naturelle. Une telle hypothèse est totalement superflue d'un point de vue scientifique. Les partisans de la conception intelligente diront parfois qu'une grande partie du pouvoir prédictif de la théorie de l'évolution peut être assimilée par la conception intelligente. Par exemple, ceux qui acceptent l'ascendance commune des espèces peuvent faire valoir que la congruence des arbres phylogénétiques est une prédiction d'ascendance commune, que la descendance d'un ancêtre commun soit contrôlée ou non par un designer. Dembski ne semble pas avoir un tel argument et est en fait assez ambivalent à propos de l'ascendance commune (pp. 314-316). En tout état de cause, l’introduction d’un concepteur dans le processus évolutif affaiblit les prédictions d’ascendance commune, car elle nous oblige à permettre, par exemple, au concepteur d’introduire soudainement un matériel génétique entièrement nouveau. Le seul moyen de préserver pleinement le pouvoir prédictif de la théorie de l'évolution tout en introduisant un concepteur consiste à émettre une hypothèse selon laquelle le concepteur imite parfaitement les effets empiriques de l'évolution naturelle. Une telle hypothèse est totalement superflue d'un point de vue scientifique.
Ligne 604: Ligne 597:
 Dembski prétend qu'il existe "des phénomènes de la biologie susceptibles de donner lieu à un cadre théorique de la conception qui rendrait un compte rendu meilleur et plus précis qu'un cadre purement darwinien et donc non téléologique" (p. 363). Pour appuyer cette affirmation, il ne donne qu'un exemple: Dembski prétend qu'il existe "des phénomènes de la biologie susceptibles de donner lieu à un cadre théorique de la conception qui rendrait un compte rendu meilleur et plus précis qu'un cadre purement darwinien et donc non téléologique" (p. 363). Pour appuyer cette affirmation, il ne donne qu'un exemple:
  
-//Pour voir cela, supposons que je sois un génie de la biologiste moléculaire et que j’ai inventé une machine moléculaire jusque-là inconnue, bien plus complexe et merveilleuse que le flagelle bactérien. Supposons en outre que je mette cette machine dans une bactérie, libère cet organisme génétiquement modifié, la permette de se reproduire à l'état sauvage et détruit tout indice de ma création de la machine moléculaire. Supposons, pour l’exemple, que la machine soit un dard qui pique d’autres bactéries et les fait exploser en y injectant rapidement un gaz (je ne connais aucune machine moléculaire de ce type dans la nature), permettant ainsi aux bactéries dotées de mon invention de consommer leur proie malheureuse. +<well>//Pour voir cela, supposons que je sois un génie de la biologiste moléculaire et que j’ai inventé une machine moléculaire jusque-là inconnue, bien plus complexe et merveilleuse que le flagelle bactérien. Supposons en outre que je mette cette machine dans une bactérie, libère cet organisme génétiquement modifié, la permette de se reproduire à l'état sauvage et détruit tout indice de ma création de la machine moléculaire. Supposons, pour l’exemple, que la machine soit un dard qui pique d’autres bactéries et les fait exploser en y injectant rapidement un gaz (je ne connais aucune machine moléculaire de ce type dans la nature), permettant ainsi aux bactéries dotées de mon invention de consommer leur proie malheureuse. 
-Posons maintenant la question suivante: si un darwiniste découvrait cette bactérie avec la nouvelle machine moléculaire à l'état sauvage, cette machine serait-elle attribuée au design ou à la sélection naturelle? "//[P. 364]+Posons maintenant la question suivante: si un darwiniste découvrait cette bactérie avec la nouvelle machine moléculaire à l'état sauvage, cette machine serait-elle attribuée au design ou à la sélection naturelle? "//[P. 364]</well>
 Dembski nous dit qu '"le design intelligent, en se concentrant sur la complexité spécifiée du dard, confirmerait la conception alors que le darwinisme ne pourrait jamais le faire" (p. 364). Quelle absurdité! Il n’existe aucune raison pour laquelle un darwiniste (c’est-à-dire un scientifique traditionnel) ne devrait pas envisager la possibilité d’une conception humaine, tout comme il ou elle pourrait soupçonner la modification génétique d’une nouvelle variété de tomate inhabituelle ou l’élevage sélectif d’un chien. Dans le cas du dard de Dembski, nous examinerions des facteurs tels que le fait que le dispositif soit à la portée de la technologie actuelle, quel motivation pourrait exister pour le créer, si le dispositif avait l'apparence d'une structure évoluée, s'il existait une structure similaire connue chez des organismes à partir desquels celui-ci aurait pu évoluer, etc... Dembski nous dit qu '"le design intelligent, en se concentrant sur la complexité spécifiée du dard, confirmerait la conception alors que le darwinisme ne pourrait jamais le faire" (p. 364). Quelle absurdité! Il n’existe aucune raison pour laquelle un darwiniste (c’est-à-dire un scientifique traditionnel) ne devrait pas envisager la possibilité d’une conception humaine, tout comme il ou elle pourrait soupçonner la modification génétique d’une nouvelle variété de tomate inhabituelle ou l’élevage sélectif d’un chien. Dans le cas du dard de Dembski, nous examinerions des facteurs tels que le fait que le dispositif soit à la portée de la technologie actuelle, quel motivation pourrait exister pour le créer, si le dispositif avait l'apparence d'une structure évoluée, s'il existait une structure similaire connue chez des organismes à partir desquels celui-ci aurait pu évoluer, etc...
 En tout état de cause, cela n’a aucun rapport avec la question de savoir s’il existe un quelconque pouvoir explicatif à l’hypothèse selon laquelle un être inconnu à conçu le flagelle bactérien. Dans l'exemple de Dembski, nous envisagerions un concepteur humain doté de capacités et de motivations connues (dans une certaine mesure). En tout état de cause, cela n’a aucun rapport avec la question de savoir s’il existe un quelconque pouvoir explicatif à l’hypothèse selon laquelle un être inconnu à conçu le flagelle bactérien. Dans l'exemple de Dembski, nous envisagerions un concepteur humain doté de capacités et de motivations connues (dans une certaine mesure).
Ligne 614: Ligne 607:
 Dembski ne cherche pas à dissimuler le fait que le concepteur qu’il a en tête n’est pas une personne matérielle. Pourquoi, demande-t-il, les scientifiques sont-ils disposés à envisager des conceptions impliquant des êtres extraterrestres (comme le SETI) mais non des concepteurs non incarnés ? Il répond à la question lui-même: Dembski ne cherche pas à dissimuler le fait que le concepteur qu’il a en tête n’est pas une personne matérielle. Pourquoi, demande-t-il, les scientifiques sont-ils disposés à envisager des conceptions impliquant des êtres extraterrestres (comme le SETI) mais non des concepteurs non incarnés ? Il répond à la question lui-même:
  
-//Au moins avec les intelligences extraterrestres, on peut deviner ce qui aurait pu se passer. Mais nous n’avons aucune expérience avec des concepteurs non incarnés, et c’est clairement ce à quoi nous sommes confrontés lorsqu’il s’agit de conception en biologie. //[p. 359]+<well>//Au moins avec les intelligences extraterrestres, on peut deviner ce qui aurait pu se passer. Mais nous n’avons aucune expérience avec des concepteurs non incarnés, et c’est clairement ce à quoi nous sommes confrontés lorsqu’il s’agit de conception en biologie. //[p. 359]</well> 
 C'est exactement le point. Dans le cas de SETI, nous pouvons envisager la possibilité que des extraterrestres évoluent naturellement, développent la technologie permettant d'envoyer un signal radio à travers l'espace interstellaire et décident qu'il vaut la peine d'essayer de communiquer avec nous. Il existe d'énormes incertitudes, mais nous pouvons deviner, en connaissance de cause, la plausibilité relative d'une telle hypothèse, par rapport à l'hypothèse selon laquelle un signal radio extraterrestre est d'origine naturelle. C'est exactement le point. Dans le cas de SETI, nous pouvons envisager la possibilité que des extraterrestres évoluent naturellement, développent la technologie permettant d'envoyer un signal radio à travers l'espace interstellaire et décident qu'il vaut la peine d'essayer de communiquer avec nous. Il existe d'énormes incertitudes, mais nous pouvons deviner, en connaissance de cause, la plausibilité relative d'une telle hypothèse, par rapport à l'hypothèse selon laquelle un signal radio extraterrestre est d'origine naturelle.
  
 En revanche, un designer non incarné est une tout autre affaire. Dembski définit un concepteur désincarné comme "une intelligence dont le mode de fonctionnement ne peut être confiné à une entité physique située dans l'espace-temps" (pp. 333-334). Nous n'avons aucune idée de la façon dont un tel être pourrait exister ni même de ce que cela signifie pour un tel être. Pour ma part, je ne règle pas par principe les êtres non incarnés en dehors de la science, mais il faudrait que de nouveaux développements scientifiques très importants soient nécessaires avant de pouvoir sérieusement envisager une telle hypothèse. Entre-temps, les concepteurs non incarnés constituent une explication hautement non parcimonieuse. En revanche, un designer non incarné est une tout autre affaire. Dembski définit un concepteur désincarné comme "une intelligence dont le mode de fonctionnement ne peut être confiné à une entité physique située dans l'espace-temps" (pp. 333-334). Nous n'avons aucune idée de la façon dont un tel être pourrait exister ni même de ce que cela signifie pour un tel être. Pour ma part, je ne règle pas par principe les êtres non incarnés en dehors de la science, mais il faudrait que de nouveaux développements scientifiques très importants soient nécessaires avant de pouvoir sérieusement envisager une telle hypothèse. Entre-temps, les concepteurs non incarnés constituent une explication hautement non parcimonieuse.
- 
 Non seulement Dembski ne parvient pas à expliquer la nature de son concepteur non incarné, il essaie même de se débarrasser des questions sur son origine : Non seulement Dembski ne parvient pas à expliquer la nature de son concepteur non incarné, il essaie même de se débarrasser des questions sur son origine :
  
-//La question "qui a conçu le concepteur" invite à une régression facile et rapide. La raison pour laquelle cette régression peut être refusée est qu’une telle régression se produit chaque fois que les scientifiques introduisent une nouvelle entité théorique. Par exemple, lorsque Ludwig Boltzman a présenté sa théorie cinétique de la chaleur à la fin des années 1800 et a invoqué le mouvement de particules non observables (ce que nous appelons maintenant des atomes et des molécules) pour expliquer la chaleur, on aurait tout aussi bien pu dire que de telles particules non observables n’expliquent quoi que ce soit parce qu'elles ont elles-mêmes besoin d'être expliqués. //[p. 354]+<well>//La question "qui a conçu le concepteur" invite à une régression facile et rapide. La raison pour laquelle cette régression peut être refusée est qu’une telle régression se produit chaque fois que les scientifiques introduisent une nouvelle entité théorique. Par exemple, lorsque Ludwig Boltzman a présenté sa théorie cinétique de la chaleur à la fin des années 1800 et a invoqué le mouvement de particules non observables (ce que nous appelons maintenant des atomes et des molécules) pour expliquer la chaleur, on aurait tout aussi bien pu dire que de telles particules non observables n’expliquent quoi que ce soit parce qu'elles ont elles-mêmes besoin d'être expliqués. //[p. 354]</well> 
 Bien sûr, il est vrai que les explications scientifiques créent souvent de nouvelles questions sans réponse. Mais, pour évaluer la valeur d'une explication, ces questions ne sont pas sans importance. Elles doivent être mis en balance avec les améliorations de notre compréhension fournies par l'explication. Invoquer un être inexpliqué pour expliquer l'origine des autres êtres (nous-mêmes) n'est guère plus qu'une pétition de principe. La nouvelle question posée par l'explication est aussi problématique que celle à laquelle l'explication prétend répondre. Comme le dit Dawkins (cité par Dembski): Bien sûr, il est vrai que les explications scientifiques créent souvent de nouvelles questions sans réponse. Mais, pour évaluer la valeur d'une explication, ces questions ne sont pas sans importance. Elles doivent être mis en balance avec les améliorations de notre compréhension fournies par l'explication. Invoquer un être inexpliqué pour expliquer l'origine des autres êtres (nous-mêmes) n'est guère plus qu'une pétition de principe. La nouvelle question posée par l'explication est aussi problématique que celle à laquelle l'explication prétend répondre. Comme le dit Dawkins (cité par Dembski):
  
-//Vous devez dire quelque chose comme "Dieu était toujours là", et si vous vous permettez ce genre de sortie paresseuse, vous pourriez tout aussi bien dire que "l'ADN était toujours là" ou "la vie était toujours là" et en finir là.// [p. 353]+<well>//Vous devez dire quelque chose comme "Dieu était toujours là", et si vous vous permettez ce genre de sortie paresseuse, vous pourriez tout aussi bien dire que "l'ADN était toujours là" ou "la vie était toujours là" et en finir là.// [p. 353]</well>
 La réponse de Dembski consiste à attaquer "la vision réductionniste de Dawkins de la science" (p. 353). Mais ce n'est pas réductionnisme. C'est le principe selon lequel les explications scientifiques devraient en réalité //expliquer// les choses, et pas seulement poser la question ! La réponse de Dembski consiste à attaquer "la vision réductionniste de Dawkins de la science" (p. 353). Mais ce n'est pas réductionnisme. C'est le principe selon lequel les explications scientifiques devraient en réalité //expliquer// les choses, et pas seulement poser la question !
  
Ligne 631: Ligne 625:
 Une chose que Dembski //est// prêt à dire au sujet de son concepteur non incarné proposé est qu’il intervient probablement dans le monde en manipulant des événements quantiques non déterministes: Une chose que Dembski //est// prêt à dire au sujet de son concepteur non incarné proposé est qu’il intervient probablement dans le monde en manipulant des événements quantiques non déterministes:
  
-//Les limitations thermodynamiques s'appliquent s'il s'agit de concepteurs incarnés qui ont besoin de produire de l'énergie pour transmettre des informations. Mais les concepteurs non-corporels qui cooptent des processus aléatoires et les incitent à présenter une complexité spécifiée ne sont pas tenus de dépenser de l'énergie. Pour eux, le problème du "déplacement des particules" ne se pose tout simplement pas. En effet, ils sont totalement libres de toute accusation de substitution contrefactuelle, dans laquelle les lois naturelles dictent que les particules doivent se déplacer dans un sens mais finissent par en suivre un autre, car un concepteur non incarné est intervenu. L'indéterminisme signifie qu'un concepteur non incarné peut affecter de manière substantielle la structure du monde physique en transmettant des informations sans transmettre d'énergie.// [p. 341] +<well>//Les limitations thermodynamiques s'appliquent s'il s'agit de concepteurs incarnés qui ont besoin de produire de l'énergie pour transmettre des informations. Mais les concepteurs non-corporels qui cooptent des processus aléatoires et les incitent à présenter une complexité spécifiée ne sont pas tenus de dépenser de l'énergie. Pour eux, le problème du "déplacement des particules" ne se pose tout simplement pas. En effet, ils sont totalement libres de toute accusation de substitution contrefactuelle, dans laquelle les lois naturelles dictent que les particules doivent se déplacer dans un sens mais finissent par en suivre un autre, car un concepteur non incarné est intervenu. L'indéterminisme signifie qu'un concepteur non incarné peut affecter de manière substantielle la structure du monde physique en transmettant des informations sans transmettre d'énergie.// [p. 341]</well> 
-//Pour le moment ,cependant, la théorie quantique est probablement le meilleur endroit pour localiser l'indéterminisme.// [p. 336]+<well>//Pour le moment ,cependant, la théorie quantique est probablement le meilleur endroit pour localiser l'indéterminisme.// [p. 336]</well> 
 Aucune suggestion n'est faite sur //comment// les événements quantiques souhaités pourraient être "induits". Aucune suggestion n'est faite sur //comment// les événements quantiques souhaités pourraient être "induits".
  
 ====8. Dembski et examen par les pairs==== ====8. Dembski et examen par les pairs====
-//Les navires vides font le plus de bruit.// +<TEXT align="center">//Les navires vides font le plus de bruit.// 
-Proverbe traditionnel+\\ 
 +Proverbe traditionnel</TEXT>
 Il est habituel que les universitaires, en particulier ceux des domaines techniques, soumettent leurs travaux à un examen par leurs pairs, leurs collègues universitaires ayant une expertise dans les domaines pertinents. Cela prend généralement la forme de soumission à des revues spécialisées dans lesquelles les articles doivent être soumis à un processus d'examen par les pairs avant publication. À long terme, l’important est de savoir si une idée est acceptée par les experts du domaine concerné, mais le processus d’examen par les pairs fournit un premier filtrage pour éliminer les idées mal dégrossie. Les universitaires présentent également leurs travaux à leurs pairs lors de conférences universitaires. Cependant, comme d’autres partisans de l’Intelligent Design, Dembski évite ces processus, préférant vendre ses idées directement au public et évitant d’être revus par les experts. Il est cité pour avoir dis : Il est habituel que les universitaires, en particulier ceux des domaines techniques, soumettent leurs travaux à un examen par leurs pairs, leurs collègues universitaires ayant une expertise dans les domaines pertinents. Cela prend généralement la forme de soumission à des revues spécialisées dans lesquelles les articles doivent être soumis à un processus d'examen par les pairs avant publication. À long terme, l’important est de savoir si une idée est acceptée par les experts du domaine concerné, mais le processus d’examen par les pairs fournit un premier filtrage pour éliminer les idées mal dégrossie. Les universitaires présentent également leurs travaux à leurs pairs lors de conférences universitaires. Cependant, comme d’autres partisans de l’Intelligent Design, Dembski évite ces processus, préférant vendre ses idées directement au public et évitant d’être revus par les experts. Il est cité pour avoir dis :
-//Je suis juste blasé de vouloir soumettre des choses à des revues où il faut souvent attendre deux ans avant de les voir imprimer. Et je trouve que je peux réellement obtenir le revireent plus rapidement en écrivant un livre et en y exprimant des idées. Mes livres se vendent bien. Je reçois des redevances. Et le matériel est plus lu// ((51)).+//Je suis juste blasé de vouloir soumettre des choses à des revues où il faut souvent attendre deux ans avant de les voir imprimer. Et je trouve que je peux réellement obtenir le revireent plus rapidement en écrivant un livre et en y exprimant des idées. Mes livres se vendent bien. Je reçois des redevances. Et le matériel est plus lu// (51).
  
-Dembski affirme avoir fourni une base rationnelle à l'approche fisherienne par la statistique et avoir découvert une nouvelle loi sur la conservation de l'information. Si ces affirmations étaient vraies, elles revêtiraient une importance capitale pour les statisticiens et les théoriciens de l’information. Il a même été salué par l’un de ses alliés de l’Institut Discovery comme «l’Isaac Newton de la théorie de l’information»((52)). Pourtant, ses travaux sur ces sujets ne sont pas parus dans un journal de statistique ou de théorie de l’information et, autant que je peux déterminer, aucun statisticien professionnel ou théoricien de l’information n’a approuvé ce travail. Si cela avait été fait, je suis sûr que nous en aurions entendu parler de Dembski lui-même, car il a l'habitude d'utiliser des références informelles pour remplacer l'évaluation par les pairs : +Dembski affirme avoir fourni une base rationnelle à l'approche fisherienne par la statistique et avoir découvert une nouvelle loi sur la conservation de l'information. Si ces affirmations étaient vraies, elles revêtiraient une importance capitale pour les statisticiens et les théoriciens de l’information. Il a même été salué par l’un de ses alliés de l’Institut Discovery comme «l’Isaac Newton de la théorie de l’information» (52). Pourtant, ses travaux sur ces sujets ne sont pas parus dans un journal de statistique ou de théorie de l’information et, autant que je peux déterminer, aucun statisticien professionnel ou théoricien de l’information n’a approuvé ce travail. Si cela avait été fait, je suis sûr que nous en aurions entendu parler de Dembski lui-même, car il a l'habitude d'utiliser des références informelles pour remplacer l'évaluation par les pairs : 
-//Les mathématiciens et les statisticiens ont été beaucoup plus réceptifs [que les philosophes] à ma codification des inférences de conception. Prenez, par exemple, l'avis positif de "The Design Inference" dans le numéro de mai 1999 de "American Mathematical Monthly" ainsi que les remarques élogieuses du mathématicien Keith Devlin sur mon travail dans son article de juillet / août 2000 pour " The Sciences "intitulé "Snake Eyes in the Garden of Eden ":" La théorie de Dembski a largement contribué à la compréhension du caractère aléatoire, ne serait-ce qu'en soulignant à quel point il peut être difficile de différencier les empreintes de la conception de ceux du hasard. "//((53)) [p. 372n2] +<well>//Les mathématiciens et les statisticiens ont été beaucoup plus réceptifs [que les philosophes] à ma codification des inférences de conception. Prenez, par exemple, l'avis positif de "The Design Inference" dans le numéro de mai 1999 de "American Mathematical Monthly" ainsi que les remarques élogieuses du mathématicien Keith Devlin sur mon travail dans son article de juillet / août 2000 pour " The Sciences "intitulé "Snake Eyes in the Garden of Eden ":" La théorie de Dembski a largement contribué à la compréhension du caractère aléatoire, ne serait-ce qu'en soulignant à quel point il peut être difficile de différencier les empreintes de la conception de ceux du hasard. "//(53) [p. 372n2]</well> 
-Keith Devlin est un mathématicien respecté et largement publié, mais il n'est pas un statisticien. Son article était de nature générale dans un magazine populaire, pas un journal savant, et ne traitait pas des détails du travail de Dembski. Le contenu de l'article était globalement plutôt négatif à l'égard des travaux de Dembski que ne le suggère la remarque finale((54)). Le "message positif" de l'//American Mathematical Monthly// se lit comme suit dans son intégralité: +Keith Devlin est un mathématicien respecté et largement publié, mais il n'est pas un statisticien. Son article était de nature générale dans un magazine populaire, pas un journal savant, et ne traitait pas des détails du travail de Dembski. Le contenu de l'article était globalement plutôt négatif à l'égard des travaux de Dembski que ne le suggère la remarque finale (54). Le "message positif" de l'//American Mathematical Monthly// se lit comme suit dans son intégralité: 
-Probabilité, S, P, L. //The Design Inference: Eliminating Chance Through Small Probabilities.// William A. Dembski. Etudiant en prob., induction et théorie de la décision. Université de Cambridge, 1998, xvii + 243 pages, 54,95 $. [ISBN 0-521-62387-1] Ce n'est pas un texte mais un tract philosophique sur le moment où l'on peut déduire une conception derrière des événements de très faible probabilité. Provocateur, amusant à lire, plein d'exemples intéressants. SN((55))+<well>Probabilité, S, P, L. //The Design Inference: Eliminating Chance Through Small Probabilities.// William A. Dembski. Etudiant en prob., induction et théorie de la décision. Université de Cambridge, 1998, xvii + 243 pages, 54,95 $. [ISBN 0-521-62387-1] Ce n'est pas un texte mais un tract philosophique sur le moment où l'on peut déduire une conception derrière des événements de très faible probabilité. Provocateur, amusant à lire, plein d'exemples intéressants. SN (55)</well>
 Le fait que Dembski doive recourir à des références de soutien aussi peu favorables indique l'absence totale d'acceptation de son travail par les experts des domaines techniques concernés. Le fait que Dembski doive recourir à des références de soutien aussi peu favorables indique l'absence totale d'acceptation de son travail par les experts des domaines techniques concernés.
 Dembski et l'éditeur nous ont dit que //The Design Inference// avait été soumis à un processus de révision, bien qu'aucun détail de ce processus ne soit disponible. Il est intéressant de noter cependant que //The Design Inference// constituait à l'origine la thèse de Dembski pour son doctorat en //philosophie// et que ses directeurs de doctorat étaient des philosophes et non des statisticiens. L'éditeur (Cambridge University Press) catalogue le livre sous le titre "Philosophie de la science". On soupçonne que les critiques qui ont considéré le livre au nom de l'éditeur étaient des philosophes qui n'avaient peut-être pas les connaissances statistiques nécessaires pour comprendre les mathématiques déconcertantes de Dembski. En tout état de cause, une grande partie de la matière de //No Free Lunch//, y compris l'application des méthodes de Dembski à la biologie, ne figurait pas dans //The Design Inference// et n'a donc fait l'objet d'aucun examen. Dembski et l'éditeur nous ont dit que //The Design Inference// avait été soumis à un processus de révision, bien qu'aucun détail de ce processus ne soit disponible. Il est intéressant de noter cependant que //The Design Inference// constituait à l'origine la thèse de Dembski pour son doctorat en //philosophie// et que ses directeurs de doctorat étaient des philosophes et non des statisticiens. L'éditeur (Cambridge University Press) catalogue le livre sous le titre "Philosophie de la science". On soupçonne que les critiques qui ont considéré le livre au nom de l'éditeur étaient des philosophes qui n'avaient peut-être pas les connaissances statistiques nécessaires pour comprendre les mathématiques déconcertantes de Dembski. En tout état de cause, une grande partie de la matière de //No Free Lunch//, y compris l'application des méthodes de Dembski à la biologie, ne figurait pas dans //The Design Inference// et n'a donc fait l'objet d'aucun examen.
Ligne 650: Ligne 646:
 ====9. Conclusion==== ====9. Conclusion====
  
-Mieux vaut la fin d'une chose que son début ... +<TEXT align="center">Mieux vaut la fin d'une chose que son début … 
-Ecclésiaste 7: 8.+\\ 
 +Ecclésiaste 7: 8.</TEXT>
  
 //No Free Lunch// est caractérisé par une pensée confuse, des arguments fallacieux, des erreurs, une équivoque et un usage trompeur du jargon technique. Une fois que ceux-ci sont clarifiés, les conclusions suivantes deviennent apparentes : //No Free Lunch// est caractérisé par une pensée confuse, des arguments fallacieux, des erreurs, une équivoque et un usage trompeur du jargon technique. Une fois que ceux-ci sont clarifiés, les conclusions suivantes deviennent apparentes :
Ligne 663: Ligne 660:
  
 En bref, //No Free Lunch// ne vaut absolument rien, sauf en tant que travail de rhétorique pseudoscientifique destiné à un public mathématiquement peu averti qui pourrait confondre son charabia mathématique avec une véritable érudition. Cependant, comme que j'ai été invité à trouver quelque chose de positif à écrire à ce sujet, je suis heureux de pouvoir signaler que le livre a un excellent index. En bref, //No Free Lunch// ne vaut absolument rien, sauf en tant que travail de rhétorique pseudoscientifique destiné à un public mathématiquement peu averti qui pourrait confondre son charabia mathématique avec une véritable érudition. Cependant, comme que j'ai été invité à trouver quelque chose de positif à écrire à ce sujet, je suis heureux de pouvoir signaler que le livre a un excellent index.
- 
 ====Remerciements==== ====Remerciements====
 Je suis reconnaissant de l’assistance de Wesley Elsberry, de Jeffrey Shallit, d’Erik Tellgren et de tous ceux qui ont partagé leurs idées avec moi. Je suis reconnaissant de l’assistance de Wesley Elsberry, de Jeffrey Shallit, d’Erik Tellgren et de tous ceux qui ont partagé leurs idées avec moi.
Ligne 670: Ligne 666:
  
 En cours En cours
 +====Notes====
 +1. William Dembski, //No Free Lunch: Why Specified Complexity Cannot be Purchased without Intelligence//, Rowman & Littlefield, 2002.
 +
 +2. I do not attempt to draw a hard line of demarcation between science and pseudoscience. By pseudoscience I mean egregiously bad science. See also: "pseudoscience", The Skeptic's Dictionary, http://skepdic.com/pseudosc.html.
 +
 +3. Richard Wein, "What's Wrong With The Design Inference", Metaviews online forum, October 2000, http://www.metanexus.org/archives/message_fs.asp?ARCHIVEID=2654.
 +
 +4. William Dembski, "The Design Inference: Eliminating Chance Through Small Probabilities", Cambridge University Press, 1998.
 +
 +5. William Dembski, "Intelligent Design Coming Clean", Metaviews online forum, November 2000, http://www.discovery.org/viewDB/index.php3?program=CRSC%20Responses&command=view&id=534.
 +
 +6. Selon moi, le matérialisme méthodologique est une restriction mal définie et arbitraire qui devrait être abandonnée. Le principe des "affirmations extraordinaires nécessitent des preuves extraordinaires" est suffisant pour empêcher des appels prématurés à des êtres non incarnés, mais il n'y a aucune raison de les exclure de la science pour toujours, quels que soient les éléments de preuve présentés.
 +
 +7.  Un //résultat// est un événement qui ne peut pas être subdivisé. Il est également connu comme un //événement élémentaire//. Par exemple, dans le cas de Caputo, chaque séquence possible de 41 D et R est considérée comme un résultat différent. L'ensemble de tous ces résultats est appelé //espace de résultats// ou //espace d'échantillonnage//. (Dembski utilise le terme //espace de phase//). Des événements tels que "40 D ou plus" et "le 5ème tirage est un D" sont appelés //événements composites//, car ils consistent en plusieurs résultats.
 +
 +8. William Dembski, "The Explanatory Filter: A three-part filter for understanding how to separate and identify cause from intelligent design", 1996, http://www.arn.org/docs/dembski/wd_explfilter.htm.
 +
 +9. Le terme //limite de probabilité locale// apparaît dans les travaux antérieurs de Dembski et non dans //No Free Lunch//, mais je trouve qu'il est pratique de l'utiliser ici.
 +
 +10. Dembski est plutôt vague quant à la déduction à tirer dans l’affaire Caputo. Il n'envisage qu'une hypothèse fortuite, à savoir l'hypothèse du tirage équitable H. Après avoir rejeté cette hypothèse, Dembski ne dit pas clairement que nous devrions en déduire la conception, en écrivant simplement:
 +//L’étape 8 [de l’argument relatif à l’élimination du hasard] suit immédiatement: la Cour suprême du New Jersey est fondée à déduire que E n’est pas arrivé selon l’hypothèse fortuite H.// [p. 82]
 +En déclarant que "l'étape 8 suit immédiatement", il implique que nous devrions en déduire une complexité spécifiée, ce qui suppose vraisemblablement une inférence de conception. Mais comme il s'agit du seul exemple complet d'inférence de conception de Dembski (autre que le cas très discutable du flagelle bactérien), on aurait pu s'attendre à une déclaration claire du résultat.
 +Dans quelle mesure sommes-nous certains qu'aucune autre cause naturelle n'aurait pu fonctionner? Dembski soutient que H est "la seule hypothèse de chance qui aurait pu fonctionner pour produire E ... parce que Caputo lui-même était responsable des sélections de bulletins de vote et prétend avoir utilisé ce processus de hasard" (p. 80). Il exclut la possibilité que la procédure de tirage au hasard de Caputo ait été entachée d'un vice innocent, au motif que Caputo a tiré des capsules d'un récipient et que "les modèles d'urne font partie des techniques de randomisation les plus fiables disponibles" (p. 56). Vraisemblablement, ce rejet de la possibilité d’une procédure d’urne imparfaite devrait être considéré comme une généralisation proscriptive. Mais que se passerait-il si Caputo mentait au sujet du processus qu’il utilisait, et qu’il utilisait en réalité un autre processus qu’il pensait être juste mais ne l’était pas ? Il semble que Dembski compte toujours cela comme du "design".
 +Il semble donc que l'inférence de conception dans ce cas représente plusieurs possibilités: Caputo a triché, Caputo a menti sur sa méthode de randomisation ou un autre agent intelligent (peut-être non incarné) a interféré dans le processus.
 +
 +11. "Occam's Razor", Principia Cybernetica Web, http://pespmc1.vub.ac.be/:/OCCAMRAZ.html.
 +
 +12. Dembski prétend fréquemment qu'un certain événement ou phénomène présente une complexité spécifiée sans avoir effectué de calcul de probabilité explicite. Je me permets ici de faire de même. 
 +
 +13. William Dembski, "The Intelligent Design Movement", Cosmic Pursuit, Spring 1998, http://www.arn.org/docs/dembski/wd_idmovement.htm.
 +
 +14. Pour appuyer leur argument sur la probabilité d'une combinaison purement aléatoire, les créationnistes citent souvent l'astronome Fred Hoyle: "Le scénario actuel de l'origine de la vie est à peu près aussi probable qu'une tornade traversant une casse de la une compagnie aérienne de Boeing et produisant accidentellement un avion 747".
 +
 +15. De nombreuses pages Web réfutent les arguments de Behe en détail, notamment les suivantes::
 +- Kenneth Miller, "Design on the Defensive", http://biocrs.biomed.brown.edu/Darwin/DI/Design.html.
 +- Don Lindsay, "Review: 'Darwin's Black Box, The Biochemical Challenge to Evolution' by Michael J. Behe", August 2000, http://dlindsay.best.vwh.net/creation/behe.html.
 +- "Irreducible Complexity and Michael Behe", The Talk.Origins Archive, http://www.talkorigins.org/faqs/behe.html
 +
 +16. Michael Behe, //Darwin's Black Box// (Simon & Schuster, 1998), pp. 39-40.
 +
 +17. Michael Behe, "Self-Organization and Irreducibly Complex Systems: A Reply to Shanks and Joplin", //Philosophy of Science// 67 (1), 2000, http://www.discovery.org/viewDB/index.php3?program=CRSC%20Responses&command=view&id=465:
 +Les systèmes nécessitant plusieurs pièces pour fonctionner qui ne doivent pas nécessairement être bien adaptés, nous pouvons appeler des systèmes "simples interactifs" (désignés par "SI"). Ceux qui nécessitent des composants bien appariés sont irréductiblement complexes («IC»). La ligne qui divise les systèmes SI et IC n'est pas nette, car l'attribution à l'une ou l'autre catégorie est basée sur des facteurs probabilistes qui sont souvent difficiles à calculer et doivent généralement être estimés de manière intuitive sur la base de connaissances de base toujours incomplètes. De plus, aucune loi de la physique n'exclut automatiquement l'origine fortuite du système IC le plus complexe. Cependant, à mesure que la complexité augmente, les chances sont si minimes que nous rejetons le hasard comme explication (Dembski 1998).
 +
 +18. Kenneth Miller, "The Evolution of Vertebrate Blood Clotting", http://www.millerandlevine.com/km/evol/DI/clot/Clotting.html.
 +- Don Lindsay, "How Could The Immune System Evolve?", April 1999, http://www.cs.colorado.edu/~lindsay/creation/evolve_immune.html.
 +- Mike Coon, "Is the Complement System Irreducibly Complex?", The Talk.Origins Archive, February 2002, http://www.talkorigins.org/faqs/behe/icsic.html.
 +- Ian Musgrave, "Evolution of the Bacterial Flagella", March 2000, http://cidw.rmit.edu.au/~e21092/flagella.htm. An updated version of this web page is currently in preparation.
 +
 +19. Michael Behe, "Reply to My Critics: A Response to Reviews of //Darwin's Black Box: The Biochemical Challenge to Evolution"//, Biology and Philosophy 16: 685–709, 2001:
 +<well>Il est maintenant clair que, même si le paradigme de la tapette reste bon, il existe une certaine ambiguïté dans la définition écrite, comme indiqué ci-dessous. Néanmoins, je pense que la définition peut être réparée.</well>
 +
 +20. Michael Behe, "A Response to Critics of Darwin's Black Box", Discovery Institute, December 2001, http://www.iscid.org/papers/Behe_ReplyToCritics_121201.pdf :
 +<well>Envisager l’IC en termes d’étapes sélectionnées ou non sélectionnées met donc l’accent sur le processus d’essai de construction du système. Je pense que l’un des gros avantages est que cela encourage les gens à faire attention aux détails ; J'espère que cela encouragera les partisans du darwinisme (des scénarios qui pourraient être vérifiés à titre expérimental) et découragera les histoires had-oc qui sautent de nombreuses étapes sans faire de commentaires. Donc, avec ces idées en tête, je propose la définition évolutive provisoire suivante de la complexité irréductible :
 +Une voie évolutive complexe irréductiblement est une voie qui contient une ou plusieurs étapes non sélectionnées (c'est-à-dire une ou plusieurs mutations nécessaires mais non sélectionnées). Le degré de complexité irréductible est le nombre d’étapes non sélectionnées dans le parcours.</well>
 +
 +21. J'utilise le terme //complexité fonctionnelle// dans un sens vague pour désigner le type de complexité que nous reconnaissons intuitivement lorsque nous examinons des machines et des organismes.
 +
 +22. Dembski cite Joseph Culberson dans un passage qui semble utiliser le terme //recherche à l'aveugle// dans le deuxième sens de Dembski (p. 196). Mais une lecture attentive de Culberson révèle qu’il utilise ce terme pour désigner //tout// algorithme de type boîte noire: "L’environnement agit comme une boîte noire, nous appelons cela le modèle de recherche de //boîte noire// ou de //recherche aveugle// .... [Wolpert et Macready] prouvent, dans un cadre formel, que //tous// les algorithmes d'optimisation ont un comportement moyen équivalent lorsqu'ils sont apposés à un tel environnement de boîte noire. " Joseph Culberson, "Sur la futilité de la recherche aveugle",  Evolutionary Computation/ 6(2), 1998. Une version antérieure de l'article peut être consultée en ligne à http://citeseer.nj.nec.com/culberson96futility.html.
 +
 +23. William Dembski, "Why Natural Selection Can't Design Anything", 2001, http://iscid.org/papers/Dembski_WhyNatural_112901.pdf.
 +
 +24. Geoffrey Miller, "Technological Evolution As Self-Fulfilling Prophecy", in J. Ziman (Ed.), //Technological innovation as an evolutionary process// (Cambridge U. Press, 2000). pp. 203-215, http://www.unm.edu/~psych/faculty/technological_evolution.htm.
 +
 +25. David Wolpert and William Macready, "No Free Lunch Theorems for Search", Santa Fe Institute Technical Report 95-02-010, 1995, http://citeseer.nj.nec.com/wolpert95no.html.
 +
 +26. Le programme Weasel de Richard Dawkins étant déjà familier à de nombreux lecteurs, je ne le décrirai pas ici. La description originale de Dawkins se trouve dans //The Blind Watchmaker// (Penguin, 1991), p. 45-50. Vous trouverez un bref compte rendu en ligne à l’adresse http://www.talkorigins.org/faqs/fitness/, section 1.2.3. La description du programme donnée par Dembski dans //No Free Lunch// contient de graves erreurs.
 +Dembski suit également une longue lignée de partisans du créationnisme et de la conception intelligente qui ont critiqué le programme Weasel pour ne pas avoir été ce que Dawkins n’a jamais prétendu qu’il était. Selon Dembski, Dawkins prétend que le programme "montre comment un algorithme évolutif peut générer une complexité spécifiée" (p. 181). En réalité, Dawkins n’appelle pas le programme Weasel un algorithme évolutif, ni ne prétend pouvoir "générer" une complexité quelle qu’elle soit. Le programme Weasel avait pour seul objectif d'illustrer la différence entre la //sélection en une étape// et la //sélection cumulative//. (Ces deux termes sont décrits en 6.8 ci-dessus.) Dawkins prend bien soin de l'exprimer clairement, bien que ce ne soit apparemment pas assez clair pour les anti-évolutionnistes. Dembski cite le passage suivant de Dawkins, mais ne semble pas l'avoir compris:
 +Bien que le modèle singe / Shakespeare soit utile pour expliquer la distinction entre la sélection en une étape et la sélection cumulative, il est trompeur de manière importante. L'une d'elles est que, dans chaque génération de "sélection" sélective, les phrases "progénitures" mutantes ont été jugées en fonction du critère de ressemblance avec une cible //idéale éloignée//, la phrase METHINKS IT IS LIKE A WEASEL. La vie n'est pas comme ça. L'évolution n'a pas d'objectif à long terme. [p. 208]
 +Dembski présente également une version révisée du programme, puis affirme de façon absurde que sa version, contrairement à l'original de Dawkins, ne comporte pas d'élément de "téléologie", car elle explore l'espace de phase "//sans// recours explicite à la cible" (p 193). En réalité, les //deux// versions décrites par Dembski font explicitement appel à la cible en comparant chaque séquence d'essai à la séquence cible.
 +
 +27. Voir, par exemple, Hugh Ross, "Design and the Anthropic Principle", http://www.reasons.org/resources/apologetics/design.html.
 +Pour une réfutation de l'argument de réglage fin cosmologique, voir Theodore Drange, "The Fine-Tuning Argument Revisited (2000)", //Philo// 2000 (Vol. 3, No. 2), http://www.infidels.org/library/modern/theodore_drange/tuning-revisited.html.
 +
 +28. David Wolpert and William Macready, "No Free Lunch Theorems for Optimization", IEEE Transactions on Evolutionary Computation, 1(1):67-82, April 1997, http://citeseer.nj.nec.com/wolpert96no.html.
 +
 +29. En termes de programme informatique, on peut penser à la fonction de fitness mise à jour par un autre module, distinct de l'algorithme d'optimisation. En raison de la contrainte de boîte noire, ce module supplémentaire, représentant des facteurs externes, n'est pas autorisé à communiquer avec le module d'algorithme d'une autre manière si nous souhaitons que les NFL soit appliqués.
 +
 +30. Thomas Jansen, "On Classifications of Fitness Functions", 1999, http://eldorado.uni-dortmund.de:8080/FB4/sfb531/1999/reiheCI76. Voir aussi :
 +- Stefan Droste, Thomas Jansen and Ingo Wegener, "Perhaps Not a Free Lunch But At Least a Free Appetizer", //Proceedings of the 1st Genetic and Evolutionary Computation Conference// (July 13-17, 1999, Orlando, FL), pages 833-839, http://citeseer.nj.nec.com/droste98perhaps.html.
 +- Oliver Sharpe, "Beyond NFL: A Few Tentative Steps", //Genetic Programming 1998: Proceedings of the Third Annual Conference// (July 22-25, 1998, University of Wisconsin), http://citeseer.nj.nec.com/296977.html.
 +- Christian Igel and Marc Toussaint, "On Classes of Functions for which No Free Lunch Results Hold", 2001, envoyé à  //IEEE Transactions on Evolutionary Computation//, http://www.neuroinformatik.ruhr-uni-bochum.de/PEOPLE/mt/work/2001nfl/.
 +
 +31. Dembski établit une fonction de fitness d'ordre supérieur F sur l'espace de phase Ω × J, où Ω est l'espace de phase d'origine et J est l'ensemble de toutes les fonctions de fitness possibles sur Ω. Il considère ensuite une recherche dans cet espace, c'est-à-dire une séquence de paires ordonnées (xi, fi), où xi est dans Ω et fi est dans J, avec Fi = fi (xi). Le F de Dembski est équivalent à la fonction de fitness temps-dépendant  T considérée par Wolpert et Macready (28). Dans le Théorème NFL 2 de Wolpert et Macready, T est indépendant de l'algorithme, il ne peut donc pas prendre en compte la coévolution. Avec la coévolution, fi dépend de l'état actuel de la population.
 +
 +32. Dembski est incohérent avec l’utilisation des termes //informations spécifiées// et CSI. Parfois, ce sont des "éléments" de la forme (T, E), où E est un résultat observé et T (ou //cible//) est un autre nom pour une zone de rejet détachable R (p. 142-143). Parfois, ce sont des propriétés qui sont exposées ou non par un phénomène (p. 151). Parfois, ce sont des quantités: "Parce que de petites quantités d'informations spécifiées peuvent être produites par hasard ..." (p. 161); "La CSI dans un système fermé de causes naturelles reste constante ou diminue" (p. 163). Pour éviter les expressions interminables telles que "la quantité d'informations dans une information spécifiée" (p. 160), j'utiliserai l’information spécifiée (ou SI) dans le dernier de ces trois sens, c'est-à-dire en tant que quantité. J'utiliserai CSI dans le deuxième sens, c'est-à-dire comme attribut exposé ou non. Il faut comprendre que la probabilité utilisée dans le calcul de la SI ou de la CSI est toujours la probabilité d'une zone de rejet détachable R, et pas simplement la probabilité du résultat observé E lui-même.
 +
 +33. Thomas Schneider, "Evolution of Biological Information", //Nucleic Acids Research//, 28(14): 2794-2799, 2000, http://www.lecb.ncifcrf.gov/~toms/paper/ev/. Vous pouvez aussi trouver la réponse de Schneider au traitement de Dembski's de son travail : "Rebuttal to William A. Dembski's Posting and to His Book 'No Free Lunch'", March 9 2002, http://www.lecb.ncifcrf.gov/~toms/paper/ev/dembski/rebuttal.html; et l’utile "Information Theory Primer", http://www.lecb.ncifcrf.gov/~toms/paper/primer/.
 +
 +34. Peut-être que le choix de la terminologie par Dembski a contribué à la confusion. L'espace de phase d'un algorithme d'optimisation est normalement appelé un //espace de recherche//, tandis que l'espace de phase d'une distribution de probabilité s'appelle un //espace de résultats// ou un //espace d'échantillonnage//. En utilisant toujours le terme //espace de phase// quel que soit le contexte, Dembski a brouillé cette distinction.
 +
 +35. Il n'est pas clair si Dembski considère qu'il s'agit de 38 bits de complexité/information //spécifiée// (SI). Il dit bien que la séquence METHINKS est spécifiée, dans la mesure où il s’agit d’un "mot connu dans la langue anglaise". Mais, si la spécification est "mot connu dans la langue anglaise", il doit calculer la probabilité de dessiner //n’importe// quel mot anglais de 8 lettres, ce qui donne une valeur de complexité plutôt inférieure. En fait, Dembski écrit seulement que la complexité est //limitée// à 38 bits, mais pas précisément à 38 bits. Peut-être était-ce pour permettre des mots alternatifs de 8 lettres.
 +
 +36. J'ai découvert lors de discussions antérieures sur les travaux de Dembski que son utilisation abusive de la théorie de l'information de Shannon avait causé une grande confusion. Bien que cela ne soit pas essentiel à ma critique, je vais tenter ici de dissiper une partie de cette confusion. Ma source principale est la //The Mathematical Theory of Communication (théorie mathématique de la communication) //(Univ. Of Illinois Press, 1949). Ce petit livre se compose de deux articles, chacun de Claude Shannon et de Warren Weaver. Une version antérieure (1948) mais en grande partie identique de l'article de Shannon est disponible en ligne à l'adresse http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html. Pour une introduction plus facile à la théorie de l'information, voir http://www.lecb.ncifcrf.gov/~toms/paper/primer/.
 +
 +La théorie de l'information de Shannon concerne la transmission de messages via un canal de communication. La //signification// des messages est immatérielle. Tout ce qui compte est l'efficacité et la précision avec lesquelles les messages sont transmis. Les messages sont traités comme s'ils avaient été sélectionnés au hasard parmi un ensemble de messages possibles. Cela signifie que la même théorie peut également être utilisée en relation avec d'autres types d'événements probabilistes, dans lesquels l'occurrence d'un résultat est observée parmi un ensemble de résultats possibles.
 +
 +Le taux de transmission de l'information est défini par Shannon comme suit:
 +
 +R = H(x) - H<sub>y</sub>(x)
 +
 +Si nous pensons en termes de transmission d'un message, tiré au hasard d'un ensemble de messages possibles, d'un émetteur à un récepteur, alors H(x) est //l'incertitude// du récepteur sur le message qui a été (ou sera) transmis //avant// la réception d’un message. Hy(x) est l'incertitude du destinataire sur le message transmis //après// la réception d'un message. R peut également être considéré comme la réduction de l'incertitude résultant de la réception du message. Si le canal est exempt de bruit - le message reçu est donc toujours le même que celui envoyé - alors Hy(x) = 0 et R = H (x).
 +
 +L’incertitude H(x) (ou simplement H) est définie comme suit:
 +
 +H = - Σ<sub>i=1...N</sub> p<sub>i</sub> log<sub>2</sub>p<sub>i</sub>
 +
 +où il y a N messages possibles et où la probabilité que le message i soit transmis est p<sub>i</sub>.
 +
 +Il est important de garder à l'esprit que R et H sont des taux, ou des moyennes (pondérés par la probabilité), basés sur l'ensemble des messages pouvant éventuellement être transmis. Ce ne sont pas des valeurs associées à la réception d'un message particulier. Il existe cependant une autre mesure, définie comme -log<sub>2</sub>p<sub>i</sub> , qui //est// associée à la réception d'un message spécifique. Il est parfois appelé //surprise//, d’après M. Tribus [//Thermostatics and Thermodynamics// (D. van Nostrand Co., 1961)], car il indique à quel point nous devrions être surpris de recevoir un tel message. L'incertitude H est alors égale à la surprise moyenne, sur tous les messages possibles, pondérée par la probabilité.
 +
 +Il semble exister un désaccord sur la question de savoir quelle mesure est correctement connue sous le nom //d’information de Shannon//. Certains auteurs, y compris Dembski, appellent cette surprise les informations de Shannon associées à la réception d'un message spécifique. L'idée semble être que, si H est le //taux// de transmission de l'information moyenne pour tous les messages possibles, alors la surprise doit être l'information associée à la réception d'un message particulier.
 +
 +Cependant, ce n'est pas l'usage de Shannon ou Weaver, qui se réfèrent à R comme l’information. Par conséquent, la plupart des théoriciens de l'information se réfèrent à R en tant qu'information de Shannon. L'expression -log<sub>2</sub>p<sub>i</sub> n'apparaît nulle part dans les journaux de Shannon et Weaver. Pour une chaîne de transmission sans bruit, Shannon assimile l'information à l'incertitude:
 +
 +La quantité H possède un certain nombre de propriétés intéressantes qui la justifient davantage en tant que mesure raisonnable de choix ou d’information. [Shannon & Weaver, 1949, p. 51]
 +
 +Weaver est plus explicite, et précise que l'information est une propriété de l'ensemble des messages possibles et non d'un message particulier:
 +
 +Certes, ce mot information dans la théorie de la communication ne concerne pas tant ce que vous //dites//, que ce que vous //pourriez// dire. C'est-à-dire que l'information est une mesure de la liberté de choix quand on sélectionne un message. Si l'on est confronté à une situation très élémentaire dans laquelle il doit choisir l'un des deux messages alternatifs, on dit alors arbitrairement que l'information, associée à cette situation, est l'unité. Notez qu'il est trompeur (bien que souvent pratique) de dire que l'un ou l'autre message transmet des unités d’informations. La notion d'information ne s'applique pas aux messages individuels (comme la notion de sens le ferait), mais à la situation dans son ensemble, l'unité d'information indiquant que dans cette situation, on a une certaine liberté de choix pour choisir un message, qu’il convient de considérer comme une quantité standard ou unitaire. [Shannon & Weaver, 1949, p. 8-9]
 +
 +Notez que, lorsque tous les résultats possibles sont également probables (c'est-à-dire que p<sub>i</sub> est une constante p), l'incertitude est réduite à - log<sub>2</subp:
 +
 +H = - Σ<sub>i=1...N</sub>// p//<sub>i</sub> log<sub>2</sub>//p//<sub>i</sub>
 +H = - N . //p// log<sub>2</sub>//p//
 +H = - N . 1/N . log<sub>2</sub>//p//
 +H = - log<sub>2</sub>//p//
 +
 +Cela ne doit pas être confondu avec la surprise, même si elle a la même formule. Pour un ensemble de résultats possibles qui sont tous également probable, la surprise de chaque résultat arrive à égaler l'incertitude de l'ensemble.
 +
 +À titre d'exemple, considérons une main de 5 cartes distribuée à partir d'un jeu bien mélangé de 52 cartes. Il y a (52 × 51 × 50 × 49 × 48) / (5 × 4 × 3 × 2 × 1) = environ 2 millions de résultats possibles. Puisque tous les résultats sont également probables, p = 0,0000005 et l’incertitude (H) associée à la transaction est -log<sub>2</sub> (0,0000005) = 21 bits, en utilisant la formule spéciale pour les distributions équiprobables que nous venons de calculer ci-dessus. Une fois que nous avons vu les 5 cartes, il n’y a aucune incertitude quant à ce qui a été distribué, donc Hy (x) = 0 et l’information de Shannon est donnée par R = 21 - 0 = 21 bits.
 +
 +Supposons maintenant que, comme dans l'exemple de Dembski (p. 126-127), une quinte flush royale soit distribuée (10-J-Q-K-A dans un tirage). Il y a 4 flush royales possibles (une dans chaque combinaison), donc la probabilité d'une quinte flush royale est de 4 × 0.0000005 = 0.000002. La surprise de cet événement est donc -log<sub>2</sub> (0,000002) = 19 bits.
 +
 +Comme d’autres auteurs, Dembski appelle la surprise (-log<sub>2</sub>p<sub>i</sub>) l’information de Shannon (p. 230n16). Cela en soi n’est pas particulièrement important. Ce qui compte, ce n’est pas comment il appelle cette mesure, mais comment il l’utilise. Le problème est qu'il l'utilise simplement comme une mesure de probabilité déguisée. La fonction f (x) = -log<sub>2</sub>x est une fonction monotone, ce qui signifie qu'une plus grande surprise correspond toujours à une plus grande improbabilité. Chacune des déclarations de Dembski sur les informations pourrait tout aussi bien (et avec une plus grande clarté) être exprimée comme une déclaration sur l'improbabilité. Il utilise souvent les termes improbabilité, information et complexité de manière interchangeable. Dans l'index de //The Design Inference//, il a même une entrée pour "probabilité ... informations déguisées". En dissimulant ses probabilités sous forme d'informations, Dembski ajoute simplement une nouvelle couche d'obscurcissement à ses arguments, sans ajouter de valeur.
 +
 +37. Kumar Chellapilla and David Fogel, "Co-Evolving Checkers Playing Programs using only Win, Lose, or Draw", //SPIE's AeroSense'99: Applications and Science of Computational Intelligence II //(Apr. 5-9, 1999, Orlando, Florida), http://vision.ucsd.edu/~kchellap/Publications.html.
 +
 +38. À proprement parler, chaque réseau neuronal d'une génération a une fonction fiteness différente, son environnement (la population des autres réseaux neuronaux) étant différent.
 +
 +39. C'est pessimiste. Un léger chevauchement des plages (par exemple, W- un peu plus petit que D +) peut toujours donner un bon résultat.
 +
 +40. Le regime de notation de Chellapilla and Fogel's est celui dans lequel  W- = W+ = +1, D- = D+ = 0, and L- = L+ = -2.
 +
 +41. L'//information algorithmique// ou c//omplexité de Kolmogorov// d'une séquence est la longueur du programme le plus court capable de générer la séquence. C'est donc une mesure d'incompressibilité.
 +
 +42. Paul Davies, //The Fifth Miracle// (The Penguin Press, 1998), pp. 85-89.
 +
 +43. Leslie Orgel, //The Origins of Life// (Chapman and Hall, 1973), p. 190.
 +
 +
 +
 +
 +
 +44. Dawkins, en revanche, adopte une définition de la complexité basée sur la probabilité sous une distribution de probabilité uniforme, et c’est peut-être là que Dembski a eu l’idée. Dans //The Blind Watchmaker//, Dawkins écrit:
 +<well>Essayons une autre solution dans notre quête d’une définition de la complexité et utilisons l’idée mathématique de probabilité. Supposons que nous essayions la définition suivante: une chose complexe est une chose dont les parties constitutives sont disposées de manière à ne pas provenir du hasard. Pour emprunter une analogie à un éminent astronome, si vous prenez les parties d’un avion de ligne et que vous les mélangez au hasard, la probabilité que vous assembliez un Boeing en état de fonctionnement est extrêmement réduite. Il existe des milliards de façons de rassembler les éléments d’un avion de ligne, et une seule, ou très peu d’entre elles, donnerait un avion de ligne. [Richard Dawkins, //The Blind Watchmaker  (L'horloger aveugle)// (Penguin, 1991), p. 7.]</ well>
 +Bien que Dawkins emploie également le terme spécifié, il n’est pas clair que son terme ait le même sens que celui de Dembski. Bien qu'il ne soit pas tout à fait explicite, il semble que Dawkins nous demande de considérer //toutes// les fonctions que l'objet aurait pu avoir, et pas seulement la fonction particulière que nous observons, comme le permet le concept de Dembski. De plus, Dawkins mentionne brièvement un critère supplémentaire //d'hétérogénéité//, qui évite peut-être que des phénomènes hautement structurés soient classés comme complexes, comme cela se produit dans la version de Dembski. La définition de la complexité de Dawkins est peut-être également erronée, mais cela n'a pas beaucoup d'importance, car il l'utilise uniquement pour clarifier le type de système dont il parle, et cela ne joue pas un rôle important dans son argumentation :
 +<well>Je suis conscient que ma description d'un objet complexe - statistiquement improbable dans une direction spécifiée sans recul - peut sembler idiosyncratique ... Si vous préférez une autre manière de définir la complexité, je m'en fiche et je serais heureux d’accepter votre définition pour des raisons de discussion. [Richard Dawkins, //The Blind Watchmaker  (L'horloger aveugle)//, p. 15.]</ well>
 +
 +45. Richard Dawkins, The //Blind Watchmaker//, pp. 45-50.
 +
 +46. la liste complète est disponible ici : William Dembski, "Intelligent Design Coming Clean", Metaviews online forum, November 2000, http://www.discovery.org/viewDB/index.php3?program=CRSC%20Responses&command=view&id=534.
 +
 +47. William Dembski, "Is Intelligent Design Testable?", Metaviews online forum, January 2001, http://www.discovery.org/viewDB/index.php3?program=CRSC%20Responses&command=view&id=584.
 +
 +48. Douglas Theobald, "The Opportunistic Nature of Evolution and Evolutionary Constraint", The Talk.Origins Archive, http://www.talkorigins.org/faqs/comdesc/section3.html
 +- Chris Colby & Loren Petrich, "Evidence for Jury-Rigged Design in Nature", The Talk.Origins Archive, http://www.talkorigins.org/faqs/jury-rigged.html.
 +
 +49. Pour une liste de predictions de la théorie évolutionnaire, voir :
 +- Douglas Theobald, "29 Evidences for Macroevolution", The Talk.Origins Archive, March 2002, http://www.talkorigins.org/faqs/comdesc/.
 +- Don Lindsay, "Is Evolution Science?", August 2001, http://www.don-lindsay-archive.org/creation/evo_science.html.
 +
 +50. Douglas Theobald, "The One True Phylogenetic Tree", The Talk.Origins Archive, http://www.talkorigins.org/faqs/comdesc/section1.html.
 +
 +Cela ne servirait à rien à Dembski de souligner qu'il existe quelques exceptions à cette congruence. Les méthodes d'établissement des arbres phylogénétiques sont faillibles. La prédiction est seulement qu'il y aura un haut degré de congruence, pas une congruence parfaite.
 +
 +51. Beth McMurtrie, "Darwinism Under Attack", The Chronicle of Higher Education, December 21, 2001, http://chronicle.com/free/v48/i17/17a00801.htm.
 +
 +52. L'accroche suivante est apparue sur la couverture du livre de Dembski //Intelligent Design: The Bridge Between Science & Theology// (voir http://www3.baylor.edu/~William_Dembski/docs_books/inteldes.htm):
 +<well>William Dembski est l'Isaac Newton de la théorie de l'information et, puisqu'il s'agit de l'ère de l'information, cela fait de Dembski l'un des penseurs les plus importants de notre époque. Sa "loi de conservation de l'information" représente une avancée révolutionnaire. Dans Intelligent Design: The Bridge Between Science & Theology, Dembski explique le sens et la portée de ses découvertes avec une clarté telle que le grand public peut facilement les saisir. Il diagnostique de manière convaincante nos confusions actuelles sur la relation entre la science et la théologie et offre une alternative prometteuse.
 +- Rob Koons, professeur agrégé de philosophie à l'Université du Texas à Austin</ well>
 +Dembski et Koons sont tous deux membres du Discovery Institute's Center for the Renewal of Science & Culture (http://www.discovery.org/csc/), organisme créé spécifiquement dans le but de promouvoir le design intelligent. Ce type de mise en avnat mutuel des livres des uns et des autres est monnaie courante parmi les membres du Centre.
 +
 +53. Keith Devlin, "Snake Eyes in the Garden of Eden", //The Sciences//, July/August 2000, http://www.nyas.org/books/sci/sci_0700_devl.html
 +
 +54. Keith Devlin souscrit à cette évaluation. (Communication personnelle.)
 +
 +55. En réponse de mon enquête, Sam Northshield (auteur de cet article) répond: "Le travail que j'ai examiné était, si je me souviens bien, nettement plus philosophique que mathématique et je le considérais comme un travail philosophique. Je ne me rappelle pas avoir essayé de comprendre son contenu mathématique (soit parce que cela semblait difficile à suivre, soit parce qu'il n'y en avait pas, je ne me souviens plus lequel !). Ainsi,  je ne peux rien dire sur l'exactitude du travail de Dembski et ma critique ne doit pas être interprété comme un jugement mathématique de l’œuvre. "(Communication personnelle.)
 +
 +56. Colin Howson & Peter Urbach, //Scientific Reasoning: The Bayesian Approach// (Open Court, 1993).
 +
 +57. //ibid.//, p. 181.
 +
 +58. Theodore Drange, "The Fine-Tuning Argument (1998)", http://www.infidels.org/library/modern/theodore_drange/tuning.html.
 +
 +59. Pour une analyse très détaillée des effets de sélection par observation, voir Nick Bostrom, "Observational Selection Effects and Probability", 2000, http://www.anthropic-principle.com/phd/.
 +
 +60. Dembski, //The Design Inference//, pp. 182-183.
 +
 +61. Howson & Urbach, //Scientific Reasoning//, pp. 179-180 (cité par Dembski, //The Design Inference//, pp. 199-200).
 +
 +
 +
  • Dernière modification : 2020/12/09 16:11
  • de kawekaweau