William Dembski y el filtro explicativo

Por Felipe Aizpún

De la poca literatura publicada en lengua castellana sobre el DI cabe destacar el libro de William Dembski titulado precisamente así, Diseño Inteligente, y publicado por Homo Legens Scientia en 2006. Se trata de la traducción de la obra de Dembski publicada originalmente en Estados Unidos en 2004 con el título de “The Design Revolution”. Un libro absolutamente recomendable por muchos conceptos y entre ellos, porque no sólo recoge los planteamientos generales del discurso del DI sino también un buen abanico de respuestas a los argumentos que, al momento de la publicación, más comúnmente se venían oponiendo a dicho discurso.

En el capítulo 11 del libro Dembski nos acerca a su idea del famoso “filtro explicativo”, es decir, el argumento de la inferencia de diseño a partir de la constatación de la complejidad especificada de un evento o de una estructura funcional. Durante las dos últimas décadas el mensaje del DI ha venido presidido por dos argumentos principales, el de la complejidad irreducible de Michael Behe y el de la complejidad especificada de William Dembski, si bien algunos proponen que la complejidad irreducible debiera presentarse como un caso concreto dentro del más amplio concepto de la complejidad especificada. Sea como fuere el hecho es que el argumento de la complejidad irreducible, dada su enorme contundencia y su fácil comprensión ha hecho fortuna por sí solo. Menos conocido es el argumento de Dembski para el público generalista aunque igualmente consistente y fácil de captar; se concreta en el ejemplo de su popular filtro explicativo, un diagrama sencillo y eficaz que nos permite discriminar conceptual y lógicamente los eventos para detectar la existencia de complejidad especificada.

Dembski nos explica que enfrentados a un evento determinado debemos primeramente discernir si se trata de un evento necesario o contingente, si se trata por lo tanto de algo determinado por alguna ley invariable de la Naturaleza o no. Si lo fuese nos encontraríamos ante un evento estrictamente necesario y nada más podríamos colegir. Si por el contrario nos encontramos ante un evento contingente deberemos reparar en si se trata de un dato de la realidad que pueda expresarse en términos de una alta complejidad o bien de un patrón ordenado y repetitivo. Un patrón ordenado que carezca de un grado suficiente de complejidad no nos permite en principio inferir la existencia de diseño intencional es decir, de una causalidad inteligente.

Pero la complejidad no es necesariamente funcional, la complejidad como concepto simplemente nos informa de la alta improbabilidad de ocurrencia de un determinado evento o dato; sin embargo, también el simple azar, es decir, la determinación fortuita o no guiada de una serie amplia de datos alternativos puede resultar en la conformación de un evento con grandes dosis de complejidad. Pero no toda complejidad es funcional. A este carácter funcional es a lo que Dembski denomina especificidad. La complejidad especificada es, por lo tanto, la característica de un evento que resulta más razonable atribuir a una causalidad inteligente como consecuencia de su improbabilidad y su carácter funcional.

Dembski nos pone el siguiente ejemplo. Un hombre ha sido capaz de abrir una caja fuerte sujeta a un mecanismo de cierre basado en una cierta combinación. La rueda que dirige las opciones a aplicar al mecanismo tiene cien posiciones diferentes ente la 00 y la 99 y son precisas cinco posiciones consecutivas y correctas para abrir la caja. Hay por lo tanto diez mil millones de combinaciones posibles (100 elevado a la 5ª potencia) y sólo una capaz de abrir la caja fuerte. Si una persona abriese la caja fuerte al primer intento nos encontraríamos ante un suceso contingente, no determinado ni necesario. Sería además un suceso altamente improbable y complejo. Por último, el hecho de resultar especificado, es decir, exitoso en el resultado funcional obtenido nos permitiría inferir que no se trataba de un hecho fortuito sino plenamente intencional y dirigido por una decisión inteligente: el sujeto sin duda conocía la combinación.

Por supuesto lo interesante de este método de razonamiento es su aplicación a los eventos “naturales”, es decir, a las cosas funcionales y asombrosamente diseñadas presentes en la Naturaleza. Por ejemplo, la altísima improbabilidad de obtener por puro azar, una proteína, o lo que es lo mismo, un polímero con capacidad para desarrollar una función biológica de, pongamos por caso, más de 100 aminoácidos encadenados; o formas tan matemáticamente elegantes como las que responden a la serie de Fibonacci (en la cuál cada número es la suma de los dos anteriores) tan presente en el mundo vegetal y animal.

Es habitual la crítica de que los datos de la Naturaleza no precisan una explicación adicional y que atribuir, merced al filtro explicativo, un carácter no natural a las cosas que la Naturaleza nos ofrece supone un ejemplo de la inconsistencia del método empleado. Dembski argumenta por el contrario que los sucesos que denominamos naturales porque se nos hacen presentes en la realidad que conocemos no se justifican plenamente en términos de causalidad; lo que se trata de inferir no es el origen no natural del hecho en sí o de la estructura biológica en concreto sino el origen de su diseño y su funcionalidad. Lo que el filtro nos permite aventurar no es que la cosa en sí que presenta huellas de diseño ha emergido a la realidad por un acto creador o sobrenatural, sino que el origen del diseño que presenta la cosa está en una causa inteligente ya que su complejidad especificada no permite asumir que se haya formado de manera fortuita.

El filtro explicativo de Dembski y en general su teoría de la complejidad especificada como huella de diseño inteligente descansa principalmente sobre un principio lógico-matemático muy extendido y generalmente aceptado: es el hecho de que existe un umbral conocido como límite de la probabilidad universal, de tal manera que los acontecimientos cuya probabilidad estadística quede más allá de dicho límite no podrán reputarse legítimamente como hechos meramente fortuitos. Dembski considera que una estimación prudente de dicho límite sería de 1 entre 10 elevado a 150, que se correspondería con los recursos probabilísticas del Universo conocido. Si tenemos en cuenta que la probabilidad puramente estadística de construcción por azar de una sola proteína funcional de tamaño medio (unos 150 aminoácidos) es de 1 entre 10 elevado a 180 no es de extrañar que la contemplación del inabarcable cosmos de complejidad funcional que encierra el más pequeño de los sistemas biológicos resulte, desde el punto de vista del filtro explicativo de Dembski, una clamorosa reivindicación de diseño inteligentemente originado.

Deje una respuesta

Leer entrada anterior
La Fundación Templeton se queda sola

Por Felipe Aizpún Sir John Templeton (1912-2008) fue un financiero e inversor de origen norteamericano (nacionalizado posteriormente británico) que realizó...

Cerrar