Los Indicadores de Diseño. Parte 3. Información Compleja Especificada

DNA_01Transportar objetos o personas de modo inmediato a otro lugar cercano o incluso a un lejano lugar en el otro extremo del universo es un reclamo bastante recurrido por la ciencia ficción. El tele-transportador es un extraordinario artefacto que dispondría de una tecnología capaz de transportar objetos de modo instantáneo a otras partes del espacio. Para hacer esto los ingenios de tele-transportación deben ser capaces de registrar toda la información que describe físicamente a un objeto a fin de permitir luego reconstruirlo en otro lugar. Para hacerlo, y no producir una mera copia en el punto de destino, desintegra el objeto en el origen, transporta dicha información por un pretendido agujero de gusano de la física cuántica y lo reintegra en un receptor que podría encontrarse en el otro extremo del universo.

Hoy en día la tecnología de teletransportación no está resuelta científicamente. Sin embargo, ya existe un logro no menos asombroso y fantástico que sí está resuelto y permitirá en el futuro la comunicación en tiempo real entre puntos separados no solo por distancias planetarias, sino incluso por distancias estelares. Esta asombrosa tecnología digna de la ciencia ficción es tecnología reciente y está resuelta mediante un misterioso principio físico llamado entrelazamiento cuántico. La misma no solo permitirá comunicaciones inmunes a la interceptación, sino también de carácter instantáneo. Si actualmente con una comunicación entre la Tierra y Marte implicaría 40 minutos entre el envío y la respuesta, y casi 9 años para lo mismo si una nave quisiera comunicarse con la Tierra desde la estrella más cercana Alfa Centauro, con la tecnología de comunicación basada en el entrelazamiento cuántico las comunicaciones volverán a parecer totalmente locales permitiendo conversaciones en tiempo real sin retardo (para ello los transceptores de la tierra y la nave deben entrelazarse primero antes de partir esta última). En este sentido, si bien toda la tecnología de la teletransportación no está resuelta, la concerniente a la instantaneidad de la comunicación al margen de la distancia si lo está.

Lo rescatable del ejemplo de la tele-transportación, no obstante, es que ésta nos ilustra bastante bien lo que es la información física. Es decir, aquella que es la necesaria y suficiente para reconstruir físicamente algo.

Nuestra actual tecnología, ya incluso desde el siglo XIX con el telégrafo y el teléfono, nos permite tele-transportar información, si bien no para reconstruir físicamente y por completo un objeto físico, si para permitirnos tele-transportar una representación visual o auditiva del objeto o fenómeno físico. La televisión y la radio son ejemplos claros de un tele-transportador incompleto.

Estos equipos, al igual que el tele-transportador de la ciencia ficción, también escanean el objeto o escenario físico para convertirlo en información. Si bien no pretenden realizar un transporte si pretenden transportar, por un canal de comunicación, una representación del mismo. A diferencia del anterior caso lo que se transporta es una información mucho menor. Si antes se trataba de información física ahora se trata de información de Shannon.

Claude E Shannon en su Teoría Matemática de la Información de 1948 propuso que la información puede concebirse como una medida de la incertidumbre de un mensaje. Esto significa que si una parte del mensaje no tiene incertidumbre por ser previsible entonces no aporta información. En caso contrario si dicho componente del mensaje es imprevisible, su grado de sorpresa involucrará mayor información.

¿A qué tipo de información se refiere Shannon? ¿A información física? No. Shannon era un ingeniero al que le interesaba lo relacionado con la información que puede ser transmitida por un canal de comunicación para reproducir una representación de la realidad. No de la propia realidad. La información que tele-transporta un sistema de televisión o radio era lo que a Shannon le interesaba analizar no la información física que sería de interés para un ingeniero que realmente quisiera abordar aquella tele-transportación de la materia que alude la ciencia ficción.

Con estos ejemplos quiero dejar claramente establecido que la información física es distinta a la información de Shannon. Esta última ingresa en el ámbito de las creaciones humanas y, por ello, es información artificial ya que requiere un sistema intérprete ante el cual medir la incertidumbre. No sucede así con la información física ya que ésta describe todo lo que hay sin necesitar la evaluación de incertidumbres ante ningún sistema intérprete. Es verdad que la información física puede reducirse a información de Shannon en una comunicación, pero esto no es una conversión de su naturaleza, sino tan solo una traducción a otro tipo de información.

Ahora bien, hay un tercer tipo de información que es capaz de prescribir la construcción de un objeto o proceso. Si la información física puede describirlo y la información de Shannon puede comunicar una representación de este, la información prescriptiva podrá hacer algo distinto de las anteriores. Ni describe, ni representa más bien prescribe cómo puede generarse, es decir, es creativa.

Para efectos de resumen de lo indicado hasta ahora podemos definir los tres tipos del modo siguiente:

Información física Describe de modo completo un objeto o sistema.
Información de Shannon Comunica la representación de un objeto o sistema. Comunica un mensaje.
Información prescriptiva Prescribe el desarrollo o generación de un objeto o sistema. Crea.

Sobre la información física no cabe duda que es un tipo de información que existe en la naturaleza. La información de Shannon, en cuanto a que se trata de información para hacer representaciones inteligibles por parte de seres humanos, no es pues información natural.

Pero cuando hablamos de información prescriptiva, hablamos de aquella que ha sido “especificada”, es decir, que ha sido elegida arbitrariamente para un portar un significado o función particular. ¿Podremos adjudicarle un origen natural y podemos considerar que la naturaleza puede producirla? ¿Que elige o especifica? O dicho de otra manera ¿Pueden las leyes naturales producir especificación o ello solo lo puede producir una entidad inteligente?

Sabemos que se pueden producir fenómenos de auto-organización en la física de plasmas, el láser y la química. Una auto-organización implica una estructuración compleja que puede ser alcanzada por medios estrictamente naturales y por el concierto dinámico de las leyes físicas o físico-químicas. Si la complejidad biológica pudiera ser una extrapolación plausible de estas posibilidades físicas, entonces la abiogénesis (el origen de la vida desde elementos no vivos) sería un fenómeno factible. Pero la complejidad biológica, que reconocemos es especificada, tiene dos posibilidades: o lo es como fruto de las leyes naturales tal como lo sostiene el naturalismo materialista o es fruto de un agente inteligente tal como lo sostiene el diseño inteligente.

Sabemos que una obra literaria se escribe como fruto de la creatividad de su autor, del mismo modo que una obra musical. Sin embargo, en ambos casos la primera deberá ceñirse a las reglas gramaticales como en el segundo caso a las reglas musicales. Pero nadie diría que las reglas gramaticales por si solas pueden producir una obra literaria o las reglas musicales pueden producir una obra musical. Ambos son información expresada en una cadena de letras para el primer caso y sonidos para el segundo. El orden particular de los mismos componen un significado específico susceptible de ser interpretado por agentes capaces de recibirlo y decodificarlo.

Si un agente recibe una cadena de información que no puede decodificar no significa que dicha cadena no contenga información, sino que la misma no es significativa para el agente, del mismo modo que un libro es un conjunto de galimatías sin significado para quien no sabe leer. En cambio una información será significativa cuando exista siquiera un intérprete o mecanismo de interpretación que pueda reaccionar al mensaje.

La información natural se distingue de la información especificada por la significancia de su contenido. Y dicha significancia es la que establece su carácter funcional. Es pues la funcionalidad un constructo de la significancia de una estructura y dicha significancia está relacionada a un intérprete que será el usuario de la funcionalidad.

Es por esto que cualquier libro que constituya un batido de letras sin concierto alguno no puede considerarse una obra literaria, como tampoco un conjunto de sonidos discordantes y sin concierto alguno puede pasarse como obra musical. Son galimatías y como tales no pueden ser funcionales a un intérprete específico. Sin embargo, esto no demuestra que no sea especificada ya que no podemos discriminar aún si es o no información especificada porque no sabemos si existe siquiera un intérprete que pueda encontrar especificación donde solo vemos un galimatías.

Una ley física, por ejemplo, es una regla de reacción establecida entre agentes físicos. Cuando una partícula de materia reacciona a un campo gravitatorio lo hace por virtud de una ley física y dicha ley no es otra cosa que un convenio de reacción con la cual la partícula es “informada” de la presencia del campo y por consecuencia conducida a reaccionar al mismo con un comportamiento matemáticamente establecido por dicha ley. Y dicho convenio no es otra cosa que INFORMACIÓN.

¿Qué significa esto?

Significa que todo tejido estructural en nuestro universo esta “tejido” a un nivel básico por las leyes de la física.

¿Esto significa entonces que las leyes por si solas tiene la “inteligencia” para “tejer” o “construir” complejidad especificada, o dicho de otro modo, producir información compleja especificada, la ICE de William Dembski?

Definitivamente a un nivel básico las leyes de la física permiten nuestra existencia, es decir, la complejidad biológica. ¿Pero también la explican?

Para encontrar una respuesta a este interrogante necesitamos conocer lo que es un “nivel de abstracción”, pero antes tenemos que distinguir mejor donde trabaja la especificación.

En primer lugar hay que entender que significa un nivel básico. Este es un primer nivel de abstracción sobre el cual se pueden establecer reglas en sucesivos niveles superiores. Por ejemplo, el alfabeto es el nivel básico de un sistema de escritura. En un segundo nivel de abstracción puedo agrupar letras para que en un número y orden precisos signifiquen fonemas (palabras habladas). En un tercer nivel de abstracción yo asocio estas palabras, que son a su vez conjuntos de letras, para formar frases y oraciones que tengan un sentido concreto. En todos los niveles estamos hablando de información, pero no de la misma información. En todos los niveles también hablamos de complejidad, pero no de la misma complejidad. Y ello es así porque para crear dichos niveles superiores tenemos que hacer uso de una ESPECIFICACIÓN que determine el significado de los grupos de letras o grupos de palabras según el nivel de abstracción que hayamos también especificado.

Una bacteria, el tipo de ser viviente más sencillo que existe, ¿Puede surgir de las leyes naturales tal como la abiogénesis lo exige? Para responder a esta pregunta, por todo lo visto hasta aquí, habría que responder a esta otra:

¿Cuál es el grado de abstracción de un sistema biológico?

Si los sistemas biológicos respondieran directamente de las leyes físico-químicas podríamos decir que su grado de abstracción sería básico y por lo tanto la abiogénesis debería ser posible, pero todos sabemos que los procesos metabólicos, reproductivos y regenerativos precisan de una información que no está “codificada” directamente en las leyes físico-químicas, sino en una plataforma de información llamada ADN. Este hecho supone un grado de abstracción superior al físico-químico basado en dos sistemas de codificación de aminoácidos; el nuclear y el mitocondrial.

Es por ello que cuando Watson y Crick descubrieron la estructura del ADN y su función como plataforma de información para el código biológico. Muchos biólogos enmarcados en el naturalismo materialista les resultó inquietante el carácter informático de la complejidad biológica. Pero no se inmutaron, miraron a otra parte y evadieron la consecuencia a la cual lleva esta realidad: Que la vida es en realidad producto del desarrollo de un complejo algoritmo biológico y no de un fenómeno de auto-organización natural como se busca con denuedo establecer. Procede de un tipo de complejidad e información sustantivamente diferentes a los existentes en los sistemas dinámicos auto-organizativos naturales tales como la famosa reacción Belousov-Zhabotinsky que genera espirales de colores. Se trata de información y complejidad algorítmica.

Los biólogos teóricos David L Abel y Jack T Trevors en su artículo “Tres subconjuntos de secuencias complejas y su relevancia para la información bio-polimerica” explican cómo se deben distinguir 3 tipos de secuencias complejas: la SCA (Secuencia compleja aleatoria) la SCO (Secuencia compleja ordenada) y la SCF (Secuencia compleja funcional). En su profundo análisis del tema llegan a la siguiente conclusión sobre las posibilidades de que la algorítmica biológica sea fruto de procesos dinámicos de auto-organización natural:

“Los fenómenos de auto-organización se observan diariamente de acuerdo con la teoría del caos. Pero en ningún caso conocido pueden auto-organizarse fenómenos como los huracanes, los montones de arena, la cristalización, o ser capaces de producir fractales de organización algorítmica. Una auto-organización algorítmica nunca ha sido observado a pesar de numerosas publicaciones que han hecho mal uso del término. La organización siempre surge de la elección contingente, no de la necesidad o de la oportunidad de contingencia.

La reducción de la incertidumbre (mal llamada “entropía mutua”) no puede medir la información prescriptiva (información que específicamente informa o da instrucciones). Cualquier secuencia que específicamente nos informa o establece cómo alcanzar el éxito por sí contiene controles de elección. Las limitaciones de la física dinámica no son la elección de los contingentes. Las secuencias prescriptivas se llaman “instrucciones” y “programas”. Ellos no son meramente secuencias complejas, son algoritmos de secuencias complejas. Son cibernética. Las secuencias aleatorias pueden tener máxima complejidad, pero las mismas no hacen nada útil. La instrucción algorítmica es invariablemente la clave para cualquier tipo de organización sofisticada, como se observa en cualquier célula. No existe un método para cuantificar la “información prescriptiva” (las instrucciones cibernéticas).

La presencia de funciones en el ácido nucleico no se pueden explicar mediante tesis del tipo: “orden surgiendo del caos” o “orden al borde del caos”. Los cambios físicos de fase no pueden escribir algoritmos. Las matrices biopoliméricas con alta retención de información se encuentran entre las entidades más complejas conocidas por la ciencia. No actúan y no pueden surgir de los fenómenos auto-organizativos de baja información. En lugar de orden desde el caos, el código genético se ha optimizado para ofrecer algoritmos altamente informativos, aperiódicos y con complejidad específica. Dicha complejidad especificada generalmente se encuentra más cerca del extremo no compresible y no ordenado del espectro de la complejidad que a su extremo altamente ordenado (Fig. 4). Los patrones suele ser el resultado de la reutilización de los módulos de programación o palabras. Pero esto es sólo secundario a la elección contingente que utiliza una mejor eficiencia. El orden en sí mismo no es la clave para el uso prescriptivo de la información”. Énfasis en negrita añadido.

En el artículo titulado “El Origen Algorítmico de la Vida”, cuyos autores son Sara Imari Walker del Instituto de Astrobiología de la NASA y el físico Paul Davies del Centro BEYOND para Conceptos Fundamentales de la Ciencia de la Universidad de Arizona, se formula un dictamen significativo sobre cómo la aparición de la información prescriptiva funcional es el escollo principal en la discusión sobre la factibilidad de la emergencia de la vida desde un mero marco causal físico-químico:

“Mientras que la medición teórica estándar de la información, tal como la información de Shannon, han demostrado ser útil, la información biológica tiene una cualidad adicional que a grandes rasgos se puede llamar “funcionalidad” o “contextualidad” que la diferencia de una colección de bits como mero contenido de la información caracterizada por Shannon. La información biológica comparte algunos puntos en común con la noción filosófica de la información semántica (lo que es más comúnmente, y en rigor, aplicable en el campo de fenómenos de “alto nivel” tales como el lenguaje, la percepción y la cognición). El desafío presentado al exigir que se apele a un contexto global confunde a cualquier intento de definir la información biológica en términos de las variables locales solamente, y sugiere algo fundamentalmente distinto sobre como los sistemas vivientes procesan la información. En este artículo postulamos que es la transición a la causalidad dependiente del contexto, mediado por el inicio del control de la información, lo que constituye la característica definitoria de la vida.” Énfasis en negrita añadido.

Luego de tratar cómo la información biológica se distingue por poseer un tipo de eficacia causal, prosiguen diciendo:

“El verdadero desafío del origen de la vida es, pues, explicar cómo los sistemas de control de instrucción de información surgen de forma natural y espontánea de las meras dinámicas moleculares.” Énfasis en negrita añadido.

En conclusión, Amari y Davies nos dicen qué, pese al previo y reiterativo enfoque de considerar el problema del origen de la vida como un problema de hardware, ponen en relieve que el verdadero desafío supone encontrar cómo apareció el software biológico. Si bien Amari y Davies solo exponen el problema y sugieren un cambio de enfoque en los criterios para abordar el problema del origen de la vida principalmente desde su aspecto informático, eluden admitir, a diferencia de Abel, la imposibilidad de que dichos sistemas de control de instrucción de información biológica puedan surgir de modo natural.

Pero el escenario que con denuedo presenta el naturalismo de elementos bioquímicos cuyas funciones se ensamblan para cumplir funciones más complejas sin prescripción alguna que la sola presión adaptativa. No es improbable, sino imposible. La naturaleza semiótica y algorítmica de la información biológica hace de la misma un mensaje y un mensaje nunca resuelve su significado desde su soporte material, sino por la disposición holística (donde el todo es más que la suma de las partes) que el autor del mensaje ha organizado sobre dicho soporte. Para decirlo de un modo más claro, una receta de cocina o plan operativo cualquiera jamás resuelve su significado simplemente por su conjunto de letras, sino, más bien, por una organización específica de dichas letra que refleje un significado interpretable tanto para el emisor como para el receptor. Por lo tanto, la información prescriptiva biológica no puede nacer de la mera composición de sus elementos químicos, del mismo modo como una carta con mensaje inteligible no nace de la mera composición azarosa de sus letras.

Ahora bien, hemos reparado en la imposibilidad de la naturaleza para generar los mensajes biológicamente computables característicos de la vida, pero el naturalismo no solo sostiene que dicha información pudo tener un origen natural desde la materia, sino que, una vez la vida ya existe, también nueva información funcional biológica es susceptible de tener producción natural mediante el mecanismo megaevolutivo darwiniano, aquel que consiste en el surgimiento de nueva información funcional mediante una selección natural operando sobre mutaciones azarosas en copias de genes que permitan la aparición de nuevas funciones (neofuncionalización). Esta propuesta implicaría que el nuevo gen encuentre un contexto funcional en donde ser útil, pero para que ello suceda debe existir previamente dicho contexto funcional a fin de organizar su participación. Esto significa que no basta con explicar la aparición de un componente, sino que también tenemos que explicar la aparición del contexto funcional en donde participaría el mismo. No solo necesitamos las piezas, necesitamos el procedimiento que organiza a las piezas para desarrollar la función. Decir que la aparición de un nuevo gen basta para solucionar la aparición de nueva información funcional, tal como lo alude el gradualismo darwiniano, resulta bastante ingenuo. A fin de ilustrar esta dificultad de una manera más gráfica veamos el ejemplo de la selección mercantil:

En un supermercado tenemos una gran variedad de productos que han sido fabricados. Estos productos tienen parámetros de producción, funciones de uso e información prescriptiva de fabricación. Serían estos los símiles de los seres vivientes. El público se comportaría como la acción del entorno y la selección natural ya que preferirán los productos más aptos, es decir, para este caso lo productos cuyos parámetros de producción sean los más atractivos para el público y cuyas funciones sean las necesitadas por el mismo. De acuerdo a las preferencias del público (el equivalente de la selección natural) se elegirán ciertas marcas en preferencia a otras. Algunos productos serán replanteados y otros saldrán del mercado por el influjo selectivo del público. De este modo vemos que en un mercado existe una “evolución” de los productos ya que estos efectivamente cambian con el tiempo. Pero, he aquí la gran pregunta:

¿Prescribe el público la información prescriptiva de fabricación de los productos a sus fabricantes? No. Pueden prescribir que parámetros son más óptimos a los fabricantes, he incluso si determinadas funciones o usos realizados por dichos productos pueden ser más apreciados, pero de allí a prescribir como se fabrican no sucede jamás, ni en este macromundo mecánico ni en el micromundo químico ni en el mundo de nunca jamás, y ello porque tanto en la selección mercantil como en la selección natural no existe ninguna capacidad para prescribir información de organización estructural, es decir, la algorítmica de fabricación y/o generación.

Ningún cliente va al mercado y le dice al vendedor “Mira aquí te traigo el diagrama esquemático de los circuitos impresos así como la lista de los dispositivos electrónicos que debes usar para ensamblar este dispositivo que quiero comprar” o un señora va a la farmacia y le dice al farmacéutico: “Esta es la lista de las sustancias químicas y el flujograma de procesos que debes realizar para fabricar este fármaco”. Los clientes no prescriben cómo se fabrican los productos a los fabricantes, ellos solo elijen el producto que mas desean o creen conveniente. Pero incluso, aunque pudieran alguna vez hacerlo, estos tiene algo que la naturaleza no tiene: inteligencia.

El físico británico Roger Penrose en su libro “La mente nueva del emperador” detecta esta misma dificultad. En las páginas 368 y 369 bajo el subtitulo: “¿SELECCIÓN NATURAL DE ALGORITMOS?” dice lo siguiente:

“Imaginemos un programa ordinario de computadora. ¿Cómo llegó a formarse? Es evidente que no (directamente) por selección natural. Algún programador humano de computadoras lo habrá concebido, verificando que realiza correctamente las acciones que se supone debe hacer. (En realidad, muchos programas de computadora complicados contienen errores —normalmente menores, pero a menudo muy sutiles y que no salen a la luz excepto en circunstancias muy poco comunes. La presencia de tales errores no afecta medularmente a mi argumento.) A veces un programa de computadora puede haber sido “escrito” por otro programa, digamos un programa de computadora “maestro”, pero en tal caso el propio programa maestro habrá sido el producto del ingenio y la intuición humanos; o el programa podría perfectamente ensamblarse a partir de ingredientes, algunos de los cuales son los productos de otros programas de computadora. Pero en todos los casos la validez y la misma concepción del programa habrá sido en última instancia responsabilidad de (al menos) una conciencia humana.

Podemos imaginar, por supuesto, que no es necesario que haya sido así y que, dado el tiempo suficiente, el programa de computadora pudo haber evolucionado espontáneamente por algún proceso de selección natural. Si creemos que las acciones de las conciencias de los programadores de computadoras son en sí mismas simples algoritmos, entonces debemos creer que los algoritmos han evolucionado de esta misma forma. Lo que me molesta de esto, sin embargo, es que la decisión sobre la validez de un algoritmo no es en sí misma un proceso algorítmico. Ya hemos visto algo de esto en el capítulo II. (La cuestión de si una máquina de Turing se parará o no, es un punto que no puede decidirse algorítmicamente.) Para decidir si un algoritmo funcionará o no, necesitamos perspicacia, y no sólo otro algoritmo.

De todas formas, aun sería posible imaginar algún tipo de proceso de selección natural que fuera efectivo para producir algoritmos aproximadamente válidos. Sin embargo, yo personalmente encuentro esto muy difícil de creer. Cualquier proceso de selección natural de este tipo actuaría sólo sobre el output de los algoritmos* y no directamente sobre las ideas inherentes a los algoritmos. Esto no sólo es extremadamente ineficiente; creo que sería totalmente impracticable. En primer lugar, no es fácil verificar cuál es realmente un algoritmo mediante un simple examen de su output. (Sería bastante sencillo construir dos acciones simples y muy diferentes de máquina de Turing para las que las cintas de salida no difieran hasta, digamos, el lugar de 2 elevado a 65536, diferencia que no se podría reconocer en toda la historia del Universo.) Además, la más ligera “mutación” de un algoritmo —por ejemplo, un pequeño cambio en la especificación de una máquina de Turing o en su cinta de input—podría hacerla totalmente inútil, y es difícil ver siquiera cómo de esta forma aleatoria podrían aparecer mejoras reales en los algoritmos. (Incluso las mejoras deliberadas son difíciles sin que estén disponibles los “significados”. Esto se confirma por los casos no poco frecuentes en los que un Programa de computadora complicado y mal documentado necesita ser alterado o corregido y el programador original se ha marchado o quizá ha muerto. Antes que tratar de desentrañar todos los diversos significados e intenciones de los que el programa depende explícitamente, probablemente sea más fácil desecharlo sin más y empezar todo de nuevo.)” Énfasis en negrita añadido.

Sé de primera mano cuan cierto es lo último que refiere Penrose, pero lo importante es notar cómo este físico británico, cuya mente no es en absoluto desdeñable, reconoce enfáticamente que la selección actúa sobre el output y en consecuencia no puede en absoluto prescribir el propio algoritmo.

El entorno, con el concurso de la selección natural y toda la eternidad si fuese preciso, no puede prescribir información prescriptiva para la organización algorítmica de la más mínima función biológica.
Tal como se analizó en el ejemplo del supermercado los clientes no saben, y aún sabiendo, no pueden prescribir a los fabricantes cómo fabricar sus productos solo en virtud a su elección de productos en el supermercado. Solo pueden indicarles a los fabricantes cuales son las características (parámetros) que determinan un mayor éxito en las ventas y cuáles no. No construyen mayor complejidad funcional porque NO PUEDEN.

Del mismo modo, como bien lo señaló Penrose, nunca un algoritmo puede ser prescrito por la selección de sus desarrollos. Lo cual sería como creer que los compradores de software construyen los programas al elegir en una tienda el programa que quieren comprar. Así solo seleccionan un output más no la estructura algorítmica necesaria para hacerlos funcionar. Aplicando a la biología las consideraciones aquí señaladas puede decirse qué, si bien tanto la microevolución como la macroevolución son plenamente factibles, no lo es en cambio la megaevolución.

Las dificultades señaladas hallan un referente muy importante en el fenómeno llamado pleiotropía. Este fenómeno consiste en la reutilización de un gen en varias etapas de un proceso embriogénico. De este modo, tal como sucede con la reutilización algorítmica de un procedimiento o función en distintas partes del desarrollo de un programa informático, la expresión del gen es invocada repetidamente en distintas fases de un desarrollo biológico particular.

Para que un gen pueda ser invocado en desde distintos contextos funcionales necesita poder discriminar cuándo es invocado por un contexto funcional específico y cuándo por otro sin posibilidades de confusión. Para ello necesita tener no una, sino varias zonas de regulación llamadas “intensificadores” que actúen como interruptores específicos para cada caso particular de expresión.

En el artículo de Sean B. Carroll, Benjamin Prud’homme y Nicolas Gompel “La regulación de la evolución” se explica bastante bien cómo el gen pleiotrópico de la mosca de la fruta llamado Yellow es invocado para distintos fines fenotípicos:

“Muchos genes se expresan solo de maneras que son específicas del órgano, tejido o tipo de célula en que se encuentren. Determinas secuencias no codificadoras del ADN, los “Intensificadores”, desempeñan un papel fundamental a la hora de decidir cuándo y dónde se produce la expresión. Los intensificadores son uno de los componentes de los “interruptores genéticos” que activan o desactivan genes en el momento y lugar preciso del organismo. El otro componente es un tipo de proteínas, los factores de transcripción, que se unen a determinadas secuencias de ADN. Dentro de un núcleo celular, la unión de los factores de transcripción al intensificador establece si el interruptor (y, por lo tanto, el gen) se halla activado o no en la célula correspondiente.

Cada gen tiene al menos un intensificador. A diferencia de los propios genes, cuyas regiones codificadoras se identifican fácilmente gracias a la gramática bastante simple del código genético, no se reconoce a los intensificadores por sus secuencias de ADN; hay que descubrirlos experimentalmente. Por regla general, los intensificadores adquieren una longitud de algunos cientos de pares de bases y se encuentran a cualquier lado de un gen, o incluso dentro de una región no codificadora de su interior. También pueden hallarse a un distancia de miles de nucleótidos del gen.

Con respecto a lo que nos ocupa, lo importante es que algunos genes poseen muchos intensificadores distintos. Eso resulta particularmente cierto en el caso de los genes que codifican las proteínas que moldean las formas anatómicas. Cada intensificador regula de manera independiente la expresión en distintas partes del organismo y en distintas etapas del ciclo vital del animal, de suerte que la expresión completa de un gen es un mosaico de múltiples lugares de expresión, controlados de forma independiente. Los intensificadores posibilitan que un mismo gen opere muchas veces en contextos distintos; potencian pues la versatilidad de cada gen.

Un gen implicado en la coloración de ciertas partes del cuerpo de la mosca de la fruta pone de manifiesto la lógica modular de este sistema de regulación génica. El gen Yellow codifica una proteína que promueve la formación de una pigmentación de color negro: las moscas mutantes que carecen de esta proteína son amarillas. El gen Yellow posee distintos intensificadores que lo activan durante el desarrollo de diversas partes del cuerpo de la mosca, alas y abdomen incluidos.

Como el gen Yellow interviene en el desarrollo de tantos tejidos, las mutaciones en el propio gen resultarían desastrosas si alterasen o anulasen la función de la proteína; afectarían a la función de la proteína de pigmentación Yellow en todo el organismo. Por el contrario, los cambios limitados a uno de los intensificadores del gen afectarían sólo a la función de ese intensificador y la expresión del gen Yellow que controlase, sin provocar cambios en la expresión y función de la proteína en otros tejidos.

Las repercusiones evolutivas de la regulación modular de los genes implicados en el diseño del cuerpo son profundas. En teoría, las mutaciones de los intensificadores permitirían que determinados rasgos del organismo se modificasen de forma selectiva, sin que cambiasen los genes o proteínas. Y en los últimos años han aparecido pruebas directas de que tal ha sido a menudo la evolución de las diversas partes o diseños del organismo”. Énfasis en negrita añadido. Pag.26-27. Investigación y Ciencia. Julio 2008.

Nótese la como los autores destacan al final el papel de la mutación de los intensificadores como los principales protagonistas de la evolución morfológica animal en lugar de las clásicas y problemáticas mutaciones génicas. Pero esta evolución morfológica, que está plenamente comprobada, está fundada más en la pérdida que en la ganancia de función tal como en el mismo artículo precisan los autores:

“A pesar de que tendemos a pensar que la presencia de una característica en una especie y su ausencia en otra emparentada con ella indica su adquisición por la primera, no siempre acontece. Antes bien, lo habitual es que la evolución dé marcha atrás y se pierda algún rasgo. La pérdida de características corporales ofrece quizás el ejemplo más claro de que la evolución de los intensificadores es el mecanismo más probable de la evolución anatómica”. Énfasis en negrita añadido. Pag.28. Investigación y Ciencia. Julio 2008

Hubiese sido bueno que los autores citaran algún caso de adquisición de un intensificador del que los mismos indican que “no siempre acontece”, pero no citan ninguno. Sin embargo, más allá de estas consideraciones lo anterior nos revela una dificultad adicional a la solvencia de las recurridas mutaciones génicas como motor evolutivo que los autores del artículo anterior no han abordado en absoluto.

Pese a las dificultades antes señalas todavía sería plausible concebir una neofuncionalización para la copia de un gen que sólo tiene un intensificador, y por lo tanto, que sólo demandaría un contexto de expresión. Pero cuando hablamos de un gen pleiotrópico que es invocado repetidas veces en distintos contextos funcionales ya no es posible admitir plausibilidad alguna. Un gen pleiotrópico reviste una complejidad tal que no admite experimentos y, al igual que las 20 aminoacil ARNt sintetasas del código genético deben aparecer de un solo golpe, los contextos funcionales del gen pleiotrópico necesitan estar enhebrados entre sí en una estructura algorítmica que no admite la modificación del mismo sin caer en el colapso o el severo deterioro funcional del conjunto.

La clara inferencia de estructuración algorítmica que el fenómeno de los genes pleiotrópicos señala, los niveles de abstracción superiores a las leyes físico-químicas sobre los que está organizada la semántica de la información biológica y la presencia de sendos programas de desarrollo imposibles de ser el fruto de la selección de sus salidas (output) destaca la presencia de información compleja especificada (ICE) tanto en el ADN como en el medio intracelular y, por lo tanto, representa un indicador contundente más de que la vida es fruto ineludible de diseño.

Próximo post: Coherencia de Contexto.

Fuente: Cristian Aguirre del Pino. Los Indicadores de Diseño. Capítulo 3. OIACDI 2013

Deje una respuesta

Leer entrada anterior
Los Indicadores de Diseño. Parte 2. Procesadores

En la naturaleza existen innumerables procesos que transforman elementos para descomponerlos en elementos más simples, para asociarlos a otros elementos...

Cerrar