La propuesta de H.J. Muller para el origen de la complejidad biológica. Parte 2 Complejidad irreductible y asociatividad.

Por Cristian Aguirre
225

La propuesta de H.J. Muller pretende explicar la emergencia de la complejidad biológica mediante dos sencillos pasos:

1. Añadir una parte.
2. Hacerla necesaria.

Anteriormente vimos que para un escenario no biológico la propuesta de Muller no tiene éxito en cuanto a que se requiere la existencia previa de entidades con necesidades, ya que sin ellas el paso 2 es imposible. Para que una entidad requiera satisfacer una necesidad para sí misma, debe primero cumplir un funcionamiento. Pero no podemos partir de un funcionamiento como requisito para adquirir complejidad funcional porque con dicha propuesta se pretende explicar su emergencia. La causalidad circular que ello conlleva invalida el argumento para un escenario anterior a la emergencia de la vida.

Ahora analizaremos su factibilidad cuando ya existe la vida. En este escenario la propuesta de Muller puede funcionar porque ya contamos con entidades beneficiables con necesidades. El procariota más elemental es capaz de metabolizar (recoger y transformar materia y energía para satisfacer la necesidad de subsistencia de si mismo) y reproducirse (satisfacer la necesidad de propagación y subsistencia de su especie).

La pregunta que corresponde hacer ahora es si esta propuesta puede explicar un proceso de incremento de complejidad funcional en un ente viviente. Y si dicho mecanismo puede explicar de algún modo toda la evolución vertical (cambio con incremento de complejidad funcional) en la historia de la vida tal como lo aluden Theobald y el propio Muller.

Para responder a este interrogante analizaremos con detalle, y por enésima vez en este blog, en qué consiste, la “tontería” en palabras de Theobald, de la complejidad irreductible y donde la propuesta de Muller puede funcionar y donde no y porqué.

Imaginemos a la evolución vertical (aquella que implica aumento de complejidad funcional) como una entidad que busca ascender por una rampa. Aunque la rampa sea irregular y mientras no sea demasiado empinada dicha entidad puede ascender sin problemas. Si ahora cambiamos la rampa por una escalera de escalones lo suficientemente pequeños para ser abordado por el mismo aún se conseguirá ascender por la escalera. Pero si los escalones dejan de ser pequeños para convertirse en verdaderos acantilados, para dicha entidad ya no será posible ascender por la escalera dado que sus escalones son demasiado altos para poder escalarlos. La complejidad irreductible produce este último efecto y es por ello que es atacada por la visión del materialismo evolutivo. Para que su propuesta pueda ser verosímil debe entonces atacar las alturas de esta escalera evolutiva haciéndolas tan pequeñas como sea posible para que nuestra evolución vertical puede ascender en complejidad sin invocar desafíos imposibles.

El naturalismo evolutivo reconoce que esta escalera existe, pero se resiste a admitir la altura de muchos de sus escalones y además conjetura cómo pueden estos acantilados convertirse en escalones más pequeños de tal manera que el ascenso no sea imposible. Para evaluar entonces cómo esta complejidad mínima funcional dificulta el ascenso evolutivo debemos explicar de la mejor manera posible que es aplicando unos ejemplos gráficos sencillos.

Para todo objetivo se pueden plantear muchas soluciones, algunas serán más ineficientes que otras al requerir mayor complejidad para un mismo objetivo. No obstante, siempre puede existir una solución, entre todas las posibles, con una complejidad mínima necesaria para cumplir con el objetivo. Esta complejidad es la mínima funcional, en cuanto a que es la que implica los mínimos recursos necesarios para permitir el funcionamiento y no existirá ninguna otra solución menos compleja ni mágica que consiga el objetivo.

Consideremos una esfera. Si nuestro propósito consiste en cercarla de tal manera que quede aislada usando tablas, se pueden disponer muchas soluciones:

Como se observa, (visto desde arriba) pese a que son posibles varias soluciones, bidimensionalmente como mínimo necesitamos 3 tablas como se observa en la solución 3. No existe una solución en la cual se use sólo 2 tablas rectas y pueda cercarse la esfera dentro de la geometría euclidiana. Incluso topológicamente se sabe que un grafo regular debe tener como mínimo 3 aristas. Las soluciones aplicadas aquí se refieren a un cerco bidimensional y hemos visto que como mínimo se precisa de tres tablas rectas, veamos ahora el caso cuando se precisa cercar la esfera tridimensionalmente, siendo la complejidad una función del número de caras:

En este caso se presentan 2 soluciones, la primera consiste en un cubo de 6 caras, y la segunda en un tetraedro de 4 caras. También, claro está, hay más poliedros posibles con mayor número de caras, pero la solución mínima es el tetraedro. En un cerco tridimensional mediante superficies planas no hay una solución menor que esta, pues más allá tenemos una imposibilidad estructural.

Como hemos visto, el número mínimo necesario de caras planas para cercar bidimensionalmente a la esfera es 3, y tridimensionalmente 4. Por tanto en ambos casos se tienen unas CMFs de 3 y 4 respectivamente.

Ahora veremos como la CMF no es el único límite para las soluciones posibles.

Como ilustración usaremos nuevamente el cerco de la esfera. En la misma encontramos que la CMF lo constituía un cerco de 3 tablas, pero no consideramos el área como un parámetro de la estructura. En la siguiente figura veremos cómo no todas las soluciones estructuralmente iguales, pero paramétricamente distintas, son posibles:

En la primera solución los lados del cerco son grandes y por ello la esfera cabe holgadamente. Se puede por tanto buscar una solución en la que, en aras de la economía, los lados sean lo más pequeños posibles hasta tocar a la esfera, tal es el caso de la solución 2. Sin embargo, una solución aún menor (S3) es imposible, pues en dicho caso las paredes tendrían que atravesar la esfera y, como es obvio, ello no puede suceder.

En conclusión, podemos decir que S1 es una solución arbitraria mayor en cuanto al área de los lados, que S2 es la solución paramétrica mínima de las soluciones posibles, y por último S3 es una solución con imposibilidad paramétrica en cuanto a que, el área de sus lados, es inferior al mínimo paramétrico de la CMF.

Como se vio en los post relativos a los algoritmos genéticos la función de aptitud (fitness) también puede definirse para encontrar una solución en el espacio de búsqueda que permita alcanzar el objetivo con el menor costo en recursos posibles. Como un ejemplo de esto se vio el caso del circuito reconocedor de voz que puede distinguir y responder a órdenes habladas utilizando sólo 37 puertas lógicas.

Existen dos propiedades importantes que debemos atender para juzgar los casos de complejidad irreductible:

1. El tipo de asociatividad de sus componentes.
2. La coherencia o capacidad de conectividad con la cual se ensamblan los componentes.
3. La multicontextualidad (la capacidad de conectarse a más de un contexto estructural) de cada uno de ellos.

Tipos de asociatividad

Para no recurrir a definiciones matemáticas engorrosas usaré ejemplos sencillos para explicar estos conceptos. Supongamos que en una habitación tenemos 3 electrodomésticos: un microondas, una cocina eléctrica de 4 hornillas y una tostadora. Todos pueden estar conectados a la red eléctrica, pero no están conectados entre sí ni dependen recíprocamente para funcionar. Si se malogra 1 de ellos los demás funcionan sin inconvenientes. Dado que las funciones de estos artefactos no son dependientes entre sí, sus funciones se relacionan lógicamente por el operador “O” (or). En este caso la complejidad de nuestra concurrencia de artefactos eléctricos podemos cuantificarlo, denotando la letra C mayúscula como la complejidad de cada dispositivo, del siguiente modo:

Cconcurrencia = Cmicroondas + Ccocina + Ctostadora

Ahora bien si le quito a la cocina eléctrica las hornillas (resistencias térmicas) ya no tendré una cocina funcional dado que para que lo sea las hornillas, ya sean estas 4 o 1 según el modelo, deberán estar conectadas a la cocina eléctrica a fin de recibir el suministro de tensión eléctrica que las caliente y así cumplan su función. En este caso una resistencia se asocia a la cocina de modo productivo teniendo una relación lógica Y (and). En este tipo de asociación la cuantificación de la complejidad de la cocina será entonces la siguiente:

Ccocina = Cplataforma * Chornilla         para 1 hornilla

Ccocina = Cplataforma * (Chornilla1 + Chornilla2 + Chornilla3 + Chornilla4)         para 4 hornillas.

Para las cocinas de cuatro hornillas sabemos que existe un caso híbrido ya que la asociación es en parte productiva y en parte asociativa. De este modo si se malogra una hornilla aún puedo cocinar con la cocina eléctrica ya que me quedan 3. Incluso si solo me quedara una hornilla aún puedo cocinar, pero si se malogran las 4 entonces tengo que buscar otra solución. En este caso mi cocina eléctrica colapsa funcionalmente. También colapsaría funcionalmente si las hornillas permanecen bien, pero la plataforma no funciona y por ello no suministra tensión eléctrica a las hornillas. Aquí también colapsará la función. Esta cualidad híbrida de un determinado complejo donde se combinan asociaciones productivas con aditivas es sumamente común tanto en los artefactos creados por el hombre como en los mecanismos biológicos. No solemos trabajar en el límite de una CMF, más bien tenemos margenes de seguridad mediante redundancias existentes en asociaciones productivo-aditivas. Nosotros, por ejemplo, disponemos de 2 ojos, 2 pulmones, 2 riñones, 2 hemisferios cerebrales, 2 brazos, etc. Esto nos proporciona una redundancia que nos faculta a poder seguir funcionando (aunque no óptimamente) si nos falla cualquiera de los componentes redundantes, pero si nos falla un órgano no redundante como el corazón entonces el colapso funcional, es decir, la muerte acontecerá.

La sencilla matemática de estas expresiones pone en relieve que si un componente asociado productivamente desaparece haciéndose su complejidad igual a cero, entonces el conjunto será también cero y en consecuencia la función deja de existir. Es esto lo que determina que cuando existe complejidad irreductible la desaparición de un componente clave, es decir, asociado productivamente al conjunto, colapse la función. Y también esto explica que para los complejos híbridos existan componentes que por su carácter redundante no colapsen la función con su desaparición.

Hay aún otro tipo de asociación en la cual una acreción es funcional mientras exceda a un umbral. Esto nos llevaría a una Acreción Mínima Funcional del siguiente modo:

Supongamos que una persona que pesa 80 kilos es soportado por 5 cuerdas cuya capacidad límite es de 20 kilos. Mientras tenga las 5 cuerdas tiene cierta redundancia y por lo tanto un pequeño margen de seguridad. Si se rompe una quedará en el umbral y sin margen alguno de seguridad. Pero si se rompe una más, las 3 cuerdas restantes no podrán soportar el peso y también colapsaran.

Esta AMF limitada por un umbral es muy común tanto en las estructuras artificiales como biológicas. Los ingenieros civiles necesitan calcular cual es el umbral de carga de determinada viga o columna y qué márgenes de redundancia o seguridad deben considerar en relación al costo de la estructura. Los médicos también conocen muchos umbrales de distintos indicadores vitales que no deben ser traspasados a fin de que no muera el paciente.

Los mecanismos biológicos disponen pues de estructuras con asociatividad hibrida, es decir, hay componentes asociados productivamente, otros asociados aditivamente y otros asociados aditivamente con umbral de acreción mínima funcional. Esto explica porqué en las acaloradas discusiones sobre si tal sistema bioquímico tiene o no CI se mencionan casos donde la inhabilitación de un componente no colapsa la función. Lo cual, por lo tanto, no inhibe el hecho de que en efecto estos sistemas tengan CI.

Ahora bien, el problema que arroja la CI sobre la factibilidad de la Teoría Sintética y por la cual es profusamente atacada se debe a que altera la visión gradualista de una evolución con incremento de complejidad que asciende a través de una rampa.

El célebre biólogo británico Richard Dawkins define esta visión al afirmar:

La selección natural es un proceso antialeatorio que va construyendo gradualmente la complejidad, paso a paso. El producto final de este efecto cremallera es un ojo, o un corazón, o un cerebro; un dispositivo cuya complejidad es absolutamente desconcertante hasta que divisamos la suave rampa por la que se llega a él. (1)

En el siguiente gráfico se hace una precisión visual de ambas visiones; la gradualista y la que genera la complejidad irreductible. La parte superior del gráfico ilustra la rampa ideal que alude Dawkins. Dicha rampa en la realidad y para el gradualismo darwiniano no debe ser por supuesto una rampa perfecta, sino más bien una escalera de escalones pequeños cuya altura implica una función novedosa conseguible mediante la adición de un nuevo componente tal como la propuesta de Muller lo prescribe. De lejos podrá verse como una rampa, pero de cerca se pueden reconocer las discontinuidades que representan los pequeños incrementos de complejidad.

Si se diera el caso que en efecto la complejidad biológica pudiera ascender por pequeños escalones que comportan una o pocas funciones. La asociación de los nuevos componentes para un conjunto que resulte funcionalmente favorecido es por supuesto verosímil.

El problema surge cuando reconocemos mecanismos con componentes asociados productivamente con un número mucho mayor de factores funcionales. En este escenario la propuesta de Muller ya no puede funcionar dentro de los mecanismos darwinianos de mutación y selección natural dado que necesitamos, no que un solo componente se asocie como lo demanda Muller en su paso 1 “añadir una parte”, sino que muchos componentes necesarios y previamente existentes se asocien simultáneamente para formar una función compleja. Este nivel de CI implicará una altura del escalón tal que haría inabordable el ascenso evolutivo por tan escarpada escalera.

El destacado biólogo y periodista español Javier Sampedro en su libro “Deconstruyendo a Darwin” señala con crudeza esta situación:

En el año 2002, un equipo de 38 investigadores de la empresa Cellzome – una compañía fundada enteramente por científicos del Laboratorio Europeo de Biología Molecular (EMBL), en Heidelberg (Alemania) – presentó en Nature los resultados de la primera búsqueda sistemática de máquinas multiprotéicas. Este equipo dirigido por el italiano Giulio Superti-Furga, analizó de un golpe unos 1400 genes (una tercera parte del genoma) de la levadura Saccharomyces cerevisiae, el hongo unicelular que los panaderos utilizan para hacer el pan, los cerveceros para hacer cerveza, y los genetistas para hacer la pascua a sus colegas que estudian a otras especies eucariotas muchísimo más lentas y difíciles de manipular, como la mosca o el ser humano. El resultado fue una de las sorpresas científicas de los últimos años: las 1400 proteínas fabricadas por esos 1400 genes no vagan en solitario por la célula, cada una aportando su pequeña cuota de know how a la empresa celular, sino que todas están formando parte de máquinas multiprotéicas. Para ser más exactos, las 1400 proteínas analizadas por el equipo de Heidelberg constituyen 232 máquinas. La máquina más pequeña multiprotéica, está formada por solo 2 proteínas. La más grande por 83. Una máquina media está compuesta por 12 proteínas (no se moleste en dividir 1400 por 232: no da 12, sino 6; veremos la razón dentro de dos párrafos).

¿A qué se dedican estas máquinas? Según el amplio muestreo del equipo de Hieldelberg, la mitad de las máquinas están implicadas en la manipulación y utilización del material genético: transcripción de los genes a ARN y estructura de la cromatina (24%), splicing y metabolismo del ARN (12%) y síntesis y y retirada de proteínas (14%). (Subtotal: 50%). Otro 19% de las máquinas están dedicadas al metabolismo energético. Otro 9% a construir las membranas de la célula. Otro 9% a transmitir señales. Un 6% al ciclo celular que ordena el crecimiento y la división, y un 3% a dotar a la célula de estructura y polaridad. (GAVIN y colaboradores, 2002.)”. Énfasis en negrita añadido. (2)

Con cierta ironía Sampedro señala como la realidad se distancia de la visión del gradualismo darwiniano donde la proteínas “vagan en solitario por la célula, cada una aportando su pequeña cuota de know how a la empresa celular”. Por el contrario, las mismas se asocian en máquinas multiprotéicas de entre 2 y 83 proteínas, según el equipo de Cellzone. Para la propuesta de Muller no es pues problema explicar la emergencia de una máquina de 2 proteínas, pero ya se muestra insuficiente para el promedio de 12 proteínas y más aún para números mayores tales como la de 83 proteínas.

Para salvar este problema los críticos de la CI alegan que no es necesaria la concurrencia de cada componente a una sociedad numerosa de factores productivos, sino que ya pueden existir en el medio biológico numerosos precursores menos complejos que al final pueden asociarse entre sí de tal modo que salvan el aparentemente inabordable escalón funcional de la CI.

¿Pueden entonces formarse complejos irreductibles grandes desde la asociación de complejos menores que ya son funcionales en otros contextos?

Para responder a esta pregunta abordaremos en el siguiente post la factibilidad de esta propuesta a la luz de dos conceptos fundamentales: la coherencia y la multicontextualidad.

Referencias:

1.- Richard Dawkins. La Confrontación Creacionista-Evolucionista.
http://www.edge.org/3rd_culture/dawkins06/dawkins06_index.html
2.- Javier Sampedro. Deconstruyendo a Darwin. Editorial Critica
3.- Cristian Aguirre del Pino. Elementos de estructuras funcionales. OIACDI 2010

Deje una respuesta

Leer entrada anterior
Conferencia de PZ Myers en Glasgow

Por Felipe Aizpún PZ Myers es uno de los más combativos defensores del paradigma darwinista en su versión materialista y...

Cerrar