La carta y la polilla

Cristian Aguirre

En un oscuro desván yace olvidado desde hace muchos años una carta. Desde que fue dejada por primera vez lleva acumulando tanto tiempo como polvo y desde luego no ha sido desdeñada de recibir la inquieta visita de una voraz polilla cuyas preferencias culinarias incluyen la celulosa del papel. Ya hace mucho tiempo que se evaporaron las lágrimas que cayeron sobre su superficie, una superficie que por cierto estaba plagada de extravagantes trazos de tinta negra poblando su superficie.

Para la polilla estos trazos no significan realmente nada salvo un ligero cambio de sabor en su preciado menú. Por eso, desde que la encontró, no ha dejado de producir tantos agujeros en la carta que muchos de aquellos trazos de tinta, que en el pasado fueron capaces de producir tantas lágrimas, han dejado de existir.

Pero ¿Qué extraña magia hace posible que algunos trazos de tinta negra sobre un papel sea capaz de producir semejante emoción?

¿Por qué un ser humano puede tener fuertes reacciones emocionales ante la visión de unos trazos de tinta sobre un papel y no la polilla? ¿Qué los diferencia en este caso?

A diferencia de la polilla, el lector humano es capaz de hallar SIGNIFICADO en aquellos trazos de tinta que no son de formas azarosas, sino que más bien poseen formas específicas que llamamos SÍMBOLOS. Estos símbolos representan la abstracción de una idea. Para el caso de las letras representan las piezas necesarias para construir los fonemas de un idioma humano de tal modo que, cuando se concatenan, pueden formar palabras que a su vez son abstracciones también de ideas con significado.

Si la polilla no se emocionó con el mensaje expresado en los trazos de tinta, no fue porque no pudiera emocionarse (y aquí no nos interesa tratar el tema sobre si las polillas son seres sentimentales), sino simplemente porque no halló ningún significado en ellas. Eran comida y punto. Es verdad que también podríamos invocar la diferencia de inteligencia entre este pequeño insecto y un ser humano como causal de esta incapacidad de interpretación, aunque ello sería algo injusto ya que si la carta estuviera escrita en un idioma que no pudiera interpretar el lector humano sería así tan estéril en significado como lo fue para la polilla.

¿Sería posible que nosotros los seres humanos estemos como la polilla también comiendo despreocupadamente grandes trozos de información con significado y en cantidades verdaderamente astronómicas sin darnos cuenta?

La verdad es que sí.

Cuando desayunamos, almorzamos y cenamos estamos haciendo precisamente eso. Con cada bocado de carne, vegetales o fruta ingerimos colecciones inmensas de enciclopedias completas de información con significado bioquímico.

Cada célula viva esconde en su secreto interior “cartas” llenas de información que sirven para que cada una de ellas pueda metabolizar (transformar materiales del exterior en energía y piezas útiles), repararse, adaptarse y protegerse de amenazas externas, y, por último, para reproducirse controladamente.

Toda esta información, que no podemos ver por su microscópico tamaño, nos ha sido revelado por la ciencia biológica desde hace alrededor de un siglo. Lo interesante de esto es que en aquel micromundo de la célula no solo tenemos cartas escritas, sino también lectores que hallan significado en ellas y que, en cada segundo de nuestra vida, están constantemente interpretando estas cartas a fin de mantenernos vivos.

Las principales cartas de las que dispone una célula lo constituyen los cromosomas. Estos son unas cadenas de ácidos nucleídos que disponen de símbolos de un lenguaje de primer nivel que consta de 4 letras: A, T, C y G (Adenina, Timina (Uraclio en el ARN), Citosina y Guanina). Con éste alfabeto de 4 letras se pueden formar palabras de 3 letras llamadas codones cuyo significado especifica un aminoácido y con una cadena de aminoácidos se podrá formar a su vez una proteína, uno de los ladrillos básicos que constituye todo ser viviente.

Este orden específico de aminoácidos implica un segundo lenguaje donde tenemos 20 palabras, una para cada aminoácido existente en toda forma de vida en la tierra. Al diccionario que involucra este segundo nivel de abstracción, lo denominamos código genético.

Nótese que este código no es la información contenida en el ADN, sino el diccionario donde está el significado que relaciona cada codón (3 letras) con un aminoácido. Recordemos, el codón NO ES un aminoácido más bien REPRESENTA la información necesaria para invocar la presencia de un aminoácido presente en el medio intracelular. Ahora bien, el codón no necesariamente tiene que significar solamente un aminoácido ya que puede también significar algo de naturaleza totalmente distinta tal como las señales de control de transcripción. De hecho existe un codón que significa “inicio de transcripción” (AUG el aminoácido metionina) y tres codones que no codifican ningún aminoácido y que significan “fin de transcripción” (UAA, UGA y UAG). De este modo se remarca más el hecho de que un codón puede significar cosas de distinta naturaleza y que no existe ninguna razón fisicoquímica que lo oriente a significar tan solo un tipo de significado.

Al igual que en los usos gramaticales en los cuales un párrafo empieza con una letra mayúscula y termina con un punto. O como sucede con los programas informáticos en los cuales los programas y subprogramas tiene una instrucción de inicio y otra de fin para delimitarlo. En la carta de la vida, el ADN, los genes están delimitados por una señal de inicio y otra de fin a efectos de que se pueda delimitar donde empieza y termina la información que lo especifica.

Lo primero que sucede para que una proteína pueda construirse a partir de un gen se conoce como “Transcripción” dado que se necesita abrir, como una cremallera, los dos brazos del ADN a fin de extraer una copia basada en una cadena de ácido ribonucleico (ARN). El proceso sobre como sucede esto es bastante complicado para las células sin núcleo y lo es aún más para las células con núcleo, pero no es relevante ahora tratarlo. Contemos ahora con el hecho de tener a un maduro ARN mensajero (ARNm) que en el citoplasma debe servir ahora para construir una proteína de modo parecido a como un rollo de pianola es procesado serialmente para producir una melodía.

En este ARNm tenemos una “carta” con palabras llamadas codones que deben especificar qué aminoácidos deben encadenarse para formar una proteína, pero por si sola no hace nada. Necesitamos de más actores. Uno de los principales se llama Ribosoma y es una máquina molecular cuyo propósito es construir, como una cadena de montaje móvil, una proteína a partir de la secuencia del ARNm. Pero ¿cómo el ribosoma podrá asociar un codón del ARNm con un aminoácido disperso en el citoplasma? ¿De dónde saca el conocimiento para saber que a un codón concreto debe asociarlo a un aminoácido específico?

En 1955 Francis Crick, el codescubridor junto con James D. Watson de la estructura helicoidal del ADN, predijo que la forma en la cual se produce la traducción de los codones de los genes en proteínas debía requerir la presencia de un adaptador que pudiera servir para relacionar un aminoácido concreto con un codón o grupo de codones que lo codifiquen (nótese que este sistema tiene una redundancia de tal modo que, para un aminoácido pueden haber desde un solo codón hasta 6 distintos que lo codifiquen). A este adaptador, cuando se confirmó que efectivamente existía, se lo llamó ARNt (ARN de transferencia). Su forma es parecida a un trébol tal como se muestra en la siguiente figura:

ARNt

Como se puede observar en la figura el ARNt tiene una forma de cruz donde en la parte superior se une a un aminoácido específico y no a ningún otro. Esta especificidad se corresponde con su código de enlace en la parte inferior llamado “Anticodon” por ser complementario al codón que codifica el aminoácido en el ARNm.

¿Pero cómo esta molécula con su específico anticodon captura el aminoácido correspondiente del medio celular? ¿Lo puede hacer sola?

No, para ello necesita la ayuda de otro actor llamado aminoacil-tARN sintetasa (aaRSs para abreviar). Esta molécula es una enzima. Una enzima es una proteína que realiza un trabajo de catálisis, es decir, fomenta un enlace molecular participando así en la construcción de artefactos moleculares. Y para el presente caso consigue unir a un ARNt cuyo anticon es capaz de unirse al codón correspondiente del ARNm con el aminoácido correcto.

Ahora sí, en este punto, tenemos el diccionario en donde se encuentra el código genético, es decir, las 20 proteínas aminoacil-tARN sintetasas con las cuales se construyen todas las proteínas y con ellas los demás artefactos moleculares necesarios para todos los seres vivos de la tierra.

Pero ¿De dónde salen estas 20 enzimas que forman el código genético? Pues se encuentra en el mismo ADN, lo cual tiene la crucial implicancia de que el ADN no solo tiene información funcional necesaria para que un ser viviente pueda existir, sino que también tiene a su vez en su seno los 20 genes que permiten transcribir los 20 enzimas aaRSs que permiten que ellos mismos y todos los demás genes puedan ser traducidos en polímeros biológicamente funcionales.

¿Se imaginan lo que significa esto?

Tenemos 20 genes dentro del genoma que para ser sintetizados ¡Necesitan la información que ellos mismos contienen!, es decir, ¡El código genético de la vida en la tierra no puede prescindir de sí mismo para funcionar!

¿Qué pasaría si fallara uno de los 20 genes del código genético? Si se diera este caso tendríamos un aaRSs defectuoso que no enlazaría el aminoácido correcto y siendo así perderíamos todo el código genético ya que la síntesis del resto no sería tampoco funcional. Y si no tenemos ARNt funcionales no tendremos transcripción para el resto del genoma derrumbando así todo el gigantesco edificio de la vida.

Cabe preguntarnos ahora ¿Cómo surgió el código genético universal de la vida? ¿Pudo producirlo la naturaleza desde las leyes de la fisicoquímica?

Desde ya hace siglo y medio, desde que Darwin abrió la caja de Pandora del naturalismo, se consideró que su propuesta tendría, con la suficiente investigación y tiempo, la oportunidad de explicar de modo natural el advenimiento de la vida. En este esfuerzo se han realizado muchas propuestas que pretenden explicar la emergencia de varios de estos actores fundamentales de la vida sin la intervención de un agente inteligente que explique su emergencia.

Si, volviendo al ejemplo inicial de la carta, intentáramos explicar cómo las letras pudieron aparecer en el papel por medios naturales. Quizás podríamos decir que las letras ya existen en el aire producto de procesos naturales y que descendieron en la superficie del papel formando algo parecido a una escritura con significado.

Para el caso biológico las letras de la carta representan aminoácidos, pero no son aminoácidos, son tripletes de bases que los representan. Con objeto de poder evaluar en primer lugar si los aminoácidos pueden ser producidos por la naturaleza Stanley L. Miller y Harold C. Urey de la Universidad de Chicago, hicieron en 1953 un experimento para comprobar que sucede si se dan las condiciones en el laboratorio de una hipotética atmósfera primitiva en estado reducido (sin oxigeno, ya que este destruiría los monómeros necesarios), dispusieron en alambiques de laboratorio la presencia de metano, amoniaco, agua junto con un dispositivo generador de descargas eléctricas a modo de imitar los rayos y esperaron hasta que una sustancia rojiza se acumulo en el matraz de reacción del alambique. Para su regocijo descubrieron que en la misma se habían sintetizado algunos aminoácidos.

Aunque, pese a que éste proceso “natural” contó con la ayudita del movimiento de algunas llaves a fin de apartar los productos antes de que fueran destruidos por la misma fuente que los sintetizaba, solo consiguieron 4 de los 20 aminoácidos necesarios para la vida. Más adelante en sucesivos experimentos se llegaron a sintetizar 8. Ahora bien el resto también pueden ser sintetizados, más bien fabricados, mediante elaborados procesos, ya que necesitan el concurso de energía, los materiales y un proceso dirigido mediante el cual componerlos. No obstante, el experimento de Miller y Urey planteo la plausibilidad de su producción natural.

Si la naturaleza puede producir letras, incluso algunas del alfabeto latino aunque otras sean de forma irreconocible, tendría que esperarse que el medio predisponga la abundancia de los caracteres latinos que consideramos semánticamente útiles a fin de considerar la posibilidad de que la carta se pudo escribir sola.

En el caso biológico esto significaría que la naturaleza debería estar físico-químicamente predispuesta a producir de modo natural los 20 aminoácidos que encontramos en los seres vivientes. Veamos lo que el bioquímico norteamericano Richard E. Dickerson dice sobre esto:

“Aunque las simulaciones produzcan muchos de los aminoácidos que se encuentran en las proteínas de los organismos vivos, también dan lugar a otras moléculas relacionadas, cuyo número es tan elevado o más que el de aquellos aminoácidos, pero que no están presentes en las proteínas. Por ejemplo, los experimentos del tipo Miller sintetizan 3 tipos de isómeros (compuestos con la misma fórmula pero con diferente estructura) de un aminoácido cuya fórmula general es C3H7NO2 : alanina, beta-alanina y sarcosina. No obstante, sólo la alanina ha sido incorporada a las proteínas por los organismos vivos. De los tres isómeros valina, isovalina y norvalina, únicamente la valina aparece en las proteínas actuales. Por otra parte, existen siete aminoácidos isoméricos, de fórmula C4H9NO2 , formados en los experimentos de descargas eléctricas, ninguno de los cuales queda designado como constituyente proteico por el código genético universal de la vida terrestre. Parece evidente que la elección de los 20 aminoácidos del código genético no fue determinada por la disponibilidad de un conjunto determinado de moléculas en la tierra primitiva. Uno de los temas más fascinantes de la bioquímica del origen de la vida, aunque de incidencia secundaria, es el porqué fueron escogidos los 20 aminoácidos que se hallan actualmente en las proteínas y no otros.” (1) (énfasis en negrita añadido)

Nótese el énfasis en el hecho de que los 20 aminoácidos de nuestro código genético ¡No tienen ninguna relación con la disponibilidad natural de moléculas en la tierra primitiva! Esto es como decir, para el caso de nuestro símil de la carta, que tendríamos que esperar encontrar no sólo letras invertidas, una R o N al revés, sino también muchas otras letras absolutamente irreconocibles formando un numeroso grupo que en conjunto no nos permitirían encontrar ningún significado, pero no es el caso. La carta solo tiene 27 tipos distintos de letras no más. ¿Qué limita físicamente este número? Y para el caso biológico ¿Qué limita fisicoquímicamente que sean solo estos 20 aminoácidos y no más?

Supongamos ahora que esto no es un problema, que la naturaleza produce estos aminoácidos en abundancia y con suma facilidad y que sólo produce estos 20 aminoácidos. Pasemos entonces a analizar la plausibilidad del sistema de traducción. Como vimos anteriormente tenemos que convertir una cadena de codones en un ovillo de aminoácidos con un sistema más sencillo que el complicado sistema biológico que emplea la vida y esto lo hacemos con objeto de poder teorizar cómo la vida pudo tener antecesores más sencillos y por lo tanto más plausibles de surgir naturalmente. Como los biólogos saben que las proteínas son sintetizadas desde la información escrita en el ADN y éste a su vez necesita de proteínas para expresar su información, había que solucionar esta autodependencia funcional semejante al clásico dilema: qué es primero ¿el huevo o la gallina?

En los años ochenta se descubrió que una molécula de ARN puede duplicarse sin el concurso de enzimas (proteínas catalizadoras). Ello llevó a la teoría que afirma qué, en los orígenes previos a la aparición de la vida, existió un “mundo de ARN” que sirvió de transición entre la química sencilla y los prototipos de células complejas basadas en ADN como las de los organismos modernos.

John Horgan en su artículo “La búsqueda inacabada del origen de la vida” afirma al respecto:

“Manfred Eigen, del Instituto Max Planck de Química Biofísica, de Gotinga, ha examinado lo que se piensa es un escalón tardío en la evolución del ARN. A tenor de sus experimentos, el ARN, estimulado por enzimas y otros aditamentos suministrados por el experimentador, puede adaptarse y evolucionar. Este fenómeno, denominado evolución dirigida, encierra una enorme potencialidad como generador de nuevos compuestos.

Pero mientras más se profundiza en el concepto de mundo de ARN, más problemas surgen. ¿Cómo se originó el primer ARN? Si no resulta fácil sintetizar el ARN y sus componentes en el laboratorio, ni siquiera en las mejores condiciones, cuánto menos en las condiciones prebióticas que se suponen. El proceso mediante el cual se crea el azúcar ribosa, componente clave del ARN, origina también una serie de azúcares que pueden inhibir la síntesis de ARN. Además, nadie explica satisfactoriamente por qué el fósforo, una substancia de abundancia limitada en la naturaleza, es un ingrediente esencial del ARN (y del ADN).

Una vez sintetizado el ARN, sólo alcanzará a autorreplicarse si el experimentador se lo facilita bastante, dice Joyce, de la Clínica Scripps, un especialista en ARN. “Es una molécula inepta”, añade, “especialmente si se la compara con las proteínas”. Leslie E. Orgel, del Instituto Salk de Estudios Biológicos, reputado experto en las condiciones del mundo ARN, está de acuerdo con Joyce. Los experimentos que simulan las etapas tempranas del mundo de ARN son demasiado complicados para considerarlos réplicas verosímiles del escenario donde se desarrolló el origen de la vida, afirma tajante Orgel. Y añade, “es preciso conseguir que muchísimas cosas funcionen bien, y que no haya ningún error.

Orgel ha llegado a la conclusión de que alguna molécula más sencilla, muy distinta quizá, pudo haber preparado el terreno al ARN. Identificar dicho compuesto no será fácil. La química de los ácidos nucleicos, señala, descansa sobre una sólida base de conocimientos, y aventurarse a salir de ese camino supone volver a empezar. Pero algunos han acabado por sumergirse en lo desconocido. El verano del año 1990, el grupo dirigido por Julius Rebek, Jr., del Instituto de Tecnología de Massachusetts, armó un considerable revuelo al anunciar que había conseguido crear una molécula orgánica sintética con capacidad autorreplicativa. La molécula, el éster triácido de la aminoadenosina (ETAA), consta de dos compuestos que, por su estructura química, recuerdan a las proteínas y a los ácidos nucleicos. Las moléculas de ETAA, en cloroformo y con los correspondientes substratos, sirven de molde para la formación de nuevas moléculas de ETAA.

Los experimentos de Rebek presentan dos inconvenientes, según Joyce. La replicación se produce en condiciones muy artificiales, poco naturales; y lo que es más importante aún, con demasiada fidelidad. Sin mutación, la molécula no puede evolucionar en sentido darwinista. Orgel abunda en esa idea. “Lo que Rebek hace es muy ingenioso”, dice, “pero no veo qué interés pueda tener para el origen de la vida”.

La solución del origen de la vida parece estar más lejos que nunca. “La bacteria más elemental es tan condenadamente complicada, desde el punto de vista químico, que resulta casi imposible imaginar cómo ha surgido”, resume Harold P. Klein, de la Universidad de Santa Clara, presidente de una comisión de la Academia Nacional de Ciencias que ha revisado recientemente las investigaciones sobre el origen de la vida. (Su conclusión es que hace falta investigar mucho más).

Aún cuando los científicos consigan crear en el laboratorio algo con propiedades similares a la vida, habrá que seguir preguntándose: ¿sucedió así en realidad?” Investigación y Ciencia. Abril 1991 Nº175 (énfasis en negrita añadido)

Los anteriores párrafos de Horgan son elocuentes por sí mismos para graficar la problemática del mundo de ARN que se suele vender al público general como el hallazgo de una gran solución eficiente para el origen de la vida. Pero esto no desanima en lo absoluto a los naturalistas para intentar explicar la emergencia de posibles precursores prebióticos ya que tienen, como lo refleja Harold P. Klein, la firme esperanza de que, si la vida tiene una explicación natural, ésta podrá al fin desvelarse si se investiga mucho más. Sin embargo, nunca debemos perder de vista que si la vida y su código genético no proceden de una afortunada organización natural, nunca se encontrará una explicación natural para la vida.
Volvamos a la carta. Qué pasaría si descubriéramos que el papel tuviera ciertas depresiones que tuvieran una forma aleatoria, pero aún así afín a la forma de algunas letras. ¿No podría explicar esto que algunas letras descendiesen en ciertos lugares específicos en virtud de estas depresiones y no en virtud de un código gramatical que los organice?

Eugene V. Koonin y Artem S. Novozhilov en su artículo titulado “Origin and evolution of the genetic code: The universal enigma” definen las 3 teorías actuales sobre la aparición del código genético:

1. La teoría estereoquímica afirma que las asignaciones de codones para aminoácidos particulares están determinadas por una afinidad físico-química que existe entre los aminoácidos y los tripletes de nucleótidos (codones afines o anticodones). Así, bajo esta clase de modelos, la estructura específica del código no es en absoluto casual, sino, más bien, es necesario y, posiblemente, único. El modelo estereoquímico primero fue desarrollado por Gamow en 1954, casi inmediatamente después que la estructura del ADN se resolviera junto con la idea misma de código. Gamow propuso un mecanismo explícito para relacionar los aminoácidos en “agujeros” en forma de rombo formados por varios nucleótidos en el ADN. Posteriormente, después de que el código fue descifrado, se propusieron modelos estereoquímicos más realistas, pero se considera generalmente improbable debido al fracaso de los experimentos directos para identificar las interacciones específicas entre los aminoácidos y tripletes afines. Sin embargo, el atractivo inherente de la teoría estereoquímica es que, si es válida, hace que sea mucho más fácil ver cómo la evolución del código ha comenzado, estimulando la actividad experimental y teórica en esta área.

2. La teoría de la evolución adaptativa del código postula que la estructura del código genético se forma bajo las fuerzas selectivas que hicieron el código con máxima robustez, es decir, minimizando el efecto de los errores sobre la estructura y función de las proteínas sintetizadas. Es posible distinguir la hipótesis de “mutación letal” en las que el código estándar a evolucionado para minimizar el efecto de las mutaciones de punto y la hipótesis de “traducción con minimización de errores” que postula que la más importante presión en la evolución del código fue la selección para la minimización del efecto de los errores de lectura de traducción.
Una combinación de los dos tipos de fuerzas es concebible también. El hecho de que el código de codones relacionados para los aminoácidos similares y las observaciones experimentales sobre que los errores de traducción se producen más frecuentemente en las posiciones primera y tercera de los codones, siendo la segunda posición la que mejor se correlaciona con las propiedades de los aminoácidos, se interpretará como evidencia en apoyo de la teoría de la adaptación. La hipótesis de minimización de error de traducción también recibió cierto apoyo estadístico a partir de simulaciones de Monte Carlo, que más tarde se convirtió en una herramienta importante para analizar el grado de optimización del código estándar.

3. La teoría de la coevolución postula que la estructura del código estándar refleja las vías de la biosíntesis de aminoácido. De acuerdo con este escenario, el código ha coevolucionado con las vías de biosíntesis de aminoácidos, es decir, durante la evolución del código, los subconjuntos de los codones para los aminoácidos precursores han sido reasignados a codificar los productos amino. Aunque la idea básica de la hipótesis de la coevolución es la misma que en el escenario de Crick de extensión de código, la identificación explícita de pares de productos precursores de aminoácidos y un fuerte apoyo estadístico para los productos precursores de pares inferidos ha proporcionado a la teoría de la coevolución una amplia aceptación”.

Luego de un profundo análisis de estas teorías los autores llegan a las siguientes conclusiones:

“Antes de cerrar este debate, tiene sentido preguntar: ¿los análisis descritos aquí, enfocados en las propiedades y evolución del código en sí, tienen el potencial de resolver realmente el enigma del origen del código? Parece que dicho potencial es problemático ya que, por necesidad, para hacer frente a los problemas de modo manejable, todos los estudios de la evolución del código se llevan a cabo en configuraciones artificiales, más o menos, formales (ya sea modelado bajo un conjunto definido de transformación de código o en experimentos de selección de aptámeros), cuya relevancia para la realidad de la evolución primordial es dudosa en el mejor de los casos. La hipótesis sobre la relación causal entre la universalidad del código y el carácter colectivo de la evolución primordial caracterizado por el amplio intercambio genético entre conjuntos de replicadores es atractiva y parece conceptualmente importante porque se necesita el estudio de la evolución del código desde un ejercicio puramente formal a un contexto más amplio y más biológicamente significativo. Sin embargo, esta propuesta, aunque bastante plausible, es sólo una faceta de un problema mucho más general y difícil, quizás, el problema más formidable de toda la biología evolutiva. En efecto, es lógico pensar que cualquier escenario del origen y evolución del código permanecerá vacío si no se combina con la comprensión del origen del principio de codificación en sí y el sistema de traducción que encarna. El corazón de este problema, es un círculo vicioso triste: ¿cuál sería la fuerza selectiva detrás de la evolución del sistema de traducción extremadamente complejo antes de que hubiera proteínas funcionales? Y, por supuesto, no podía haber proteínas sin un sistema de traducción suficientemente eficaz. Hay una variedad de hipótesis que se han propuesto en los intentos de romper este círculo, pero hasta el momento ninguno de ellos parece ser lo suficientemente coherente y cuenta con el apoyo suficiente para reclamar el estatus de una teoría real”.

“Al resumir el estado del estudio de la evolución del código, no podemos escapar de un escepticismo considerable. Parece que la cuestión fundamental en dos frentes: “¿Por qué es el código genético de la manera que es y cómo llegó a serlo?”, que se hizo hace 50 años, en los albores de la biología molecular, podrían incluso seguir siendo pertinentes en otros 50 años. Nuestro consuelo es que no puedo pensar en un problema más fundamental en la biología”. (3)

Ante los enormes desafíos para explicar el código genético y de la vida en la Tierra, en 1971 dos gigantes de la biología del siglo XX Francis Crick y Leislie Orgel propusieron la teoría de la panspermia dirigida. ¿Por qué algunos de los teóricos más lucidos y prestigiosos de la ciencia biológica como Crick y Orgel se les ocurrió tan peregrina idea? Recurrir a la teoría de la panspermia, es decir, que la vida llego a la Tierra de otra parte, tiene el sabor amargo de no solucionar el problema que el naturalismo ansia resolver aquí para terminar enviando el problema a otro escenario cósmico donde presumiblemente haya sido más factible que la vida haya podido surgir. Pese al rechazo mayoritario a esta propuesta de la panspermia hay ciertos elementos circunstanciales para el caso de nuestro planeta que han hecho que algunos científicos naturalistas, tragando saliva, reconsideren esta posibilidad.

El biólogo y periodista español Javier Sampedro describe estas circunstancias:

“Un tema central de este libro es la evolución modular. ¿Puede ese esquema ayudar en algo en el asunto del origen de la vida? Dan ganas de pensar que sí: seguramente la célula bacteriana primordial – llamémosla Eva – no se formaría de un golpe para pillar por sorpresa a todos los grumos prebiológicos estúpidos que flotaban a su alrededor por el estanque templado o la sopa química en la que evolucionó la vida. Si Eva iba a ser tan compleja es tentador pensar que sus subsistemas debieron formarse mucho antes que ella. Incluso que las pequeñas partes de sus subsistemas se hubieran ido formando y que, dotadas de cierta autonomía, se hubieran reproducido, esparcido, diseminado. Algunas de sus combinaciones, puestas en común por el azar del encuentro, habrían logrado un éxito parcial de mayor nivel y luego se hubieran diseminado también. Algunas combinaciones se habrían alzado a un nivel mayor de integración de sistemas. Al final – al final del principio -, algunas combinaciones de combinaciones de combinaciones de partes (de partes con sentido) hubieran dado lugar a varias Evas que se habrían revelado como un nivel de organización mejor y más eficiente que todo lo anterior, y que habrían propagado su éxito para después seguir evolucionando de forma más fructífera que nunca. Nada se opone a un esquema de este tipo. Es más, muchos científicos que insisten en la naturaleza gradual de la evolución postcelular (a la que se refiere el darwinismo propiamente dicho) aceptaría de buen grado un esquema modular para la evolución precelular.

La idea, sin embargo, se enfrenta un problema muy grave. Si las cosas hubieran sido como acabamos de referir, cabría esperar encontrar por algún lado a los descendientes de esos seres autónomos y parcialmente exitosos que precedieron – y construyeron – a Eva, ¿no? Por incompletos o imperfectos que fueran según nuestras escalas, los descendientes de esas pre-Evas serían hoy seres vivos respetables. Algunos habrían encontrado nuevas combinaciones que, aunque no tan perfectas como Eva, habrían elevado a su estirpe a unos índices de organización más altos. Hoy encontraríamos en los seres vivos muchas formas de que una célula pudiera organizarse de forma compleja, algunas mejores que otras, algunas más flexibles para evolucionar que otras, muchas de ellas igual de buenas y de flexibles pero cada una con sus peculiaridades, con sus distintas soluciones, con sus caprichos. ¿No hubiera usted predicho eso? Yo sí, desde luego.

Echemos un vistazo a todos los ejemplos de evolución modular que hemos considerado en capítulos anteriores. El surgimiento de la célula eucariota no hizo desaparecer a las bacterias – a los módulos- que la constituyeron: los descendientes de esos módulos siguen hoy mismo nadando por ahí. La evolución de Urbilateria no hizo desaparecer a los metazoos de simetría radial que aportaron a Urbilateria sus módulos, formados por un gen selector y una batería de genes downstream. Si la primera bacteria se formó por evolución modular, es decir, por la agregación o duplicación de subsistemas coherentes más o menos autónomos, yo esperaría encontrar rastros actuales de esos subsistemas, o al menos una combinación de ellos que fuera diferente de la omnipresente solución que dio lugar a todos los seres vivos que existen en la Tierra, incluido el código genético universal en este planeta. ¿Dónde están esos rastros del pasado celular de la primera célula? No los hay, que sepamos. Por supuesto que siempre puede uno agarrarse a que la aparición de la vida celular fue un éxito tan rotundo que barrio del mapa a todo lo anterior, pero, sinceramente, creo que las escusas de este tipo son de todo punto inútiles en la ciencia teórica. Las predicciones de la evolución modular no se cumplen en el caso del origen de la primera célula. Punto” (4) Deconstruyendo a Darwin. Pags. 207-208

Este razonamiento de Sampedro es muy relevante como evaluación crucial y lucida de la evidencia que tenemos sobre la absoluta inexistencia de todos los pretendidos precursores prebióticos que se han propuesto y se siguen proponiendo con denuedo en los laboratorios de biología y en las mentes de los biólogos teóricos implicados en la búsqueda de un origen naturalista del código genético en particular y de la vida en general.

Por supuesto esta consideración de la panspermia no pretende abandonar el naturalismo para abrazar el diseño, más bien considera que, si bien no hay rastros en la Tierra que permitan admitir que la vida se originó en ella, se admite que esta proviene de otro escenario donde si existieron condiciones más favorables y donde si hay rastros de una evolución química de la vida. Javier Sampedro llama a este hipotético escenario donde la vida pudo surgir desde la materia el planeta Mongo.

Pero aunque ahora tengamos que viajar al planeta Mongo el problema del origen de código genético y la vida sigue siendo el mismo. Y finalmente tenemos que abordar el problema esencial de la vida. Podemos realizar muchas ingeniosas hipótesis sobre si el ARNt antecede al aaRSs, o si existió un mundo de ARN con ARN autoreplicantes, o si los aminácidos pueden sintetizarse directamente de los codones por afinidad estereoquímica, o si el código procede de un “accidente congelado” y un largo etcétera. Sin embargo, no podemos obviar la realidad semiótica y funcional del contenido del ADN y su interdependencia con la maquinaria celular. La circuitería de un ordenador (el hardware) sin software no hace nada y el software sin hardware tampoco hace nada. La información funcional del ADN expresada en codones de bases para representar aminoácidos por la intermediación de un diccionario (el código genético) que a su vez está autorreferenciado en el mismo, no pueden proceder de la fisicoquímica, son marcas esenciales de diseño. En este sentido si en la Tierra no hay rastros de ancestros prebióticos no es porque los mismos si existen en un imaginario planeta Mongo. No existen porque simplemente, aunque los naturalistas nunca lo quieran aceptar, la vida es fruto de un diseño donde el hardware y software biológicos no son fruto de ninguna coevolución, sino que constituyeron desde un principio un diseño en el que son funcionalmente interdependientes. La carta de la biología no es pues un contenedor de letras determinado por la afinidad del papel con ellas, sino es un verdadero mensaje. Y ningún mensaje viene de la nada ni adquiere significado coherente por casualidad. Una palabra cualquiera tiene una naturaleza semántica, es decir, tiene significado porque procede de un convenio de comunicación en el cual un emisor y un receptor acuerdan el significado de la palabra implicada en su comunicación. Y aunque pudiera haber una emisión inteligible sin recepción no existirá nunca una recepción inteligible sin emisión.

A esto se puede replicar que con ello se apela a la intervención de un Dios creador del que no sabemos nada, pero acaso ¿Sabemos algo del planeta Mongo? No. Nada. Y honestamente si tengo que elegir como explicación plausible entre la emergencia de la complejidad de la vida desde la materia, que no tiene inteligencia alguna y no puede ni podrá jamás crear semiótica, a la emergencia de la vida por efecto de un Dios sumamente inteligente y pre-existente, elijo sin duda el segundo.

Referencias:

1- Richard E. Dickerson. La evolución química y el origen de la vida. Especial de Evolución de la revista Investigación y Ciencia.

2- John Horgan. Búsqueda inacabada del origen de la vida. Investigación y Ciencia Abril 1991 Nº175

3- Eugene V. Koonin y Artem S. Novozhilov. Origin and evolution of the genetic code: The universal enigma

4- Javier Sanpedro. Deconstruyendo a Darwin. Editorial Critica.

Deje una respuesta

Leer entrada anterior
“Los defensores del Diseño Inteligente merecen nuestra gratitud”

John G. West Estas palabras, que con frecuencia se podrían asociar a un apologista del teismo, proceden más bien del...

Cerrar