Los Indicadores de Diseño. Parte 2. Procesadores

En la naturaleza existen innumerables procesos que transforman elementos para descomponerlos en elementos más simples, para asociarlos a otros elementos y así formar agregados mayores o para inducir cambios de fase en su estructura entre otros tipos de transformación.

Por ejemplo la exposición de polímeros (moléculas grandes) a la luz ultravioleta causará su descomposición en monómeros (moléculas más pequeñas). La temperatura transformará la estructura del agua en hielo, líquido y gas según sea su nivel. Ciertas sustancias llamadas catalizadores hacen de casamenteros químicos para unir dos o más elementos químicos y formar compuestos que no se formarían sin la presencia de dichos catalizadores.

En todos estos casos y muchos más que podemos hallar en la naturaleza se presentan transformaciones que concurren de modo accidental por influjo de la ocurrencia espacial y temporal de los elementos sujetos al cambio y de los elementos que inducen dicho cambio de acuerdo a las leyes físico-químicas. Los resultados son tan fortuitos como la concurrencia de los elementos implicados en la transformación. Tampoco existe una concatenación de transformaciones que se repita de un modo específico en cuanto a que estos discurren sin dirección alguna y no existe un mecanismo donde esté de algún modo programada una cadena de transformaciones.

Si desde la inteligencia se construye un mecanismo que permita realizar una cadena de transformaciones específica se llamara a esta un PROCESADOR.

De acuerdo a esta definición si bien la naturaleza dispone de muchas transformaciones no dispone en cambio de ningún caso de procesador natural fuera de la biología que pueda repetir una y otra vez una cadena de transformaciones específica. Este proceso de transformaciones con un orden espacio temporal específico permitirá transformar una entrada de materiales, energía o información en una salida de materiales, energía o información que corresponda a un fin funcional.

Procesador

La figura precedente muestra un ejemplo sencillo de procesador en el cual existe una entrada, una salida y 8 mecanismos de transformación que aquí aparecen en serie. Sin embargo, no tiene estas transformaciones porque disponerse solo de dicha manera ya que podrían disponerse en una estructura en paralelo, mixta o invocarse por requerimiento algorítmico cada mecanismo de transformación. Dicha disposición podría ser estática y no cambiar en ningún caso, pero también, para mayor versatilidad, se puede admitir un mecanismo de control que permita cambiarla para distintas metas funcionales.

La imagen se parece mucho a un microchip que procesa información. Ésta tendrá pines para la entrada de datos, pines para la salida de datos y pines para las señales de control. Las señales de alimentación eléctrica podemos considerarlas también como señales de control.

La presencia por lo tanto de un procesador, es decir, de un mecanismo capaz de realizar una cadena de transformaciones específica debe ser susceptible de inferir diseño. La pregunta es ¿Cómo?

Si un astronauta viajara a otro planeta y descubriera un extraño mecanismo ¿Cómo sabría que es un procesador y por lo tanto un caso de mecanismo diseñado?

Lo primero que se requiere para concatenar una serie de transformaciones es también una concatenación de mecanismos y por lo tanto de partes. También debe incorporar un dispositivo de entrada y otro de salida. Y por último, uno o más dispositivos de control cuya manipulación permita distintas salidas para un misma entrada. El problema, sin embargo, será reconocer que tipo de elemento es capaz de procesar, qué debería esperarse de la salida y como iniciar y controlar el proceso.

Por otra parte si tuviéramos la posibilidad de ver al procesador funcionar sería posible entender de qué tipo es la entrada, que se produce a la salida y cuáles son los mecanismos de control que regulan el proceso.

Sin haber viajado a algún exótico planeta ¿Sabemos de la existencia de uno o más procesadores no creados por el hombre que podamos estudiar?

La respuesta es Sí.

Los conocemos y la ciencia que los estudia se llama biología.

En el mundo biológico existen muchos ejemplos de procesadores que realizan cadenas de transformaciones bioquímicas guiadas por mecanismos de control muy ingeniosos.

La biología no solo está a la altura en complejidad y sofisticación a la tecnología humana actual, sino que incluso la supera con creses. Hoy en día no existe ningún ingenio humano físico que pueda metabolizar, auto-refaccionarse y auto-reproducirse como si lo hace una sencilla bacteria y ello lo realiza mediante la compleja orquestación de numerosos procesadores consistentes en máquinas multiprotéicas en el medio intracelular.

Las proteínas son los ladrillos básicos con los cuales están hechos la mayoría de los mecanismos, órganos y elementos corporales de los seres vivos. Estos polímeros son macromoléculas parecidas a ovillos de lana que deben ser fabricadas por cada ser viviente y consisten en una precisa cadena de aminoácidos que tampoco está dada al azar, sino que es prescrita por un gen determinado y se fabricará de acuerdo a su necesidad en el concierto intracelular. Para realizar esta fabricación debe existir un procesador que sea capaz de admitir materiales (aminoácidos) del medio a fin de construir una proteína y ello controlado por un mecanismo que regule la ignición o inhibición del proceso de producción. Deberá controlar cuando empezar y cuando terminar el proceso y por último deberá también interpretar la información codificada en el ADN que prescribe qué cadena de aminoácidos en el orden correcto debe construirse.

Lo primero que sucede para que una proteína pueda construirse a partir de un gen se conoce como “Transcripción” dado que se necesita abrir, como una cremallera, los dos brazos del ADN a fin de extraer una copia basada en una cadena de ácido ribonucleico (ARN). El proceso sobre como sucede esto es bastante complicado para las células sin núcleo y lo es mucho más aún para las células con núcleo, pero no es relevante ahora tratarlo. Contemos ahora con el hecho de tener a un maduro ARN mensajero (ARNm) que en el citoplasma debe servir ahora para construir una proteína de modo parecido a como una cinta de organillo es procesada serialmente para producir una melodía.

En este ARNm tenemos un mensaje con palabras llamadas codones que deben especificar qué aminoácidos deben encadenarse para formar una proteína, pero por si sola no hace nada. Necesitamos ahora un procesador que alimentado en su entrada con este mensaje pueda construir una proteína. Este procesador se llama Ribosoma y es una máquina molecular cuyo propósito es ser el “organillo” del ARNm para construir con su secuencia dicha proteína. Pero ¿cómo el ribosoma podrá asociar un codón del ARNm con un aminoácido disperso en el citoplasma? ¿De dónde saca el conocimiento para saber que a un codón concreto debe asociarlo a un aminoácido específico?

En 1955 Francis Crick, el codescubridor junto con James D. Watson de la estructura helicoidal del ADN, propuso que la forma en la cual se produce la traducción de los codones de los genes en proteínas debía requerir la presencia de un adaptador que pudiera servir para relacionar un aminoácido concreto con un codón o grupo de codones que lo codifiquen (nótese que este sistema tiene una redundancia de tal modo que, para un aminoácido pueden haber desde un solo codón hasta 6 distintos que lo codifiquen). A este adaptador, cuando se confirmó su existencia, se la llamó ARNt (ARN de transferencia). Su forma es parecida a un trébol tal como se muestra en la siguiente figura:

ARNt

Como se puede observar en la figura el ARNt tiene una forma de cruz donde en la parte superior se une a un aminoácido específico y no a ningún otro. Esta especificidad se corresponde con su código de enlace en la parte inferior llamado “Anticodon” por ser complementario al codón que codifica el aminoácido en el ARNm.

Pero las simples complementaridades no justifican los acoplamientos químicos siendo necesario el concurso de enzimas, es decir, de un tipo especial de proteínas que realizan un trabajo de catálisis, es decir, fomentan un enlace molecular participando así en la construcción de artefactos moleculares. De este modo para los 20 adaptadores ARNt necesitaremos a su vez de 20 enzimas llamadas aminoacil-tARN sintetasa (aaRSs para abreviar) que realizaran la unión de un aminoácido específico con un ARNt específico.

Dado que para todo ser viviente se requieren 20 aminoácidos distintos codificados redundantemente por 64 combinaciones posibles de tripletes de codones, se requerirán también 20 adaptadores que son asistidos a su vez por 20 enzimas que constituyen el diccionario en donde se encuentra el código genético, es decir, son las 20 proteínas aminoacil-tARN sintetasas con las cuales se construyen todas las proteínas, enzimas y demás artefactos moleculares necesarios para todos los seres vivos de la tierra.

Lo sorprendente de este asunto es que estas 20 enzimas que forman el código genético se encuentra en el mismo ADN, lo cual tiene la crucial implicancia de que el ADN no solo tiene información funcional necesaria para que un ser viviente pueda existir, sino que también tiene a su vez en su seno los 20 genes que permiten transcribir los 20 enzimas aaRSs que permiten que ellos mismos y todos los demás genes puedan traducirse en polímeros.

Esto significa que tenemos 20 genes dentro del genoma que para ser sintetizados ¡Necesitan la información que ellos mismos contienen!, es decir, ¡El código genético de la vida en la tierra no puede prescindir de sí mismo para funcionar!

¿Qué pasaría si fallara uno de los 20 genes del código genético? Si se diera este caso tendríamos un aaRSs defectuoso que no enlazaría el aminoácido correcto y siendo así perderíamos todo el código genético ya que la síntesis del resto no sería tampoco posible. Y si no tenemos ARNt funcionales no tendremos transcripción para el resto del genoma derrumbando así todo el gigantesco edificio de la vida. En otras palabras, ¡Necesitamos que un proceso de abiogénesis (la aparición de vida desde materia no viviente) sea capaz de producir los 20 genes necesarios para sintetizar los 20 aaRSs del código genético de una sola vez! No admitiendo, por causa de ésta auto-referencia, su posible aparición por etapas.

Difícilmente podría obviarse la inferencia de diseño inteligente que el sistema de síntesis proteica de la biología presenta. Sin embargo, la mayoría de biólogos hoy en día no reconocen semejante inferencia. Desde hace siglo y medio ha sido inculcada en sus mentes con gran éxito la idea de que la naturaleza es capaz de inventar, mediante una evolución de la materia, que ni siquiera es darwiniana por ser aún prebiótica, estos fabulosos procesadores sin la intervención de inteligencia alguna.

No obstante, si esto fuera cierto deberían existir en la naturaleza otros ejemplos de procesadores que no pertenezcan a la biología ya que la naturaleza tendría el poder de crearlos, pero no es el caso. No existe ninguno.

El problema del origen de la vida plantea precisamente la dificultad de dicha ausencia. Se especula que anterior al primer ser vivo existieron protobiontes, es decir, procesadores precursores prebióticos, pero nunca se ha encontrado uno ni rastro de que hayan existido alguna vez.

El biólogo y periodista español Javier Sampedro describe estas circunstancias:

“Un tema central de este libro es la evolución modular. ¿Puede ese esquema ayudar en algo en el asunto del origen de la vida? Dan ganas de pensar que sí: seguramente la célula bacteriana primordial – llamémosla Eva – no se formaría de un golpe para pillar por sorpresa a todos los grumos prebiológicos estúpidos que flotaban a su alrededor por el estanque templado o la sopa química en la que evolucionó la vida. Si Eva iba a ser tan compleja es tentador pensar que sus subsistemas debieron formarse mucho antes que ella. Incluso que las pequeñas partes de sus subsistemas se hubieran ido formando y que, dotadas de cierta autonomía, se hubieran reproducido, esparcido, diseminado. Algunas de sus combinaciones, puestas en común por el azar del encuentro, habrían logrado un éxito parcial de mayor nivel y luego se hubieran diseminado también. Algunas combinaciones se habrían alzado a un nivel mayor de integración de sistemas. Al final – al final del principio -, algunas combinaciones de combinaciones de combinaciones de partes (de partes con sentido) hubieran dado lugar a varias Evas que se habrían revelado como un nivel de organización mejor y más eficiente que todo lo anterior, y que habrían propagado su éxito para después seguir evolucionando de forma más fructífera que nunca. Nada se opone a un esquema de este tipo. Es más, muchos científicos que insisten en la naturaleza gradual de la evolución postcelular (a la que se refiere el darwinismo propiamente dicho) aceptaría de buen grado un esquema modular para la evolución precelular.

La idea, sin embargo, se enfrenta un problema muy grave. Si las cosas hubieran sido como acabamos de referir, cabría esperar encontrar por algún lado a los descendientes de esos seres autónomos y parcialmente exitosos que precedieron – y construyeron – a Eva, ¿no? Por incompletos o imperfectos que fueran según nuestras escalas, los descendientes de esas pre-Evas serían hoy seres vivos respetables. Algunos habrían encontrado nuevas combinaciones que, aunque no tan perfectas como Eva, habrían elevado a su estirpe a unos índices de organización más altos. Hoy encontraríamos en los seres vivos muchas formas de que una célula pudiera organizarse de forma compleja, algunas mejores que otras, algunas más flexibles para evolucionar que otras, muchas de ellas igual de buenas y de flexibles pero cada una con sus peculiaridades, con sus distintas soluciones, con sus caprichos. ¿No hubiera usted predicho eso? Yo sí, desde luego.

Echemos un vistazo a todos los ejemplos de evolución modular que hemos considerado en capítulos anteriores. El surgimiento de la célula eucariota no hizo desaparecer a las bacterias – a los módulos- que la constituyeron: los descendientes de esos módulos siguen hoy mismo nadando por ahí. La evolución de Urbilateria no hizo desaparecer a los metazoos de simetría radial que aportaron a Urbilateria sus módulos, formados por un gen selector y una batería de genes downstream. Si la primera bacteria se formó por evolución modular, es decir, por la agregación o duplicación de subsistemas coherentes más o menos autónomos, yo esperaría encontrar rastros actuales de esos subsistemas, o al menos una combinación de ellos que fuera diferente de la omnipresente solución que dio lugar a todos los seres vivos que existen en la Tierra, incluido el código genético universal en este planeta. ¿Dónde están esos rastros del pasado celular de la primera célula? No los hay, que sepamos. Por supuesto que siempre puede uno agarrarse a que la aparición de la vida celular fue un éxito tan rotundo que barrio del mapa a todo lo anterior, pero, sinceramente, creo que las escusas de este tipo son de todo punto inútiles en la ciencia teórica. Las predicciones de la evolución modular no se cumplen en el caso del origen de la primera célula. Punto” Deconstruyendo a Darwin. Pags. 207-208

Este razonamiento de Sampedro es muy relevante como evaluación honesta y lucida de la evidencia que tenemos sobre la absoluta inexistencia de todos los pretendidos precursores prebióticos que se han propuesto y se siguen proponiendo con denuedo en los laboratorios de biología y en las mentes de los biólogos teóricos implicados en la búsqueda de un origen naturalista del código genético en particular y de la vida en general.

Podemos realizar muchas ingeniosas hipótesis sobre si el ARNt antecede al aaRSs, o si existió un mundo de ARN con ARN autoreplicantes, o si los aminácidos pueden sintetizarse directamente de los codones por afinidad estereoquímica, o si el código procede de un “accidente congelado” y un largo etcétera. Sin embargo, no podemos obviar la realidad semiótica y funcional del contenido del ADN y su interdependencia con la maquinaria celular. La circuitería de un ordenador (el hardware) sin software no hace nada y el software sin hardware tampoco hace nada. La información funcional del ADN expresada en codones de bases para representar aminoácidos por la intermediación de un diccionario (el código genético) que a su vez está autorreferenciado en el mismo, no pueden proceder de la fisicoquímica, son marcas esenciales de diseño. En este sentido si en la Tierra no hay rastros de ancestros prebióticos no es porque los mismos si existen en un imaginario planeta más idóneo. No existen porque simplemente, aunque los naturalistas nunca lo quieran aceptar, la vida es fruto de un diseño donde el hardware y software biológicos no son fruto de ninguna coevolución, sino que constituyeron desde un principio un diseño en el que son funcionalmente interdependientes. La carta de la biología no es pues un contenedor de letras determinado por la afinidad del papel con ellas, sino es un verdadero mensaje. Y ningún mensaje viene de la nada ni adquiere significado coherente por casualidad. Una palabra cualquiera tiene una naturaleza semántica, es decir, tiene significado porque procede de un convenio de comunicación en el cual un emisor y un receptor acuerdan el significado de la palabra implicada su comunicación. Y aunque pudiera haber una emisión sin recepción no existirá nunca una recepción sin emisión.

No obstante, la ausencia de prueba no es prueba de ausencia así que el hecho de no encontrar procesadores prebióticos no debería demostrar que un procesador sea necesariamente producto de diseño inteligente. Más bien, para fundar adecuadamente su inferencia de diseño ésta debe basarse en que un procesador tiene ciertas características que sólo pueden ser producto de diseño.

Primero, la primera característica de un procesador es que tiene una funcionalidad siendo por ello una estructura funcional. Como se vio en el capítulo anterior, una función implica la presencia de un propósito y en consecuencia la satisfacción de una necesidad para una entidad que puede ser el propio procesador o un ente exterior a él.

Segundo, la operatividad funcional implica la necesidad de información prescriptiva que dirija, regule y configure las interrelaciones de los componentes que participan en el funcionamiento del sistema procesador, es decir, los planes de operación, regulación y montaje.

Tercero, dichas interrelaciones entre los componentes del procesador disponen de coherencia de contexto.
Tercero, un procesador al encapsular más de un mecanismo de transformación presenta una sociedad productiva de componentes con complejidad mínima funcional conocida mayormente como complejidad irreductible.

La primera característica ya ha sido tratada en el post anterior y las tres restantes se trataran en los posts siguientes.

Próximo post: Información Compleja Especificada

Fuente: Cristian Aguirre Del Pino. Los Indicadores de Diseño. Capítulo 2. OIACDI 2013

Deje una respuesta

Leer entrada anterior
Los Indicadores de Diseño. Parte 1. Funcionalidad

Bajo las aguas del mar Mediterráneo entre las islas de Citera y Creta unos pescadores descubrieron en el año 1900...

Cerrar