El origen de la información cósmica. Parte 3

Cristian Aguirre

LA RELACION CAUSA EFECTO

Si una pelota se estrella contra una ventana no esperamos que ésta atraviese el vidrio sin romper el cristal. Sabemos que en nuestro mundo hay una saludable relación entre causa y efecto que nos permite retrodecir que el efecto (el vidrio roto) procede de una causa (la pelota estrellándose contra ella). O predecir que si una pelota se estrella contra el cristal de la ventana esta se romperá o por lo menos se dañará, si esta reforzada o es suficientemente gruesa.

No estamos acostumbrados a ver ventanas que se rompen sin que ningún objeto las rompa o que la pelota atraviese el cristal sin romperlo. Esto violaría la relación causa efecto a la que estamos acostumbrados. Pero ¿Cómo funciona esta relación causa efecto?

Funciona por medio de información. Sin información no existirá esta relación. La causa producirá un efecto cuando el sistema responda conforme a su interpretación de las leyes de la física involucradas en la interacción. De este modo la masa de la pelota comunica la información de su momento (masa por velocidad) al cristal durante su contacto con el mismo y de acuerdo a la resistencia del cristal ésta responderá con una rotura que permitirá que la pelota atraviese la ventana o una deflexión elástica que hará que rebote la pelota de la misma.

En la figura de la izquierda tenemos 3 casos de relación causa-efecto. La primera es la que esperamos encontrar en nuestro universo (representado por el rectángulo). Y las casos 2 y 3 representan violaciones de la relación causa-efecto que podemos consideran anormales (o más bien podrían con justicia llamarse “paranormales”).

En el primer caso la información, con la plataforma física que la porta, ni aparece sin causa ni desaparece sin efecto. Es lo que consideramos debe suceder naturalmente y de hecho tanto la física clásica como la cuántica lo refrendan.

En el segundo caso tenemos un fenómeno físico que acontece misteriosamente como un efecto sin causa reconocible localmente. De algún modo misterioso la información no se origina en este universo o de un proceso natural del mismo, más bien viene de fuera.

En el tercer caso la información generada por la causa se pierde en algún sumidero de información de este universo y desaparece sin producir efectos.

La paradoja de la información de Stephen Hawking, que analizamos en el anterior post, implicaba que la información se pierde para siempre detrás del horizonte de sucesos de un agujero negro produciendo así una violación de la relación causa-efecto por pérdida de información tal como sucede en el tercer caso. Quizás ahora podemos comprender el estupor que causo este anuncio de Hawking en 1974. Él estaba diciendo que podemos tener una violación de la relación causa efecto en dirección de la perdida de información. Y, si esto puede suceder, ¿No se abriría la intrigante y también repudiable (para algunos físicos) posibilidad de que también existan casos donde algunos fenómenos en este universo pudieran ser fruto de una violación de la relación causa-efecto por ganancia de información?

Cabe preguntar ahora ¿Es posible que exista alguna evidencia en la historia cósmica de una violación de la relación causa efecto por ganancia?

Para poder responder esta pregunta tenemos que ahora hacer un recorrido rápido por las leyes de la termodinámica a fin de encontrar si existe semejante caso.

Para empezar este recorrido es conveniente definir primero qué es un sistema. Este podemos considerarlo como una parte de la naturaleza cuyo comportamiento, suponemos, es independiente del entorno que le rodea. Por ejemplo, una galaxia se puede considerar un sistema de estrellas, el conjunto Tierra – Luna es considerado un sistema de dos planetas, una célula se consideraría un sistema altamente organizado de moléculas orgánicas, etc. Que tan aislado del entorno este un sistema o que grado de orden u organización presente es lo que intentaremos establecer aquí. Para empezar, consideraremos 3 tipos de sistemas clasificados en función de su grado de aislamiento con relación al entorno:

Un sistema asilado es aquel que no recibe ninguna influencia externa, es decir, no hay intercambio de energía ni materia. Realmente en el universo, salvo este mismo, no puede hablarse de sistemas aislados en modo absoluto, aunque por simplicidad, despreciemos cualquier mínimo efecto externo. Un sistema cerrado, por otra parte, será un sistema en el que pueden haber intercambios de energía con el entorno, mas no de materia. Y por último, un sistema abierto es aquel que está expuesto a las influencias externas, y por tanto, si puede tener intercambios de energía y materia.

Veamos como ejemplo 3 envases, en el que por simplicidad ignoraremos el efecto de la gravedad.

El primer envase, tal como podría ser una simple taza de café, tiene un contenido que se encuentra totalmente expuesto al intercambio de materia y energía con el entorno es, por ello, un ejemplo de sistema abierto. El segundo envase, como podría ser una botella de vidrio, tiene un contenido que si bien está cerrado, si puede intercambiar energía con el exterior en forma de radiación ya que sus paredes (incluso sin ser de vidrio) no permiten un aislamiento total. Este es entonces un sistema cerrado. Por último, el tercero es un envase termo cuyas herméticas paredes están diseñadas para aislar térmicamente el contenido de tal modo que la comida o bebida que contiene no pierda calor. No es perfecto en la práctica, pero para este caso lo consideraremos como un termo ideal totalmente aislante. Por esta razón, su contenido puede considerarse un ejemplo de sistema aislado, puesto que no hay intercambio ni de materia, ni de energía.

Vistos estos tres tipos de sistemas, consideremos ahora las leyes físicas que rigen su evolución con el transcurso del tiempo. Para lograrlo nos remitiremos a las 2 primeras leyes de la termodinámica. Hay muchas definiciones de estas leyes según las disciplinas en las que estas se aplican, para esta exposición emplearemos la más general posible.

La primera ley nos dice que la energía no se crea ni se destruye sino que solo se transforma y, por lo tanto, se conserva. No se ha perdido en un proceso dado, sino que se ha transformado en más de una forma de energía distinta siendo la suma de las energías posteriores iguales a la inicial. También implica que no podemos esperar realizar un trabajo que, requiriendo de una energía dada, se realice con una energía menor a la anterior, y extraer la diferencia de la nada. Para que un automóvil consiga recorrer 100 km. empleará un consumo de energía, para ello necesita bastecerse de una cantidad de gasolina que representa una cantidad determinada de energía química. En el proceso el automóvil transformara la energía química de la gasolina en energía cinética, pero no de una manera perfecta, ya que una cantidad de ella se transformará en energía térmica que se disipará al exterior sin reportar trabajo útil. Como vemos la energía química de la gasolina se transforma en la suma de dos formas de energía distinta; cinética y térmica. Se trata también de una igualdad, la energía cinética consumida no es mayor que la diferencia de la química menos la térmica. Esto significa que no podemos realizar el viaje con menos gasolina de la necesaria, ni sin ella de una manera mágica, la primera ley de la termodinámica nos lo prohíbe.

Este mismo ejemplo nos lleva directamente a la segunda ley en el sentido de que no podemos convertir el 100% de aquella primera forma de energía (la gasolina) en energía útil. Siempre existirá una disipación hacia energía no útil de tal manera que aunque la energía cinética se redimiera otra vez en gasolina (energía química) y se repitiera el proceso, nuevamente disminuiría la energía útil. Al final, al cabo de nuevos ciclos, como la pelota que rebota cada vez menos y finalmente se detiene, ya no existirá más capacidad de cambio. A la medida de la transformación en energía no útil producida, que habrá crecido hasta alcanzar su nivel máximo, se la llama entropía. Lo siguiente es la definición más general posible de la segunda ley:

La segunda ley de la termodinámica establece que en todo sistema aislado se produce espontáneamente una transformación del orden precedente en desorden. Este orden inicial es un desequilibrio y, por lo tanto, una energía libre que tenderá a transformarse en dirección al equilibrio. La energía útil se transforma en energía no útil. A la cuantía de dicha transformación se la conoce como entropía y como se desprende de la definición esta tiende a aumentar con el tiempo mientras que la energía libre (útil) tiende a disminuir. Dichos comportamientos están ilustrados en las siguientes gráficas:

Pero en esta definición se habla de orden y en el párrafo no se mencionó en absoluto ¿En qué se relaciona entonces el orden con la segunda ley?

Responder a esto nos lleva a una definición termodinámica de orden.

En primer lugar es conveniente aclarar que no se trata de un orden subjetivo sino de un orden objetivo, es decir, físico. En un sistema cualquiera todo desequilibrio representa una heterogeneidad en la distribución de energía, como la que existe en dos cuerpos a distinta temperatura, esa concentración particular de la energía en determinadas partes del sistema es lo que constituye el orden. No confundir, por lo tanto, orden con “ordenado” o “homogéneo” ya que cuando aquí se habla de orden se refiere a una configuración particular cualquiera que puede ser absolutamente heterogénea.

Ahora bien, si se llega al equilibrio, como sucedería si la temperatura de los dos cuerpos llega a igualarse por contacto, ya no existirán zonas con mayor concentración de energía que otras y existirá entonces una homogénea distribución. Predomina ahora el desorden y, por tanto, reina el caos.
Tenemos entonces que la entropía termodinámica es una medida de la energía útil perdida en un sistema aislado. Para ser más exactos la entropía termodinámica se mide en energía por temperatura (Julios/grados Kelvin).

¿Qué tiene esto que ver con la información?

Como sabemos la información se mide en bits y es adimensional mientras que la entropía termodinámica tiene las dimensiones que acabamos de precisar. Para entender cómo se relacionan tenemos que tener en cuenta una definición de información distinta a la de Shannon.

Esta información, que podemos llamar información física, resulta de la capacidad de describir el número de estados de un sistema. Imaginemos un simple indicador que puede estar encendido o apagado. Este sencillo mecanismo puede expresarse con un solo bit de información ya que basta con un 1 para indicar el estado encendido y un 0 para indicar el estado apagado.

Sin embargo, existen muchos sistemas con una cantidad de estados posibles mucho mayor y por ello requerirán para ser descritos muchos bits de información. Para explicarlo del más sencillo modo posible consideremos 2 casos distintos de distribución de información en un panel de 12 x 18 indicadores que pueden tener sólo dos estados: blanco o negro.
En el primer caso tenemos una distribución heterogénea muy similar a la que tendría un gas en desequilibrio termodinámico donde la energía útil existe en base a su heterogénea distribución. Allí vemos dos grumos de concentración de indicadores negros. Imaginemos que esto mismo sucede en un gas o en un metal con zonas más calientes que otras. De acuerdo a la segunda ley estos grumos de concentración de energía van desapareciendo y difuminándose en el sistema hasta llegar al segundo caso donde teneos una distribución homogénea. Ya no hay diferencias de energía que puedan reportar energía útil pues desaparecieron los desequilibrios y ahora impera el equilibrio.

Ahora bien si analizamos ambos casos veremos que el primero tiene mucha más información de Shannon que el segundo porque en el primero, si recorremos secuencialmente cada indicador, tenemos gran incertidumbre para predecir qué estado tendrá cada indicador debido al alto grado de heterogeneidad del mismo. No sucede esto con el segundo caso donde nos basta un promedio para describir el estado homogéneo de este sistema y tenemos certidumbre de que valor tendrá cada indicador en el recorrido ya que se presentará en una secuencia constante en base a su uniformidad.

En conclusión la información de Shannon del primero es mucho mayor de la del segundo. Y si cuantificamos la diferencia de ambos tenemos entonces la entropía (en información) de este sistema.

Sin embargo, la información física no ha desaparecido ya que sigue siendo la misma. ¿Y cuál es?
Es pues simplemente la capacidad de información que presenta el sistema. Para el presente caso se trata de 216 bits ya que hay 216 indicadores en el panel. Esto también significa que en este panel existen 2^216 casos distintos de distribuciones de indicadores. Y esta cantidad no es otra que la complejidad del panel, es decir, el conjunto de todos los casos posibles, microestados, el espacio de fases, espacio de búsqueda o como queramos llamarlo. Por lo tanto tenemos la expresión:

Complejidad = 2^Información

O dicho de otra forma:

Información = Log 2(Complejidad)

Para los que conocen la expresión de la entropía de Boltzmann: S = K Log 2(V) notarán el gran parecido de ambas expresiones. Habría mucho que comentar sobre esta relación, pero para no aburrir a los lectores no acostumbrado a estos conceptos, y no siendo esencial para el tema en cuestión, mejor no lo trataremos.

Para finalizar cabría hacer la pregunta: ¿En un agujero negro que información es la que se pierde, la física o la de Shannon? Respuesta: Ambas. Y lo que está en controversia científica es principalmente que dichos agujeros negros puedan hacer desaparecer la información física.

Sin embargo, como bien veremos, la información de Shannon no necesita de agujeros negros para perderse en el universo. Un universo donde, por cierto, no podemos movernos a través del tiempo como lo haríamos a través del espacio. No podemos viajar al pasado o al futuro a nuestro antojo, más bien vamos a una velocidad relativa a nuestra aceleración o gravedad que siempre nos lleva hacia el futuro.

¿Por qué?

De ello trataremos en el siguiente post.

2 Respuestas para El origen de la información cósmica. Parte 3

  1. Hola Cristian. te pediría por favor si eres tan amable de extenderte un poco sobre lo que dice este párrafo:

    “Ahora bien, si se llega al equilibrio, como sucedería si la temperatura de los dos cuerpos llega a igualarse por contacto, ya no existirán zonas con mayor concentración de energía que otras y existirá entonces una homogénea distribución. Predomina ahora el desorden y, por tanto, reina el caos.”

    Específicamente me interesa la conclusión de la última oración. Te aclaro que de física conozco cosas muy básicas, y por eso tal vez la pregunta sea típica de principiante.

    Entiendo que el estado final del sistema sería la quietud o estabilidad o equilibrio. Quizás sea solo una cuestión semántica, pero en este caso las palabras “desorden” y “caos” no me sugieren justamente un estado de equilibrio. En cuanto a “desorden” lo puedo entender como contraposición al “orden” inicial del sistema, aunque no sé si sería más claro llamar “orden inicial” y “orden final”, siendo “orden” sinónimo de “estado”.

    En cuanto al “caos” reinando en un sistema equilibrado y homogéneo, creo que no llego a entender el concepto de “caos” aquí.

    Tal vez esté planteando burradas, pero en muchas ocasiones entender textos científicos se hace una tarea ardua cuando a las palabras se les asigna una cantidad variada de significados que en muchos casos parecieran contradictorias.

    Gracias por tus aportes, que son súper interesantes para abordar toda esta cuestión de fondo y en detalle.

  2. Hola Juan. Tienes mucha razón cuando dices que en textos de este tipo se emplean palabras que pueden tener varios significados y efectivamente, si en el artículo no se aclara debidamente cual es la acepción correcta, se producen muchas confusiones.

    Tu sugerencia: “más claro llamar “orden inicial” y “orden final”, siendo “orden” sinónimo de “estado”. La comparto plenamente y en este caso en una parte del post aclaro lo siguiente: “No confundir, por lo tanto, orden con “ordenado” o “homogéneo” ya que cuando aquí se habla de orden se refiere a una configuración particular cualquiera que puede ser absolutamente heterogénea” o homogénea.

    En cuanto al término caos se debe entender como el estado donde no existen normas de distribución en el sistema y la aleatoriedad es máxima. Por ejemplo, en los baños de un centro comercial, en el baño femenino es muy probable encontrar una mujer, en cambio, es muy improbable encontrar un hombre. Si fuera un baño unisex, encontraríamos una mujer o un hombre por azar no por norma. Lo mismo sucede con un sistema termodinámico si no existe ninguna “norma”, es decir, no hay ningún desequilibrio, nos encontraremos en una situación de máximo azar. Es esta situación la acepción usada en el post para caos.

    No confundir con la acepción del término caos de la Teoría del caos. En la misma se estudia la enorme sensibilidad que tienen los sistemas dinámicos deterministas a sus condiciones iniciales. De este modo una ligera variación de las mismas implicara un resultado muy diferente. Por ejemplo, los cristales de hielo de los copos de nieve presentan cada uno en común una simetría hexagonal, pero sin embargo, cada uno de ellos es distinto de los demás y tiene un diseño único producto de su alta sensibilidad a las condiciones iniciales que le dieron origen. Esta misma susceptibilidad se da también en sistemas geofísicos, climáticos e incluso en los económicos y sociales. Pero este no es el caos termodinámico tratado en el post.

    Saludos

Deje una respuesta

Leer entrada anterior
El Profesor Santiago Collado sigue sin entender el Diseño Inteligente (1)

Felipe Aizpun La Universidad de Navarra es una de las instituciones de enseñanza más prestigiosas en el seno de la...

Cerrar