Información Genética

Como hemos visto en las secciones anteriores de este trabajo, el concepto de información y sus alcances, presenta variaciones significativas en los distintos terrenos donde se ha aplicado. En nuestro análisis partimos de la comunicación interpersonal en donde la información juega un papel primario en las relaciones humanas y en el desarrollo comunitario; luego pasamos… Continúe leyendo

Información Como Conocimiento De La Realidad

En epistemología se ha planteado la cuestión de si el conocimiento del ser humano entrega un saber directo de la realidad (ontológico) o, si solo se logra un saber condicionado por las características propias de su actividad cognitiva (epistemológico). Ahora, con el advenimiento de la Teoría de la Información al terreno de la física, y… Continúe leyendo

Información A Nivel Cuántico

Información de Shannon y la física cuántica. La aplicación de la Información de Shannon no se detuvo en la entropía termodinámica, ha pasado nada menos que a la microfísica, multiplicando los problemas de la interpretación del concepto de información. Esta incursión en la física cuántica constituye un tema altamente especializado, pero aún así intentaré presentar,… Continúe leyendo

Información En Termodinámica

De la Informática computacional a la física. La incertidumbre que disipa un evento, Shannon la denominó entropía, siguiendo el consejo del matemático John von Neumann, que se puede resumir así: la función de incertidumbre ya se utiliza en mecánica estadística y se le denomina entropía y, además, nadie sabe verdaderamente lo que es la entropía,… Continúe leyendo

Información De Shannon

Matematización de la información. Claude E. Shannon (1916-2001), ingeniero electrónico y matemático, es conocido por sus importantes aportes a la Informática y a las Ciencias de la Computación, fue el primero en usar el término “bit”, destacando su potencial para transportar –además de lenguajes variados–, videos, música, y muchas otras materias. Sin embargo, sus estudios… Continúe leyendo