No hay duda de que el siglo pasado concluyo con una
explosión científica y tecnológica que revoluciono todo conocimiento humano, incluyendo
la propia definición de la palabra información.
En el siglo
XXI, en un corto período de tiempo, el mundo desarrollado se ha propuesto
lograr la globalización del acceso a los enormes volúmenes de información
existentes en medios cada vez más complejos, con capacidades exponencialmente
crecientes de almacenamiento7 y
en soportes cada vez más reducidos. A pesar de ello todavía existen muchas
fuentes de información en formatos no digitales o inaccesibles digitalmente por
diversas causas.8 En
este marco la proliferación de redes de transmisión de datos e información, de bases
de datos con acceso en línea, ubicadas en cualquier lugar,
localizables mediante Internet, permiten el hallazgo de otras redes y centros de
información de diferentes tipos en cualquier momento desde cualquier lugar. Es
el resultado de datos gestionados a través de aplicaciones informáticas donde
los datos son procesados y transformados en información que posteriormente es
manejada como signo integrador y característico de progreso económico del siglo
XXI.9
Mucho se ha complicado la definición básica de información: El término indicaba
originariamente "aquello que aparece a la vista", pasó a ser un
conjunto organizado de datos procesados, que constituyen un mensaje que
cambia el estado de conocimiento del sujeto o sistema que recibe dicho mensaje.
Desde el punto de vista de la ciencia de la computación, la información es un conocimiento explícito
extraído por seres vivos o sistemas expertos como resultado de interacción con
el entorno o percepciones sensibles del mismo entorno. En principio la
información, a diferencia de los datos o las percepciones sensibles, tienen
estructura útil que modificará las sucesivas interacciones del que posee dicha
información con su entorno.
Paradójicamente hoy en día hay tal cantidad de información
que sobrepasa la capacidad de comunicación, llevando a un CAOS, en
el que hay que usar necesariamente modelos matemáticos de SISTEMAS COMPLEJOS.
En 1948. Claude
E. Shannon, elabora las bases matemáticas de la Teoría de la información.3 Acaba
de dar la segunda base de la revolución de las tecnologías de la información y
la comunicación: la aplicación del Álgebra de Boole será el fundamento
matemático para industrializar el procesamiento de la información. Nace así la Ciencia de la Computación o
Ingeniería informática. La nueva revolución
económica está servida. La humanidad entra en la Era Digital usando el
transistor y la numeración binaria para simbolizar, transmitir y compartir la
información.4 5
El enfoque de la teoría de la información analiza la
estructura matemática y estadística de los mensajes, con independencia de su
significado u otros aspectos semánticos. Los aspectos en los que se interesa la
teoría de la información son la capacidad de transmisión de los canales, la compresión de datos o la detección y corrección de errores.
En física existe una íntima conexión entre entropía e
información: En física estadística un macroestado o
situación macroscópica, puede corresponder desde el punto de vista microscópico
a varios micro-estados, es decir, varios micro-estados diferentes pueden ser
percibidos en términos macroscópicos generales como la misma situación o macro-estado
general. Algunos macro-estados sólo pueden corresponder a un número
relativamente pequeño de micro-estados, otros macro-estados por el contrario
pueden corresponder a un número más elevado de micro-estados. La entropía
es una magnitud física que mide la cantidad de microestados correspondiente a
un macroestado. De alguna manera los macro-estados con mayor entropía pueden
corresponder a más microestados y por tanto conocido el macroestado existe una
mayor incertidumbre sobre el micro-estado real del sistema. Por tanto la entropía
mide la falta de conocimiento del micro-estado, de ahí que la información
necesaria para conocer el micro-estado de un sistema conocido su macro-estado
coincida con la entropía. Cuando se produce una disminución de la entropía
se puede decir que ha aumentado nuestro conocimiento del micro-estado del
sistema, o existe menos incertidumbre sobre dicho micro-estado.
Léon Brillouin publicó en 1959 Science
et théorie de l'information (versión en inglés editada por vez primera
en 1962) donde son examinadas las relaciones entre estas dos disciplinas.
Adopta particularmente un punto de vista de físico y hace el lazo entra la entropía informacional de Shannon y la entropía
estadística de Boltzmann en donde se
arriesga que la información (y con la misma el lenguaje) es un factor neguentrópico es
decir por el cual se puede anular la entropía.
En otras palabras la información equilibra la tendencia natural al desorden.
La Biología cambio radicalmente en 1951-1953, cuando James
Watson y Francis Crick descubren los principios de los
códigos de ADN,
que forman un sistema de información a partir de la
doble espiral de ADN y la forma en que trabajan los genes. Explicando la reproducción
y la evolución de los seres vivos.
EN
CONCLUSIÓN: CON EL HERRAMENTAL CIENTÍFICO DEL S XXI SE PUEDE TENER LA ESPERANZA
DE ORDENAR A LA HUMANIDAD Y SUS
INSTITUCIONES A ESTATUS DE MAYOR EQUIDAD.
No hay comentarios:
Publicar un comentario
Se agradece cualquier comentario. No se pretende tener razón, solo pensar opciones.Si crees que alguna persona podría tener interés en algún tema, o un punto de vista crítico y opuesto, por favor, sugiérele el texto. Lo que busco es diálogo.