miércoles, 25 de enero de 2017

INFORMACIÓN S XXI

No hay duda de que el siglo pasado concluyo con una explosión científica y tecnológica que revoluciono todo conocimiento humano, incluyendo la propia definición de la palabra información. En el siglo XXI, en un corto período de tiempo, el mundo desarrollado se ha propuesto lograr la globalización del acceso a los enormes volúmenes de información existentes en medios cada vez más complejos, con capacidades exponencialmente crecientes de almacenamiento7 y en soportes cada vez más reducidos. A pesar de ello todavía existen muchas fuentes de información en formatos no digitales o inaccesibles digitalmente por diversas causas.8 En este marco la proliferación de redes de transmisión de datos e información, de bases de datos con acceso en línea, ubicadas en cualquier lugar, localizables mediante Internet, permiten el hallazgo de otras redes y centros de información de diferentes tipos en cualquier momento desde cualquier lugar. Es el resultado de datos gestionados a través de aplicaciones informáticas donde los datos son procesados y transformados en información que posteriormente es manejada como signo integrador y característico de progreso económico del siglo XXI.9

Mucho se ha complicado la definición básica de información: El término indicaba originariamente "aquello que aparece a la vista", pasó a ser un conjunto organizado de datos procesados, que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe dicho mensaje. Desde el punto de vista de la ciencia de la computación, la información es un conocimiento explícito extraído por seres vivos o sistemas expertos como resultado de interacción con el entorno o percepciones sensibles del mismo entorno. En principio la información, a diferencia de los datos o las percepciones sensibles, tienen estructura útil que modificará las sucesivas interacciones del que posee dicha información con su entorno.

Paradójicamente hoy en día hay tal cantidad de información que sobrepasa la capacidad de comunicación, llevando a un CAOS, en el que hay que usar necesariamente modelos matemáticos de SISTEMAS COMPLEJOS.

En 1948. Claude E. Shannon, elabora las bases matemáticas de la Teoría de la información.3  Acaba de dar la segunda base de la revolución de las tecnologías de la información y la comunicación: la aplicación del Álgebra de Boole será el fundamento matemático para industrializar el procesamiento de la información. Nace así la Ciencia de la Computación o  Ingeniería informática. La nueva revolución económica está servida. La humanidad entra en la Era Digital usando el transistor y la numeración binaria para simbolizar, transmitir y compartir la información.4 5
El enfoque de la teoría de la información analiza la estructura matemática y estadística de los mensajes, con independencia de su significado u otros aspectos semánticos. Los aspectos en los que se interesa la teoría de la información son la capacidad de transmisión de los canales, la compresión de datos o la detección y corrección de errores.

En física existe una íntima conexión entre entropía e información: En física estadística un macroestado o situación macroscópica, puede corresponder desde el punto de vista microscópico a varios micro-estados, es decir, varios micro-estados diferentes pueden ser percibidos en términos macroscópicos generales como la misma situación o macro-estado general. Algunos macro-estados sólo pueden corresponder a un número relativamente pequeño de micro-estados, otros macro-estados por el contrario pueden corresponder a un número más elevado de micro-estados. La entropía es una magnitud física que mide la cantidad de microestados correspondiente a un macroestado. De alguna manera los macro-estados con mayor entropía pueden corresponder a más microestados y por tanto conocido el macroestado existe una mayor incertidumbre sobre el micro-estado real del sistema. Por tanto la entropía mide la falta de conocimiento del micro-estado, de ahí que la información necesaria para conocer el micro-estado de un sistema conocido su macro-estado coincida con la entropía. Cuando se produce una disminución de la entropía se puede decir que ha aumentado nuestro conocimiento del micro-estado del sistema, o existe menos incertidumbre sobre dicho micro-estado.
Léon Brillouin publicó en 1959 Science et théorie de l'information (versión en inglés editada por vez primera en 1962) donde son examinadas las relaciones entre estas dos disciplinas. Adopta particularmente un punto de vista de físico y hace el lazo entra la entropía informacional de Shannon y la entropía estadística de Boltzmann en donde se arriesga que la información (y con la misma el lenguaje) es un factor neguentrópico es decir por el cual se puede anular la entropía. En otras palabras la información equilibra la tendencia natural al desorden.

La Biología cambio radicalmente en 1951-1953, cuando James Watson y Francis Crick descubren los principios de los códigos de ADN, que forman un sistema de información a partir de la doble espiral de ADN y la forma en que trabajan los genes. Explicando la reproducción y la evolución de los seres vivos.


EN CONCLUSIÓN: CON EL HERRAMENTAL CIENTÍFICO DEL S XXI SE PUEDE TENER LA ESPERANZA DE ORDENAR  A LA HUMANIDAD Y SUS INSTITUCIONES A ESTATUS DE MAYOR EQUIDAD.

No hay comentarios:

Publicar un comentario

Se agradece cualquier comentario. No se pretende tener razón, solo pensar opciones.Si crees que alguna persona podría tener interés en algún tema, o un punto de vista crítico y opuesto, por favor, sugiérele el texto. Lo que busco es diálogo.