Definiciones de información
La palabra información es polisémica, es decir, se usa en muchos sentidos diferentes. El DRAE ofrece varias definiciones entre las que podemos destacar "Acción y efecto de informar", "Comunicación o adquisición de conocimientos" y "Conocimientos así comunicados o adquiridos". En otras palabras, la información puede ser tanto la cosa que se comunica, como el acto de comunicar, como el resultado de la comunicación.
La ciencia moderna de la información tiene su punto de partida en los trabajos de C.E. Shannon, especialmente en su libro "La teoría matemática de la comunicación" de 1949, escrito en colaboración con W.E. Weaver. Sin embargo, su interés se centra exclusivamente en el estudio de la transferencia de la información, sin prestar ninguna atención a su significado. De hecho D. Mackay asegura que Shannon jamás definió el concepto de información. No es una excepción. Muchos otros científicos y economistas escriben abundantemente sobre análisis económico de la información sin haberla definido en ningún momento.
Manuel Castells, en su monumental trilogía "La Era de la Información" no ofrece una definición propia sino que se remite en una nota del primer volumen (Pág. 43) a tres definiciones ajenas:
La de Machlup (1962): "La comunicación del conocimiento"
La de Porat (1977): "La información son los datos que se han organizado y comunicado".
La definición de conocimiento de Daniel Bell (1973): "Conocimiento: una serie de afirmaciones organizadas de hechos o ideas que presentan un juicio razonado o un resultado experimental, que se transmite a los demás mediante algún medio de comunicación en alguna forma sistemática. Por lo tanto distingo conocimiento de noticias y entretenimiento".
La entropía y la segunda ley de la termodinámica
Una breve explicación del concepto de entropía, de la segunda ley de la termodinámica y de su aplicabilidad a la economía. Una explicación sencilla para que la puedan entender hasta los keynesianos.
La termodinámica es la rama de la física que estudia fenómenos en los que interviene el calor. La segunda ley de la termodinámica fue enunciada por S. Carnot en 1824. Se puede enunciar de muchas formas. Una formulación sencilla y precisa es la siguiente:
La evolución espontánea de un sistema aislado se traduce siempre en un aumento de su entropía.
La palabra entropía fue utilizada por Clausius en 1850 para calificar el grado de desorden de un sistema. Por tanto la segunda ley de la termodinámica dice que los sistemas aislados tienden al desorden. En la teoría de la comunicación o de la información, la entropía es un número que mide la incertidumbre de un mensaje. La entropía es nula cuando la certeza es absoluta.
Cuando añadimos información a un objeto físico lo que estamos haciendo es ordenar de una forma determinada los elementos que componen el sistema de ese objeto. Si estamos tallando una piedra de sílex para convertirla en punta de flecha, estamos seleccionando (mediante la eliminación de las lascas) las partes de la piedra que mantienen un cierto orden; lo que caracteriza una punta de flecha, su simetría, triangularidad y borde afilado, es precisamente el orden de sus componentes. Ese orden es, precisamente, la información tecnológica. Cualquier cambio aleatorio que se produzca en la forma de la flecha tendrá un efecto de aumento de su entropía, es decir, de pérdida de orden y de la información que contiene.
Lo mismo podemos decir de las informaciones del tipo conocimiento o de tipo logístico. Imaginemos un sistema formado por un trozo de cartón sobre el que dibuja una flecha señalando hacia la izquierda, se escriben los símbolos "W.C." y se cuelga en un lugar determinado de un restaurante. La información que contiene ese sistema es resultado del orden que hemos introducido en sus elementos, los códigos transmitidos por la tinta, la orientación de la flecha y la logística que proporciona el entorno del restaurante. Si cambia algo del sistema, por ejemplo, si se decolora la tinta, la información se pierde. El cambio ha implicado un aumento de la entropía y una disminución de la información.
Los sistemas biológicos y económicos no son sistemas aislados. Ambos reciben el calor del sol. Por tanto, mientras reciban más energía que la que emiten, los sistemas económicos y biológicos podrán reducir su entropía. En palabras llanas, es decir, inexactas pero comprensibles de forma intuitiva, mientras haya un sol que caliente la biomasa podrá aumentar y el producto nacional bruto mundial podrá crecer.
Pero lo que es cierto para el todo no es aplicable a las partes. Aunque la biomasa humana esté aumentando, es posible que el sistema biológico de un individuo se desorganice tanto que deje de vivir.
Podemos decir que un ser vivo sano, una empresa o una locomotora funcionando correctamente tienen entropía baja. Si aumenta el desorden en los componentes del individuo, de la empresa o de la máquina, podemos decir que su entropía está aumentando. Hay un cierto umbral, un cierto tamaño de entropía por encima del cual el ser vivo muere, la empresa quiebra y la máquina deja de funcionar.
Como el ser vivo, la empresa o la locomotora no son sistemas aislados, podemos utilizar energía proporcionada por otros sistemas para corregir el desorden, es decir, para disminuir la entropía. Pero sabemos por experiencia que esa posible intervención tiene un límite. Hasta ahora no conocemos ningún ser vivo, ninguna empresa ni ninguna máquina que haya vivido o funcionado eternamente.
Tríadas informativasPuede ser interesante investigar el paralelismo existente entre las tres formas de soportar información en instrumentos –tecnología, conocimiento, logística- y lo que Jean Louis Le Moigne llama "El Esquema Ternario" ("La modélisation systémique de l'information" en L'Economie de l'information, P. Petit, Ed. La Decouverte, Paris, 1998). "La información es un concepto que conjuga inseparablemente tres componentes: la forma física o señal (la componente sintáctica), no es separable de los significados que esta señal pueda portar (el componente semántico) ni de las acciones contextuales suscitadas por la recepción de esa señal susceptible de tomar significados diferentes –y a veces imprevistos por el emisor- según los contextos de recepción (la componente llamada pragmática por C, Morris, o efectiva por W. Weaver)."
Lo que Le Moigne llama señal parece próximo a lo que aquí se llama tecnología, ya que está asociada a una forma física-sintáctica. Cuando aquí se habla de conocimiento, nos estamos refiriendo a significados de señales y componentes semánticos. Y nuestro concepto de logística parece también próximo al de acciones contextuales o contextos de recepción.
Hay otra tríada interesante en la economía de la información propuesto por B. Lundvall: saber-qué (conocimiento relativo a los hechos), saber-porqué (conocimiento científico) y saber-cómo (o know-how, conocimientos a menudo tácitos sobre una actividad económica concreta). Cuando percibimos la tecnología asociada a un instrumento estamos recibiendo saber-qué. Cuando percibimos conocimiento codificado en un instrumento estamos recibiendo saber-porqué. El saber-cómo implica la comprensión de información logística.
En eumed.net: |
1647 - Investigaciones socioambientales, educativas y humanísticas para el medio rural Por: Miguel Ángel Sámano Rentería y Ramón Rivera Espinosa. (Coordinadores) Este libro es producto del trabajo desarrollado por un grupo interdisciplinario de investigadores integrantes del Instituto de Investigaciones Socioambientales, Educativas y Humanísticas para el Medio Rural (IISEHMER). Libro gratis |
15 al 28 de febrero |
|
Desafíos de las empresas del siglo XXI | |
15 al 29 de marzo |
|
La Educación en el siglo XXI |