En el imaginario comunicológico, por razones fundamentalmente ideológicas, la información ha sido despreciada. En cambio, en otros campos del conocimiento y en el desarrollo tecnológico, como la cibernética, la informática, la inteligencia artificial, podemos constatar la relevancia de la información.
En fechas relativamente recientes, la ciencia parece más abierta a considerar a la información como una magnitud física. Inclusive algunos científicos hoy la consideran como la sustancia fundamental del universo, la evolución y la vida.
En el libro "El universo en un bit" (2022), José Enrique Campillo, un destacado científico español, afirma:
"la única sustancia fundamental del universo, desde el punto de vista actual de la Física, es esa magnitud que llamamos información (…) la Física considera la información como una magnitud física, que puede ser medida, cuantificada, transformada y almacenada, observada y usada. La unidad de información es el bit ('binary digit'), que expresa siempre la existencia de dos estados alternativos: uno y cero, encendido y apagado, cara o cruz, etc." (p.12).
En 1948, Claude Elwood Shannon, un destacado matemático estadounidense que trabajaba en la compañía Bell, publicó el ensayo "A Mathematical Theory of Information" -en castellano: "La teoría matemática de la información"-, texto de enorme influencia en el desarrollo del pensamiento científico.
Sin embargo, tanto Shannon como el referido texto han resultado menospreciados sistemáticamente por no pocos académicos e investigadores de la comunicología, principalmente en América Latina. Las razones son ideológicas, no científicas.
El profesor Armand Mattelart, un intelectual belga que alcanzó gran notoriedad en América Latina a partir de la publicación del libro "Para leer al Pato Donald" -en coautoría con Ariel Dorfman, texto que les fue encargado en Chile por Salvador Allende-, en no pocos de sus libros ha deslizado algunos cuestionamientos tanto a Shannon como a la teoría matemática de la información.
Por ejemplo, en el libro "Historia de la sociedad de la información" (2002), el profesor Mattelart parte de objetar el "culto al número" -ese es el título del primer capítulo del referido libro: "El culto al número"-, por considerar al número como el negativo detonante de la sociedad de la información.
"La idea de sociedad regida por la información se inscribe, por así decirlo, en el código genético del proyecto de sociedad inspirado por la mística del número" (p.15).
Sobre Shannon, en la mencionada obra, el profesor Mattelart señala:
"En 1949, el ingeniero y matemático Claude Elwood Shannon formula una teoría matemática de la comunicación. Su definición de información es estrictamente física, cuantitativa, estadística. Se refiere, sobre todo, a cantidades de información. Hace caso omiso de la raíz etimológica que denota un proceso que da forma al conocimiento, gracias a la estructuración de fragmentos de conocimiento" (pp. 64-65).
Mattelart no solo incurre en un error al establecer 1949 como el año en el cual Shannon presentó su ensayo sobre la teoría matemática de la información. Además, omite referir la relevancia del bit, concepto medular en la teoría de la información y popularizado por Shannon.
El bit -'binary information digit'-, es un término que Shannon recuperó de John W. Tukey, un ingeniero en Bell que acuñó en 1947 el referido concepto, el cual se ha convertido en un término medular en el imaginario de la información, ya sea ésta natural (universo, materia, vida) o artificial (música, palabras, sonidos, texto, imágenes, sensores, etc.).
Cualquier tipo de información, sobre cualquier cosa o tema, admite ser expresada, almacenada y procesada mediante un sistema de dos alternativas: uno y cero, 'on' y 'off', abierto y cerrado, punto y raya. La información se produce y consume en bits.
El poder del bit -que no menciona Mattelart en los cuestionamientos expresados a Shannon- radica en su universalidad. Todos los sistemas físicos y biológicos en el universo, y todos los dispositivos capaces de procesar información, lo hacen a través de bits.
Para establecer las bases científicas de la información, Shannon centró su atención en la estadística física y la termodinámica. Ellas -sostiene Campillo- "le permitieron el acceso a la ciencia de la comunicación" (p.33).
Los discípulos de Mattelart -que todavía abundan- suelen señalar a Shannon como un pensador que se identifica con la escuela de pensamiento "estructural-funcionalista"; es decir, lo instalan en el repertorio de enemigos de la teoría "crítica" y de la llamada "escuela latinoamericana de la comunicación", a quienes incluso se debe omitir referir.
Los críticos de Shannon, quienes en su mayoría no se han tomado la molestia de leer el ensayo "A Mathematical Theory of Information", sostienen que la información representa un asunto "menor" en el imaginario comunicológico, y rematan repitiendo palabras de Mattelart, quien afirmó que la firma Bell servía a los intereses belicistas del gobierno estadounidense.
La teoría matemática de la información observó un rol protagónico en el desarrollo de las ciencias computacionales, la informática, la robótica, la cibernética y la inteligencia artificial. En todas ellas, el bit es indispensable referente.
Además, al explicar el 'big bang', la física cuántica ha recuperado a la información como el factor vinculante que permitió relacionar a la energía con la materia.
La información puede ser considerada como una magnitud física, capaz de poder relacionar entre sí todo lo que existe en el universo, desde partículas subatómicas, moléculas, células, órganos, grupos de organismos, personas, corporaciones, organismos supranacionales, planetas, constelaciones, el universo -el nuestro y otros posibles, como sostiene la teoría de las supercuerdas-.
La fórmula de Shannon, además, permite medir la entropía -otro de los conceptos desdeñados en el imaginario comunicológico latinoamericano-. El modelo de Shannon permite medir el grado de desorden o la aleatoriedad inherente a cualquier sistema de comunicaciones.
El aumento de información ocasiona una disminución de entropía. La disminución de información ocasiona un aumento de entropía.
Entropía e información observan siempre una relación inversa, ya sea en un texto, en nuestras vidas, en el universo.
Más allá del cerrado imaginario de los comunicólogos, en otros territorios de la ciencia las notables aportaciones de Shannon hoy son muy valoradas.
Reconocidos académicos y científicos han comparado a Shannon con Einstein, considerando la relevancia de las aportaciones del referido matemático que laboró en los laboratorios de la firma Bell, quien concibió la teoría matemática de la comunicación para resolver una pregunta específica: ¿cuánta información transmitía la firma Bell a través de sus canales o redes?
En el imaginario de la comunicología hemos tardado mucho tiempo en asimilar las lecciones de Shannon. Peor aún, no pocos colegas permanecen renuentes. Su apuesta es por la ideología, claro.