Frater Ignatius
Todo el mundo o casi todos, vemos la televisión, navegamos en internet, reproducimos DVD, hablamos a través del celular, utilizamos el Whatsapp, Facebook, Twitter, Netflix o escuchamos la radio. La mayoría no nos percatamos de que las bases de esta era caracterizada por un exceso de información que amenaza volvernos locos, fueron establecidas por el matemático estadounidense Claude Shannon, quien en 1948 publicó A Mathematical Theory of Communication. No olvidemos a Warren Weaven que hasta hace poco se le ha dado el crédito junto al conspicuo ingeniero de crear una teoría que sustenta todos los datos de este momento único en la historia de la humanidad.
La teoría de la información es una disciplina de matemáticas aplicadas que se ocupa básicamente de la cuantificación de datos y ayuda a los científicos a comprender la capacidad de diversos sistemas para almacenar, transmitir y procesar la información requerida. En su origen fue orientada simplemente al lenguaje máquina (Shannon). Weaven se encargó de hacerla universal. En este punto, tal teoría también hace referencia a la compresión de datos y a los métodos para reducir el ruido y las tasas de error para facilitar el almacenamiento y la comunicación fiables de la mayor cantidad de datos posibles a través de un canal, cualquiera que sea el dispositivo a usar. La medida de la información en este caso, es conocida como entropía de la información y suele expresarse a través del porcentaje de bits necesarios para el almacenamiento o la comunicación.
Las matemáticas que subyacen a la teoría de la información fueron creadas por Ludwig Boltzmann y J. Willard Gibbs en el ámbito de la termodinámica. Alan Turing también hizo uso de ciertas ideas parecidas al descifrar las claves alemanas de Enigma durante la Segunda Guerra Mundial.
Lo maravilloso de las matemáticas es que son capaces de funcionar en campos muy distintos o aparentemente dispares. En el caso concreto de la teoría de la información, influye a la neurobiología, la lingüística, la Inteligencia Artificial, la robótica, los agujeros negros, etc.
Podemos descifrar códigos y recuperar errores en los discos duros. Las aplicaciones son casi ilimitadas y parten de conceptos tipo, como pilares detrás de todo el campo informativo.
Claude Shannon enferma irónicamente de Alzheimer y muere a los 84 años. Fue un dotado jugador de ajedrez, hábil malabarista, monociclista. Ya no contempló la grandeza de su obra.