Teoría de la Información. La prehistoria de Unix séptima parte

Teoría de la información
¿Somos el resultado de las decisiones que tomamos bajo nuestro libre albedrío o hay una fuerza superior que guía nuestros pasos?  La bibliografía sobre Claude Shannon consultada para esta serie de artículos parecería darles argumentos a los partidarios del Destino. Shannon fue una persona que se interesó por muchas cosas; el malabarismo, el Jazz, la aviación, los crucigramas o la construcción de máquinas de juegos. Parte de su vida profesional la dedicó a investigar las matemáticas aplicadas a la investigación genética o la industria armamentística. Sin embargo, una y otra vez las circunstancias lo llevaban a ir construyendo la base de su trabajo cumbre:  La Teoría de la Información

Un pequeño aviso en la pared de la Universidad de Minnesota lo llevó a trabajar con el analizador diferencial del MIT. Allí relacionó el Algebra de Boole con la construcción de circuitos. Haciendo una pasantía en los laboratorios Bell tuvo acceso a u In artículo que le dio la idea de que una sola teoría podría explicar la transmisión de información independiente del medio.  Incorporado definitivamente a Bell, donde ingresó básicamente para evitar ser llamado a filas, se interesó por la criptografía y descubrió la redundancia del lenguaje y la no necesidad de tener que transmitir frases completas para que el mensaje tenga sentido.

La Teoría de la Información

Shannon integró un equipo que trabajaba en un cambio de paradigma en las telecomunicaciones, la llamada tecnología PCM o Modulación de Código de Pulsos. En lugar de la transmisión de la voz mediante ondas eléctricas, como se hacía desde que Alexander Graham Bell inventó el teléfono, se buscaba transmitir la información sobre el comportamiento de las ondas eléctricas para que el receptor sea capaz de reconstruirlas. Acá debemos tener en cuenta dos puntos importantes.

  • No se transmite la información sobre el comportamiento de las ondas durante toda la conversación, sino que se hace un muestreo cada cierta cantidad de tiempo, y el receptor completa los espacios. Recordemos las observaciones de Shannon sobre la redundancia y la no necesidad de enviar el mensaje completo.
  • La información sobre las ondas se puede transmitir codificándolas con ceros y unos. Aquí aplican las ideas de Shannon sobre el uso del álgebra booleana para la transmisión de información por un circuito.

Ahora bien, este método no se aplica solo a la voz. La misma tecnología puede aplicarse a la transmisión a distancia de cualquier contenido que pueda convertirse en ceros y unos; imágenes fijas y en movimiento, textos, gráficos, música, etc.

Garantizando la fidelidad del mensaje

Probablemente en todos los países haya una variante del juego que en mi infancia llamábamos «teléfono descompuesto». Una persona le susurra un mensaje al compañero de al lado que a su vez hace lo mismo con el siguiente de la fila. Así, hasta llegar al último que debe repetir el mensaje en voz alta. Casi nunca coincide con lo que dijo el primero.

El desafío de los laboratorios Bell es evitar que esto pasara en las comunicaciones. Y, aquí es donde interviene la Teoría de la Información.

Shannon propuso un modelo de comunicaciones general en la que el emisor emite a través de un transmisor una señal que viajando por un canal llega al receptor. Este es el encargado de decodificar el mensaje previamente codificado por el transmisor y entregarlo al destinatario. En todo canal existe lo que se llama «ruido» que son distorsiones que afectan a la recepción del mensaje.

Su propuesta incluye las siguientes afirmaciones:

  • Todas las comunicaciones, independientemente del formato, pueden pensarse en términos de información.
  • Toda la información puede medirse en bits. Un bit (Abreviatura de dígito binario) indica la elección entre dos alternativas posibles, el punto o raya del telégrafo, cara o cruz al tirar una moneda, o pulsos encendidos o apagados en la tecnología PCM
  • La información más compleja se puede transmitir por medio de una cadena de bits con un formato predefinido. Por ejemplo, la representación en base 2 de un código númerico asignado a una letra.

En su trabajo sobre criptografía, Shannon había demostrado que se podía reducir el tamaño del mensaje eliminando la redundancia. Aquí propuso seguir el camino contrario; combatir el ruido agregando bits adicionales para que el receptor sea capaz de corregir errores ocurridos durante la transmisión.

Aunque en muchos casos la formulación teórica tardaría décadas en convertirse en aplicaciones prácticas, los ingenieros ya tenían una forma de medir la capacidad de los diferentes canales para transmitir la información. Estaba todo listo para que nuevos materiales reemplazaran al tradicional cable de cobre aumentando exponencialmente la cantidad de mensajes circulantes. Y, por supuesto haría falta una forma de manejar toda esa cantidad de información. Eso lo veremos en los próximos artículos.

Artículo relacionado:
La prehistoria de Unix y el rol de los laboratorios Bell
Artículo relacionado:
Juntando científicos e ingenieros. La prehistoria de Unix. Parte 2
Artículo relacionado:
Los tubos de vacío. La prehistoria de Unix parte 3
Artículo relacionado:
La llegada del transistor. La prehistoria de Unix cuarta parte
Artículo relacionado:
El señor Claude Shannon. La prehistoria de Unix quinta parte
Artículo relacionado:
El trabajo de Shannon. La prehistoria de Unix parte 6

El contenido del artículo se adhiere a nuestros principios de ética editorial. Para notificar un error pincha aquí.

2 comentarios, deja el tuyo

Deja tu comentario

Tu dirección de correo electrónico no será publicada.

*

*

  1. Responsable de los datos: AB Internet Networks 2008 SL
  2. Finalidad de los datos: Controlar el SPAM, gestión de comentarios.
  3. Legitimación: Tu consentimiento
  4. Comunicación de los datos: No se comunicarán los datos a terceros salvo por obligación legal.
  5. Almacenamiento de los datos: Base de datos alojada en Occentus Networks (UE)
  6. Derechos: En cualquier momento puedes limitar, recuperar y borrar tu información.

  1.   simby dijo

    Por favor, fuentes! la sexta parte tenía un trozo que me hizo pensar que era una traducción, aunque no estoy seguro. De dńde sale todo ésto?

    1.    Diego Germán González dijo

      Prometo para el viernes que viene una lista detallada de las fuentes y lo que saqué de cada una. Lo que probablemente te suene a plagio es la primera frase. Se la robé a Isaac Asimov de un libro que recopila sus respuestas sobre cuestiones científicas.