Claude Elwood Shannon y la Teoría de la Información
La era digital en la cual vivimos, nos rodea de mucha información. Esta se puede presentar como lenguaje, imágenes, escritura, música, video, etc. Y es tan ordinario, que saber cómo se logra hacer llegar un mensaje de un emisor a un receptor, es la cosa más intuitiva que tenemos como sociedad; nuestra comunicación es, en la mayoría de los casos, muy eficaz. Una persona puede decir “hola” a otra persona y al recibir ese saludo, la segunda persona cerraría el ciclo de la comunicación y ese traslado de información habrá logrado su cometido.
A mediados del siglo XIX se empezó a desarrollar una rama de las matemáticas que tenía que ver con el álgebra y las operaciones lógicas; algo así como las representaciones de razonamientos lógicos mediante símbolos simplificados. El álgebra booleana, llamada así en honor a George Boole, es la parte de las matemáticas con la que nace el tratamiento de la información como una construcción lógica, ordenada, medible y con funciones operacionales.
En computación básica se nos explica que los datos que se procesan en una computadora van “empaquetados” en bytes que es un conjunto de bits, la unidad mínima de información que se puede representar como un 0 o como un 1; en pocas palabras, todo lo que pasa por una computadora (o medio digital) se transformó previamente en un grupo de ceros y unos.
Ahora, ¿Cómo se guarda la relación información-comunicación-matemáticas? El responsable de formalizar esta disciplina y quién también resolvió varios problemas fue Claude Elwood Shannon; un matemático, ingeniero eléctrico y criptógrafo estadounidense recordado como “el padre de la teoría de la información”. Él fue capaz de establecer las bases de la teoría del diseño del ordenador digital y el circuito digital en 1937.
Iniciando como ingeniero y con interés en los circuitos eléctricos, Claude Shannon, estudió los procesos lógicos en los diagramas eléctricos y de la misma manera pudo trasladar estos razonamientos para encontrar la manera más eficiente de resolver un problema en el campo de la informática: “el ruido”. Para ejemplificar esto pensemos en una grabación con un micrófono, cuando digamos algo y lo volvamos a reproducir escucharemos nuestra voz al mismo tiempo que otros sonidos (ecos ambientales, pequeñas interferencias eléctricas o defectos del propio micrófono), estos, son el llamado “ruido”. Formalmente, el ruido es todo aquello que puede deformar el mensaje y que el receptor lo decodifique como algo totalmente distinto a lo original; esta situación es de suma importancia, en particular porque Claude Shannon también investigaba y colaboraba para le encriptación de mensajes en la Segunda Guerra Mundial.
El Trabajo de Shannon permitió que el proceso, en el ciclo de información, fuera más eficiente en la naciente era digital ya que fundó las bases para que todo lo que fuera un mensaje pudiera ser convertido en lenguaje binario, es decir transformado en ceros y unos. Esto permitió que hoy en día, una foto de papel se pueda digitalizar, los pixeles son un ejemplo de esta condición; la música se puede transmitir por medios digitales gracias a la transformación de las ondas sonoras en rectángulos comprimibles de información, cada letra que tecleamos es a su vez una combinación de números binarios.
Sin percibirlo, los avances tecnológicos se mejoran día con día, nos ayudan a tener una vida más cómoda, nuestras herramientas cotidianas son los teléfonos celulares y las computadoras que nos apoyan como verdaderos asistentes inteligentes y todo esto no son más que ceros y unos.
____________________________________________________________________________________________________________________________________________________________________________________________________________
No hay comentarios.:
Publicar un comentario