Claude Shannon para niños
Datos para niños Claude Elwood Shannon |
||
---|---|---|
Información personal | ||
Nacimiento | 30 de abril de 1916 Petoskey (Estados Unidos) |
|
Fallecimiento | 24 de febrero de 2001 (84 años) Medford (Estados Unidos) |
|
Sepultura | Mount Auburn Cemetery y Fairview cemetery | |
Residencia | Gaylord | |
Nacionalidad | Estadounidense | |
Familia | ||
Cónyuge |
|
|
Educación | ||
Educación | Doctor en Filosofía, bachiller de ciencias y Maestría en ciencias | |
Educado en |
|
|
Supervisor doctoral | Frank Lauren Hitchcock y Vannevar Bush | |
Información profesional | ||
Ocupación | Matemático, criptógrafo, informático teórico, inventor, profesor universitario, ingeniero y genetista | |
Área | Teoría de la probabilidad, ingeniería eléctrica, teoría de la información, cibernética y criptografía | |
Empleador |
|
|
Estudiantes doctorales | Ivan Sutherland y William Daniel Hillis | |
Obras notables |
|
|
Miembro de |
|
|
Carrera deportiva | ||
Deporte | Ciclismo de competición | |
Claude Elwood Shannon (30 de abril de 1916 - 24 de febrero de 2001) fue un matemático, ingeniero eléctrico y criptógrafo estadounidense recordado como «el padre de la teoría de la información».
Shannon es reconocido por haber fundado el campo de la teoría de la información con la publicación Una teoría matemática de la comunicación, que supuso un hito en 1948. Es quizás igualmente conocido por haber sentado las bases de la teoría del diseño de circuitos digitales en 1937, con apenas 21 años de edad. Mientras realizaba su maestría en el Massachusetts Institute of Technology (MIT), demostró en su tesis que las aplicaciones electrónicas de álgebra booleana podrían construir cualquier relación lógico-numérica. Shannon contribuyó asimismo al campo del criptoanálisis para la defensa de Estados Unidos durante la Segunda Guerra Mundial, con trabajos sobre el descifrado de códigos y la seguridad en las telecomunicaciones.
Contenido
Primeros años
Los primeros años de su vida los pasó en Gaylord, donde se graduó de la secundaria en 1932. Desde joven, Shannon mostró una clara inclinación hacia las cosas mecánicas. Resaltaba respecto a sus compañeros en las asignaturas de ciencias. Su héroe de la niñez era Edison, con quien luego descubrió que tenía un parentesco y a cuyas investigaciones se aproximó bastante.
En 1932 ingresó en la Universidad de Míchigan, donde su hermana Catherine se doctoró como matemática. En 1936 obtuvo los títulos de ingeniero electricista y matemático. Su interés por la matemática y la ingeniería continuó durante toda su vida.
En 1936 aceptó el puesto de asistente de investigación en el departamento de ingeniería eléctrica en el Instituto Tecnológico de Massachusetts (MIT). Su situación le permitió continuar estudiando mientras trabajaba por horas para el departamento, donde trabajó en el computador analógico más avanzado de esa era, el analizador diferencial de Vannevar Bush.
Primeros descubrimientos
Circuitos de relés complejos y álgebra booleana
En ese momento surgió su interés hacia los circuitos de relés complejos. Intentando simplificar centralitas telefónicas de relés, se dio cuenta de que estos podían usarse para hacer cálculos. Sumado esto a su gusto por la lógica y el álgebra booleana, pudo desarrollar esta idea durante el verano de 1937, que pasó en los laboratorios Bell en la ciudad de Nueva York.
Álgebra booleana y circuitos digitales
En su tesis doctoral en el MIT demostró cómo el álgebra booleana se podía utilizar en el análisis y la síntesis de la conmutación y de los circuitos digitales. La tesis despertó un interés considerable cuando apareció en 1938 en las publicaciones especializadas. En 1940 le fue concedido el Premio Alfred Noble para ingenieros estadounidenses por parte de la Sociedad Estadounidense de Ingenieros Civiles de los Estados Unidos, otorgado cada año a una persona de no más de treinta años. Un cuarto de siglo más tarde, Herman Goldstine, en su libro Las computadoras desde Pascal hasta Von Neumann, citó su tesis como una de las más importantes de la historia que ayudó a cambiar el diseño de circuitos digitales.
Durante el verano de 1938 realizó trabajos de investigación en el MIT y le fue concedida la beca Bolles cuando trabajaba como ayudante de enseñanza mientras realizaba un doctorado en matemática. En 1940 estudió un máster en ingeniería eléctrica y se doctoró en filosofía de la matemática.
Laboratorios Bell
Shannon pasó quince años en los laboratorios Bell, una asociación muy fructífera con muchos matemáticos y científicos de primera línea como Harry Nyquist, Walter Houser Brattain, John Bardeen y William Bradford Shockley, inventores del transistor; George Stibitz, quien construyó computadoras basadas en relés; Warren Weaver, quien escribió una extensa y aclaradora introducción a su obra Una teoría matemática de la comunicación y muchos otros más.
Teoría matemática de la información
Durante este período Shannon trabajó en muchas áreas, y lo más notable fue todo lo referente a la teoría de la información, que se publicó en 1948 con el nombre de Una teoría matemática de la comunicación. En este trabajo se demostró que todas las fuentes de información (telégrafo eléctrico, teléfono, radio, la gente que habla, las cámaras de televisión, etcétera) pueden medirse, y que los canales de comunicación tienen una unidad de medida similar, determinando la velocidad máxima de transferencia o capacidad de canal. Demostró también que la información se puede transmitir sobre un canal si y solamente si la magnitud de la fuente no excede la capacidad de transmisión del canal que la conduce, y sentó las bases para la corrección de errores, supresión de ruidos y redundancia.
Programación de computadoras para el ajedrez
En el área de las computadoras y de la inteligencia artificial, publicó en 1949 un trabajo que describía la programación de una computadora para jugar al ajedrez, convirtiéndose en la base de posteriores desarrollos.
Otras contribuciones y reconocimientos
En el campo de la biblioteconomía y la documentación, el desarrollo booleano revolucionó las búsquedas en catálogos de bibliotecas o en bases de datos de centros de documentación.
A lo largo de su vida recibió numerosas condecoraciones y reconocimientos de universidades e instituciones de todo el mundo.
Ante la pregunta de un periodista de si las máquinas podían pensar, replicó: «¡Naturalmente! ¡Usted y yo somos máquinas y vaya si pensamos!».
Publicaciones
Shannon, Claude Elwood (1948). «A mathematical theory of communication». Bell System Technical Journal 27 (379-423 and 623-656).
Shannon, Claude Elwood (1949). «Communication theory of secrecy systems». Bell System Technical Journal 28 (656-715).
Véase también
En inglés: Claude Shannon Facts for Kids
- Abraham Lempel
- Ajedrez por computadora
- Minivac 601
- Libreta de un solo uso
- Número de Shannon
- shannon (unidad), equivalente a un bit de información
- Teorema de Shannon-Hartley
- Teorema de codificación de fuentes de Shannon
- Segundo teorema de Shannon