$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Claude Shannon (30 avril 1916 [Petoskey] - 24 février 2001 [Medford])

Claude Shannon est un ingénieur électricien et un mathématicien du XXiè siècle, souvent considére comme le père de la théorie de l'information. Il est né le 30 avril 1916 à Petoskey, dans le Michigan. Son père est un juge, et sa mère est le proviseur du lycée de Gaylord, une autre ville du Michigan. Il étudie à l'université du Michigan où il suit un double cursus en électricité et en mathématiques. Il obtient une licence dans ces deux disciplines en 1936, avant de poursuivre ses études au réputé MIT (Massachusetts Institute of Technology). Il soutient en 1940 une thèse de doctorat en mathématiques (elle portait sur des applications des mathématiques à la génétique) et un mémoire de master en électricité. Si la première fut largement ignorée, la seconde, qui explique comment utiliser les algèbres de Boole pour l'analyse des signaux électriques, est restée célèbre.

En 1941, il est embauché dans les laboratoires de la compagnie de téléphone AT&T Bell. Immédiatement, il travaille sur des projets en liaison avec les services secrets, qui lui font notamment aborder des questions de cryptographie. En 1949, il se marie; par la suite, il aura trois enfants.

Shannon travaille aux laboratoires de Bell jusqu'en 1971. Parallèlement à cela, il est aussi professeur au MIT de 1958 à 1978. Ses contributions essentielles concernent :

  • la théorie de la transmission des signaux; Shannon comprend que toute donnée, même la voix ou des images, peut se transmettre à l'aide d'une suite de 0 et de 1 (les bits), ouvrant la voie aux communications numériques et non plus analogiques. Il montre aussi comment le fait d'ajouter certains bits à un message peut permettre de vérifier que les autres ont été correctement transmis (on parle de code correcteur d'erreurs).
  • l'entropie, qui mesure la quantité d'information portée par un message numérique; cette notion est très importante en cryptographie ou en compression de données.
  • l'intelligence artificielle; il conçoit par exemple le premier ordinateur qui joue aux échecs.

Shannon est aussi un personnage très original, connu pour déambuler dans les couloirs du MIT sur son monocycle tout en jonglant! Il a reçu de nombreux honneurs, dont la médaille nationale des sciences des mains du Président Johnson en 1966, et le prix Kyoto en 1985. A la fin de sa vie, il souffre de la maladie d'Alzheimer, ce qui le conduit dans une maison de repos du Massachusetts. Il y décède le 24 février 2001, à l'âge de 84 ans.

Les entrées du Dicomaths correspondant à Shannon

Les mathématiciens contemporains de Shannon (né en 1916)