$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Claude Shannon (30 avril 1916 [Petoskey] - 24 février 2001 [Medford])

Claude Shannon est un ingénieur électricien et un mathématicien du XXè siècle, souvent considéré comme le père de la théorie de l'information. Il est né le 30 avril 1916 à Petoskey, dans le Michigan. Son père est un juge, et sa mère est le proviseur du lycée de Gaylord, une autre ville du Michigan. Il étudie à l'université du Michigan où il suit un double cursus en électricité et en mathématiques. Il obtient une licence dans ces deux disciplines en 1936, avant de poursuivre ses études au réputé MIT (Massachusetts Institute of Technology). Il soutient en 1940 une thèse de doctorat en mathématiques (elle portait sur des applications des mathématiques à la génétique) et un mémoire de master en électricité. Si la première fut largement ignorée, le second, qui explique comment utiliser les algèbres de Boole pour l'analyse des signaux électriques, est resté célèbre.

En 1941, il est embauché dans les laboratoires de la compagnie de téléphonie AT&T Bell. Immédiatement, il travaille sur des projets en liaison avec les services secrets, qui lui font notamment aborder des questions de cryptographie. En 1949, il se marie; par la suite, il aura trois enfants.

Shannon travaille aux laboratoires de Bell jusqu'en 1971. Parallèlement à cela, il est aussi professeur au MIT de 1958 à 1978. Ses contributions essentielles concernent :

  • la théorie de la transmission des signaux; Shannon comprend que toute donnée, même le son ou les images, peut se transmettre à l'aide d'une suite de 0 et de 1 (les bits), ouvrant ainsi la voie aux communications numériques et non plus analogiques. Il montre aussi comment le fait d'ajouter certains bits à un message peut permettre de vérifier que les autres ont été correctement transmis (on parle de code correcteur d'erreurs).
  • l'entropie, qui mesure la quantité d'information portée par un message numérique; cette notion est très importante en cryptographie ou en compression de données.
  • l'intelligence artificielle; il conçoit par exemple le premier ordinateur qui joue aux échecs.

Shannon est aussi un personnage très original, connu pour déambuler dans les couloirs du MIT sur son monocycle tout en jonglant! Il a reçu de nombreux honneurs, dont la médaille nationale des sciences des mains du Président Johnson en 1966, et le prix Kyoto en 1985. A la fin de sa vie, il souffre de la maladie d'Alzheimer, ce qui le conduit dans une maison de repos du Massachusetts. Il y décède le 24 février 2001, à l'âge de 84 ans.

Les entrées du Dicomaths correspondant à Shannon

Les mathématiciens contemporains de Shannon (né en 1916)
  • Emil Artin (né en 1898)
  • Maurice Audin (né en 1932)
  • Arne Beurling (né en 1905)
  • Nicolas Bourbaki (né en 1935)
  • Henri Cartan (né en 1904)
  • Gustave Choquet (né en 1915)
  • Yvonne Choquet-Bruhat (née en 1923)
  • Georges De Rham (né en 1903)
  • Jean Dieudonné (né en 1906)
  • Paul Dirac (né en 1902)
  • Wolfgang Döblin (né en 1915)
  • Joseph Doob (né en 1910)
  • Adrien Douady (né en 1935)
  • Paul Erdös (né en 1913)
  • Israel Gelfand (né en 1913)
  • Kurt Gödel (né en 1906)
  • Alexandre Grothendieck (né en 1928)
  • Jacques Herbrand (né en 1908)
  • Lars Hörmander (né en 1931)
  • Kiyoshi Ito (né en 1915)
  • Jean-Pierre Kahane (né en 1926)
  • Andreï Kolmogorov (né en 1903)
  • Szolem Mandelbrojt (né en 1899)
  • Benoit Mandelbrot (né en 1924)
  • John Forbes Nash (né en 1928)
  • John von Neumann (né en 1903)
  • Raymond Paley (né en 1907)
  • Emil Leon Post (né en 1897)
  • Laurent Schwartz (né en 1915)
  • Sergei Sobolev (né en 1908)
  • Marshall Stone (né en 1903)
  • René Thom (né en 1923)
  • Alan Turing (né en 1912)
  • Pavel Urysohn (né en 1898)
  • André Weil (né en 1906)
  • Oscar Zariski (né en 1899)