background preloader

Claude Shannon

Claude Shannon
Un article de Wikipédia, l'encyclopédie libre. Pour les personnes ayant le même patronyme, voir Shannon. Claude Shannon Compléments Biographie[modifier | modifier le code] Shannon travaille vingt ans au MIT, de 1958 à 1978. Son œuvre[modifier | modifier le code] Pendant la Seconde Guerre mondiale, Shannon travaille pour les services secrets de l'armée américaine, en cryptographie, chargé de localiser de manière automatique dans le code ennemi les parties signifiantes cachées au milieu du brouillage. Le schéma de Shannon[modifier | modifier le code] Modèle de Shannon - Communication. Pour décrire la communication entre machines, l'article de 1948 et le livre de 1949 commencent tous deux par un « schéma » qui connut dès lors une postérité étonnante en sciences de l'information et de la communication (SIC), au point que Shannon s'en étonna et s'en dissocia[réf. nécessaire]. Ce schéma est la traduction « civile » d'un schéma préalable, utilisé dans le contexte militaire : Entropie = Related:  Claude Shannon (20è), le père du binaireEn lien avec le thème 1

John Tukey Un article de Wikipédia, l'encyclopédie libre. John Wilder Tukey ( - ) est l'un des plus importants statisticiens américains du XXe siècle[1]. Il a créé et développé de nombreuses méthodes statistiques. Il est notamment connu pour son développement en 1965, avec James Cooley, de l'algorithme de la transformée de Fourier rapide[2]. Les concepts et méthodes statistiques qu'il a inventés sont aujourd'hui au programme des lycées et des universités[2]. Biographie[modifier | modifier le code] Enfance et formation[modifier | modifier le code] Inscrit à l'université Brown dès 1933, John Tukey y obtient, en 1937, une maîtrise en chimie (B.Sc. et M.Sc. degree). Carrière[modifier | modifier le code] Pendant la Seconde Guerre mondiale, Tukey travaille à Princeton au Fire Control Research Office . Après la guerre, il obtient un poste de professeur au département des mathématiques de Princeton. En 1950, il épouse Elizabeth Louise Rapp. Ses intérêts statistiques furent nombreux et variés.

Alan Turing Alan Turing en 1936. Alan Mathison Turing, né le 23 juin 1912 à Londres et mort le 7 juin 1954 à Wilmslow, est un mathématicien et cryptologue britannique, auteur de travaux qui fondent scientifiquement l'informatique. Il est aussi un des pionniers de l'Intelligence artificielle. Pour résoudre le problème fondamental de la décidabilité en arithmétique, il présente en 1936 une expérience de pensée que l'on nommera ensuite machine de Turing et des concepts de programme et de programmation, qui prendront tout leur sens avec la diffusion des ordinateurs, dans la seconde moitié du XXe siècle. Son modèle a contribué à établir la thèse de Church, qui définit le concept mathématique intuitif de fonction calculable. Poursuivi en justice en 1952 pour homosexualité, il choisit, pour éviter la prison, la castration chimique par prise d'œstrogènes. Biographie Enfance et jeunesse Ses parents l'inscrivent à l'école St. Études supérieures et travaux sur la calculabilité Cryptanalyse Codage de la voix Mort

Biographie de Claude Shannon Claude Shannon est un ingénieur électricien et un mathématicien du XXiè siècle, souvent considére comme le père de la théorie de l'information. Il est né le 30 avril 1916 à Petoskey, dans le Michigan. Son père est un juge, et sa mère est le proviseur du lycée de Gaylord, une autre ville du Michigan. Il étudie à l'université du Michigan où il suit un double cursus en électricité et en mathématiques. Il obtient une licence dans ces deux disciplines en 1936, avant de poursuivre ses études au réputé MIT (Massachusetts Institute of Technology). En 1941, il est embauché dans les laboratoires de la compagnie de téléphone AT&T Bell. Shannon travaille aux laboratoires de Bell jusqu'en 1971. la théorie de la transmission des signaux; Shannon comprend que toute donnée, même la voix ou des images, peut se transmettre à l'aide d'une suite de 0 et de 1 (les bits), ouvrant la voie aux communications numériques et non plus analogiques. Les entrées du Dicomaths correspondant à Shannon

John Tukey John Wilder Tukey (16 juin 1915-26 juillet 2000) est l'un des plus importants statisticiens américains du XXe siècle[1]. Il a créé et développé de nombreuses méthodes statistiques. Il est notamment connu pour son développement en 1965, avec James Cooley, de l'algorithme de la transformée de Fourier rapide[2]. Les concepts et méthodes statistiques qu'il a inventés sont aujourd'hui au programme des lycées et des universités[2]. Biographie[modifier | modifier le code] Enfance et formation[modifier | modifier le code] John Tukey naît en 1915, à New Bedford (Massachusetts), dans une ville de pêcheurs sur la côte du New Jersey. Inscrit à l'université Brown dès 1933, John Tukey y obtient, en 1937, une maîtrise en chimie (B.Sc. et M.Sc. degree). Carrière[modifier | modifier le code] Pendant la Seconde Guerre mondiale, Tukey travaille à Princeton au Fire Control Research Office. Après la guerre, il obtient un poste de professeur au département des mathématiques de Princeton.

Bit Un article de Wikipédia, l'encyclopédie libre. Ne doit pas être confondu avec byte. Le bit est un chiffre binaire, c'est-à-dire 0 ou 1. Il est donc aussi une unité de mesure en informatique, celle désignant la quantité élémentaire d'information représentée par un chiffre du système binaire. On en doit l'invention à John Tukey et la popularisation à Claude Shannon[1]. Vocabulaire[modifier | modifier le code] Il ne faut pas confondre un bit avec un byte, mot anglais qui se prononce /bait/ et se traduit par multiplet[2], association d'objets semblables. Notation des valeurs[modifier | modifier le code] Technologiquement parlant, il existe une grande variété de moyen d'encodage binaire de l'information, selon le support de stockage ou de transmission utilisé : les propriétés physiques telle que la polarisation magnétique, la charge, le courant ou la tension électrique, l'intensité lumineuse, sont couramment utilisées. Abréviation et symbole[modifier | modifier le code] Portail de l’informatique

Blaise Pascal Un article de Wikipédia, l'encyclopédie libre. Pour les articles homonymes, voir Pascal. Blaise Pascal Philosophe et scientifique Époque moderne À 19 ans[1], en 1642, il invente la calculatrice mécanique[2],[3] et après trois ans de développement et 50 prototypes, il la présente à ses contemporains en la dédiant au chancelier Séguier[4]. Mathématicien de premier ordre, il crée deux nouveaux champs de recherche majeurs : tout d’abord il publie un traité de géométrie projective à seize ans ; ensuite il développe en 1654 une méthode de résolution du « problème des partis » qui, donnant naissance au cours du XVIIIe siècle au calcul des probabilités, influencera fortement les théories économiques modernes et les sciences sociales. Après une expérience mystique qu'il éprouva à la suite d'un accident de carrosse en octobre 1654[6],[7], il se consacre à la réflexion philosophique et religieuse. Biographie[modifier | modifier le code] Jeunesse[modifier | modifier le code] T. Les professeurs M.

shannon - sa vie - biographie Pour numériser un signal, la fréquence d'échantillonnage (sampling rate) doit être suffisamment grande pour restituer intégralement le signal. Le théorème de Nyquist-Shannon dit que, pour respecter le signal-source, cette fréquence doit être au moins le double de celle de la plus grande fréquence rencontrée dans le signal à échantillonner. Un tel échantillonnage permet en théorie une reconstruction parfaite du signal-source Pour la musique, dont l'oreille ne perçoit pas les fréquences au-delà de 22 kHz (pour être large), une fréquence d'échantillonnage de 44 kHz est en théorie suffisante. La fréquence d'échantillonnage d'un CD audio est normalisée à 44,1 kHz. Pour le téléphone, la voix ne nécessite que 4 kHz et un échantillonnage à 8 kHz est suffisant.

Werner Buchholz Werner Buchholz (24 October 1922 – 11 July 2019) was a German-American computer scientist. After growing up in Europe, Buchholz moved to Canada and then to the United States of America. He worked for International Business Machines (IBM) in New York. In June 1956, he coined the term "byte" for a unit of digital information.[1][2][3] In 1990, he was recognized as a computer pioneer by the Institute of Electrical and Electronics Engineers. Biography[edit] Early life[edit] Werner Buchholz was born on 24 October 1922 in Detmold, Germany. Because of the threat of invasion in May 1940, Werner with other refugee students was interned by the British and later sent to Canada. Career[edit] In 1990, Buchholz received the IEEE Computer Pioneer Award, awarded since 1981 to recognize and honor individuals whose effort resulted in the creation and vitality of the computer industry. Personal life[edit] See also[edit] Notes[edit] References[edit]

Théorie de l'information Un article de Wikipédia, l'encyclopédie libre. La théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communications publié en 1948. Parmi les branches importantes de la théorie de l'information de Shannon, on peut citer : Dans un sens plus général, une théorie de l'information est une théorie visant à quantifier et qualifier la notion de contenu en information présent dans un ensemble de données. L'information selon Shannon, un concept de la physique mathématique[modifier | modifier le code] Modèle de la communication de Shannon et Weaver Cette théorie est née de préoccupations techniques pratiques. comportant

Charles Babbage Un article de Wikipédia, l'encyclopédie libre. Charles Babbage Charles Babbage en 1860. Charles Babbage, né le et mort le à Londres, est un mathématicien, inventeur, visionnaire britannique du XIXe siècle qui fut l'un des principaux précurseurs de l'informatique. Il fut le premier à énoncer le principe d'un ordinateur. C'est entre 1847 et 1849 que Babbage entreprit d'utiliser les avancées technologiques de sa machine analytique pour concevoir les plans d'une deuxième machine à différences no 2 qui à spécifications égales demanda trois fois moins de pièces que la précédente. Biographie[modifier | modifier le code] Durant ce séjour au Trinity College, il fonde la Société Analytique en 1812 en compagnie de neuf autres mathématiciens universitaires et ainsi peut faire sa première publication en 1813. Dès l'âge de 24 ans, il est élu membre à la Société Royale de Londres et à celle d'Édimbourg, en 1820. Il eut huit enfants avec son épouse, dont seulement trois atteignirent l'âge adulte. L.F.

Claude Shannon, le père du binaire Pionnier de la théorie de l’information, Claude Shannon aurait eu 100 ans cette année. Parmi les nombreux hommages émaillant cet anniversaire, un site interactif du CNRS relate son parcours. L’année 2016 marque le centenaire de la naissance de Claude Shannon, ingénieur et mathématicien américain. Atypique et méconnu du grand public, il est le premier à s’intéresser à la question de l’information et de sa transmission. Un siècle plus tard, le père du binaire est à l’honneur : dans un dossier multimédia en ligne1, le CNRS retrace le parcours de ce scientifique original à travers des photos, ses travaux, ses improbables passions et l’héritage considérable qu’il nous a légué. De la cryptographie à la théorie de l’information Pendant la Seconde Guerre mondiale, Claude Shannon est employé dans le service de cryptographie de l’armée américaine. Pour Shannon, “amour” et “haine” ne sont que deux mots de cinq lettres prises dans un alphabet qui en compte 26. Il s’est éteint en 2001.

Marcian Hoff Un article de Wikipédia, l'encyclopédie libre. Biographie[modifier | modifier le code] Après quelques années passées en tant que chercheur de l'université Stanford, il est le 12e ingénieur recruté par la société Intel (INTegrated ELectronics) en 1968, une toute jeune startup qui vient d'être crée la même année par Robert Noyce et Gordon Moore très vite rejoint par Andrew Grove (1 milliard de dollars de chiffre d'affaires en 1983). En 1969, la société japonaise Busicom, premier gros client d'Intel, désire développer une gamme de calculateurs programmables de calculatrices de « grande puissance » (pour l’époque), et demande à Intel de fabriquer un jeu de douze circuits intégrés qui leur sont nécessaires. Idée révolutionnaire développée et commercialisée sous le nom de « microprocesseur » « Intel 4004 » dès novembre 1971. Intel vend le microprocesseur et les droits exclusif du Intel 4004 à son client Japonais Busicom pour 60 000 dollars. Articles connexes[modifier | modifier le code]

Related: