John Tukey Un article de Wikipédia, l'encyclopédie libre. John Wilder Tukey ( - ) est l'un des plus importants statisticiens américains du XXe siècle[1]. Il a créé et développé de nombreuses méthodes statistiques. Il est notamment connu pour son développement en 1965, avec James Cooley, de l'algorithme de la transformée de Fourier rapide[2]. Les concepts et méthodes statistiques qu'il a inventés sont aujourd'hui au programme des lycées et des universités[2]. Biographie[modifier | modifier le code] Enfance et formation[modifier | modifier le code] Inscrit à l'université Brown dès 1933, John Tukey y obtient, en 1937, une maîtrise en chimie (B.Sc. et M.Sc. degree). Carrière[modifier | modifier le code] Pendant la Seconde Guerre mondiale, Tukey travaille à Princeton au Fire Control Research Office . Après la guerre, il obtient un poste de professeur au département des mathématiques de Princeton. En 1950, il épouse Elizabeth Louise Rapp. Ses intérêts statistiques furent nombreux et variés.
Biographie de Claude Shannon Claude Shannon est un ingénieur électricien et un mathématicien du XXiè siècle, souvent considére comme le père de la théorie de l'information. Il est né le 30 avril 1916 à Petoskey, dans le Michigan. Son père est un juge, et sa mère est le proviseur du lycée de Gaylord, une autre ville du Michigan. Il étudie à l'université du Michigan où il suit un double cursus en électricité et en mathématiques. Il obtient une licence dans ces deux disciplines en 1936, avant de poursuivre ses études au réputé MIT (Massachusetts Institute of Technology). En 1941, il est embauché dans les laboratoires de la compagnie de téléphone AT&T Bell. Shannon travaille aux laboratoires de Bell jusqu'en 1971. la théorie de la transmission des signaux; Shannon comprend que toute donnée, même la voix ou des images, peut se transmettre à l'aide d'une suite de 0 et de 1 (les bits), ouvrant la voie aux communications numériques et non plus analogiques. Les entrées du Dicomaths correspondant à Shannon
Alan Turing Alan Turing en 1936. Alan Mathison Turing, né le 23 juin 1912 à Londres et mort le 7 juin 1954 à Wilmslow, est un mathématicien et cryptologue britannique, auteur de travaux qui fondent scientifiquement l'informatique. Il est aussi un des pionniers de l'Intelligence artificielle. Pour résoudre le problème fondamental de la décidabilité en arithmétique, il présente en 1936 une expérience de pensée que l'on nommera ensuite machine de Turing et des concepts de programme et de programmation, qui prendront tout leur sens avec la diffusion des ordinateurs, dans la seconde moitié du XXe siècle. Son modèle a contribué à établir la thèse de Church, qui définit le concept mathématique intuitif de fonction calculable. Poursuivi en justice en 1952 pour homosexualité, il choisit, pour éviter la prison, la castration chimique par prise d'œstrogènes. Ses parents l'inscrivent à l'école St. En mars 1943, Turing revient à Bletchley Park. En mai 1952, Turing écrit un programme de jeu d'échecs.
Bit Un article de Wikipédia, l'encyclopédie libre. Ne doit pas être confondu avec byte. Le bit est un chiffre binaire, c'est-à-dire 0 ou 1. Il est donc aussi une unité de mesure en informatique, celle désignant la quantité élémentaire d'information représentée par un chiffre du système binaire. On en doit l'invention à John Tukey et la popularisation à Claude Shannon[1]. Vocabulaire[modifier | modifier le code] Il ne faut pas confondre un bit avec un byte, mot anglais qui se prononce /bait/ et se traduit par multiplet[2], association d'objets semblables. Notation des valeurs[modifier | modifier le code] Technologiquement parlant, il existe une grande variété de moyen d'encodage binaire de l'information, selon le support de stockage ou de transmission utilisé : les propriétés physiques telle que la polarisation magnétique, la charge, le courant ou la tension électrique, l'intensité lumineuse, sont couramment utilisées. Abréviation et symbole[modifier | modifier le code] Portail de l’informatique
shannon - sa vie - biographie Pour numériser un signal, la fréquence d'échantillonnage (sampling rate) doit être suffisamment grande pour restituer intégralement le signal. Le théorème de Nyquist-Shannon dit que, pour respecter le signal-source, cette fréquence doit être au moins le double de celle de la plus grande fréquence rencontrée dans le signal à échantillonner. Un tel échantillonnage permet en théorie une reconstruction parfaite du signal-source Pour la musique, dont l'oreille ne perçoit pas les fréquences au-delà de 22 kHz (pour être large), une fréquence d'échantillonnage de 44 kHz est en théorie suffisante. La fréquence d'échantillonnage d'un CD audio est normalisée à 44,1 kHz. Pour le téléphone, la voix ne nécessite que 4 kHz et un échantillonnage à 8 kHz est suffisant.
Blaise Pascal Un article de Wikipédia, l'encyclopédie libre. Pour les articles homonymes, voir Pascal. Blaise Pascal Philosophe et scientifique Époque moderne À 19 ans[1], en 1642, il invente la calculatrice mécanique[2],[3] et après trois ans de développement et 50 prototypes, il la présente à ses contemporains en la dédiant au chancelier Séguier[4]. Mathématicien de premier ordre, il crée deux nouveaux champs de recherche majeurs : tout d’abord il publie un traité de géométrie projective à seize ans ; ensuite il développe en 1654 une méthode de résolution du « problème des partis » qui, donnant naissance au cours du XVIIIe siècle au calcul des probabilités, influencera fortement les théories économiques modernes et les sciences sociales. Après une expérience mystique qu'il éprouva à la suite d'un accident de carrosse en octobre 1654[6],[7], il se consacre à la réflexion philosophique et religieuse. Biographie[modifier | modifier le code] Jeunesse[modifier | modifier le code] T. Les professeurs M.
Théorie de l'information Un article de Wikipédia, l'encyclopédie libre. La théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communications publié en 1948. Parmi les branches importantes de la théorie de l'information de Shannon, on peut citer : Dans un sens plus général, une théorie de l'information est une théorie visant à quantifier et qualifier la notion de contenu en information présent dans un ensemble de données. L'information selon Shannon, un concept de la physique mathématique[modifier | modifier le code] Modèle de la communication de Shannon et Weaver Cette théorie est née de préoccupations techniques pratiques. comportant
Claude Shannon, le père du binaire Pionnier de la théorie de l’information, Claude Shannon aurait eu 100 ans cette année. Parmi les nombreux hommages émaillant cet anniversaire, un site interactif du CNRS relate son parcours. L’année 2016 marque le centenaire de la naissance de Claude Shannon, ingénieur et mathématicien américain. Atypique et méconnu du grand public, il est le premier à s’intéresser à la question de l’information et de sa transmission. Un siècle plus tard, le père du binaire est à l’honneur : dans un dossier multimédia en ligne1, le CNRS retrace le parcours de ce scientifique original à travers des photos, ses travaux, ses improbables passions et l’héritage considérable qu’il nous a légué. De la cryptographie à la théorie de l’information Pendant la Seconde Guerre mondiale, Claude Shannon est employé dans le service de cryptographie de l’armée américaine. Pour Shannon, “amour” et “haine” ne sont que deux mots de cinq lettres prises dans un alphabet qui en compte 26. Il s’est éteint en 2001.
Charles Babbage Un article de Wikipédia, l'encyclopédie libre. Charles Babbage Charles Babbage en 1860. Charles Babbage, né le et mort le à Londres, est un mathématicien, inventeur, visionnaire britannique du XIXe siècle qui fut l'un des principaux précurseurs de l'informatique. Il fut le premier à énoncer le principe d'un ordinateur. C'est entre 1847 et 1849 que Babbage entreprit d'utiliser les avancées technologiques de sa machine analytique pour concevoir les plans d'une deuxième machine à différences no 2 qui à spécifications égales demanda trois fois moins de pièces que la précédente. Biographie[modifier | modifier le code] Durant ce séjour au Trinity College, il fonde la Société Analytique en 1812 en compagnie de neuf autres mathématiciens universitaires et ainsi peut faire sa première publication en 1813. Dès l'âge de 24 ans, il est élu membre à la Société Royale de Londres et à celle d'Édimbourg, en 1820. Il eut huit enfants avec son épouse, dont seulement trois atteignirent l'âge adulte. L.F.
Information Un article de Wikipédia, l'encyclopédie libre. L'information est un concept ayant plusieurs sens. Il est étroitement lié aux notions de contrainte, communication, contrôle, donnée, formulaire, instruction, connaissance, signification, perception et représentation. Au sens étymologique, l'information est ce qui donne une forme à l'esprit[1]. Historique[modifier | modifier le code] Le projet de fonder une « science de l'information et de la documentation » spécifique s'est affirmé sous l'impulsion d'acteurs comme Pierre Larousse (1817-1875), Melvil Dewey (1851-1931), Paul Otlet (1868-1944), Jean Meyriat (1921- 2010 ). On doit aux spécialistes de cette science d'avoir posé que l'information ne circule pas (elle n'est pas un objet), mais qu'elle se redéfinit sans cesse (elle est une relation et une action). Définition[modifier | modifier le code] Sens commun[modifier | modifier le code] Information et communication : quelles différences ? Perception[modifier | modifier le code]
Quel est l’héritage de Claude Shannon ? Faire le tour à 360° et de façon ludique de toutes les questions qui se posent aujourd’hui dans nos sociétés en pleine mutation : Questions de science, de société, de technologie, de psychologie, d’écologie ou d’économie… Le monde évolue vite et nous avec, au nord comme au sud de la planète. Alors comment on s’adapte ? Pourquoi c’est comme ça ? D’où ça vient ? A quoi ça sert ? Pour répondre : chaque jour, un chercheur de tous horizons et une multiplication de points de vue différents, pour comprendre et éclairer notre présent tout en imaginant les scénarios de nos futurs. Autour de la question, une émission interactive quotidienne, présentée par : - Caroline Lachowsky les lundis, mardis et mercredis (avec la collaboration de Caroline Filliette et Apolline Verlon-Raizon à la réalisation)
Octet Un article de Wikipédia, l'encyclopédie libre. Ne doit pas être confondu avec byte. En informatique, un octet est un regroupement de 8 bits codant une information. Dans ce système de codage, s'appuyant sur le système binaire, un octet permet de représenter 28, c'est-à-dire 256, valeurs différentes. Un ou plusieurs octets permettent ainsi de coder des valeurs numériques ou des caractères. Un octet est toujours composé de 8 bits alors que le byte (prononcé [baɪt]) , qui a souvent une taille d'un octet (8 bits), peut aussi avoir une taille différente (en général entre 7 et 9 bits). Symboles[modifier | modifier le code] Multiples[modifier | modifier le code] Pourcentage de différence entre la représentation décimale et la représentation binaire. Windows Vista écrit les valeurs en Go (puissance de 10), tout en les calculant en Gio (puissance de 2), ce qui est contraire aux règles du SI. Multiples normalisés[modifier | modifier le code] et ainsi de suite. Propriétés[modifier | modifier le code]