background preloader

Machine de Turing

Machine de Turing
Un article de Wikipédia, l'encyclopédie libre. Pour les articles homonymes, voir Turing. Vue d’artiste d’une Machine de Turing (sans la table de transition). Une machine de Turing est un modèle abstrait du fonctionnement des appareils mécaniques de calcul, tel un ordinateur et sa mémoire. La thèse de Church postule que tout problème de calcul fondé sur une procédure algorithmique peut être résolu par une machine de Turing. À l'origine, le concept de machine de Turing, inventé avant l'ordinateur, était censé représenter une personne virtuelle exécutant une procédure bien définie, en changeant le contenu des cases d'un tableau infini, en choisissant ce contenu parmi un ensemble fini de symboles. Définition[modifier | modifier le code] Quoique son nom de « machine » puisse conduire à croire le contraire[1], une machine de Turing est un concept abstrait, c'est-à-dire un objet mathématique. Une machine de Turing comporte les éléments suivants : un ruban divisé en cases consécutives. où (fr) O.

Récursivement énumérable Un article de Wikipédia, l'encyclopédie libre. Les ensembles récursifs, on dit aussi décidables, sont tous récursivement énumérables mais la réciproque est fausse, comme le montre l'indécidabilité du problème de l'arrêt, ou celle du problème de la décision. On montre que les ensembles récursivement énumérables d'entiers sont exactement les projetés des ensembles récursifs de couples d'entiers. En arithmétique, on montre que les ensembles récursivement énumérables sont les ensembles définissables par divers types de formules n'utilisant essentiellement que des quantificateurs existentiels en tête, l'exemple le plus fin de ce genre de résultat étant la caractérisation de ces ensembles comme ensembles diophantiens, caractérisation qui conduit directement au théorème de Matiiassevitch. La définition de Turing de l'énumérabilité[modifier | modifier le code] On se gardera de confondre les ensembles récursivement énumérables avec les ensembles dénombrables. Exemples[modifier | modifier le code]

Jack Tramiel Un article de Wikipédia, l'encyclopédie libre. Jack Tramiel Jack Tramiel en 2007. D'Auschwitz à New York[modifier | modifier le code] Né en Pologne en 1928 dans une famille juive[2], Idek Tramielski est déporté avec ses parents dans le ghetto de Łódź avant d'être transféré au camp de concentration d'Auschwitz puis dans le camp de travail de Ahlem-Hanovre où son père trouve la mort. Il est libéré par l'armée américaine en avril 1945[3]. En novembre 1947, il émigre aux États-Unis, s'engage dans l'armée et adopte le nom de Jack Tramiel[4]. Pendant les années 1960, la concurrence japonaise amène Tramiel à chercher de nouvelles activités pour sa société. Commodore, les calculatrices et les ordinateurs[modifier | modifier le code] Commodore64 En 1970, il commence à orienter sa société vers la production de calculatrices électroniques en s'approvisionnant en composants auprès de Texas Instruments. L'aventure Atari[modifier | modifier le code] Atari 130xe Bibliographie[modifier | modifier le code]

Algorithme d'Euclide Un article de Wikipédia, l'encyclopédie libre. L'algorithme d'Euclide est un algorithme permettant de déterminer le plus grand commun diviseur (P.G.C.D.) de deux entiers dont on ne connaît pas la factorisation. Il est déjà décrit dans le livre VII des Éléments d'Euclide. Description[modifier | modifier le code] Explications géométriques[modifier | modifier le code] Dans la tradition grecque, en comprenant un nombre entier comme une longueur, un couple d'entiers comme un rectangle, leur PGCD est la longueur du côté du plus grand carré permettant de carreler entièrement ce rectangle. Dans le rectangle de dimensions L=21 par l=15 ci-dessous, par exemple, on peut glisser un carré de côté 15 mais il reste un rectangle de côtés 15 et 6, dans lequel on peut glisser deux carrés de côté 6 mais il reste un rectangle de côtés 6 et 3 que l'on peut carreler entièrement de carrés de côté 3. Explications arithmétiques[modifier | modifier le code] Généralisation[modifier | modifier le code] tel que tel que :

David Packard Un article de Wikipédia, l'encyclopédie libre. Pour les articles homonymes, voir Packard. Biographie[modifier | modifier le code] Jeunesse et études[modifier | modifier le code] En 1938, il part de New York pour revenir à Stanford, où il rencontre William Hewlett et Lucille sa future épouse. Il obtient le diplôme d'ingénieur en électricité[2]. Carrière chez Hewlett-Packard[modifier | modifier le code] En 1939 il crée avec William Hewlett leur société dans le garage de Packard[2] avec un capital de 538 $. Packard a occupé les postes de : Carrière politique[modifier | modifier le code] En 1969, le président Richard Nixon nomme Packard comme adjoint au secrétaire à la défense Melvin Laird. Pendant les années 1980, Packard est conseiller de la Maison blanche pour le matériel et la gestion de la défense. Fondation Lucile et David Packard[modifier | modifier le code] Ouvrages[modifier | modifier le code] Notes et références[modifier | modifier le code] Voir aussi[modifier | modifier le code]

Système dynamique Un article de Wikipédia, l'encyclopédie libre. En mathématiques, en physique théorique et en ingénierie, un système dynamique est un système classique[1] qui évolue au cours du temps de façon à la fois : On exclut donc ici conventionnellement les systèmes « bruités » intrinsèquement stochastiques, qui relèvent de la théorie des probabilités. L'évolution déterministe du système dynamique peut alors se modéliser de deux façons distinctes : une évolution continue dans le temps, représentée par une équation différentielle ordinaire. Système dynamique à temps discret[modifier | modifier le code] Notion d'état dynamique : aspect philosophique[modifier | modifier le code] Il faut faire attention au sens très particulier que prend la notion d’état pour la théorie des systèmes dynamiques. La notion d’état dynamique fournit une solution au paradoxe de Zénon : à un instant, la flèche est en mouvement, elle a une position mais elle est en train de changer de position, elle a une vitesse instantanée. et

Alan Turing Alan Turing en 1936. Alan Mathison Turing, né le 23 juin 1912 à Londres et mort le 7 juin 1954 à Wilmslow, est un mathématicien et cryptologue britannique, auteur de travaux qui fondent scientifiquement l'informatique. Il est aussi un des pionniers de l'Intelligence artificielle. Pour résoudre le problème fondamental de la décidabilité en arithmétique, il présente en 1936 une expérience de pensée que l'on nommera ensuite machine de Turing et des concepts de programme et de programmation, qui prendront tout leur sens avec la diffusion des ordinateurs, dans la seconde moitié du XXe siècle. Poursuivi en justice en 1952 pour homosexualité, il choisit, pour éviter la prison, la castration chimique par prise d'œstrogènes. Ses parents l'inscrivent à l'école St. À la Sherborne School, Turing se lie en 1927 d'une grande amitié avec son camarade Christopher Morcom, passionné de sciences et de mathématiques comme lui qui a été décrit comme le « premier amour » de Turing. Le procès est médiatisé.

Théorie du chaos Un article de Wikipédia, l'encyclopédie libre. Pour les articles homonymes, voir Chaos. La théorie du chaos traite des systèmes dynamiques rigoureusement déterministes, mais qui présentent un phénomène fondamental d'instabilité appelé « sensibilité aux conditions initiales » qui, modulo une propriété supplémentaire de récurrence, les rend non prédictibles en pratique à « long » terme. Introduction[modifier | modifier le code] Définition heuristique d'un système chaotique[modifier | modifier le code] Un système dynamique est dit chaotique si une portion « significative » de son espace des phases présente simultanément les deux caractéristiques suivantes : La présence de ces deux propriétés entraîne un comportement extrêmement désordonné qualifié à juste titre de « chaotique ». Qu'est-ce que la « théorie du chaos » ? La théorie du chaos est-elle née dans les années 1970 ? Attracteur étrange de Lorenz (1963) La réponse à cette question est : oui et non. un et un seul état final . . , où Observation :

Dennis Ritchie Un article de Wikipédia, l'encyclopédie libre. Pour les articles homonymes, voir Ritchie. Au début des années 1970, programmeur aux Laboratoires Bell, il travaille avec Ken Thompson au développement d'Unix. Il reçoit conjointement avec Ken Thompson le prix Turing de l'ACM en 1983 pour leur travail sur le système Unix. Biographie[modifier | modifier le code] Né à Bronxville, État de New York, Dennis Ritchie étudie la physique ainsi que les mathématiques appliquées à Harvard, y obtenant un doctorat. C et Unix[modifier | modifier le code] Son invention du langage C et sa participation au développement d'Unix au côté de Ken Thompson ont fait de lui un pionnier de l'informatique moderne. Il est corécipiendaire avec Ken Thompson du Japan Prize de 2011[10]. Publications[modifier | modifier le code] (en) Brian Wilson Kernighan et Dennis MacAlistair Ritchie, The C Programming Language, New Jersey, États-Unis, Prentice Hall,‎ 1988 (1re éd. 1978, 228 p.), 274 p. Honneurs[modifier | modifier le code]

Introduction Fun, fashion & science in the Internet's #1 website about shoelaces. Whether you want to learn to lace shoes, tie shoelaces, stop shoelaces from coming undone, calculate shoelace lengths or even repair aglets, Ian's Shoelace Site has the answer! You can find out more about this site, or you can dive right in below. Table of Contents Lacing Shoes Are all of your shoes, sneakers and boots still laced up the way they were when you bought them? Tying Shoelaces Most people learn how to tie their shoelaces around the age of five. The "Granny Knot" Do your shoelace bows sit vertically instead of across the shoe? Shoelace Lengths The rhetorical question: "How long is a piece of string?" Tips of Shoelaces = Aglets Many people search for shoelace "tips" or "ends" because they want to know the name of the plastic or metal bits at the ends of shoelaces. Shoelace Tips, Hints & Ideas This section contains all sorts of tips, hints and ideas about shoelaces. Shoelace Marketplace Shoelaces As Seen In...

Ken Thompson Un article de Wikipédia, l'encyclopédie libre. Pour les articles homonymes, voir Thompson. Biographie[modifier | modifier le code] Il participe à de nombreuses évolutions du système Unix : portage sur PDP-11, réécriture en langage C, et introduction des pipes. En 1979, AT&T publie dbm, un moteur de base de données qu'il a initié. Il a pris sa retraite des Bell Labs en 2000. Il est corécipiendaire avec Dennis Ritchie du prix japonais de 2011[1]. De par ses contributions, Ken Thompson est considéré par certains comme un demi-dieu ou übergeek[2]. Récompenses[modifier | modifier le code] Notes et références[modifier | modifier le code] Liens externes[modifier | modifier le code] (en) Publications de Ken Thompson sur DBLP(en) Publications de Ken Thompson sur ScientificCommons(en) Dennis Ritchie, « Ken, Unix and Games », ICGA Journal, vol. 24, no 2,‎ juin 2001 (lire en ligne)

Comment les jeunes vivent-ils et apprennent-ils avec les nouveaux médias Par Hubert Guillaud le 01/12/08 | 25 commentaires | 24,649 lectures | Impression La Fondation Mac Arthur vient de livrer les résultats d’une imposante étude qualitative sur la pratique des nouveaux médias par les jeunes. Ce projet de recherche sur la jeunesse numérique a rassemblé sur 3 ans plus de 28 chercheurs et s’est intéressé aux pratiques de plus de 800 jeunes. Selon les conclusions de l’étude Vivre et apprendre avec les nouveaux médias, le temps que les adolescents et les jeunes adultes passent en ligne, sur MySpace ou sur leur messagerie instantanée, n’est pas une perte de temps, mais leur permet de grandir, de mûrir. “En passant du temps en ligne, les jeunes acquièrent des savoir-faire sociaux et techniques qui leur sont nécessaires pour participer à la société contemporaine”, explique au New York Times la sociologue Mizuko Ito qui a dirigé l’étude (blog). Typologie des pratiques des jeunes Les jeunes sont-ils vraiment des “digital natives” ?

B (langage) Un article de Wikipédia, l'encyclopédie libre. Ne doit pas être confondu avec le langage formel B utilisé dans la Méthode B Le langage de programmation B est un langage depuis longtemps obsolète qui a représenté la transition entre BCPL et le langage C. C'est principalement l'œuvre de Ken Thompson et il apparut pour la première fois en 1969 environ. C'était en fait le BCPL privé de tout ce que Thompson pensait ne pas être essentiel, afin de pouvoir être utilisé sur de petits ordinateurs et avec quelques changements pour correspondre aux goûts de Thompson (principalement réduire le nombre de caractères dans un programme). Les premières implémentations étaient pour les mini-ordinateurs de DEC, PDP-7 et PDP-11 et ont été développées en même temps que UNIX. D'après Ken Thompson, le B a été grandement influencé par BCPL, mais le nom B lui-même n'a rien à voir : c'était en fait une évolution d'un ancien langage, Bon, du nom de l'épouse de Ken Thompson, prénommée Bonnie.

Related: