background preloader

Histoire de l'informatique

Histoire de l'informatique
Un article de Wikipédia, l'encyclopédie libre. Introduction[modifier | modifier le code] En 1966, l’informatique a été définie par l'Académie française comme la « science du traitement rationnel, notamment par machines automatiques, de l'information considérée comme le support des connaissances humaines et des communications dans les domaines techniques, économiques et sociaux ». L’histoire de l’informatique résulte de la conjonction entre des découvertes scientifiques et des transformations techniques et sociales. Si les ordinateurs ont été conçus au départ pour exécuter des calculs numériques trop longs ou trop compliqués pour être effectués à la main, on s’est assez vite aperçu que de telles machines pouvaient également traiter des informations non numériques (par exemple, reconnaître une chaîne de caractères dans un texte). Les premiers ordinateurs datent de 1950. Selon l'architecture de von Neumann, les programmes sont enregistrés dans la mémoire de la machine. inverser (abcd) = dcba

Interprète (informatique) Un article de Wikipédia, l'encyclopédie libre. Un interpréteur se distingue d’un compilateur par le fait que, pour exécuter un programme, les opérations d’analyse et de traductions sont réalisées à chaque exécution du programme (par un interpréteur) plutôt qu’une fois pour toutes (par un compilateur). L'interprétation repose sur l'exécution dynamique du programme par un autre programme (l'interprète), plutôt que sur sa conversion en un autre langage (par exemple le langage machine) ; elle évite la séparation du temps de conversion et du temps d'exécution, qui sont simultanés. On différencie un programme dit script, d'un programme dit compilé : Un programme script est exécuté à partir du fichier source via un interpréteur de script ;Un programme compilé est exécuté à partir d'un bloc en langage machine issu de la traduction du fichier source. Le cycle d'un interprète est le suivant : En pratique, il existe une continuité entre interprètes et compilateurs.

Comment créer un moteur graphique Je n'avais pas tout lu, désolé, je vais en profiter pour te conseiller. la question de base était :"Comment fait-on un moteur graphique?" pas "est-ce qu'il existe des moteurs graphique libre?" Certes c'etait la question de base. du coup moi je suis dans la panade un peu a cause des gens comme Arnolddu81 (sans offense bien sur je ne te hais pas) qui répondent par d'autres questions. Non tu es dans la panade car tu te pose aussi surement la mauvaise question. C'est bien de vouloir conseiller des gens mais la on se fiche littéralement de savoir si il a déja eu d'autres projet ou si il savait programmer car ces informations ne changera pas la réponse alors svp quand quelqu'un pose une question répondez y ne faite pas la discussion, il existe un système de mp pour sa. Justement si. Enfin si vraiment tu veux te lancer dans un moteur 3D, il y a un tuto sur ça sur le site developpez.net et il y a quelques projets de zeros qui présentent de petits moteurs 3D. Voila, bonne continuation.

Moteur 3D Un article de Wikipédia, l'encyclopédie libre. Schéma d’un pipeline de rendu avec indication du lieu d'intervention des pixels et des vertex shaders (en rouge). Un moteur 3D est un composant logiciel qui crée des images matricielles à partir de coordonnées tridimensionnelles. La plupart du temps, le moteur 3D est indissociable du reste du moteur de jeu, comme le moteur physique ou le moteur de son par exemple. L'opération d'affichage est appelée le rendu. Méthodes de rendu[modifier | modifier le code] Il existe plusieurs procédés de rendu 3D (procédés de calculs destinés à obtenir une image matricielle en deux dimensions). La rastérisation est le procédé le plus utilisé pour les jeux vidéo. Le ray tracing permet d'obtenir une image d'une qualité supérieure à celle de la rastérisation (voir photoréalisme). L'accélération matérielle consiste à utiliser dans la mesure du possible le processeur graphique - souvent inclus dans la carte graphique - pour effectuer les calculs. Cela inclut :

Web sémantique Logo du W3C pour le Web sémantique Le Web sémantique, ou toile sémantique[1], est une extension du Web standardisée par le World Wide Web Consortium (W3C)[2]. Ces standards encouragent l'utilisation de formats de données et de protocoles d'échange normés sur le Web, en s'appuyant sur le modèle Resource Description Framework (RDF). Le web sémantique est par certains qualifié de web 3.0 . Alors que ses détracteurs ont mis en doute sa faisabilité, ses promoteurs font valoir que les applications réalisées par les chercheurs dans l'industrie, la biologie et les sciences humaines ont déjà prouvé la validité de ce nouveau concept[5]. L'article original de Tim Berners-Lee en 2001 dans le Scientific American a décrit une évolution attendue du Web existant vers un Web sémantique[6], mais cela n'a pas encore eu lieu. Histoire[modifier | modifier le code] Tim Berners-Lee à l'origine exprimait la vision du Web sémantique comme suit : — Tim Berners-Lee, Weaving the Web[13] — Weaving the Web[13]

Authentification forte Un article de Wikipédia, l'encyclopédie libre. Principe de l'authentification forte En sécurité des systèmes d'information, une authentification forte est une procédure d'identification qui requiert la concaténation d'au moins deux facteurs d'authentification. Les facteurs de l'authentification forte[modifier | modifier le code] Les systèmes d'authentification courant utilisent un seul facteur (en général un mot de passe). Ce que l'entité connaît (un mot de passe, un code NIP, une phrase secrète, etc.)Ce que l'entité détient (une carte magnétique, RFID, une clé USB, un PDA, une carte à puce, un smartphone, etc.). Dans la majorité des cas, l'entité est une personne physique - individu - personne morale, mais elle peut être un objet comme, par exemple, une application web utilisant le protocole SSL, un serveur SSH, un objet de luxe, une marchandise, un animal, etc. Représentation de l'authentification forte sous forme pyramidale. On dénombre actuellement trois familles : Liste TAN. Carte à puce.

Tor (réseau) Le projet Tor reçoit le prix du logiciel libre 2010, dans la catégorie « projet d’intérêt social »[6]. Le nom « Tor » est à l’origine un acronyme pour « The Onion Router »[7],[8], littéralement « le routeur oignon », qui s’est lexicalisé comme nom propre. Usage[modifier | modifier le code] Tor est utilisé pour se protéger contre une certaine forme de surveillance sur Internet, connue sous le nom d'analyse de trafic. Tor est aussi un outil de contournement de la censure sur Internet. Le navigateur Tor permet aussi à ses utilisateurs de pénétrer dans ce qu'on appelle parfois le Dark Web[9], dans une discrétion absolue et sans le besoin d'utiliser un VPN ou un Proxy. Histoire[modifier | modifier le code] Le principe de Tor, le « routage en oignon », est développé au milieu des années 1990 par les employés de l'United States Naval Research Laboratory, le mathématicien Paul Syverson et les informaticiens Michael G. Principe de fonctionnement[modifier | modifier le code] Tor Browser Orfox TorBirdy

4G Un article de Wikipédia, l'encyclopédie libre. En télécommunications, 4G est la 4e génération des standards pour la téléphonie mobile. Succédant à la 2G et la 3G, elle permet le « très haut débit mobile », c'est-à-dire des transmissions de données à des débits théoriques supérieurs à 100 Mb/s, voire supérieurs à 1 Gb/s (débit minimum défini par l'UIT pour les spécifications IMT-Advanced (en)). En pratique, les débits sont de l'ordre de quelques dizaines de Mb/s selon le nombre d'utilisateurs, puisque la bande passante est partagée entre les terminaux actifs des utilisateurs présents dans une même cellule radio. Une des particularités de la 4G est d'avoir un « cœur de réseau » basé sur IP et de ne plus offrir de mode commuté (établissement d'un circuit pour transmettre un appel "voix"), ce qui signifie que les communications téléphoniques utiliseront la voix sur IP (en mode paquet). Normes 4G[modifier | modifier le code] Historique de déploiement[modifier | modifier le code]

Communication en champ proche Un distributeur de billets de train en Autriche proposant la technologie NFC pour payer La communication en champ proche (CCP)[1], en anglais : Near Field Communication (NFC) est une technologie de communication sans fil à courte portée et à haute fréquence, permettant l'échange d'informations entre des périphériques jusqu'à une distance d'environ 10 cm dans le cas général[2]. Cette technologie est une extension de la norme ISO/CEI 14443 standardisant les cartes de proximité utilisant la radio-identification (RFID) qui combinent une carte à puce et un lecteur au sein d'un seul périphérique. Un périphérique CCP est capable de communiquer avec des équipements ISO/CEI 14443, avec un autre périphérique CCP ou avec certaines infrastructures sans-contact comme les composteurs des transports en commun ou les terminaux de paiement chez les commerçants. Caractéristiques principales[modifier | modifier le code] Normes liées à la CCP[modifier | modifier le code] Forum NFC[modifier | modifier le code]

Wi-Fi Un article de Wikipédia, l'encyclopédie libre. Exemple d'application du Wi-Fi: impression sans fil Le Wi-Fi[1] est un ensemble de protocoles de communication sans fil régis par les normes du groupe IEEE 802.11 (ISO/CEI 8802-11). Un réseau Wi-Fi permet de relier par ondes radio plusieurs appareils informatiques (ordinateur, routeur, smartphone, décodeur Internet, etc.) au sein d'un réseau informatique afin de permettre la transmission de données entre eux. Grâce aux normes Wi-Fi, il est possible de créer des réseaux locaux sans fil à haut débit. En pratique, le Wi-Fi permet de relier des ordinateurs portables, des machines de bureau, des assistants personnels (PDA), des objets communicants ou même des périphériques à une liaison haut débit : de 11 Mbit/s[1] théoriques ou 6 Mbit/s réels en 802.11b, à 54 Mbit/s théoriques ou environ 25 Mbit/s réels en 802.11a ou 802.11g, 600 Mbit/s théoriques pour le 802.11n[2],[3], et 1,3 Gbit/s[4] théoriques pour le 802.11ac normalisé depuis décembre 2013.

Bluetooth Un article de Wikipédia, l'encyclopédie libre. Les premiers appareils utilisant la version 4.0 de cette norme sont apparus début 2010. Origine du nom[modifier | modifier le code] Le nom « Bluetooth » est directement inspiré du surnom anglicisé du roi danois Harald à la dent bleue (en danois Harald Blåtand, en anglais Harald Bluetooth), connu pour avoir réussi à unifier les tribus danoises au sein d'un même royaume, introduisant du même coup le christianisme. L'idée de ce nom a été proposée en 1996 par Jim Kardach d'Intel, un ingénieur travaillant alors sur le développement d'un système qui allait permettre aux téléphones cellulaires de communiquer avec des ordinateurs. Au temps où Kardach fit cette proposition, un homologue d'Ericsson lui avait parlé de ce souverain après avoir lu le roman historique Orm le Rouge de Frans Gunnar Bengtsson, se déroulant dans le monde viking sous son règne[1]. (Hagall) (ᚼ) et (Bjarkan) (ᛒ). Historique[modifier | modifier le code] Ils définissent :

Related: