background preloader

Pair à pair

Pair à pair
Un article de Wikipédia, l'encyclopédie libre. Le pair à pair peut être centralisé (les connexions passant par un serveur central intermédiaire) ou décentralisé (les connexions se faisant directement). Il peut servir au partage de fichiers en pair à pair, au calcul distribué ou à la communication. Principe général[modifier | modifier le code] Le pair-à-pair a permis une décentralisation des systèmes, auparavant basés sur quelques serveurs exposés à la censure et à l'enregistrement en masse de données privées : il permet à tous les ordinateurs de jouer directement le rôle de client et serveur (voir client-serveur). En particulier, les systèmes de partage de fichiers permettent de rendre les objets d'autant plus disponibles qu'ils sont populaires, et donc répliqués sur un grand nombre de nœuds. L'utilisation d'un système pair-à-pair nécessite pour chaque nœud l'utilisation d'un logiciel particulier. Le modèle pair-à-pair va bien plus loin que les applications de partage de fichiers.

Architecture distribuée Un article de Wikipédia, l'encyclopédie libre. Internet est un exemple de réseau distribué puisqu'il ne possède aucun nœud central. Les architectures distribuées reposent sur la possibilité d'utiliser des objets qui s'exécutent sur des machines réparties sur le réseau et communiquent par messages au travers du réseau. Les soubassements technologiques de l'informatique distribuée[modifier | modifier le code] Au début de l'informatique, le dialogue entre machines nécessitait une connaissance approfondie des protocoles réseau et parfois même du matériel réseau. Les avantages de l'informatique distribuée[modifier | modifier le code] L'augmentation des ressources[modifier | modifier le code] Le seul fait de distribuer les traitements sur les ordinateurs d'un réseau augmente les ressources disponibles. La répartition des données et des services[modifier | modifier le code] Le peer-to-peer (ou poste à poste)[modifier | modifier le code] Pages connexes[modifier | modifier le code]

Internet Protocol Un article de Wikipédia, l'encyclopédie libre. Pour les articles homonymes, voir IP. Internet Protocol (abrégé en IP) est une famille de protocoles de communication de réseau informatique conçus pour être utilisés par Internet. Les protocoles IP sont au niveau 3 dans le modèle OSI. Fonctionnement[modifier | modifier le code] Lorsque deux terminaux communiquent entre eux via ce protocole, aucun chemin pour le transfert des données n'est établi à l'avance : il est dit que le protocole est « non orienté connexion ». Services délivrés[modifier | modifier le code] Les protocoles IP assurent l'acheminement au mieux (best-effort delivery) des paquets. Fiabilité[modifier | modifier le code] corruption de données ;ordre d'arrivée des paquets (un paquet A peut être envoyé avant un paquet B, mais le paquet B peut arriver avant le paquet A) ;perte ou destruction de paquet ;duplication des paquets. Les garanties qu'un protocole IP n'offre pas sont déléguées aux protocoles de niveau supérieur.

Et si mon ordinateur aidait la recherche scientifique ? Un personnage Lego devant un ordinateur (kennymatic/Flickr/CC). Près des trois-quarts des capacités de calcul des 800 millions d’ordinateurs mondiaux seraient inutilisées. Parallèlement, la recherche médicale, climatologique et mathématique est de plus en plus gourmande en calculs. Les supercalculateurs nécessaires à ces travaux coûtent plusieurs millions d’euros. Une somme inaccessible pour la plupart des laboratoires. L’idée Grâce à Internet, plusieurs millions d’ordinateurs peuvent travailler simultanément sur le même programme de recherche avec un coût réduit par unité. Réservé à des machines modernes mais pas surpuissantes, le calcul partagé est accessible à toute personne disposant d’Internet. Le site World Community Grid propose d’aider simultanément plusieurs programmes de recherche. Comment la mettre en pratique ? En 1999, l’université de Berkeley (Californie) lance le premier programme de calcul distribué ouvert à tous les internautes. Ce qu’il reste à faire

World Wide Web Le World Wide Web (/ˌwɜːld waɪd ˈweb/[a]), abrégé en WWW, W3, le Web, la toile mondiale ou simplement la toile[1], est un système hypertexte public fonctionnant sur Internet. Le Web permet de consulter, à l'aide d'un navigateur, des pages regroupées en sites. Web signifie littéralement « toile (d’araignée) », image représentant les hyperliens qui lient les pages web entre elles[b]. Le Web est une des applications d’Internet[2], qui est distincte d’autres applications comme le courrier électronique, la visioconférence et le partage de fichiers en pair à pair. Le World Wide Web est désigné par de nombreux noms et abréviations synonymes : WorldWideWeb, World Wide Web, World-wide Web, Web, WWW, W3, Toile d’araignée mondiale, Toile mondiale, Toile. En inventant le Web, Tim Berners-Lee avait aussi pensé à d’autres noms, comme Information Mesh (maillage d’informations), Mine of Information ou encore The Information Mine (la mine d’informations, dont le sigle serait Tim).

The DIMES project | Join the journey to map the Internet, download the DIMES agent today Hypertext Transfer Protocol Un article de Wikipédia, l'encyclopédie libre. L'HyperText Transfer Protocol, plus connu sous l'abréviation HTTP — littéralement « protocole de transfert hypertexte » — est un protocole de communication client-serveur développé pour le World Wide Web. HTTPS (avec S pour secured, soit « sécurisé ») est la variante du HTTP sécurisée par l'usage des protocoles SSL ou TLS. Les clients HTTP les plus connus sont les navigateurs Web permettant à un utilisateur d'accéder à un serveur contenant les données. Il existe aussi des systèmes pour récupérer automatiquement le contenu d'un site tel que les aspirateurs de site Web ou les robots d'indexation. Ces clients se connectent à des serveurs HTTP tels qu'Apache HTTP Server ou Internet Information Services. Historique[modifier | modifier le code] HTTP a été inventé par Tim Berners-Lee avec les adresses Web et le langage HTML pour créer le World Wide Web. En , HTTP/1.0 voit le jour et est décrit dans la RFC 1945. Méthodes[modifier | modifier le code]

Zooniverse (citizen science project) Zooniverse is a citizen science web portal owned and operated by the Citizen Science Alliance. The organization grew from the original Galaxy Zoo project and now hosts dozens of projects which allow volunteers to participate in scientific research. Unlike many early internet-based citizen science projects (such as SETI@home) which used spare computer processing power to analyse data, known as volunteer computing, Zooniverse projects require the active participation of human volunteers to complete research tasks. Projects have been drawn from disciplines including astronomy, ecology, cell biology, humanities, and climate science.[3] Active projects currently include: According to the Zooniverse site, these projects are now retired:

Cookie (informatique) Un article de Wikipédia, l'encyclopédie libre. Pour les articles homonymes, voir Cookie. En informatique, un cookie (ou témoin de connexion, abrégé en témoin au Québec[1]) est défini par le protocole de communication HTTP comme étant une suite d'informations envoyée par un serveur HTTP à un client HTTP, que ce dernier retourne lors de chaque interrogation du même serveur HTTP sous certaines conditions. Le terme cookie dérive du terme anglais magic cookie, qui est un paquet de données qu'un programme reçoit et renvoie inchangé. John Giannandrea et Lou Montulli ont écrit la même année la première spécification des cookies de Netscape. Après avoir été implémentés dans Netscape 0.9 beta en 1994, les cookies ont été intégrés dans Internet Explorer 2, publié en octobre 1995. L'introduction des cookies n'a pas été largement connue du public pour autant. Le développement de la spécification officielle des cookies était déjà en cours.

Distributed computing "Distributed Information Processing" redirects here. For the computer company, see DIP Research. Distributed computing is a field of computer science that studies distributed systems. A distributed system is a software system in which components located on networked computers communicate and coordinate their actions by passing messages.[1] The components interact with each other in order to achieve a common goal. Three significant characteristics of distributed systems are: concurrency of components, lack of a global clock, and independent failure of components.[1] Examples of distributed systems vary from SOA-based systems to massively multiplayer online games to peer-to-peer applications. A computer program that runs in a distributed system is called a distributed program, and distributed programming is the process of writing such programs.[2] There are many alternatives for the message passing mechanism, including RPC-like connectors and message queues. Introduction[edit] History[edit]

YaCy : un moteur de recherche peer to peer sous licence libre pour remplacer Google Cet article a été publié il y a 3 ans 11 mois 4 jours, il est donc possible qu’il ne soit plus à jour. Les informations proposées sont donc peut-être expirées. C’est ma découverte du jour que je dois à Twitter et plus particulièrement à @glenux. Ce qui me permet au passage de me dire que je devrais peut-être tenter l’expérience de ne plus lire mes centaines de flux RSS et de ne faire que suivre les liens poussés par les personnes que je suis sur identi.ca et twitter. En effet de YaCy, je n’avais encore jamais entendu parler bien qu’il existe depuis 2006. A la lecture de la présentation de YaCy, il y a de quoi être emballé. Ensuite, ce sont les caractéristiques techniques qui m’emballent : Une instance de YaCy peut stocker plus de 20 millions de documents.Partage d’index en peer to peer : YaCy implémente un système de partage d’index s’apparentant à un mécanisme de peer to peer (P2P). Mais d’un point de vue pratique, cela donne quoi ?

Folding@home Distributed computing project simulating protein folding Folding@home (FAH or F@h) is a distributed computing project aimed to help scientists develop new therapeutics for a variety of diseases by the means of simulating protein dynamics. This includes the process of protein folding and the movements of proteins, and is reliant on simulations run on volunteers' personal computers.[5] Folding@home is currently based at the University of Pennsylvania and led by Greg Bowman, a former student of Vijay Pande.[6] The project utilizes graphics processing units (GPUs), central processing units (CPUs), and ARM processors like those on the Raspberry Pi for distributed computing and scientific research. Folding@home is one of the world's fastest computing systems. Background[edit] Examples of application in biomedical research[edit] Alzheimer's disease[edit] Alzheimer's disease is linked to the aggregation of amyloid beta protein fragments in the brain (right). Huntington's disease[edit] Cancer[edit]

GPUGRID.net GPUGRID is a distributed computing project hosted by Pompeu Fabra University and running on the Berkeley Open Infrastructure for Network Computing (BOINC) software platform. It performs full-atom molecular biology simulations that are designed to run on Nvidia's CUDA-compatible graphics processing units. Former support for PS3s[edit] See also[edit] List of distributed computing projects References[edit] Further reading[edit] External links[edit]

Le portail de l'Alliance Francophone - Accueil

ok fzs600, je l'ai mis dans le pearltree bittorrent, ici c'est le cacul distribué... by noosquest Jul 22

Related: