http://www.visualisingdata.com/
Related: Data Viz • work and businessReprésentation graphique de données statistiques - Wikipédia Un article de Wikipédia, l'encyclopédie libre. Carte figurative des pertes successives en hommes de l'armée française dans la campagne de Russie 1812-1813 par Minard Histoire[modifier | modifier le code] C'est à la fin du XVIIIe siècle, avec la publication en 1986 par William Playfair (1759-1823) d'un ouvrage intitulé The Commercial and Political Atlas, dans lequel l'auteur trace une série de graphiques de séries temporelles représentant l'évolution de données économiques concernant l'Angleterre et notamment l'évolution de sa balance commerciale au cours du XVIIIe siècle, que naît la représentation graphique moderne des données.
tudes L’EBG lance en partenariat avec SAS son premier livre blanc sur la Data Visualization Nous avons interrogé plus de 30 sociétés sur leurs projets de Data Visualization* , en leur demandant quels en étaient les enjeux, pour quels utilisateurs, avec quels résultats. Ces retours d’expérience détaillés et concrets permettent de se faire une idée plus claire des enjeux liés à ce domaine en plein essor. Entreprises participantes (liste non exhaustive) :
Outils et ressources cartographiques Retour à la page d'accueil de la veille Logiciels de cartographie Outils de création cartographique en ligne Ressources cartographiques Cartes et atlas thématiques Visualisation de données maison, nos outils préférés Visualisation de données maison, nos outils préférés Les warlogs de Wikileaks (_The Guardian_) Quels sont les outils de visualisation disponibles sur le Net qui sont faciles à utiliser – et gratuits ? Sur le Datablog et le Datastore, nous nous efforçons d’utiliser autant que possible les puissantes options gratuites qu’offre l’Internet.
Big Data : premiers pas avec MapReduce, brique centrale d'Hadoop Le modèle MapReduce est conçu pour lire, traiter et écrire des volumes massifs de données. Des bonnes feuilles issues de l'ouvrage Big Data chez Eni. MapReduce est un modèle de programmation conçu spécifiquement pour lire, traiter et écrire des volumes de données très importants. Big Data : comparatif des technos, actualités, conseils... Pour faire face à l'explosion du volume des données, un nouveau domaine technologique a vu le jour : le Big Data. Inventées par les géants du web, ces solutions sont dessinées pour offrir un accès en temps réel à des bases de données géantes. Comment définir le Big Data, et quelle est sa promesse ? Face à l'explosion du volume d'informations, le Big Data vise à proposer une alternative aux solutions traditionnelles de bases de données et d'analyse (serveur SQL, plateforme de Business Intelligence...). Confrontés très tôt à des problématiques de très gros volumes, les géants du web, au premier rang desquels Yahoo (mais aussi Google et Facebook), ont été les premiers à déployer ce type de technologies. Quelles sont les principales technologies de Big Data ?
MapReduce Les termes « map » et « reduce », et les concepts sous-jacents, sont empruntés aux langages de programmation fonctionnelle utilisés pour leur construction (map et réduction de la programmation fonctionnelle et des langages de programmation tableau). MapReduce permet de manipuler de grandes quantités de données en les distribuant dans un cluster de machines pour être traitées. Ce modèle connaît un vif succès auprès de sociétés possédant d'importants centres de traitement de données telles Amazon.com ou Facebook. Il commence aussi à être utilisé au sein du Cloud computing. De nombreux frameworks ont vu le jour afin d'implémenter le MapReduce. Le plus connu est Hadoop qui a été développé par Apache Software Foundation.
Votre première installation Hadoop Cet article est pensé pour vous aider à affronter le baptême du feu : l’installation de la plate-forme. Quelle distribution choisir ? La première question à se poser lorsque l’on choisit sa distribution Hadoop est celle du support. En effet, sur la version packagée par Apache, il est difficile de se procurer un support efficace et digne de ce nom. Les principaux contributeurs au projet Hadoop sont tous salariés d’entreprises offrant un support commercial, mais uniquement sur leur propre distribution. Les trois principaux acteurs de ce marché sont :
Watch_Dogs WeAreData Dans Watch_Dogs, la ville de Chicago est gérée par le ctOS, un système de contrôle informatisé hautement perfectionné. Ce réseau utilise les données qui lui sont transmises pour contrôler l’ensemble des infrastructures urbaines et résoudre les problèmes complexes liés à la circulation routière, la lutte contre la délinquance, la gestion de l’électricité, etc. Mais aujourd’hui, cette situation n’a plus rien de fictif : les villes « intelligentes » sont une réalité. Chaque jour, une quantité incalculable de données sont recueillies et traitées avant d’être rendues publiques et accessibles à tous. Watch_Dogs WeareData est le premier site Internet à rassembler en un même endroit les données publiques de Paris, Londres et Berlin.
Khartis - cartographie thématique Le contenu de ce site internet est fourni par : Sciences Po 27 rue Saint-Guillaume 75337 Paris Cedex 07 Tel. : 01 45 49 50 50 Fax. : 01 42 22 31 26 webmestre@sciencespo.fr Directeur de la publication : Lancement de Vizia 2 : de la data visualisation au data storytelling pour donner un sens aux données. Par Brandwatch Pour aller plus loin ... Les marketeurs, analystes, professionnels de la communication et dirigeants d'entreprise sont confrontés au problème de la diffusion des insights récoltés grâce au big data. L'enjeu est de la rendre intelligible et claire pour que l'ensemble des acteurs de l'entreprise puissent prendre des décisions stratégiques data-driven en temps réel. Les réseaux de neurones expliqués à ma fille - OD-Datamining Le but de cette annexe n’est pas d’expliquer en détail toute la théorie et la pratique des réseaux de neurones, mais seulement d’en définir les principaux termes : • Neurone • Poids synaptiques • Apprentissage • Réseau de neurones • Couche cachée • Linéarité • Données d’apprentissage et de validation Principe du neurone artificiel Le neurone artificiel (neurone informatique) est un petit modèle statistique à lui tout seul. Il doit accomplir deux tâches : 1) la synthèse des informations qui lui sont fournies et 2) la transformation (souvent non linéaire) de cette information en quelque chose de nouveau.