background preloader

La mine d'or du Big Data

La mine d'or du Big Data
LE MONDE ECONOMIE | • Mis à jour le | Par Julie Battilana, professeure associée à la Harvard Business School L'explosion du volume des données informatiques, du fait du développement de l'Internet et des nouvelles technologies de l'information, a ouvert de nouveaux horizons aux entreprises. Certaines utilisent déjà une partie de ces données pour prédire le comportement des consommateurs et améliorer leur offre de produits et services. C'est le cas, par exemple, de Google, Facebook, Amazon, Microsoft, Walmart et LinkedIn, qui ont investi dans l'analyse de données informatiques ces dernières années. C'est donc un véritable marché, désigné par le vocable anglo-saxon "Big Data", qui a émergé autour de l'exploitation de la masse de données informatiques disponibles. Cette approche leur permet d'augmenter leur chiffre d'affaires en ajustant leur offre aux attentes de leurs clients potentiels, et de réduire leurs coûts.

Vertigineux "big data" Chaque seconde, la masse de données créées sur Internet par les smartphones, ordinateurs et tablettes explose. Appelé "big data" par les experts du Web, cet amas colossal est un marché prodigieux. LE MONDE | • Mis à jour le | Par Sarah Belouezzane et Cécile Ducourtieux Photos, vidéos, sons, chiffres, textes... Tous les jours, ce sont 118 milliards de mails qui sont envoyés à travers le monde, 2,45 milliards de contenus différents qui sont postés sur Facebook. Les humains ne sont pas les seuls responsables de ce déluge d'informations. "Cela fait quelque temps déjà que le nombre de données produites et stockées est important, note Patrice Poiraud, directeur business et analyse chez IBM. Ces données, de plus en plus d'entreprises cherchent à les exploiter. Du coup, des éditeurs de logiciels informatiques ont mis au point des techniques empruntées au calcul scientifique pour "mouliner toutes ces données" de manière exhaustive.

Pour de nouveaux principes de confidentialité des données A l'heure des Big Data, la protection et la confidentialité des données sur Internet fait plus que jamais l'objet de nombreux débats. En quête de nouveaux principes, les spécialistes veulent sensibiliser les individus et responsabiliser les organisations. Dans leur rapport publié ce mardi, Peter Cullen, chef de la stratégie de la confidentialité chez Microsoft, Fred Cate, professeur à l'université de l'Indiana, et Viktor Mayer-Schönberger, professeur à l'Oxford Internet Institute se sont penchés sur la question afin de définir de nouveaux principes de confidentialité des données. > De la responsabilité des individus à celle des organisations Selon les auteurs du rapport, les nouvelles approches de la confidentialité sur Internet s'accordent sur la nécessité de déplacer la responsabilité des individus concernant leurs données vers les organisations qui les utilisent. > Définir l'utilisation des données > Pour une définition collaborative des principes de confidentialité

Big data Un article de Wikipédia, l'encyclopédie libre. Une visualisation des données créée par IBM[1] montre que les big data que Wikipedia modifie à l'aide du robot Pearle ont plus de signification lorsqu'elles sont mises en valeur par des couleurs et des localisations[2]. Croissance et Numérisation de la Capacité de Stockage Mondiale de L'information[3]. Dans ces nouveaux ordres de grandeur, la capture, le stockage, la recherche, le partage, l'analyse et la visualisation des données doivent être redéfinis. Certains supposent qu'ils pourraient aider les entreprises à réduire les risques et faciliter la prise de décision, ou créer la différence grâce à l'analyse prédictive et une « expérience client » plus personnalisée et contextualisée. Dimensions des big data[modifier | modifier le code] Le Big Data s'accompagne du développement d'applications à visée analytique, qui traitent les données pour en tirer du sens[15]. Volume[modifier | modifier le code] Variété[modifier | modifier le code]

Big Data, grande illusion La cause serait entendue : après le cloud computing et l'internet des objets, les "big data" constitueraient la prochaine "révolution" apportée par le numérique. Alan Mitchell, cofondateur et directeur de la stratégie du cabinet britannique Ctrl-Shift, n'est pas d'accord. Pour lui, les Big Data auraient presque un côté contre-révolutionnaire : le chant du cygne d'une informatique productiviste, centralisatrice, centrée sur les grandes organisations. "Les Big Data se fondent entièrement sur la statistique : dégager des schémas et des tendances à partir de grandes collections de données. Image : Couverture du rapport de Ctrl-Shift sur le nouveau paysage des données personnelles. Mitchell ne conteste pas l'utilité des Big Data, il en conteste la nouveauté et le degré de priorité dans les agendas de recherche et d'investissement. Et pourquoi pas ? Prenons l'exemple de quelqu'un qui cherche à changer de voiture. Alan Mitchell n'a pas entièrement raison.

Pour mieux comprendre le Big Data The concept of Big Data is seen as one of the key technology issues of the decade – so what exactly is it for? Zettabytes (1021) of data – millions billions of bytes of information First coined in the early Noughties and identified by analysts as a major technology trend since 2010, the term Big Data refers to huge volumes of digital data, and the storing and analysis thereof. For example, according to French financial daily Les Echos, aeroplane sensors generate 1 petabyte (1015) of data for a flight between Spain and Saudi Arabia: the equivalent capacity of 20,000 50 GB PCs. In 2008, Google was already producing 20 petabytes a day. By users of connected devices (on PCs, tablets, smartphones, TVs), via written messages, videos, sound, and photosBy smart objects (GPS, sensors, RFID chips, QR codes, etc.)In real timeIn a variety of forms Hence the 3 Vs of volume, velocity and variety which are commonly used to characterise different aspects of big data. What is Big Data used for?

Big Data : la nécessité d’un débat Nous voici entré dans l'ère des Big Data des ensembles de données tellement gigantesques qu'ils nécessitent de nouveaux outils techniques et scientifiques pour les comprendre et en tirer du sens. Un déluge de données qui pose des questions profondes sur leur collecte, leur interprétation, leur analyse... Dans ce siècle des réseaux, la science des algorithmes, censée extraire le sens de ces amas d'information doit apprendre à comprendre ce qu'elle analyse. L'enjeu des Big Data nous adresse des questions scientifiques, mais aussi politiques et éthiques. Les Big Data, c'est le dossier de la semaine d'InternetActu. 6 provocations à propos des Big Data Traduction : Pierre Grosdemouge (@cultord) & Fred Pailler (@Sociographie) à l’initiative de Laurence Allard. L'article original à été présenté lors du Symposium sur les dynamiques de l'internet et de la société : "Une décennie avec Internet", organisé par l'Oxford Internet Institute, le 21 septembre 2011 L'ère de Big Data a commencé. 1. 2.

Du rôle prédictif des données à la gouvernementalité algorithmique Sur Place de la Toile, le 12 décembre dernier, Xavier de la Porte recevait Guillaume Main, consultant et statisticien, qui s’occupe du site Statosphère ; Erick Alphonse, maître de conférences au Laboratoire d’Informatique de Paris-Nord (LIPN) et responsable d’Idaaas, une société qui construit des modèles prédictifs, notamment via PredictiveDB, un logiciel prédictif et Antoinette Rouvroy, chercheuse au Fonds national de la Recherche scientifique, qui travaille sur les formes de pouvoir induites par l’usage des données. Réécouter l’émission en ligne, ou parcourez le transcript augmenté de liens. Il y a de multiples formes de données, rappelle en préambule Xavier de la Porte : données sociales, messages, commentaires, celles qu’on publie chez les autres ou que les autres publient sur soi. Il y a bien sûr les données comportementales : celles qui mesurent ce que vous faites sur l’internet, les données géographiques, les données publiques, les données privées. Erick Alphonse : Oui.

Energie, pollution et internet La lecture de la semaine provient du New York Times, il s’agit du premier article d’une série consacrée au coût écologique du Cloud computing (informatique dans les nuages, le fait que nos données soient stockées, non pas dans les nuages, mais dans des infrastructures très matérielles). Le titre “Energie, pollution et Internet”, ce début d’article fait un résumé de la longue enquête du quotidien américain. “Des dizaines de milliers de data center (gigantesques bâtiments abritant des serveurs) sont aujourd’hui nécessaire pour supporter l’explosion de l’information numérique. Des quantités gigantesques de données sont mises en circulation chaque jour lorsque, d’un simple clic ou au contact du doigt, les gens téléchargent des films sur iTunes, regardent l’état de leurs comptes sur le site de leur banque, envoient un mail avec une pièce jointe, font leurs courses en ligne, postent un message sur Twitter ou lisent un journal en ligne.” Xavier de la Porte

2013 : naissance du marché du Big Data ? 2013 : naissance du marché du Big Data ? Expert - Rédigé le vendredi 25 janvier 2013 - Blandine Laffargue Aujourd’hui, le marché existe bel et bien, et les regards étonnés des professionnels comme du grand public ont laissé place à des discussions plus animées, nourries par la connaissance fructueuse développée sur Internet et dans les revues spécialisées sur le sujet. a. Or, s’il y a bien une évolution majeure par rapport à l’année dernière, c’est dans la façon d’aborder ces différents segments et leur importance relative dans la réflexion autour du Big Data. Une matière première à identifier et surtout à développer Pourquoi ? On a tendance bien souvent dans le discours à souligner les enjeux que représente l’utilisation de données déjà présentes dans les organisations : données sociales, données transactionnelles, données de mobilité, etc… . Créer de la donnée dans son organisation Se fournir auprès des entreprises spécialisées Les nouveaux enjeux technologiques

Big Data : les progrès de l’analyse des données Nous voici entré dans l’ère des Big Data des ensembles de données tellement gigantesques qu’ils nécessitent de nouveaux outils techniques et scientifiques pour les comprendre et en tirer du sens. Un déluge de données qui pose des questions profondes sur leur collecte, leur interprétation, leur analyse… Dans ce siècle des réseaux, la science des algorithmes, censée extraire le sens de ces amas d’information doit apprendre à comprendre ce qu’elle analyse. L’enjeu des Big Data nous adresse des questions scientifiques, mais aussi politiques et éthiques. Les Big Data, c’est le dossier de la semaine d’InternetActu. La démultiplication des outils de collecte de données (comme le web ou nos téléphones mobiles qui enregistrent très facilement nos déplacements, mais également nos actions, nos relations…) et l’amélioration des outils d’analyses de données offrent aux entreprises des moyens marketing de plus en plus inédits, estime Lee Gomes pour la Technology Review. Les raisons de la révolution

Big Data : le grand déséquilibre Pour Stéphane Grumbach (blog, @sgrumbach), directeur de recherche à l’Inria, les Big Data sont désormais un sujet important et dont les enjeux sont régulièrement médiatisés, comme le soulignait la semaine dernière le New York Times en s’intéressant à la consommation énergétique des centres de données. Souvent, le sujet est abordé sous l’angle (important) de la protection des données personnelles. Sur la scène de Lift France 2012, Stéphane Grumbach propose lui de l’aborder sous l’angle de la géographie. Est-ce que l’endroit où se trouvent les données est important ? Le sujet semble iconoclaste, car la caractéristique même de ces données numériques est d’être par essence reproductibles, liquides, disponibles partout et tout le temps… Pas si sûr estime le chercheur (voir sa présentation). La taille de l’univers numérique est estimée à 2,7 Zettabytes de données et il devrait atteindre 35 Zettabytes en 2020. Le second est de tirer du sens des données, comme le fait le profilage.

Centres de données – Google Centres de données Retour Lorsque vous consultez un site Web de Google (comme en ce moment), vous accédez à l'un des réseaux de serveurs les plus puissants au monde. Mais à quoi ressemble ce réseau en réalité ? Voici l'occasion de voir Internet de l'intérieur. Qui se cache dans les coulisses de la vaste toile mondiale que nous appelons Internet ? Que faut-il pour héberger le Web dans de bonnes conditions ? Chez Google, nous nous efforçons depuis des années d'optimiser la conception de nos centres de données afin de réduire notre empreinte écologique. Dans notre centre de données de Pryor en Oklahoma, nous avons tissé des liens étroits avec la communauté des Indiens Cherokee. L'une des raisons pour lesquelles nous avons choisi la ville de Lenoir en Caroline du Nord tient à son passé de ville manufacturière dans l'industrie du meuble. Notre centre de données de Belgique est particulier, car il est le premier à fonctionner sans refroidisseurs à eau.

Le cloud computing : quelques exemples d'utilisation Dans le cadre de notre dossier sur le cloud computing, nous avons réalisé une infographie détaillant les utilisations possibles du nuage au travers de quatre exemples : dans une start-up, dans une PME, à la maison et dans une mairie. Nous vous proposons de la découvrir ci-dessous : > En résumé : Dans une start-up, le nuage permet de se concentrer sur le cœur de son activité. Dans une PME, le nuage permet d’avoir accès à de nombreux services logiciels sans pour autant avoir besoin d’investir dans des infrastructures informatiques spécifiques. A la maison, le nuage est déjà là, par exemple en consultant nos emails, en archivant des vidéos ou des photos sur le Web ou encore en discutant sur les réseaux sociaux. Dans une mairie, le nuage permet de mettre très rapidement de nouveaux services à la disposition des citoyens, grâce à un catalogue d’applications en ligne qu’il suffit de choisir et de personnaliser pour pouvoir les utiliser. > Qu’est-ce que le cloud computing ? > Pour aller plus loin :

Related: