Handshake Blog | On dustbins and the price of personal data Your Rating User Rating: 5 (1 votes) A recent article in the UK’s FT, Companies scramble for consumer data, June 12th 2013, shared some intriguing but puzzling insights into the market for personal information. Perhaps the strangest was a proposition which seemed to suggest a complete inversion of normal market economics. The reporter, Emily Steel, started her article by observing that: “Corporate competition to accumulate information about consumers is intensifying … pushing down the market price for intimate personal details to fractions of a cent.” This is very strange indeed because normal market dynamics suggest that as demand rises, all other things being equal, the price should rise rather than fall. The article was accompanied by a calculator that estimated the market value of the reader’s own personal data which returned values of less than a dollar – and often a lot less than a dollar (I know because I tried it multiple times changing my answers to see what happened).
Définition du Big Data - Profitez des opportunités du Big Data - France Définition du Big Data Chaque jour, nous générons 2,5 trillions d’octets de données. A tel point que 90% des données dans le monde ont été créées au cours des deux dernières années seulement. Ces données proviennent de partout : de capteurs utilisés pour collecter les informations climatiques, de messages sur les sites de médias sociaux, d'images numériques et de vidéos publiées en ligne, d'enregistrements transactionnels d'achats en ligne et de signaux GPS de téléphones mobiles, pour ne citer que quelques sources. Ecoutez les experts Le Big Data couvre quatre dimensions : volume, vélocité, variété et véracité. Volume : les entreprises sont submergées de volumes de données croissants de tous types, qui se comptent en téraoctets, voire en pétaoctets. Transformer les 12 téraoctets de Tweets créés quotidiennement en analyse poussée des opinions sur un produitConvertir les 350 milliards de relevés annuels de compteurs afin de mieux prédire la consommation d'énergie
Vos données personnelles sur internet peuvent valoir de l'or Les données personnelles sont devenues l'or noir du XXIème siècle, celui qu'on exploite et qu'on stocke pour une utilisation ultérieure. Mais s'il existe un marché du fer ou des métaux non ferreux, il n'y a pas encore une bourse des données personnelles. Une étude de Vodafone pour le Royaume Uni indique que la monétisation des données pourrait injecter 21 milliards d'euros dans l'économie britannique! La somme a de quoi faire rêver. "Il y a plusieurs méthodes pour estimer la valeur des données, tempère Mouloud Dey, directeur Solutions et Marchés Emergents chez SAS, on peut prendre la capitalisation de Facebook et diviser par le nombre d'abonnés, ce qui fait de 40 à 300 dollars par personne selon la valeur de l'action. On peut aussi estimer cette valeur en calculant le manque à gagner quand les données disparaissent, à la suite d'un piratage ou d'un accident. Le calcul montre que ces données valent 1,18 dollar par personne..." Les données nues ont peu de valeur Le KGB en a rêvé...
Les 5 étapes d’une stratégie Big Data efficace Qui ? Jean-Claude Muratore, DG de Turn France. Quoi ? Comment ? Pas besoin d'être technicien ou data scientist pour mieux connaître ses clients. 1/ La sensibilisation : prendre conscience de l’importance de vos données existantes Dans son CRM, une société stocke déjà des données transactionnelles, que ce soit on line ou off line : clients qui ont acheté dans un magasin ou sur le site ou le centre d'appels, statistiques de visites du site Web, performances des campagnes d’emailing, de publicité, display, de la vidéo, de la publicité sur mobile, télévision, ou presse. 2/ La structuration: Avoir une vision à 360° de vos clients La valeur de la base de données augmente avec les données d'audience provenant de fournisseurs de données tiers. 3/ La stratégie: Augmenter le taux d’engagement de votre cible avec des messages personnalisés. Il s'agit d'utiliser les informations sur les clients et prospects pour diffuser un message personnalisé, qui les touche parce qu’il est pertinent et utile.
The-Value-of-Our-Digital-Identity.pdf Comment OVH gère ses pannes grâce au big data Le cloud français a déployé un data lake fédérant chaque jour 432 milliards de mesures en provenance de centaines de sondes réparties sur l'ensemble de ses data centers. Pour monitorer ses 27 datacenters à travers le monde, OVH s'est doté d'une plateforme big data digne de ce nom. Baptisée Metrics Data Platform, elle fédère chaque jour pas moins de 432 milliards de mesures en provenance de centaines de sondes réparties à tous les étages de l'infrastructure du groupe : racks de serveurs, baies, équipements réseau, système de refroidissement, etc. "En parallèle, nous avons déployé un second système d'une capacité de 2 pétaoctets pour gérer les logs", explique Giovanni Clément, directeur technique sur les solutions platform d'OVH. Aux côté de Metrics Data Platform et Logs Data Platform, un outil maison (appelé Loops) réalise une photographie de l'état de l'infrastructure d'OVH à un instant T. Pour la suite, OVH planche sur une nouvelle brique de visualisation de données.
Des données personnelles étaient librement accessibles sur le site de la région Ile-de-France « Next INpact » a révélé mardi une faille permettant d’accéder, sur le site de la région, à des documents personnels sans protection : CV, cartes d’identité, passeports, RIB… LE MONDE | • Mis à jour le | Par Morgane Tual Une faille dans le site de la région Ile-de-France : c’est ce qu’a découvert le média spécialisé dans le high-tech Next INpact, après le signalement d’un lecteur, et qu’il a relaté dans un article publié mardi 12 décembre. Concrètement, il était jusqu’à mercredi possible d’accéder, sans aucune protection, à des documents personnels comme des CV, mais aussi des photocopies de passeports, de cartes d’identité, de relevés d’identité bancaire, de bilans médicaux et autres types de fichiers. Des informations confirmées au Monde par la région Ile-de-France. Ceux-ci proviennent principalement de candidatures de stage et de contrats d’apprentissage envoyés à la région à travers le formulaire du site, qui permet de transmettre différents types de documents.
La prévision du coût total de possession, nécessaire dans le cloud ? S'il est communément admis que le cloud computing permettrait de déployer plus facilement et à moindre coût, encore faudrait-il pourvoir apprécier les économies réalisées si toutefois il y en a. Afin de pouvoir aiguiller les managers dans les bonnes pratiques à adopter par rapport au cloud, l’institut de recherches Saugatuck Technology a privilégié l’approche du coût total de possession (ou TCO) pour hiérarchiser les types de projets pouvant être raisonnablement mis en place par l’apport d’une solution issue du cloud computing. En effet, les dirigeants et gestionnaires ont tendance à considérer le Cloud comme une ressource à faible coût et ainsi à transférer des tâches assez facilement vers le nuage. Une optique de gestion de projet à mettre en place L’étude révèle ainsi que la comparaison empirique des coûts face aux prévisions permet d’affiner l’approche à adopter par rapport au cloud. Des économies drastiques sur des postes à faibles charges de travail
Handshake Blog | The supply curve for personal data Your Rating User Rating: 0 (0 votes) In the TED talk, ‘What physics taught me about marketing’, Dan Cobley, a marketing director at Google, speaks about the Heisenberg Uncertainty principle. In a nutshell, this means that it’s impossible to exactly measure the position and momentum of a particle, because the act of measuring changes them. Dan’s “marketing takeaway” from this was that we should measure what consumers actually do, rather than what they say they’ll do. Those of you who’ve read our other posts will know why we cringed when he cited “better point-of-sale tracking” as a way things have ‘improved’ in this respect. But there is a lot of truth in what Dan says, and it applies to an interesting chart in a report by the Boston Consulting Group called ‘The value of our digital identity’. This is an intriguing stab at the ‘supply curve for personal data’, but you’ll notice it was constructed by asking respondents for their willingness to provide data at different price points.
Big Mac et Big Data : McDonald's acquiert Dynamic Yield pour 300 millions $ McDonald’s annonce l’acquisition de la startup Dynamic Yield pour une somme estimée à 300 millions de dollars. Cette startup spécialisée dans le Big Data va permettre au géant du fast food de personnaliser l’expérience proposée par les bornes Drive de ses restaurants. Le Big Data peut conférer un avantage compétitif aux entreprises, et les géants n’hésitent pas à investir des sommes colossales pour profiter de cet atout. Nouvelle preuve aujourd’hui avec l’acquisition de la startup Dynamic Yield par McDonald’s. Le prix de cette acquisition n’a pas été communiqué officiellement, mais les sources proches du dossier parlent d’un montant de 300 millions de dollars. Basée en Israël, Dynamic Yield aide ses clients à créer » une expérience en ligne personnalisée dans le style d’Amazon « . De son côté, McDonald’s compte utiliser cette technologie pour personnaliser les menus proposés par ses fameuses bornes Drive.