SFR, l’autre opérateur cloud de rang national::Opérateurs et intégrateurs réseaux Channel NewsPublié: 21 déc. 2011 SFR a la ferme intention de figurer parmi les acteurs qui comptent dans le domaine du cloud. C’est le message que les dirigeants de SFR Business Team, la division entreprise de l’opérateur s’efforcent actuellement de faire passer au marché par média interposés. L’opérateur fourbit à cet effet une série de nouvelles offres qui seront annoncées dans les prochaines semaines. « L’idée, c’est de positionner une offre dans la lignée de ce que nous réalisons déjà pour nos besoins propres », explique Benjamin Revcolevschi qui, après avoir été pendant directeur des opérations de SFR Business Team, vient de prendre la direction de sa nouvelle division Services et cloud. Les premières briques de son infrastructure cloud, il les a construites il y a deux ans sur la base de technologies HP pour développer ses services d’hébergement, activité historique héritée de l’intégration de Jet Multimédia. multi-canal) mais aussi des services vocaux interactifs...
ETL, les questions à se poser ETL, acronyme de Extraction, Transformation, Loading, est un système de chargement de données depuis les différentes sources d'information de l'entreprise (hétérogènes) jusqu'à l'entrepôt de données (modèles multidimensionnels). Ce système ne se contente pas de charger les données, il doit les faire passer par un tas de moulinettes pour les dé-normaliser, les nettoyer, les contextualiser, puis de les charger de la façon adéquate. Nous verrons par la suite ce que chaque mot veut dire. Il est important de savoir que la réalisation de l'ETL constitue 70% d'un projet décisionnel en moyenne. Et ce n'est pas pour rien, ce système est complexe et ne doit rien laisser s'échapper, sous peine d'avoir une mauvaise information dans l'entrepôt, donc des données fausses, donc inutilisables. Avant de commencer, visualisez le schéma d'un entrepôt et sa façon de fonctionner (gérer l'historique, dimensions, faits, etc.). Si vous cherchez des méthodes de conceptions d'ETL, et bien il n'y en a pas. III-A.
SEMCO vmProtect 6 spécifiquement pour les serveurs virtuels VMware de sorte qu'elle soit la solution de sauvegarde et de restauration la plus facile à déployer et la plus simple à utiliser La meilleure solution de sauvegarde et de réplication pour VMware vSphere® Acronis® vmProtect 9 est la solution la plus rapide, la plus facile à utiliser et la plus complète pour assurer la protection de votre environnement VMware vSphere®. S'installe trois fois plus rapidementPermet de commencer à sauvegarder trois fois plus rapidementRestaure 100 fois plus rapidement avec vmFlashBack™ Meilleures performances Grâce à la technologie maintes fois récompensée d'Acronis, Acronis vmProtect est la solution qui permet de sauvegarder et de restaurer le plus rapidement les machines virtuelles VMware®. Avec la sauvegarde sans agent avec VADP (VMware API for Data Protection), le suivi des blocs modifiés (CBT), la technologie hot-plug et l'accès direct au SAN, la sauvegarde et la restauration sont à la fois rapides et efficaces. Par ailleurs, la technologie vmFlashBack permet d'obtenir des restaurations quasi instantanées. La plus complète Simplicité d'utilisation Toute destination Fonctionnement ESX(i)
Les principes de l’ETL Pour alimenter le datawarehouse des différentes applications de l’entreprise, on utilise une gamme d’outils appelés ETL, pour « Extract, Transform, Load ». Comme le nom l’indique, ces outils permettent d’extraire des données à partir de différentes sources, de les transformer (format, dénomination), et de les charger dans la base de données cible, ici le datawarehouse. Les transformations confiées à un ETL sont souvent simples, mais elles peuvent dans certains cas inclure des traitements procéduraux, de véritables programmes spécifiques. Un ETL permet d’éviter la réalisation de programmes batch répétitifs, souvent semblables, dont il faudra également assurer la maintenance. L’ETL peut prendre en charge différentes natures de sources de données, tant en entrée qu’en sortie, les principales étant bien sûr les SGBD relationnels, et les flux XML, mais il peut s’agir aussi de fichiers à formats fixes ou avec séparateurs (CSV). L’ETL a vocation à travailler en différé, le plus souvent la nuit.
Innovation 2.0 : des approches multiples dans l’entreprise Ce n’est pas la première fois que je vous parle d’innovation sur ce blog, notamment à travers des communautés d’innovation. Mais en relisant l’intervention d’Amaury de Buchet à l’enteprise 2.0 summit pour l’atelier sur l’open innovation (ou je participais) je m’aperçois que bien souvent, au mieux je suis centré sur un axe (celui dont je parlais plus haut), voir j’oppose un peu différentes approches. Comme pour mon interview sur hypertextual à propos de mon livre , alors que ces approches sont complémentaires. Et pourtant ce n’est pas faute de les connaître toutes, comme quoi on est souvent focalisé sur ses préoccupations du moment. Voici donc différentes approches toujours centrées autour de l’open innovation ou social innovation. Une des slides de cet atelier présentée par Amaury sous la forme d’une matrice (l’arme secrète des consultants) présentaient 4 approches pour gérer l’innovation au sein d’une entreprise. Au final, 4 démarches complémentaires. We are smarter then me
Le Cloud computing est-il vert ? Depuis maintenant plusieurs années, le Cloud Computing envahit la presse IT, les blogs, les plaquettes commerciales des éditeurs, intégrateurs et autres constructeurs en promettant pour ses clients de nombreux bénéfices parmi lesquels une optimisation de leurs dépenses et une adaptation plus rapide à leurs besoins réels. Une autre transformation profonde de notre économie est son évolution vers des d’activités éco-responsables qui limitent la consommation de ressources naturelles et l’émission de gaz à effet de serre. C’est dans le cadre de l’émission Green Business animée par Nathalie Croisé sur BFM Business qu’il m’a été donné de rapprocher ces deux sujets et de tenter de répondre à la question “le Cloud computing peut-il être vert ?” (écoutez le podcast). Voici quelques éléments de réponse. Les vertus écologiques du cloud computing repose sur 3 piliers : la virtualisation,la mutualisation,l’optimisation. Mutualisation Réduire la consommation des composants
ce que Hadoop ? Data warehouse, stockage et traitement distribués Définition Hadoop Hadoop est un projet Open Source géré par Apache Software Fundation basé sur le principe Map Reduce et de Google File System, deux produits Google Corp. Le produit est écrit en langage Java. Hadoop peut être considéré comme un système de traitement de données évolutif pour le stockage et le traitement par lot de très grande quantité de données. Il est tout à fait adapté aux stockages de grande taille et aux analyses de type "ad hoc" sur de très grandes quantité de données. Hadoop et les analyses massives Le web n'est pas le seul à générer de grandes masses d'informations. Les analyses massives autorisent alors des optimisations bien plus fines. Benchmark Pour avoir une meilleure idée de la performance du système et de la révolution à venir : En Mai 2009 chez Yahoo Corp, utilisateur de Hadoop, 1 téra-octet (1012 ) de données a été trié en 62 secondes (cf blog développeur yahoo, voir plus bas)... Ressources Lecture recommandée
Vers l'Entreprise 2.0 Se réinventer pour être plus performant Si nous sommes aujourd'hui à l'ère de l'information partagée, nos modèles d'entreprises sont eux tout droit hérités de l'ère industrielle où la production régnait en maître. Dans un monde où cette dernière coûte de moins en mois cher, la création de la valeur ajoutée se concentre dans la conception/développement et le marketing/communication. Ces derniers doivent sans cesse se réinventer dans un monde en perpétuelle évolution. Bertrand Duperrin le résume ainsi : « L’avenir d’un grand nombre d’entreprises et plus largement de secteurs entiers passe par un remise en cause profonde, une réinvention de la proposition de valeur et l’alignement de l’organisation. L'entreprise 2.0 Le terme a été crée en 2006, par Andrew McAffee (professeur au MIT). Les bénéfices attendus Ils sont nombreux et variés mais on retrouve d'une manière générale : Réussir la transition Les chemins vers l'entreprise 2.0 Et après l'entreprise 2.0 ?
Amazon Web Services promet de baisser ses prix en 2012, entretien avec Matt Wood, Technology Evangelist EMEA chez Amazon Les Cloud dédiés aux développeurs se multiplient. Ils mettent tous en avant les mêmes avantages : flexibilité, facturation à la demande, gestion externalisée de l’infrastructure, et aujourd’hui simplification des outils d’administration. Après avoir interviewé Laurent Lesaicherre , le responsable chez Microsoft France de la plateforme Windows Azure, il nous est apparu intéressant de continuer ce tour d’horizon du marché avec un de ses précurseurs : Amazon. Il y a maintenant cinq ans, le marchand en ligne a ouvert son infrastructure gigantesque aux développeurs pour diversifier ses activités. Autant de questions que nous avons posées à Matt Wood, Technology Evangelist EMEA chez Amazon UK dans l'entretien qu'il a accordé à Developpez.com Matt Wood, image internetdagarna.se Developpez.com : Pouvez-vous nous présenter Amazon Web Services en quelques mots ? Ces services sont disponibles à la demande. Developpez.com : Pourquoi AWS répond-il au besoin des développeurs ? Et vous ?
MapReduce Un article de Wikipédia, l'encyclopédie libre. Les termes « map » et « reduce », et les concepts sous-jacents, sont empruntés aux langages de programmation fonctionnelle utilisés pour leur construction (map et réduction de la programmation fonctionnelle et des langages de programmation tableau). MapReduce permet de manipuler de grandes quantités de données en les distribuant dans un cluster de machines pour être traitées. Ce modèle connaît un vif succès auprès de sociétés possédant d'importants centres de traitement de données telles Amazon ou Facebook. Il commence aussi à être utilisé au sein du Cloud computing. Présentation[modifier | modifier le code] Un modèle de programmation[modifier | modifier le code] MapReduce est un modèle de programmation popularisé par Google. MapReduce consiste en deux fonctions map() et reduce(). Dans l'étape Map le nœud analyse un problème, le découpe en sous-problèmes, et les délègue à d'autres nœuds (qui peuvent en faire de même récursivement). Hadoop Logo
Sonnez en cas d'absence