Pour Microsoft, le Big Data est l’affaire de tous.
Comment Microsoft veut démocratiser le Big Data ?
Quel que soit le volume de données géré par une entreprise ou le niveau de compétences de ses utilisateurs, l’éditeur veut offrir des solutions accessibles à tous. Et pour cela, elle dispose d’un atout majeur : son tableur Excel.
Le Big Data doit-il nécessairement être big ? La plupart des acteurs du secteur semblait être tombé à peu près d’accord sur l’utilisation des trois « V » pour définir la problématique Big Data et les technologies censées y répondre. Volume, variété et vélocité (certains ajoutant un quatrième V pour la valeur) sont les caractéristiques des données à traiter dans un projet Big Data. La première, qui semblait pourtant la plus évidente, pourrait finalement ne pas être indispensable.
Selon une étude publiée en septembre dernier par la société de service Steria, seulement 16 % des entreprises européennes gèreraient un volume de données supérieur à 50 Téraoctets. Dans ce contexte, on en vient à se demander si les nombreuses solutions proposées pour analyser de larges quantités d’informations ont réellement un sens sur le marché français. Pour Bernard Ourghanlian, Directeur Technique de Microsoft France, la réponse est évidemment positive. « Il faut essayer de dépasser le concept traditionnel de la Business Intelligence et qui est de transformer la donnée en information. Il faut aujourd’hui pouvoir plonger dans les signaux faibles et écouter le bruit du monde ».
Ne pas associer « Big Data » et « gros volumes »
La première étape pour capter ces signaux est de se doter d’outils capables de gérer les données non structurées.
Ces données représentent, d’après une étude IDC, près de 80 % du patrimoine informationnel d’une entreprise. Plonger dans les journaux d’une page web, de son site de e-commerce ou encore dans les flux des réseaux sociaux permet d’enrichir son patrimoine avec des informations qui jusqu’à présent étaient en dehors du SI.
Ces données peuvent par exemple permettre de comprendre l’impact d’une campagne marketing ou du lancement d’un nouveau produit. « Associer « Big Data » à « gros volume » n‘est pas la bonne façon d’appréhender la chose.
Il faut penser le Big Data comme un système où l’on n’a pas toutes les données mais qui permet d’aller en chercher de manière simple pour les remettre en contexte », explique Bernard Ourghanlian.
Si le volume n’est pas véritablement un problème, le faible nombre de projets réellement menés suscite des interrogations quant aux difficultés rencontrées. Toujours selon l’enquête Steria, seuls 7 % des 661 participants considèrent le Big Data comme un sujet d’actualité. « Ce qui est compliqué avec la mise en place de solutions Big Data est que c’est un sujet de friction entre deux organisations de l’entreprise : la DSI et le Marketing », précise le responsable Microsoft. L’analyse des réseaux sociaux est effectivement un domaine qui intéresse beaucoup les responsables marketing, toujours à la recherche d’informations plus précises sur leurs clients. « Le Directeur marketing peut être tenté d’avoir ses propres moyens informatiques et ses propres circuits de décisions pour lesquels il n’aura pas à en référer à l’IT ». L’opposition entre les divisions informatiques et métier n’est pas nouvelle et n’est en aucun cas née avec le Big Data. Mais cette fois, il s’avère que ni l’une ni l’autre ne semble avoir les armes pour s’approprier le sujet. « Il faut faire appel à des connaissances qui ne sont pas naturellement présentes dans les services informatiques et encore moins dans le marketing, tranche Bernard Ourghanlian. Il faut des Data scientists, des gens maîtrisant la statistique ».
Et ces profils ne sont aujourd’hui pas légion. Peu de gens ont les compétences à la fois informatique, métier et statistique pour mener à bien un projet Big data (voir : « Le Big Data fait son entrée sur les bancs de l’école). Un des défis du Big data est donc de le rendre plus accessible en proposant des outils simples d’utilisation, « quitte à ce que l’utilisateur ne comprenne pas l’algorithme qui se cache derrière ». Ce processus de démocratisation peut prendre deux voies différentes. La première est de faire appel à des services « clés en main », à la manière de ce que proposent des entreprises comme Criteo ou Lokad. Ces deux sociétés françaises vendent respectivement des solutions de marketing et de logistique opérées sur Windows Azure et basées sur du traitement de données à grande échelle. Pour en bénéficier, les utilisateurs se contentent de fournir les données. Le reste de la mécanique est totalement transparent. Mais pour ceux qui souhaiteraient véritablement s’approprier les outils, Microsoft à un autre atout dans son jeu : le tableur Excel.
Casser les barrières de la donnée
« Pour accélérer l’appropriation de nos technologies, nous les intégrons dans ce que les entreprises connaissent déjà », souligne Damien Cudel, Responsable de la plateforme applicative chez Microsoft France. S’il est bien un produit que l’on retrouve dans presque la quasi-totalité des entreprises, c’est la suite Office, accompagnée aujourd’hui son équivalent SaaS (Software-as-a-Service) Office 365. Difficile de faire mieux donc en termes de démocratisation que d’intégrer le concept de Big Data à un outil aussi répandu qu’Excel. Et c’est là toute l’idée de Power BI. Encore en version Preview, cette suite logicielle intégrée à Office 365 propose aux utilisateurs de reprendre la main sur les données et d’en tirer des informations utiles pour leur travail, sans avoir à solliciter un expert BI.
Power BI rassemble au sein du célèbre tableur des capacités d’analyse In-Memory avec Power Pivot, l’outil de visualisation Power View, ainsi que deux nouveautés, Power Query et Power Map. Ces deux add-ins, anciennement connus sous les noms de Data Explorer et Geo Flow, vont donner la capacité à n’importe quel habitué d’Excel de plonger dans un jeu de données, d’en récupérer de nouveaux, puis d’en tirer des visualisations efficaces et compréhensibles. Alors que Power View offrait déjà la possibilité de créer différents diagrammes et graphiques, Power Map est capable de générer simplement des vues en 3D à partir de données géographiques. Quant à Power Query, il va participer au processus d’enrichissement du patrimoine évoqué par Bernard Ourghanlian en venant casser certaines barrières et en élargissant très largement les sources disponibles. Sans sortir de sa feuille Excel, l’utilisateur pourra rechercher des données dans un fichier texte, XML ou CSV, mais également sur une page web (Wikipédia par exemple), sur Facebook, sur une base de données SQL Server, Oracle ou MySQL, sur l’annuaire Active Directory ou le site SharePoint de son entreprise, sur une plateforme Hadoop ou encore sur la Marketplace Windows Azure. De quoi mettre en place des modèles d’analyses qu’on n’aurait pas envisagés en se limitant aux données présentes en interne.
Et la prochaine étape de ce processus de démocratisation des technologies de Business Analytics pourrait bien venir de la compréhension de notre langage. Lors du dernier TechFest, événement qui réunit les chercheurs des Microsoft Labs, l’éditeur a en effet dévoilé un projet baptisé « Analyze ».
L’idée est de se passer des formules mathématiques utilisées dans Excel et de les remplacer par la saisie d’une requête directement en langage naturelle. Le tableur se charge ensuite de traduire la demande par une opération mathématique prédéfinie et de la retranscrire sous forme graphique. De quoi faire de chaque utilisateur Excel un Data scientist potentiel.
Pour aller plus loin sur le thème du Big Data avec les experts iTPro.fr :
Big Data streaming & le temps réel des données · iTPro.fr
La « vraie » rentabilité des projets Big Data · iTPro.fr
Le Big Data : un « tout nouvel ordre de grandeur » · iTPro.fr
Stockage Big Data et analytique, quels changements à venir ? (itpro.fr)
Téléchargez cette ressource
Sécuriser votre système d’impression
Longtemps sous-estimée, la sécurisation d’un système d’impression d’entreprise doit être pleinement prise en compte afin de limiter le risque de fuite d’informations sensibles. Voici les 3 principales précautions à prendre.
Les articles les plus consultés
- ActiveViam fait travailler les data scientists et les décideurs métiers ensemble
- Les projets d’intégration augmentent la charge de travail des services IT
- L’utilisation des données pour survivre !
- Intelligence Artificielle : DeepKube sécurise en profondeur les données des entreprises
- Databricks lève 1 milliard de dollars !