Hadoop, MapReduce, Gafa, pétaoctets, mégadonnées, cluster, temps réel, cloud, 5V, extraction, analyse, dataviz, prédiction, data scientists… Bienvenue dans l’univers du Big Data, un monde de mégadonnées qui défie l’entendement, où l’imaginaire collectif renvoie à Aldous Huxley, où l’on s’attend à croiser Néo dans Matrix ou les précogs de Minority Report. Parce que du côté de l’opinion publique, Big Data c’est un peu Big Brother, un ami proche des services marketing où le client est géolocalisé, épié, espionné voire harcelé. On est loin du discours lisse et bienveillant qui veut que cette connaissance client soit au service du bien-être du consommateur où l’on cherche, seulement, à lui “offrir” au meilleur moment, par le meilleur moyen, le meilleur produit, la meilleure promotion, la meilleure personnalisation, dans le meilleur des mondes. De leur côté, les entreprises sont parfois lasses des promesses marketing du Big Data qui véhiculent l’idée selon laquelle la science de l’analyse de gros volumes de données disparates peut être mise en œuvre rapidement, produire des résultats pertinents et soutenir le développement du chiffre d’affaires. Les attentes sont gigantesques, les enjeux souvent mal compris. Et le sujet est complexe: il englobe des architectures informatiques, des algorithmes, des connaissances scientifiques pointues, des problématiques de gouvernance des données, des transformations organisationnelles et culturelles… “Ce qui est compliqué, c’est que maintenant, le terme Big Data est utilisé par tout le monde, même ceux qui n’en font pas”, souligne Laetitia Bardoul, analyste senior chez Markess qui a publié, fin 2014, une étude sur les “Meilleures approches pour tirer parti du Big Data”. À la mode, le Big Data? “Il semble que le concept de data mining, considéré comme un peu vieillot, ait été “washé” en partie par celui de Big Data”, confirme Luc Doladille, directeur relations clients chez Umanis Consulting. Aidé en cela par des coups de communication comme l’énorme buzz mondial concocté récemment par Amazon affirmant que le pure player était désormais en mesure de prédire le prochain acte d’achat de ses clients et donc de préparer l’expédition du produit avant qu’il ne soit commandé. Comme le souligne, dans un clin d’œil, Christophe Kühner de Generix Group, citant les propos de Steve Brazier, le patron de Catalys: “Le Big Data, c’est comme le sexe chez les ados: tout le monde en parle, mais personne ne sait réellement ce que c’est; mais comme chacun pense que l’autre le fait, chacun prétend le faire”. Le responsable de la gamme Generix Collaborative Customer remarque, en revanche, “davantage d’enseignes passer de l’étape quasi “néant” en matière de traitement de la data à l’étape de smart data, c’est-à-dire s’intéresser à chaque individu dans toutes ses spécificités et lui faire parvenir des offres personnalisées”.
Un marché exponentielPourtant, les chiffres font tourner la tête. Le marché global du Big Data est estimé, en 2014, à 8,9?milliards de dollars par le cabinet Transparency Market Research. Avec une croissance de 40% par an, il représenterait 24,6?milliards de dollars en 2016. De son côté, Mc Kinsey estime qu’il devrait dépasser les 50?milliards de dollars en 2017. En France, l’étude de Markess révèle qu’en 2014, le nombre de décideurs indiquant avoir mis en place des projets Big Data a doublé en deux ans, passant de 6% à 12%. “Et 37% indiquent qu’ils ont des projets en cours. Le marché devrait donc connaître une forte progression dans les années à venir”, confirme Laetitia Bardoul. Dans un univers de plus en plus habitué à l’instantanéité, à l’immédiateté