Trois questions à Patrick Darmon, Directeur Practice Big Data – Keyrus

Quelle est votre définition du Big Data et toutes les entreprises en ont-elles besoin ?

Volume, Variété, Vitesse : la définition désormais classique des « 3 V » pour décrire le Big Data reste très pertinente. Concernant le volume, il faut sérieusement envisager le Big Data à partir du moment où les technologies classiques (SQL, VLDB) s’avèrent insuffisantes pour exécuter les traitements cibles dans des délais raisonnables, tout en considérant le volume de données générées par les algorithmes eux-mêmes. Car la volumétrie devient un indicateur dynamique et élastique. Les entreprises de la distribution, des télécoms, de l’énergie ou les institutions financières produisent et consomment de gros volumes d’informations et sont donc très concernées par ce premier « V ».

La variété des données (structurées, semi-structurées et non structurées) est un deuxième critère. Par exemple, les e-commerçants sont très demandeurs car un de leurs challenges est de rebâtir le parcours client à partir d’informations disparates : logs, réseaux sociaux, formulaires, navigation. Le troisième V, comme vitesse, est crucial. Ainsi, dans le retail ou la banque-assurance, l’avantage concurrentiel sera obtenu de la capacité à remonter, analyser et traiter la donnée client quasiment en temps réel.

Bien sûr, depuis cette définition, nous évoquons les 4, 5 puis 6 V (les trois premiers auquel on ajoute Visibilité, Véracité et Valeur) mais on est la plus dans un effet de communication que dans une spécificité propre au Big Data.

Potentiellement, toutes les entreprises, quelle que soit leur taille, peuvent avoir besoin du Big Data. Certains viticulteurs l’utilisent pour analyser les données issues de capteurs mesurant la température ou le taux d’humidité… Mais dans tous les cas, l’attente principale, c’est la transformation du modèle économique. Le Big Data permet de créer de la valeur, de l’agilité, de la rapidité dans les prises de décision et donc de la croissance.    

Quels sont les avantages à faire du Big Data dans le Cloud ? Il y a-t-il des restrictions ou des contraintes particulières ?

Le Big Data, c’est la « killer app » du Cloud ! En moyenne, l’analyse statistique d’un To de données génère 20 To à l’arrivée. Donc, le Cloud qui favorise à la fois la puissance de calcul en fonction des besoins (scalability) et le paiement à l’usage est particulièrement adapté. Bien sûr, il est possible de faire du Big Data en interne. Mais ce modèle bride le potentiel d’analyse et réduit la productivité en focalisant les équipes sur de l’optimisation technique au lieu de valoriser les données.

Les seules contraintes sont les questions de sécurité et de confidentialité des données personnelles. Ce sont des points qui doivent être étudiés avec attention. Les réponses existent : cryptage des données, Cloud souverain ou européen, prises en compte des recommandations de la Cnil. En France, il y a encore des réticences psychologiques à externaliser les données et leur traitement dans le Cloud. C’est dommage, car d’autres pays sont beaucoup moins frileux et prennent un avantage certain.

En quoi le Big Data modifie-t-il l’organisation d’une entreprise ? Au-delà de la technologie, comment les directions métiers et les DSI doivent-elles fonctionner entre elles pour en tirer profit ?

De manière générale, le Big Data implique le « retour du code » et des développeurs, en raison notamment des logiciels libres (Hadoop, bases de données NoSQL, MapReduce…) utilisés pour optimiser les temps de traitement de ces masses de données géantes. De nouveaux métiers – très recherchés – apparaissent, comme le Data Scientist. Responsable de la gestion et de l’analyse des données massives, il doit les « faire parler » pour leur donner une valeur stratégique et opérationnelle en termes de business. En France, on peut estimer leur nombre à environ 3 500 et leur salaire démarre à 50 000 euros bruts (source LinkedIn).

Par ailleurs, on constate désormais une grande porosité entre les métiers de la statistique et de la DSI. La notion « d’utilisateur » au sens informatique du terme n’existe pas dans les projets Big Data. Et ils ont généralement une durée de vie de quinze jours ! Car une fois le « schéma » détecté, c’est la construction de l’application décisionnelle qui prend le relais. Dans ces conditions, il est capital de se faire accompagner, à la fois au niveau du cadrage initial du projet (pourquoi faire du Big Data et avec quels outils), du « Proof of Concept », de la conception de l’architecture et des RH (formation et transfert de compétences).

Quelques mots sur Patrick Darmon : P. Darmon

Avec plus de 20 ans d’expérience dans le conseil en management, dont plus de la moitié dans les technologies de l’information, Patrick Darmon possède à son actif un nombre important de projets de transformation auprès de grandes fonctions de l’entreprise (Stratégie, Marketing, Finance et DSI). Il est chargé de cours à l’Ecole Centrale Paris où il enseigne l’économie de l’énergie et l’économie de l’innovation, et à l’école 42 où il enseigne les fondamentaux du management. Egalement auteur d’un essai sur la croissance économique de la France, il est diplômé d’un BA en économie de l’Université Hébraïque de Jérusalem et d’un MBA de l’Université de Rochester, NY.

Lire aussi : Plus de données, moins de pannes… avec le Big Data par Vincent Bourey, Consultant ICT – Cloud Business Development

Comment T-Systems peut-il vous accompagner ?

Filiale de Deutsche Telekom, T-Systems s’appuie sur l’expertise de ses 50 000 collaborateurs et sur son infrastructure mondiale de data centers et de réseaux pour soutenir votre transformation IT.

Contactez-nous

Répondre