programming layout

Tendances & Actualités

Big data, algorithmes : nouveaux actifs de l’entreprise

Maîtriser l’océan de données produites et récoltées par les entreprises pour proposer de nouveaux produits et services. C’est l’un des enjeux de la mise en place de projets de Big Data dans les entreprises. Mais pour ce faire, il faut plonger dans les silos de la DSI, et en faire remonter des informations dignes d’intérêt pour les directions métiers. Un chantier à mener en recrutant de véritables spécialistes de ce domaine pour espérer in fine créer de la valeur.

Algorithme & data : quand le software mange le monde

La SSII Steria affirme que 83 % des entreprises européennes utilisent la Business Intelligence (BI) à des fins de reporting interne. C’est bien, mais la BI n’est en définitive que la partie émergée de l’iceberg des données. Désormais, le coeur des stratégies des plus grandes entreprises consiste à analyser le Big Data via des traitements algorithmiques pour renouveler les business modèles et annoncer les profits du futur,et même d’aujourd’hui.

Prenez Google. 16 ans d’âge, 50 milliards de dollars par an de chiffre d’affaires, plus de 300 milliards de dollars de valorisation au Nasdaq. Son secret ? Cibler. Délivrer l’information la plus précise, mais surtout la plus personnalisée. Et afficher à côté sa publicité, qui correspond aux goûts et accessoirement aux besoins de l’internaute.

Pour y parvenir, d’excellents algorithmes sont à la baguette et épluchent une montagne de données. Du contenu de page Web, certes, mais surtout des monceaux de données contextuelles qui détaillent les habitudes des consommateurs. Et l’Internet mobile renforce ce patrimoine, avec les données géo-localisées. Avec l’analyse prédictive, désormais elles permettent de connaître à l’avance certains agissements, certains désirs des internautes.

Si certains ont coutume de parer le Web de vertus d’ouverture et de partage de l’information, voici en tout cas des données et des méthodes ultra protégées des regards. Olivier Andrieux, spécialiste du référencement, explique à ce propos que l’algorithme de Google est comparable à la recette du Coca-Cola : des formules secrètes qui génèrent des marchés de plusieurs milliards de dollars.

« Software is eating the world » annonçait Marc Andreessen en 2011 dans un célèbre article.  Éponyme. Il semble logique que l’ogre commence son repas par les principaux acteurs du numérique. Amazon a construit son succès en épiant les habitudes des internautes, et en les transformant en recommandations automatiques de produits ; Netflix a produit House of Cards en disséquant les données de ses utilisateurs, Facebook décide de ce que l’on doit voir.

Vers une économie de marché algorithmique ?

Mais depuis quelques années, l’utilisation des données et des algorithmes s’étend à tous les métiers, reflétant d’économie de plus en plus « data driven ».

« Les banquiers qui seront capables de proposer des prêts immobiliers à meilleur taux aux bons payeurs rafleront les clients les plus rémunérateurs », indique dans l’Obs Patrice Remeur, consultant et économiste au Conservatoire national des Arts et Métiers.

Aussitôt dit, aussitôt fait ! La Société Générale analyse les mouvement sur les comptes de ses 8 millions clients particuliers pour leur proposer des solutions d’épargne aux moment les plus propices !

Personne n’échappe au Big Data : assurance, transport, santé, recherche

Et le secteur de l’assurance n’est pas en reste. L’application Axa Drive permet à de collecter des données sur ses clients et d’adapter sa tarification à la qualité de conduite des assurés.

Concrètement, la tarification dynamique permet d’adapter les prix en temps réel en fonction des données du client. Uber applique ainsi une majoration du tarif en cas de forte demande ou de trafic important. « [Uber] ne fixe pas les prix. C’est le marché qui les fixe » explique Travis Kalanick, son CEO, à ce propos. « Nous avons les algorithmes qui permettent de lire quel est le marché. »

Dans ce cas, l’approche logicielle est si efficace qu’elle perturbe le marché. « Ce n’est pas un marché, c’est un monopole. Un nouveau type de monopole, un monopole algorithmique », critique en écho le célèbre blogueur Matthew Stoller.

La santé aussi est en passe de bénéficier de cette révolution. Watson, le super-ordinateur d’IBM, identifie la chimiothérapie adéquate dans 95 % des cas à la seule lecture de son dossier médical !

Enfin le Big Data, au-delà des algorithmes d’analyse, c’est aussi la capacité de gestion de milliards de données. De quoi donner à la recherche des envies. « Prenez le LSST, Ce télescope, qui doit être mis en service en 2020, sera capable d’enregistrer des images du ciel de 3 milliards de pixels toutes les 17 secondes. À la fin du programme, les astronomes disposeront ainsi d’une base de données de 140 pétaoctets, avec des centaines de caractéristiques pour chaque objet du ciel » explique Mark Asch, pour le CNRS.

Autant dire que sans le Big Data, et ses formidables capacités de calcul, impossible d’interpréter les pétaoctets de données qui viennent de l’espace.

L’entreprise “data driven”, un défi structurel et RH

Reste que les promesses du Big Data ne s’obtiennent qu’au prix d’efforts importants et réguliers. Cela passe par de l’investissement en ressources logicielles, certes, mais peut être avant tout humaines.

En 2013, Google a apporté 890 modifications à son algorithme, transformant à chacune de ces itérations notre manière d’accèder à l’information. Aux commandes, une équipe de data scientist.

Ces informaticiens matheux et stratèges sont de véritables perles rares. Leur profil ? Jeremy Harroch, fondateur de Quantmetry indique que « les ingénieurs qui ont une très bonne base en programmation peuvent devenir de bons Data Scientists. Les physiciens sont aujourd’hui aussi parmi les profils les plus proches des compétences du Data Scientist ».

Gartner annonçait en 2012 la création de 4,4 millions d’emplois en trois ans dans le monde dans le domaine du Big data. Le marché français lui reste relativement circoncis, malgré ces belles promesses. En 2013, Fleur Pellerin, alors ministre déléguée en charge de l’Économie numérique, misait sur la création de 10 000 emplois à court et moyen terme. Jeremy Harroch estime lui plus prosaïquement qu’environ 1000 postes de data scientists sont créés chaque année en France.

La formation semble suivre puisque depuis deux ans des cursus spécialisés à l’ENSAE, l’ENSAI, Dauphine ou encore HEC voient le jour.

Mais au delà de l’emploi, c’est la structure de l’entreprise qu’il faut adapter. 24 % des entreprises estiment ne pas avoir les experts nécessaires affirme Steria. Ce défi structurel est d’autant plus important que le Big Data impacte la plupart des départements, de l’IT au marketing en passant par le top management.

Ainsi, la profession de Chief Data Officer (CDO) a fait récemment son apparition pour combler le manque de chefs d’orchestre dans ce domaine. Et le CDO occupe désormais un rôle prépondérant. « Il y a un an, le CDO de l’Etat était perçu comme un matheux avec un sens stratégique. Aujourd’hui, il effectue un travail juridique, il aide à repenser les secrets fiscaux, les secrets des affaires, à rendre la donnée circulante », indique Henri Verdier, Chief Data Officer pour l’Etat français.

Ironie du sort, dans le recrutement également le business modèle est transformé par le traitement algorithmique des données. « Si vous traitez uniquement les données du candidat et que vous appliquez les critères de sélection les plus objectifs, vous arriverez probablement à un meilleur recrutement » indique Brian S. Connelly de l’Université de Toronto. Fort de ce constat, de nouveaux chasseurs de têtes numériques émergent et intègrent une culture du “matching” de données jusqu’alors réservée aux sites de rencontre !

« Nous avons des ordinateurs qui peuvent faire de plus en plus de métiers, cela va changer la manière dont nous envisageons le travail. Il n’y a pas d’autre alternative. Vous ne pouvez pas imaginer que ça n’arrivera pas » affirme Larry Page, le CEO de Google, au le Financial Times. Gageons qu’il ait raison. Il faudra néanmoins des experts de l’analyse pour éclairer d’un point de vue stratégique les besoins de chaque entreprise.

Big Data et algorithmes… selon :  

« Les algorithmes sont 100 fois plus efficaces qu’il y a 20 ans. »
John Holdren, conseiller scientifique du président Obama.

Les chiffres clés :

  • 2 % des internautes gèrent régulièrement leurs cookies.

Pour aller plus loin :