Internet des objets, Cloud et Big Data Innovation Lab

SAS FORUM 2015 - Séance plénière #2

Que puis-je savoir ? Que dois-je faire ? Que m’est-il permis d’espérer ? Trois questions auxquelles les philosophes ont longtemps tenté de répondre. La révolution numérique apporte elle aussi son lot de questions. Entre « uberisation » et « kodakisation » une réponse s’est peu à peu imposée comme une évidence pour les entreprises qui ne sont pas directement issues de l’ère digitale : se transformer pour ne pas subir.

Au cœur de cette transformation le chantier relatif aux données, impose des orientations technologiques nouvelles et de faire bouger les lignes d’organisations parfois peu adaptées à ces enjeux. Il nécessite de favoriser l’émergence de nouvelles compétences, mais aussi de nouveaux comportements, voire de nouvelles cultures : culture de la donnée, culture analytique, culture du partage et de l’ouverture, culture de l’expérimentation.

Technologies. Culture. Organisation. La deuxième séance plénière de SAS Forum 2015 faisait le point sur  ce nouveau « TCO » de la transformation numérique

La « deuxième économie » et ses réflexes

« L'innovation des entreprises est désormais tirée par le numérique » lançait Mouloud Dey pour ouvrir cette deuxième séance plénière. Du téléphone à l'automobile, cette « seconde économie » numérique est absente des statistiques officielles, mais le cabinet McKinsey estime son poids à quelque 110 milliards d'euros en France, et plus d'1,5 million d'emplois.

Cette « seconde économie » obéit à des règles du jeu nouvelles : des rendements croissants (où souvent le vainqueur emporte toute la mise), des business-models innovants (incluant notamment la gratuité de certains services), une forte désintermédiation qui bouscule les chaînes de valeur...

Elle possède son système nerveux propre, avec l'usage généralisé des technologies numériques. Les entreprises nouvelles maîtrisent ce système nerveux, et les réflexes liés aux nouvelles technologies – un peu comme ces entreprises qui, au tournant du XXe siècle, avaient pris le virage de l'électricité. Pour les autres, une transformation est indispensable pour rester en phase avec le consommateur/citoyen qui, désormais, dicte le rythme de l'innovation.

Et Mouloud Dey prévient : « Le rythme du changement s'accélère... et nous ne sommes qu'au début de la courbe exponentielle ! » 

L'Internet des objets et « l'entreprise perceptive »

La première raison de cette accélération à venir, c'est l'arrivée de l'internet des objets, qui n'en est qu'à ses débuts. « Pour l'heure nous voyons surtout des gadgets, mais le phénomène s'installe progressivement »... au point qu'on prévoit, à terme, plusieurs dizaines de milliards d'objets connectés ! « Tout cela va changer la fabrication et la commercialisation des biens et des services », conclut Mouloud Dey.

Kiron Shastry, partner chez Accenture, déploie sa vision de « l'entreprise perceptive » : celle qui saura tirer parti de l'analytique pour transformer toutes les données des objets connectés -y compris en mobilité- en informations exploitables pour développer des services nouveaux. Certains secteurs sont plus avancés que d'autres dans ce domaine. Des exemples d'applications existent déjà dans la santé (traitement des cancers, par exemple), l'industrie ou les transports (systèmes anti-collision). Sans oublier l'énergie, avec l'optimisation permanente des consommations dans les bâtiments dits « intelligents ».

Du batch au stream : un tournant pour l'analytique

« L'internet des objets est à nos portes. A nous de le laisser entrer ou non, mais il est là », poursuit Mathias Coopmans, de SAS. Il insiste lui aussi sur le rôle capital que jouent les processus analytiques dans le monde des objets connectés. En retour, il constate que l'internet des objets engendre aussi de nouveaux défis pour l'analytique. « Nous passons peu à peu du système traditionnel des batches à un système de stream, où les données sont gérées en continu », explique-t-il. Un système où les requêtes préexistent et où la donnée « passerait à travers » pour des analyses (et des actions) en temps réel.

Cette analytique de stream peut s'appliquer à trois niveaux :

  • prendre l'information d'un capteur donné pour déclencher des actions simples, à l'image des capteurs implantés dans les pneus des avions : « dans 99,99999% des cas, le capteur ne fait qu'indiquer au pilote que le train de pneus est bien remonté ; mais dans le 0,00001% de cas restants, l'info est capitale ». C'est ce qu'on appelle l'analytique « on the edge »
  • l'analyse multi-sources qui croise les données de plusieurs objets (au même instant) pour chercher des corrélations. Analyser tous les capteurs d'un véhicule, pour disposer d'une meilleure information sur sa sécurité entre deux révisions, par exemple.  
  • l'analyse « out of streams », qui « croise les informations d'une série de capteurs individuels avec celles d'une base de données existante pour créer de l'intelligence ». Des applications existent en médecine, par exemple - pour analyser en direct la réaction du corps d'un ou plusieurs patients dans une situation donnée.

Cloud, Hadoop et « pervasive analytics »

Pour Romain Picard, responsable pour l'Europe de la start-up Cloudera, l'internet des objets consacrera ce qu'il appelle « l'analytique omniprésente ».

« Nous passons d'une société orientée process à une société orientée données », explique-t-il. Aujourd'hui, nos clients ont besoin de s'adapter le plus vite possible à leur environnement. Impensable d'attendre des mois pour modifier un tableau de bord, ou un moteur de recommandation ! » Pour certaines organisations, le temps réel est même devenu un élément critique.

Les solutions « cloud » et Hadoop constituent la meilleure réponse possible à ce besoin. « Face au modèle traditionnel des entrepôts de données, Hadoop s'impose aujourd'hui comme le nouveau modèle des entreprises en pleine transformation numérique », confirme Mouloud Dey.

Mais si le cloud permet de baisser les coûts de l'analytique en temps réel, son utilisation requiert tout de même, dit-il, trois éléments indispensables : une plateforme, une équipe... et un réseau pour pouvoir échanger, et rester en lien avec un centre d'expertise Big Data.

Quick fails et innovation labs

Ce centre d'expertise, SAS l'a mis en place, avec le Data Innovation Lab. Un laboratoire d'un genre nouveau où les équipes SAS peuvent expérimenter en lien avec leurs clients. L'originalité ? « Nous ne testons pas les technologies, mais les données, pour voir toute la valeur potentielle qu'on peut y trouver », explique Mathias Coopmans. Le Data Innovation Lab propose un environnement isolé, propice à toutes les explorations sur les données réelles de l'entreprise.

Nombre de ces expériences ne mènent « à rien d'autre que gonfler les données », reconnaît-il volontiers. Mais l'expérimentation ne coûte pas grand-chose, et on peut rapidement éliminer les fausses bonnes idées – des « quick fails » qui sont le lot quotidien de toute organisation innovante... « Et dès que nous repérons une initiative porteuse d'une vraie valeur ajoutée, nous pouvons très vite en estimer les bénéfices, et sortir du labo pour monter vers les métiers ! »

Le numérique dans l'ADN des entreprises

Un peu plus tôt dans la journée, Mouloud Dey avait salué ce mouvement de l'analytique vers les métiers : « en passant du descriptif au prédictif, puis du prédictif au prescriptif, l'analytique s'éloigne du bureau d'études pour se rapprocher des métiers et des process de décision », constate-t-il. L'objectif, à terme, serait que « le numérique s'inscrive dans l'ADN des entreprises », en intégrant ces éléments essentiels que sont la culture du partage, celle de l'expérimentation (donc de l'échec!) et la capacité à « pivoter » en étant capable d'adapter rapidement sa stratégie aux changements d'environnement.

Les nouveaux métiers de la transformation numérique

La démocratisation de l'analytique dans les entreprises s'accompagne de nouveaux métiers autour de la donnée. Certaines ont nommé un Chief Data Officer mais le poste reste rare, et réservé aux entreprises suffisamment mures pour se doter d'une véritable gouvernance des données. On trouve en revanche un nombre croissant de Data scientists. Encore très neuf, le métier n'a pas encore de contour précisément défini. Pour y voir plus clair, Jérémy Harroch, fondateur du cabinet Quantmetry, décrit les trois compétences-clés qu'on peut attendre d'un Data Scientist :

  • la capacité à coder (peu importe le langage),
  • la maîtrise des statistiques, pour savoir interroger la donnée,
  • des compétences business, pour sortir des modèles et composer avec la dure loi de la réalité.

Mais les compétences ne sont pas tout, prévient-il : « comme les nouveautés sont constantes, les juniors peuvent être plus compétents que les seniors. Il faut savoir organiser tout ça... »

Le profil-même de ces nouveaux professionnels peut dérouter, par leur envie de briller... et pas en exhibant un beau diplôme. « Le diplôme compte, certes, mais on peut briller dans les hackatons, sur des blogs, dans des articles scientifiques... »

Pour trouver ces oiseaux rares, conclut-il, on pourra se tourner vers quelques mastères spécialisés (X ou Telecom Paris...), vers des post-docs en physique... ou via la filière SAS Spring Campus. Autant de profils qui se sont retrouvés sur le Forum Data job organisé fin novembre par Quantmetry.


sas-forum-france-2015-196

Intervenants :

Mathias Coopmans, Mouloud Dey - SAS France, Jérémy Harroch - Quantmetry, Romain Picard - CLOUDERA FRANCE SARL, Kiron Shastry - ACCENTURE.

A lire également

Plus d'informations


Vous souhaitez obtenir d'autres informations de la part de SAS ?
Abonnez-vous à notre bulletin d'information Insights ou consultez régulièrement cette rubrique pour suivre les sujets qui vous intéressent : analytique , big data , data management , marketing , risque et fraude .