28/09/2011

Big Data et autres enjeux des services d’extension de notre cerveau

Author: Romain Dehaudt, Head of Revenue & Operations

Alors que j’étais en voiture (et pas dans un train, pour une fois), en route vers Bordeaux, j’écoutais la “Tête au carré” d’hier, qui portait sur la possibilité que des neutrinos dépassent la vitesse de la lumière. Oui, vous savez, l’annonce faite par le CNRS/CERN vendredi dernier et qui a fait couler beaucoup d’encre. Dans cette émission réjouissante, le responsable de l’équipe qui avait fait la mesure était venu expliquer et discuter de l’expérience, avec d’autres scientifiques et les auditeurs, dans un bel exemple d’humilité du scientifique conscient que la science n’est jamais exacte, et ayant épuisé les vérifications pour son compte, verse le contenu au monde afin que chacun puisse en juger et voir s’il n’y a pas un détail obscur qui lui aurait échappé. Car, dans cette affaire, tout est question de marges d’erreurs et de l’existence ou pas d’un facteur ignoré qui aurait faussé la mesure.

C’était passionnant, accessible et presque jubilatoire et je m’en suis rappelé en lisant hier soir ce papier de TechCrunch consacré aux Big Data, d’une part, et en partageant cette infographie de Onlinecolleges sur les services d’externalisation de capacité cérébrale que représente Google.

Big Data, the next big thing

Les discussions sur le Big Data ne sont pas nouvelles. Il y a un vrai affrontement entre les tenants d’une théorie que les données détiennent la vérité et qu’il n’y a qu’à presser le citron pour la faire sortir, et ceux qui soutiennent, j’en suis, qu’à ignorer l’environnement et le contexte de capture des données, on risque de leur faire dire tout et son contraire. Allez lire les 6 provocations aux Big Data de Danah boyd et Kate Crawford, reprises et traduites sur InternetActu, Ça a déjà deux ans d’âge et ça n’a rien perdu de sa pertinence.
Les données sont un potentiel et c’est ce que l’on en fait qui compte. A ce titre, le vrai sujet que tout le monde a compris, c’est que les données sont LA nouvelle ressource économique de l’économie digitale. Et c’est là que l’infographie ci-jointe est bonne à illustrer quelque chose, même si le logo Google est un peu seul et qu’il devrait y en avoir des centaines, celui de Facebook notamment.

 


C’est l’essence même du net, depuis le web 2, de proposer des produits qui échangent de la donnée contre du service, démontrant par là-même notre appétit à externaliser des choses que notre cerveau stockait ou faisait avant, pour en disposer via des aides technologiques accessible en tout temps et tout lieu. Nous touchons ici à l’essence même de la société de l’information, de l’entreprise en réseau, de l’intelligence collective, bref du nouveau siècle.

Non, nous ne mutons pas du cerveau, mais nous perdons quelque chose de la manière dont nous nous en servions au XXe siècle, pour préférer un gain en vitesse et en décision au XXIe siècle. C’est un progrès pour l’humanité, mais nous ne devons pas nier que cela engendre une certaine superficialité des choses, même si je préfère pour ma part un internaute actif à un téléspectateur passif.

Big Data, gros enjeux, petit débat

Ce qu’il y a avec les Big Datas, c’est que nous sommes passés à un nouveau stade des enjeux. Il y a encore 5 ans, le débat était sur les données personnelles ou sur ce que Google pouvait bien faire de ce qu’il connaissait de nous et de nos recherches en ligne, etc. Tout le monde était d’accord sur la valeur d’exploitation de ces données et personne ne doute que les immenses valorisation des géants du web sont assise là-dessus.
Evidemment, c’est dans les services qu’ils construisent sur la connaissance de ces données que le cash se génère. Et si, dans un premier temps, ou par défaut, c’est au motif de vendre du profilage et de la capacité marketing que les choses se sont développées, l’heure est venue au développement d’autres gammes de services et de nouveaux marchés.
Je citerai bien sûr la datavisualisation (visualisation de données). Cela va de la vogue des infographies (que l’on prend trop pour argent comptant) aux solutions de visualisation et de dashboarding. La Business Intelligence les a précédés. L’extension du domaine des données n’est que le terreau de celui de l’aide à la décision. C’est simple, c’est clair, la ligne d’horizon de productivité et de performance d’organisation parfaitement dégagée. Cela n’empêche pas des masses d’entreprise de n’avoir pas compris ce mouvement de fond. Dommage pour eux.
Je citerai ensuite la quantification de soi, tout à fait caractéristique d’un potentiel de marché immense associé à ce qu’on peut appeler un narcissisme des données. J’y raccrocherai volontiers celles de la maison, qui me permet de dire à quel point EDF a une vision étriquée de son fameux compteur intelligent, les usagers en colère le lui rendant bien, dans leur désir d’accéder à ces données pour eux-mêmes ! J’étendrais surtout le score à MyData, initiative aussi inattendue que réjouissante de marques qui auraient donc compris qu’à rendre les données et la capacités d’analyse et d’intelligence à leur clients, elle gagneront en performance. J’en salive d’avance.
Et je n’oublierai pas l’opendata, tout ce qu’il y a de plus caractéristique de modèles ouvert, ciblant la création de valeur au-dessus de données ouvertes et dans un esprit de démocratie et de transparence cher à l’ADN du web.

Big Data, quelles données ? qui pour les garantir ?

Les données sont l’enjeu et l’élément central de l’économie moderne. Mais avant de théoriser sur les approches et le potentiel à leur exploitation, il faut bien méditer sur leur fabrication. C’est là que j’en reviens à mes scientifiques. Car dans l’histoire des neutrinos du CERN, il y a le doute sur la valeur des données résultantes de l’expérience. Le doute, celui qui consiste à ne pas prendre la donnée pour argent comptant, à en ouvrir les conditions de génération et de collecte au plus grand nombre, seule manière que la science a inventé, depuis la nuit des temps, pour gagner en certitudes.
Il n’y aura pas de Big Datas sans transparence sur les données et sans transparence sur la génération des données. C’est aussi l’enjeu qui va se poser pour l’opendata, dès que l’on aura passé le cap de la transformation de sa promesse. A ouverture des données, ouverture sur la collecte et la fabrication des données, certitudes sur la viabilité des données à leur valorisation pour du service. Je me vois personnellement mal faire le pari de lancer des services au-dessus de données dont je ne mesure pas la qualité et la durabilité. Et pour faire cette évaluation là, rien de tel que l’intelligence collective et le débat, la démocratie.

gallery image