Big data : qui sont les maîtres de la donnée ?

Big data : qui sont les maîtres de la donnée ?

Viktor Mayer-Schönberger et Kenneth Cukier font l’inventaire vertigineux des nouvelles applications que l’exploitation des big data fera naître. Facebook, Google, Amazon, Apple y sont les maîtres du jeu. 

Temps de lecture : 5 min

Sommes-nous vraiment capables de concevoir le gigantisme ? Google traite quotidiennement plus de 24 pétaoctets de données (24 millions de milliards d’octets), soit, en volume, des milliers de fois la quantité de tous les documents imprimés de la bibliothèque du Congrès américain ; sur le site de Facebook, qui n’existait pas il y a dix ans, plus de 10 millions de nouvelles photos sont téléchargées toutes les heures ; les membres du réseau social créé par Mark Zuckerberg cliquent sur un bouton « J’aime » ou écrivent un commentaire près de trois milliards de fois par jour ; dans le même temps, les 800 millions d’utilisateurs par mois du service YouTube de Google téléchargent plus d’une heure de vidéo par seconde ; alors que le nombre de messages sur Twitter augmente de près de 200 % par an pour dépasser, en 2012, les 400 millions de tweets par jour…

Publié en 2013 aux États-Unis, traduit et présenté en France en début d’année 2014, Big data, La révolution des données est en marche est un livre-clé pour faciliter la compréhension de l’ampleur du phénomène des données numériques au niveau mondial.
 C'est un livre-clé pour comprendre l’ampleur du phénomène des données numériques au niveau mondial. 
Viktor Mayer-Schönberger et Kenneth Cukier, ses auteurs, sont des observateurs affutés de l’univers de la nouvelle économie numérique. Le premier est professeur à l'Institut Internet de l’université d’Oxford, tandis que le second, éditeur « data » au magazine britannique The Economist, collabore aussi au New York Times et au Financial Times . Leur ouvrage est découpé en chapitres concis et éclaire le lecteur de façon très pédagogique et globale : « des sciences au secteur de la santé, de la banque à l’Internet, les secteurs varient mais tous racontent la même histoire, rappellent-ils : la quantité de données à travers le monde augmente à grande vitesse, ce qui dépasse non seulement la capacité de nos machines, mais aussi celle de notre imagination. »
 
Les auteurs, dans un premier temps, rappellent que la surabondance des données transforme même notre appréhension et notre interprétation des informations nous entourant. Jusqu’à présent en effet, les chercheurs en sciences sociales basaient leurs études sur des échantillonnages de données relativement faibles. Depuis l’apparition, aux États-Unis, des premiers sondages politiques au milieu du XXe siècle, leur travail consistait à extrapoler, moyennant savantes (et quelques fois trompeuses) modérations et corrections, le résultat obtenu à partir d’observations recueillies fastidieusement, selon le bon vouloir et la plus ou moins bonne foi des « enquêtés » interrogés. Une fois les données interprétées (sur quelques milliers de réponses dans les meilleurs des cas), les chercheurs établissaient un rapport de cause à effet. Mais aujourd’hui, à changement de siècle, changement d’échelle, de méthode de travail et de gouvernance : au XXIe siècle du « big data », les études se conduisent à échelle « n = tous » ; ceux qui les possèdent et les manipulent ne sont plus forcément les mêmes donneurs d’ordre : aux partis politiques, États, multinationales qui commandaient les sondages ou études de notoriété sur tels produits ou programmes économique ou social, ont succédé les géants de la nouvelle économie. Les Facebook, Amazon, Google dont nous livrions les capacités de collecte au début de cet article, sont les nouveaux maîtres du jeu, tant ils contrôlent et exploitent les chiffres que les internautes leur transmettent, en réalisant de subtils algorithmes qui les rendront monnayables et économiquement juteux ! Ils permettront aux ingénieuses start-up qui s’engouffrent dans cette « économie de la donnée » et des grands groupes mondiaux qui en ont les moyens financiers, voire aux services publics tournés vers l’open data, de proposer des solutions à partir des interprétations tirées des données recueillies.
 
Par exemple, Amazon n’a dû son décollage économique, rappellent les auteurs, qu’à la lumineuse intuition qu’il fallait suivre à la trace l’utilisateur de cette plateforme pour lui faire des recommandations personnalisées : c’est parce que les « data analysts » du site ont emmagasiné les traces laissées par chaque internaute sur telle ou telle page, des achats que chacun a réalisé, du temps passé dans telle ou telle rubrique, etc. que les ventes ont connu des augmentations suffisamment importantes pour distancer les concurrents de ce désormais hypermarché en ligne.
 
Plus déconcertant, l’exemple donné par les auteurs sur la capacité d’un magasin américain (Target) à prédire qu’une consommatrice habituée à acheter ses produits courants dans cette enseigne est enceinte et à quelle date elle accouchera : les spécialistes marketing de cette chaîne de magasins ont en effet compilé les listes de courses faites par les femmes en âge de procréer et ont établi qu’elles avaient l’habitude d’acheter tels produits cosmétiques à quelques mois de la future naissance, puis tels compléments alimentaires, puis tels autres produits… jusqu’à pouvoir dater précisément du moment de la naissance, avec suffisamment de certitude pour envoyer un courrier de félicitations, accompagné comme il se doit, d’une offre commerciale pour l’achat de la première layette !
 
Moins vénales, cette démonstrations de la puissance des chiffres utilisés par Google pour prévenir et enrayer des problèmes sanitaires. Grâce à la collecte de données émises, de requêtes d’internautes, de mots-clés… le célèbre moteur de recherche a créé au début des années 2000, un programme capable de prédire l’intensité et la vitesse de la propagation de la grippe et ses zones de contamination aux États-Unis, plus sûrement que les services sanitaires gouvernementaux.
 
Les exemples donnés par les auteurs foisonnent et recouvrent tous les domaines (transports, santé, sécurité des personnes, alimentation, gouvernance…). Ils démontrent que nous entrons dans une nouvelle économie de la donnée : la valeur prédictive de ces analyses permet en effet de transformer les données recueillies en une source nouvelle de valeur économique et d’innovation. Elle modifie aussi la nature des affaires, des marchés et de la société du siècle qui se lève. « Au XXe siècle, la valeur est passée des biens matériels – infrastructures physiques comme les terres, les usines… - aux biens immatériels – les marques, la propriété intellectuelle… maintenant, ce sont les données qui vont devenir un atout précieux, un apport économique vital et la base de nouveaux modèles d’entreprises », expliquent les auteurs.
 
Ce changement d’échelle induit un changement d’appréhension des informations parvenant à tout un chacun : il est pratiquement devenu inutile, expliquent les auteurs, de connaître le « pourquoi » d’une situation, on se satisfait dorénavant du « quoi », au point que nous risquions de devenir incapables d’expliquer les raisons d’une panne par exemple.
 Avec le big data, il est pratiquement devenu inutile de connaître le « pourquoi » d’une situation, on se satisfait dorénavant du « quoi ». 
À ce titre, Viktor Mayer-Schönberger et Kenneth Cukier, expliquent comment, après avoir truffé chacun de ses véhicules sillonnant les routes de la planète, le service de transports UPS change systématiquement certaines pièces mécaniques à la limite de l’usure, évitant casse, accidents et pertes économiques : les relevés d’information sur ces pièces leur ont appris précisément quelle était leur durée de vie et ils n’attendent plus la rupture potentielle, au point d’oublier pourquoi le remplacement est nécessaire. « Des siècles de pratiques établies sont ainsi bouleversées, qui remet en question la façon dont nous concevons fondamentalement la prise de décision et l’appréhension de la réalité, » prédisent les auteurs.
 
Dans leur ouvrage, Viktor Mayer-Schönberger et Kenneth Cukier font l’inventaire vertigineux des nouvelles applications que l’exploitation des big data fera naître. Ils décryptent les futures habitudes de penser et d’agir qu’elles induisent et auscultent le côté sombre de la religion du chiffre et de la donnée que les géants du net pourront en faire : « la plupart de nos institutions voient leur création reposer sur l’idée que le fondement des décisions humaines tient à un petit nombre d’informations exactes et de nature causale.
 « Quelle part reste-t-il à l’intuition, à la foi, à l’inexactitude, à la latitude d’agir en contradiction avec les preuves et à l’apprentissage par l’expérience ? » 
Tout change quand les données deviennent massives, peuvent être traitées avec rapidité et ont une certaine tolérance à l’inexactitude. Les décisions peuvent alors être prises par des machines et non plus par des êtres humains »… De là à redouter une dictature des données qui prendrait le pas sur l’aléatoire et fragile libre arbitre, il n’y a qu’un pas… « Quelle part reste-t-il à l’intuition, à la foi, à l’inexactitude, à la latitude d’agir en contradiction avec les preuves et à l’apprentissage par l’expérience ? », interrogent-ils. La force de ce livre est bien de nous faire prendre conscience du poids et du pouvoir écrasant de ces nouveaux maîtres de la donnée, tout en nous exhortant à ce qui différencie jusqu’à présent l’homme de la machine : la sagesse et la mesure !

Ne passez pas à côté de nos analyses

Pour ne rien rater de l’analyse des médias par nos experts,
abonnez-vous gratuitement aux alertes La Revue des médias.

Retrouvez-nous sur vos réseaux sociaux favoris

À lire également