Le terme Big Data signifie littéralement « grosses données », il se réfère à l’apparition de masses de données exploitables d’un volume sans précédent et en augmentation exponentielle. Á titre d’exemple, Facebook possède des données sur 26 millions d’utilisateurs actifs en France, soit près de 40 % de la population. La première mention du terme Big Data apparait en 1997 dans un article produit par des scientifiques de la NASA pour désigner le problème de la visualisation de données devenues trop volumineuses.
Au-delà des données, le Big Data désigne l’analyse qui en est faite et les effets révolutionnaires qui en découlent, que ce soit pour la rentabilité des entreprises ou les actions de la vie quotidienne. En France, dès 2009, le Crédit Mutuel Arkea a versé l’ensemble de ses données dans un système Hadoop, obtenant ainsi des analyses en temps record sur l’ensemble de ses opérations. Ce potentiel commence à être connu du grand public en 2011, notamment grâce à une étude du McKinsey Global Institute “Big data: The next frontier for innovation, competition, and productivity.”
Aujourd’hui, aucune activité n’échappe aux applications du Big Data. L’agriculture voit se multiplier les capteurs dont l’analyse des données permet d’améliorer la productivité des sols, et dans le domaine des assurances, l’analyse de masses de données est utilisée pour calculer les primes d’assurance individuelle. La ville de Santa Clara estime à 20 % la baisse de la criminalité induite par l’utilisation du logiciel Predpol qui prédit les futures infractions sur la base de l’analyse de 13 millions de crimes réalisés. Toutefois, produire des analyses pertinentes à partir de masses de données reste une tâche extrêmement délicate. Ainsi le logiciel Google Flu Trends, conçu pour prédire la propagation de la grippe aux États-Unis, a connu un échec, en raison d’erreurs commises dans la construction de l’algorithme.
Le Big Data constitue une formidable opportunité de création de valeur dont les entreprises françaises prennent rapidement conscience. L’Association française des éditeurs de logiciels estime la création de richesses liée au Big Data en France à 2,8 milliards d’euro et 10 000 emplois directs d’ici à 2019. En outre, l’édition 2014 du Big Data Index révèle qu’en France 43 % des directions informatiques ont étudié les opportunités induites par le Big Data, contre seulement 7 % en 2012.
Une révolution technologique
L’histoire de l’utilisation massive de données est déjà longue et se confond avec l’évolution de la statistique, mais le Big Data constitue aujourd’hui une rupture grâce à l‘interaction entre deux évolutions majeurs.
1. L’explosion du volume et de la variété des données disponibles.
2. L’apparition de la technologie nécessaire au traitement de ces données à une vitesse s’approchant de l’instantané.
Des atouts français
La France dispose d’un système académique particulièrement performant dans les disciplines sur lesquelles s’adosse le Big Data. La demande de compétences autour du Big Data pourrait atteindre 4,4 millions d’emplois dans le monde en 2015 et seuls 40 % devraient être satisfaits. En France, les créations de diplômes se multiplient pour répondre à ce besoin. L’ENSAE, référence dans le domaine de la statistique, propose une spécialisation en « Data Science », de même que Télécom ParisTech, Télécom Nancy ou Grenoble INP. Les écoles spécialisées dans l’informatique, comme l’Epita, Ionis-STM ou l’Ensimag ont aussi rapidement adapté leur offre de formation pour y inclure le Big Data.
En outre, un tissu de start-ups françaises couvrant toutes les activités du Big Data est rapidement apparu :
Aujourd’hui, il existe une volonté politique claire de soutenir ces atouts avec l’ambition affichée de faire de la France l’une des références mondiales de la gestion de masses de données. Ainsi le Big Data a été inclus dans les 34 plans de la nouvelle France industrielle présentés par le gouvernement en octobre 2013. Le plan Big Data vise à soutenir l’offre de formation et les start-ups françaises, mais aussi à adapter la réglementation jugée trop contraignante par plusieurs acteurs économiques.
D’importants blocages
Malgré des atouts certains et une volonté des pouvoirs publics, les entreprises françaises peinent à intégrer le Big Data. Sur une échelle de 0 à 5, le Boston Consulting Group évalue ainsi la maturité des entreprises françaises en matière de Big Data entre 1 et 2, contre 3 à 4 pour leurs homologues Outre-Atlantique. Selon une étude publiée par le cabinet Ernst & Young, seules 18 % des entreprises françaises sont en phase de déploiement de projets et les deux tiers des firmes considèrent que le Big Data est un concept intéressant mais encore trop vague pour constituer un levier de croissance.
Dans ce cadre, le coût du développement d’un projet de Big Data est encore dissuasif. Selon l’institut IDC, 45 % des entreprises interrogées ont dû dépenser entre 100 000 $ et 500 000 $ pour réaliser la migration de leurs bases de données vers Hadoop et 30 % d’entre elles, plus de 500 000 $.
Mais le principal blocage réside certainement dans la réticence des entreprises françaises à confier leurs données à de professionnels afin d’en permettre l’analyse. Selon l’International Data Corporation 70 % des données détenues par les entreprises ne sont toujours pas exploitées à des fins de création de connaissance.
En conclusion, le Big Data n’a pas réellement décollé en France et les champions du secteur restent américains. Cette situation est inquiétante dans la mesure où la maîtrise des données et leur analyse permet aujourd’hui d’obtenir une connaissance presque parfaite des actions d’un individu, d’une entreprise ou d’un gouvernement. Le Big Data est un important facteur d’accroissement de puissance dont il est indispensable que la France devienne un champion sous peine de voir nos données analysées par des acteurs étrangers. Selon Charles Huot, président du GFII et de l’Alliance Big Data, la maîtrise et la collecte de ces données seront certainement l’enjeu majeur du XXIème siècle.
Maxime Fernandez