ou ENREGISTREZ VOUS Nous suivre :
Centre national de ressources et d'information sur l'intelligence économique et stratégique

L'intelligence économique à la rencontre du Big Data (1/2)...

Dans le cadre de notre coopération avec la CCI Paris Ile-de-France, Denis Deschamps, responsable du département Innovation et Intelligence Économique, nous livre son analyse du Big Data et notre entrée dans un nouveau paradigme. Bienvenue dans un monde « open » !

Avec la commercialisation du premier Iphone en 2007, puis des premières tablettes connectées en 2010, nous avons tous bien pris la mesure de la transformation numérique qui, engagée en 2000 avec la libération de l’accès aux données GPS, a révolutionné notre environnement à un tel point que le professionnel ne se distingue plus vraiment aujourd’hui du personnel.

Au bout de ces 15 ans d’histoire numérique[1], nous utilisons en effet chaque jour des 2 applications[2] qui, outre la valeur ajoutée qu’elles génèrent (par des gains de productivité, des économies de moyens) influent grandement sur notre écosystème, y compris notre environnement individuel (par exemple, avec le développement du thermostat intelligent, de la balance connectée...). Aussi, après les réseaux sociaux qui ont conduit à un besoin de stockage massif de données de nature variée, de nouvelles interfaces devraient bientôt voir le jour avec l’Internet des objets, l’homme connecté et l’écran pourrait alors n’être plus qu’accessoire par rapport à des ressources tierces.

De nouvelles pratiques, de nouveaux concepts, de nouveaux modèles (ainsi : G2B, B2C, C2C, B2B... au choix !) ont ainsi vu le jour avec cette disruption numérique qui contraint chacun à se réinventer en permanence, pour pouvoir idéalement se situer dans la logique opportuniste de « coopétition » et répondre à l’impératif global du « ROI ». Dans un monde où la proximité, n’a plus rien vraiment de physique, la territorialité n’a plus de sens, parce que chacun y est marqué par l’ultramobilité, avec la possibilité qui lui est donnée d’être à la fois là et partout, nous évoluons tous finalement dans un contexte largement « open ».

Or, cette ouverture affichée qui, par-delà la période héroïque / historique antérieure de l’informatisation - qui recouvre informatique et information - générale de la société, traduit le changement de paradigmes dont on peut chaque jour faire le constat dans nos activités :

  • Le développement du numérique a considérablement accéléré le cycle de l’innovation (dont l’objet est de créer la rentabilité dans le futur), avec une production qui est de plus en plus fragmentée en fonction des avantages comparatifs des tâches. Aussi, ces dernières sont-elles désormais pesées à l’aune des critères de «l’économie de fonctionnalité » (on souhaite un service / produit de qualité correspondant très exactement à l’usage qu’on compte en faire) et également, de plus en plus, de « l’économie de la gratuité et du partage» qui implique progressivement un effacement du produit devant le service (avec une valeur désormais fondée sur la masse, c’est-à- dire le nombre de personnes connectées et la récurrence de leur connexion qui permet d’enrichir le service...) ;

  • Cette accélération rend nécessaire une plus grande « agilité » des firmes, pour faire évoluer rapidement leur « business model » et réduire leur temps d’accès au marché (le fameux « time to market »). Il est ainsi fort légitime que chacun souhaite un produit / service correspondant à sa problématique propre et non un « produit sur étagère » indistinct parce que « collectif » ;

  • Plutôt que la démarche incrémentale traditionnelle, les groupes s’orientent eux aussi vers un mode de travail « collaboratif » avec les start-ups, afin notamment d’améliorer en continu leur offre de services. Cette démarche essentiellement participative / interactive repose alors le plus souvent sur une intelligence connective (en particulier, la mutualisation des connaissances des développeurs) qui, au travers de l’agora numérique ainsi créée en « open source », permet de penser autrement (« think out of the box »), voire et à partir de tests réguliers, de réagir de manière plus agile (« lean start-up »...)

On évoque alors la notion d’Open Innovation qui permet plus particulièrement à des entreprises « leaders » de simplifier et personnaliser leur offre de services, grâce à la prise en compte effective et immédiate de l’expérience client, et de transformer à moindre coût de développement (par exemple, acquisition d’une brique technologique ou fourniture d’une nouvelle vision du business model par une start-up), leur prestation de services.

En lien avec cette « open innovation », l’emprise grandissante depuis 2011-2012 du Big Data - qui ne peut en fait que croître de manière exponentielle avec la « servicisation » de l’économie et l’archivage numérique systématique des données - devient maintenant le caractère déterminant / dominant de l’open-attitude dans un monde devenu totalement « quaternaire » ; en contraste total d’ailleurs avec la période précédente, que l’on sait plutôt marquée par un accès extrêmement difficile aux données publiques (y compris pour les décideurs politiques eux-mêmes) et également personnelles.

Rappelons brièvement quelques définitions :

  • Open Data (ou Data Sharing) : mise à disposition des données publiques

  • Open Access (ou Archives Ouvertes) : diffusion des publications avec un accès gratuit pour le lecteur, mais qui est payé par celui qui publie ou un sponsor...pour permettre une diffusion plus rapide des résultats de recherche et également accroître les possibilités d’extension de cette recherche, via des blogs, wiki... Et Open Science : promotion des travaux scientifiques sur les réseaux sociaux comme Facebook, Twitter...

L’ouverture généralisée de l’accès aux données peut aisément se comprendre quand on a bien intégré l’idée que la Data (donnée) individuelle n’a pas de valeur intrinsèque et n’est pas appropriable, sachant que seule son exploitation en masse (soit un traitement par algorithmes de métadonnées / Big Data) est vecteur de progrès et de croissance (on évoque ainsi à propos du Big Data, la notion de « disruption par la donnée »...). Le Big Data - ou analyse automatisée de quantités massives de données individuelles grâce notamment au « machine learning » (ou apprentissage automatique, en vertu duquel les ordinateurs apprennent à partir des données qui leur sont transmises, et ne se contentent plus simplement d’exécuter des algorithmes) pour en faire en quelque sorte du Smart Data-, est donc un des  enjeux essentiels de l’évolution de métiers de services aux entreprises, comme plus particulièrement le conseil en intelligence économique qui est « caractérisé par sa capacité à trouver, protéger et exploiter l’information qualifiée ».

D’ailleurs, dans l’entreprise cliente elle-même (qu’elle soit industrielle ou de services), la collecte des données et le croisement des informations constituent un enjeu majeur qui doit nécessairement faire l’objet d’un « slow-management » (autrement dit, d’une démarche extrêmement prudente et progressive) pour éviter les 70% d’échecs constatés dans la mise en place de systèmes d’informations. Rappelons à cet égard que, selon une étude Roland Berger récente, l’automatisation de 42% des emplois est aujourd’hui possible et que, s’agissant plus particulièrement des métiers de l’information, le Big data se traduit bien évidemment par des perspectives de traitement surmultipliées avec un gain de temps considérable. De même pour l’Open Innovation qui, certes, permet d’investiguer de nouveaux territoires, d’améliorer sa compréhension de nouvelles tendances, mais qui peut comporter certains dangers majeurs quand la valeur économique créée en commun (« value creation ») n’a pas été bien appropriée par chacun des partenaires (« value capture ») dans le cadre d’une road-map ou d’un business plan défini d’un commun accord (comprenant : partage de la valeur, gestion des revenus, de la propriété intellectuelle).

En effet, « la donnée n’est pas donnée », mais bien obtenue, sinon fabriquée... c’est-à-dire qu’elle résulte d’un processus reposant sur une convention sociale qui l’éloigne de toute certitude de pouvoir disposer d’une mesure (au sens étalonnage) véritablement neutre ou « objective » (par exemple, sur le choix libéral / keynésien des indicateurs qui permettent de quantifier le niveau de chômage...).

Il faut enfin souligner le caractère très menaçant du contexte actuel de « guerre des capitalismes » qui, bien au-delà de la « fin de l’histoire » (1989) et, par-dessus les firmes, est une lutte des grands Etats comme les USA et la RPC pour assurer leur totale suprématie sur les marchés mondiaux, via notamment la maîtrise de la « data » reconnue comme une ressource stratégique...

Les « datanomics » (économie de la donnée, matière première à laquelle on applique des algorithmes / prédiction des comportements pour maximiser la performance) consécutives à la numérisation du monde se traduisent ainsi aujourd’hui par un développement du capitalisme cognitif dont la devise (currency) est la data (pourtant, d’après ce l’on devine, le « numérique » ne génèrerait pas en soi de l’emploi, ni même ne contribuerait vraiment à la croissance du PIB...).

Or, dans ce système global reposant entièrement sur les actifs immatériels, les USA mettent en avant leurs outils et plateformes d’intermédiation (comme FB...) qui leur assurent une prépondérance d’autant plus grande que toutes les données européennes y sont captées. Les chinois et les russes semblent, quant à eux, avoir été plus prudents que nous ne le sommes sur le vieux continent... en conservant la maîtrise totale du stockage de leurs données, et en privilégiant des moteurs de recherche et des réseaux sociaux « nationaux ».

Denis Deschamps

[1] En 15 ans, le nombre d’Eo (Exa-Octet correspondant à 10 puissance 18 octects) produit a été multiplié par 300
[2] Celles-ci représentent en 2014 un CA de 8 Milliards de $ pour Apple + Google
[3] La part du PIB mondial produite par les services (65%) devrait encore considérablement augmenter dans les prochaines années.
[4] Le développement des objets connectés, de la maison intelligente va nécessiter la constitution de « Data Center » de plus en plus puissants, de plus en plus énergivores (aujourd’hui, 1% de la consommation d’électricité dans le monde, à terme 5 à 7%...)
[5] Par exemple, création en France en avril 2015 de la première Base Adresse Nationale (BAN) collaborative française gratuite. La BAN consiste à associer à chaque adresse répertoriée sur le territoire français (25 Millions d’adresses) des coordonnées géographiques (A noter : aucune donnée nominative sur data.gouv.fr).

Diplômé de Sciences-Po Paris (1989), Denis Deschamps dirige depuis 2006 l'ARIST Paris Ile-de-France (Agence régionale d'information stratégique et technologique) et est par ailleurs responsable du département innovation et intelligence économique de la CCI Paris Ile-de-France. Entre 2000 et 2006, il a été Secrétaire général du CROCIS (Centre régional d'observation du commerce, de l'industrie et des services), puis responsable du pôle études régionales, information stratégique et technologique de la CCIP.

Catégorie : TIC et systèmes d'information
Dernière modification le 03/06/15

Derniers articles de la rubrique

Vidéo
Twitter