Sous l’euphorie NVIDIA, les lignes de faille d’un monde porté par l’IA apparaissent [1/2]

NVIDIA signe un trimestre record et confirme son rôle central dans l’infrastructure de l’IA, mais cette ascension s’accompagne de fragilités croissantes : dépendance aux data center, tensions avec la Chine, risque de bulle et limites énergétiques.

NVIDIA confirme sa domination sur les infrastructures IA

Avec 57 milliards de dollars de chiffre d’affaires au troisième trimestre 2025 (+62 % sur un an), NVIDIA dépasse une nouvelle fois les anticipations, alors que le marché s’attendait à un ralentissement après une série de trimestres records. Jensen Huang et Colette Kress soulignent que l’entreprise « continue de naviguer au-delà des attentes initiales », portée par une demande exceptionnelle en capacités d’IA. La direction vise désormais 65 milliards de dollars au quatrième trimestre, contre un consensus à 61,7 milliards, et ne voit aucun signe de normalisation du marché des infrastructures IA malgré l’arrivée de nouveaux acteurs, les restrictions américaines vers la Chine et les craintes d’une possible bulle.

Cette dynamique repose presque entièrement sur les data centers d’IA, qui représentent désormais 90 % du chiffre d’affaires. L’arrivée de la nouvelle architecture Blackwell — annoncée comme dix fois plus efficiente que la précédente — renforce une hégémonie déjà solide. Les investissements massifs d’OpenAI, Microsoft, Google, Meta, Anthropic et de plusieurs États (États-Unis, Royaume-Uni, Allemagne, Corée du Sud) placent NVIDIA au cœur de l’infrastructure technique de l’IA occidentale.

Sur le plan géopolitique, les contrôles américains aux exportations ont provoqué un tournant. Selon Jensen Huang, la part de marché de NVIDIA en Chine sur les puces IA est passée de 95 % à zéro. Au soir de l’annonce des résultat, le groupe travaillait désormais avec l’hypothèse d’une contribution nulle du marché chinois à ses revenus data center : les puces H20, conçues pour contourner les restrictions, n’ayant rapporté que 650 millions de dollars — un montant marginal à l’échelle d’un trimestre à 57 milliards. Depuis le 9 décembre, les puces H200, l’ancien flagship du groupe – avant l’arrivée des puces blackwell – seront autorisées à l’export en Chine moyennant une commission de 25% du gouvernement américain. Malgré plusieurs milliards de dépréciations comptables, NVIDIA ne montre aucun ralentissement, illustrant la dépendance occidentale à ses technologies.

Les marchés ont réagi à la hauteur des chiffres : hausse immédiate de l’action le jour de l’annonce (19 novembre 2025). La capitalisation atteint un nouveau record et creuse l’écart avec la concurrence. Les inquiétudes liées à une bulle IA persistent, mais les performances publiées les atténuent temporairement : la demande dépasse l’offre, les marges atteignent 73 % et la visibilité à court terme demeure élevée.

La menace latente d’un éclatement de la bulle IA

En dépit de performances inédites de NVIDIA, la rhétorique de la bulle IA progresse, portée par un marché actions américain qui pèse 50% des capitalisations mondiales, alors que les États-Unis ne représentent qu’environ 25% du PIB mondial. A l’aune des informations distillées dans les médias, l’argument semble plus intuitif qu’il y a quelque mois, d’autant que les valorisations des géants de l’IA défient les ratios traditionnels. 

Les ratios financiers montrent que les marchés Le Price/Earnings, qui compare le prix d’une action à ses bénéfices annuels, atteint parfois des niveaux qui reviennent à payer dès aujourd’hui plusieurs dizaines d’années de bénéfices futurs. Dans des marchés plus classiques, les investisseurs acceptent généralement d’en prépayer dix à vingt ans, pas davantage. Le Price-to-Sales, qui met en regard la capitalisation avec le chiffre d’affaires, est lui aussi plusieurs fois supérieur aux niveaux habituellement observés. Quant à l’EV/EBITDA, c’est un indicateur qui revient à mesurer combien les investisseurs paient pour chaque euro que l’entreprise gagne grâce à son activité. Dans l’IA, ce ratio est aujourd’hui deux à quatre fois plus élevé que dans les secteurs classiques, ce qui signifie que les marchés acceptent de payer beaucoup plus cher pour la même quantité de profits. 

Pourtant, un paradoxe subsiste : les grandes crises du XXᵉ et du début du XXIᵉ siècle n’ont jamais été annoncées publiquement à l’avance. Or, cette fois, l’hypothèse de bulle est devenue un lieu commun, reprise par la presse généraliste comme par les économistes de marché. Le fait que NVIDIA continue d’afficher des résultats exceptionnels, alors même que l’expression « bulle IA » s’est banalisée, invite à dépasser ces diagnostics rapides et à examiner plus finement la réalité du phénomène.

Les limites futures du développement de l’intelligence artificielle

Avant d’évoquer les limites structurelles du développement de l’IA aux États-Unis, il convient d’apporter une précision. Il n’est pas rare d’entendre que l’eau pourrait devenir un facteur limitant pour les infrastructures d’IA. Si la demande en eau du secteur augmente fortement, le risque de pénurie ne dépasse pas, à ce stade, l’échelle locale. En 2023, les data centers américains ont utilisé environ 64 milliards de litres d’eau, et cette consommation pourrait presque quadrupler d’ici 2028, atteignant 150 à 275 milliards de litres. Cela reste faible à l’échelle du pays : la consommation directe représente environ 0,5 % de la consommation industrielle totale. En revanche, près de 20 % des data centers se situent déjà dans des régions confrontées à un stress hydrique élevé, notamment dans l’Ouest et le Sud des États-Unis. À court terme, les États-Unis disposent d’une capacité nationale suffisante, mais la croissance de l’IA pourrait saturer les infrastructures locales dans les zones arides, obligeant les opérateurs à accroître le recyclage, déplacer les implantations ou changer de technologies de refroidissement.

Plusieurs limites structurelles pourraient venir enrayer l’élan actuel. La première est énergétique. Les besoins en électricité des data centers d’IA augmentent plus rapidement que la capacité des systèmes énergétiques mondiaux — et américains en particulier — à fournir une énergie abondante, bon marché et continue.

La deuxième limite est géopolitique et industrielle, incarnée par la stratégie chinoise du volume et d’open source. Pékin cherche à répondre à la révolution schumpétérienne occidentale par une stratégie hybride, mêlant logique ricardienne et innovation incrémentale. Une croissance schumpétérienne repose sur l’innovation de rupture qui crée un avantage technologique décisif, tandis qu’une croissance ricardienne mise sur l’efficacité relative des coûts et l’avantage comparatif obtenu par la spécialisation. Au lieu de viser les puces les plus puissantes comme les États-Unis, la Chine mise sur des composants moins performants mais produits en masse, capables — une fois combinés dans les data centers — d’offrir une solution plus économique que les architectures américaines. Les Etats-Unis pourraient perdre leur avantage comparatif qui met aujourd’hui NVIDIA en situation de quasi-monopole sur le secteur du data center d’IA. Il en va de même pour les modèles d’IA. Le modèle chinois Kimi IA aurait été développé à un coût cent fois inférieur à celui des modèles génératifs américains. DeepSeek, un modèle d’IA générative chinois, suit la même logique : il est disponible en open source et peut être installé gratuitement sur les serveurs des entreprises, qui peuvent l’entraîner avec leurs propres données. Comme DeepSeek est entièrement gratuit, y compris dans ses versions les plus avancées, il dépasse déjà les modèles américains accessibles gratuitement et commence même à concurrencer leurs offres premium.

La troisième limite tient à la financiarisation endogame du secteur. Une part croissante des flux financiers de ces quelques entreprises sert aux rachats d’actions, aux acquisitions croisées et à l’entretien d’un écosystème fermé, plutôt qu’à la R&D ou aux CAPEX. Ceci a pour effet de gonfler mécaniquement les valorisations sans augmenter pour autant ni la capacité de production, ni les rendements. A titre d’exemple, NVIDIA rachète depuis plusieurs années des start-ups et PME pour contrôler toute la chaîne de l’IA et des data centers. Parmi les acquisitions clés figurent Run AI, achetée en 2024 pour 700 millions de dollars, spécialisée dans l’optimisation des clusters GPU, et Mellanox Technologies, rachetée en 2019 pour 6,9 milliards $, qui fournit les interconnexions haut débit des supercalculateurs. Si cette intégration verticale donne à NVIDIA une position dominante, elle rend également son modèle plus fragile. Si sa valorisation venait à chuter ou si la confiance des investisseurs se retournait, une partie importante de l’écosystème IA serait touchée en cascade. 

La quatrième limite tient à la géographie même de la production des puces. Une grande partie des semi-conducteurs conçus par NVIDIA — en particulier les GPU avancés utilisés dans l’IA — est fabriquée par TSMC à Taïwan. Dans un contexte de rivalité croissante entre les États-Unis et la Chine, ce point de fragilité devient central : le talon d’Achille de la bulle IA américaine est Taïwan, et le talon d’Achille de la stratégie américaine dans le Pacifique pourrait être, en retour, la bulle IA elle-même. Un hypothétique blocus maritime imposé par Pékin, une attaque ciblant les installations de TSMC, ou même une simple perturbation prolongée des chaînes d’approvisionnement suffiraient à interrompre la production des puces les plus avancées. Dans un tel scénario, les investisseurs pourraient se retirer massivement du secteur, anticipant un effondrement temporaire de la capacité américaine à produire ou à importer les semi-conducteurs qui alimentent la croissance de l’IA, provoquant un bear market brutal sur les valeurs IA.

Cette vulnérabilité technologique pourrait même éclairer, en partie, l’évolution récente de la politique étrangère américaine. Le glissement d’un soutien indéfectible de l’administration Biden à l’Ukraine, fondé sur la défense du droit international, vers une approche plus transactionnelle de l’administration Trump, axée sur une recherche accélérée d’accords, suggère une volonté de réduire les fronts actifs à l’heure où plusieurs analyses anticipent un regain de tension autour de Taïwan à l’horizon 2027. Dans ce contexte, la diplomatie américaine semble avoir recours à des canaux parallèles et plus rapides — émissaires privés, négociations confidentielles — incarnés par des intermédiaires comme Steve Witkoff du côté américain ou Kirill Dmitriev du côté russe, dont les initiatives de résolution du conflit ont fuité dans la presse. L’objectif implicite serait double : stabiliser le front européen et éviter qu’un conflit prolongé ne handicape la capacité américaine à se concentrer sur l’Indo-Pacifique, où se joue directement la sécurité de sa filière technologique la plus stratégique.

Gaston LEVALOIS
Pour le Club Souveraineté et Industrie de l’AEGE

Pour aller plus loin: