GPUGraphics Processing Unit
Processeur graphique massivement parallèle, utilisé pour entraîner et faire tourner les modèles d'IA.
À l'origine conçus pour les jeux vidéo, les GPU se sont imposés en IA grâce à leur capacité de calcul matriciel parallèle. NVIDIA détient ~85% du marché des GPU IA en 2026, AMD ~10%, le reste étant partagé entre puces propriétaires (TPU, Trainium, Maia).
Hopper
Génération de GPU NVIDIA dévoilée en 2022 (H100, H200), encore largement déployée.
Le H100 a été le cheval de bataille des entraînements IA 2023-2024. Toujours largement utilisé en 2026 pour l'inférence. Pic de performance : 4 PFLOPS en FP8.
Blackwell
Génération NVIDIA succédant à Hopper (B100, B200, GB200), centrale pour le marché 2025-2026.
Architecture dual-die qui double la performance d'entraînement par rapport à H100. Le rack GB200 NVL72 intègre 72 GPU avec NVLink — c'est l'unité de référence pour les nouveaux datacenters IA.
TPUTensor Processing Unit
Puce IA propriétaire de Google, optimisée pour ses propres modèles et services cloud.
Très performante mais commercialisée uniquement via Google Cloud, ce qui limite son impact sur le marché captable par les concurrents externes. Crédible sur l'inférence à grande échelle, moins sur l'entraînement de modèles tiers.
HBMHigh Bandwidth Memory
Mémoire empilée en 3D collée au GPU, qui détermine en grande partie la performance d'inférence.
Fournie principalement par SK Hynix, Samsung et Micron. La pénurie de HBM3e en 2024-2025 a été un goulet d'étranglement majeur pour la livraison de B200. SK Hynix capte aujourd'hui ~50% du marché HBM, ce qui en fait un bénéficiaire indirect mais massif du boom IA.
NVLink
Interconnexion haute vitesse propriétaire NVIDIA entre GPU au sein d'un même rack.
NVLink 5 atteint 1.8 TB/s par GPU, soit ~14x ce qu'offre PCIe 5.0. Sans interconnect équivalent, les concurrents sont relégués à l'inférence. C'est l'un des moats les moins discutés de NVIDIA.
CUDA
Plateforme logicielle de NVIDIA qui permet de programmer ses GPU pour le calcul général.
18 ans d'optimisations cumulées, ~4 millions de développeurs actifs. Migrer un stack ML d'envergure vers une alternative (ROCm, oneAPI) coûte 6 à 24 mois d'ingénierie. C'est le moat invisible de NVIDIA — celui qui rend les comparaisons matérielles trompeuses.
Data center IA
Bâtiment dédié hébergeant des dizaines de milliers de GPU, avec un réseau et un refroidissement spécifiques.
Un nouveau datacenter IA coûte 3 à 10 milliards de dollars et consomme 100 à 1000 MW (l'équivalent d'une ville moyenne). Les principaux opérateurs : Microsoft, Google, Amazon, Meta, Oracle, CoreWeave. La géographie compte : 71% des capacités installées le sont en Amérique du Nord.
Hyperscaler
Grand opérateur cloud capable d'exploiter des dizaines de datacenters à l'échelle mondiale.
AWS, Azure, Google Cloud, Oracle Cloud, et plus récemment Meta. Leur capex IA cumulé dépasse 280 milliards de dollars en 2026 — c'est le robinet qui finance tout l'écosystème NVIDIA + HBM + équipementiers.
Calcul quantique
Approche qui exploite la mécanique quantique pour résoudre certaines classes de problèmes hors de portée des CPU/GPU.
À ne pas confondre avec l'IA générative, mais le quantique commence à intersecter l'IA pour des problèmes d'optimisation et de simulation. Acteurs cotés : IonQ, Rigetti, D-Wave, IBM (intégré). Marché encore très spéculatif (~40 milliards $ projetés 2030), mais en pleine accélération.