Retour à l'accueil

Glossaire

Glossaire IA pour investisseurs

Les termes essentiels pour comprendre les analyses publiées sur ce site, sans jargon inutile et sans simplifications trompeuses.

Modèles & techniques d'IA

Large Language ModelLLM

Réseau de neurones entraîné sur d'énormes corpus de texte pour prédire le mot suivant.

Un LLM est un modèle statistique qui apprend les régularités du langage à partir de milliards de mots. GPT, Claude, Gemini, Llama et Mistral sont tous des LLM. Leur taille se mesure en milliards de paramètres : un modèle de 70 milliards de paramètres pèse environ 140 Go en pleine précision. Côté investissement : ce sont eux qui consomment la quasi-totalité du compute IA aujourd'hui.

Inférence

L'utilisation d'un modèle déjà entraîné pour répondre à une requête.

Quand vous discutez avec ChatGPT, vous faites de l'inférence. C'est l'opération la plus fréquente en production, mais aussi la moins gourmande individuellement que l'entraînement. À l'échelle, l'inférence représente 60-80% des dépenses cloud IA des hyperscalers — elle marge moins que l'entraînement mais offre un volume bien plus large.

Entraînement

La phase pendant laquelle un modèle apprend à partir d'un corpus de données.

L'entraînement d'un modèle de fondation moderne coûte entre 50 millions et 1 milliard de dollars selon la taille. Il monopolise les plus gros clusters GPU de la planète (16 000+ H100/B200 en parallèle). C'est la phase qui pousse NVIDIA et les hyperscalers à acheter du compute en quantité industrielle.

Fine-tuning

Ré-entraîner un modèle existant sur un domaine spécifique pour améliorer ses réponses.

Beaucoup moins coûteux que l'entraînement complet : un fine-tuning d'un modèle 7B coûte quelques milliers d'euros. C'est le moyen privilégié pour qu'une entreprise adapte un modèle à son domaine sans repartir de zéro.

RAGRetrieval-Augmented Generation

Méthode qui injecte des documents pertinents dans le prompt pour augmenter la précision.

Au lieu de re-entraîner le modèle pour qu'il connaisse vos documents internes, vous lui fournissez les passages pertinents au moment de la question. C'est l'approche dominante en entreprise pour les chatbots de support, la recherche documentaire et l'analyse de contrats.

Mixture of ExpertsMoE

Architecture où plusieurs sous-modèles spécialisés se partagent le travail selon la requête.

Plutôt qu'un seul gros modèle qui traite tout, un MoE active un sous-ensemble de "experts" pour chaque token. GPT-4, Mixtral et DeepSeek-V3 sont des MoE. L'avantage : un modèle de 600 milliards de paramètres peut tourner avec le coût d'inférence d'un modèle de 50 milliards.

Modèle de raisonnement

Modèle entraîné à réfléchir étape par étape avant de répondre.

OpenAI o1, Claude Opus 4 thinking, DeepSeek R1. Ces modèles consomment beaucoup plus de tokens (donc plus de compute) par requête, mais excellent en mathématiques, code et logique. Ils ont fait basculer le marché vers une économie où l'inférence devient aussi chère que l'entraînement.

Agent IA

Modèle qui agit en plusieurs étapes dans un environnement (web, code, outils) pour accomplir une tâche.

Un agent appelle des outils (recherche web, exécution de code, lecture de fichiers) en boucle. C'est la vague 2025-2026 : Claude Code, Cursor, GitHub Copilot Workspace. Pour l'investisseur, c'est la couche qui démultiplie la consommation d'inférence par utilisateur — chaque tâche déclenche 10 à 100 appels API.

Token

Unité de découpage du texte traitée par un modèle (sous-mot, mot court ou caractère).

Le pricing des LLM se fait au token : ~$3 par million de tokens en entrée pour Claude Sonnet, ~$15 pour la sortie. Un mot français compte ~1.3 token en moyenne. C'est l'unité économique de toute l'industrie IA cloud.

Puces & infrastructure

GPUGraphics Processing Unit

Processeur graphique massivement parallèle, utilisé pour entraîner et faire tourner les modèles d'IA.

À l'origine conçus pour les jeux vidéo, les GPU se sont imposés en IA grâce à leur capacité de calcul matriciel parallèle. NVIDIA détient ~85% du marché des GPU IA en 2026, AMD ~10%, le reste étant partagé entre puces propriétaires (TPU, Trainium, Maia).

Hopper

Génération de GPU NVIDIA dévoilée en 2022 (H100, H200), encore largement déployée.

Le H100 a été le cheval de bataille des entraînements IA 2023-2024. Toujours largement utilisé en 2026 pour l'inférence. Pic de performance : 4 PFLOPS en FP8.

Blackwell

Génération NVIDIA succédant à Hopper (B100, B200, GB200), centrale pour le marché 2025-2026.

Architecture dual-die qui double la performance d'entraînement par rapport à H100. Le rack GB200 NVL72 intègre 72 GPU avec NVLink — c'est l'unité de référence pour les nouveaux datacenters IA.

TPUTensor Processing Unit

Puce IA propriétaire de Google, optimisée pour ses propres modèles et services cloud.

Très performante mais commercialisée uniquement via Google Cloud, ce qui limite son impact sur le marché captable par les concurrents externes. Crédible sur l'inférence à grande échelle, moins sur l'entraînement de modèles tiers.

HBMHigh Bandwidth Memory

Mémoire empilée en 3D collée au GPU, qui détermine en grande partie la performance d'inférence.

Fournie principalement par SK Hynix, Samsung et Micron. La pénurie de HBM3e en 2024-2025 a été un goulet d'étranglement majeur pour la livraison de B200. SK Hynix capte aujourd'hui ~50% du marché HBM, ce qui en fait un bénéficiaire indirect mais massif du boom IA.

NVLink

Interconnexion haute vitesse propriétaire NVIDIA entre GPU au sein d'un même rack.

NVLink 5 atteint 1.8 TB/s par GPU, soit ~14x ce qu'offre PCIe 5.0. Sans interconnect équivalent, les concurrents sont relégués à l'inférence. C'est l'un des moats les moins discutés de NVIDIA.

CUDA

Plateforme logicielle de NVIDIA qui permet de programmer ses GPU pour le calcul général.

18 ans d'optimisations cumulées, ~4 millions de développeurs actifs. Migrer un stack ML d'envergure vers une alternative (ROCm, oneAPI) coûte 6 à 24 mois d'ingénierie. C'est le moat invisible de NVIDIA — celui qui rend les comparaisons matérielles trompeuses.

Data center IA

Bâtiment dédié hébergeant des dizaines de milliers de GPU, avec un réseau et un refroidissement spécifiques.

Un nouveau datacenter IA coûte 3 à 10 milliards de dollars et consomme 100 à 1000 MW (l'équivalent d'une ville moyenne). Les principaux opérateurs : Microsoft, Google, Amazon, Meta, Oracle, CoreWeave. La géographie compte : 71% des capacités installées le sont en Amérique du Nord.

Hyperscaler

Grand opérateur cloud capable d'exploiter des dizaines de datacenters à l'échelle mondiale.

AWS, Azure, Google Cloud, Oracle Cloud, et plus récemment Meta. Leur capex IA cumulé dépasse 280 milliards de dollars en 2026 — c'est le robinet qui finance tout l'écosystème NVIDIA + HBM + équipementiers.

Calcul quantique

Approche qui exploite la mécanique quantique pour résoudre certaines classes de problèmes hors de portée des CPU/GPU.

À ne pas confondre avec l'IA générative, mais le quantique commence à intersecter l'IA pour des problèmes d'optimisation et de simulation. Acteurs cotés : IonQ, Rigetti, D-Wave, IBM (intégré). Marché encore très spéculatif (~40 milliards $ projetés 2030), mais en pleine accélération.

Finance & investissement

PERPrice-to-Earnings Ratio

Ratio cours / bénéfice par action — combien d'années de bénéfices il faudrait pour rembourser le prix payé.

Un PER de 60 sur une action signifie que vous payez 60 fois ses bénéfices annuels. Élevé pour la plupart des secteurs (la moyenne du S&P 500 historique est ~16), mais courant pour la tech IA en croissance forte. À comparer toujours à la croissance attendue (PEG ratio).

CapexCapital Expenditure

Dépenses d'investissement en biens durables (datacenters, GPU, fibre).

Le capex IA cumulé des hyperscalers dépasse 280 milliards de dollars en 2026. Suivre ce chiffre trimestre par trimestre est l'indicateur n°1 de la santé de la chaîne IA — quand il ralentit, c'est NVIDIA, SK Hynix et les équipementiers qui plongent en premier.

Pricing power

Capacité d'une entreprise à augmenter ses prix sans perdre ses clients.

NVIDIA conserve ~78% de marge brute sur ses GPU datacenter en 2026, malgré l'arrivée annoncée de concurrents. C'est le marqueur le plus fiable d'un moat technologique : si la concurrence pouvait vraiment faire mieux, les prix baisseraient.

Moat

Avantage compétitif durable qui empêche un concurrent de copier l'offre.

Concept popularisé par Warren Buffett. Pour NVIDIA, le moat principal n'est pas le silicium mais CUDA + NVLink + l'effet Jensen (cadence d'exécution). Pour TSMC, c'est la gravure 2nm + EUV. Identifier le moat correctement évite de payer cher pour une marge appelée à s'éroder.

Picks & shovels

Stratégie qui consiste à investir dans les fournisseurs d'outils plutôt que dans les chercheurs d'or.

Pendant la ruée vers l'or, les vendeurs de pioches et de pelles ont gagné plus que les mineurs. En IA, c'est NVIDIA, TSMC, SK Hynix, ASML et les opérateurs énergie/refroidissement qui jouent ce rôle — quel que soit le LLM gagnant in fine.

PEAPlan d'Épargne en Actions

Enveloppe fiscale française permettant d'investir en actions européennes avec exonération d'impôt après 5 ans.

Limite l'investissement aux actions européennes (et US dans une certaine mesure via ETF synthétiques). Pour s'exposer à l'IA via PEA : ASML, SAP, Schneider Electric, Mistral (si introduction en bourse), ou ETF Tech World synthétiques.

ETF thématique IA

Fonds coté qui réplique un panier d'actions exposées à l'intelligence artificielle.

Exemples : iShares Robotics & AI (BOTZ), Global X Artificial Intelligence (AIQ), iShares Automation & Robotics (IRBO). Attention : la composition réelle varie beaucoup d'un ETF à l'autre, et certains incluent des sociétés à exposition IA très indirecte.

Sizing

Le pourcentage d'un portefeuille alloué à une position individuelle.

Une thèse correcte mal dimensionnée fait perdre de l'argent. Sur des positions IA volatiles (NVIDIA peut bouger de 30% en un mois), un sizing au-delà de 10-15% du portefeuille rend les choses inconfortables. La règle classique : pas plus de 5% du portefeuille sur une thèse non encore validée.

Carnet de commandes

Volume de commandes fermes déjà signées qu'une entreprise doit livrer dans le futur.

NVIDIA affiche un carnet rempli à 84% pour 2027 dès début 2026 — c'est l'indicateur de visibilité le plus fort qu'un investisseur puisse obtenir sur un cycle industriel. Quand le carnet de commandes diminue, c'est le signal avancé d'un retournement.

Voir les analyses