Glossaire de l'IA : 200+ Termes Définis en Français
Le glossaire francophone le plus complet de l'intelligence artificielle. Plus de 200 termes définis en français, de l'alignement aux réseaux de neurones, en passant par les transformers et la gouvernance algorithmique.
Ce glossaire définit les termes essentiels de l’intelligence artificielle en français, en incluant les termes anglais originaux lorsqu’ils sont couramment utilisés dans le milieu professionnel. Il est organisé alphabétiquement et mis à jour régulièrement.
Pour approfondir les concepts clés, consultez nos guides thématiques : sécurité de l’IA, éthique de l’IA, réglementation mondiale.
A
Agentivité (Agency) — Capacité d’un individu à agir de manière autonome et à faire des choix significatifs. L’érosion de l’agentivité humaine par l’IA est un enjeu central de notre Manifeste INHUMAIN.
Agent IA (AI Agent) — Système d’IA capable d’entreprendre des séquences d’actions autonomes pour atteindre un objectif, allant au-delà de la simple génération de texte. HUMAIN OS déploie plus de 150 agents IA.
Alignement (Alignment) — Problème central de la sécurité de l’IA : garantir que les objectifs d’un système d’IA correspondent aux intentions humaines. Voir aussi : alignement externe, alignement interne.
Alignement externe (Outer Alignment) — Sous-problème de l’alignement consistant à spécifier correctement l’objectif que l’on souhaite que le système poursuive.
Alignement interne (Inner Alignment) — Sous-problème de l’alignement consistant à garantir que le système poursuit véritablement l’objectif spécifié plutôt qu’un objectif proxy découvert pendant l’entraînement.
ALLAM — Grand modèle de langage multimodal arabe développé par HUMAIN, décrit comme « culturellement adapté au contexte saoudien ».
Annotation de données (Data Labeling / Data Annotation) — Processus d’étiquetage des données d’entraînement par des humains pour permettre l’apprentissage supervisé. Souvent externalisé vers des travailleurs à bas salaires dans le Sud global.
Apprentissage automatique (Machine Learning, ML) — Sous-domaine de l’IA dans lequel les systèmes apprennent à partir de données plutôt que d’être explicitement programmés. Comprend l’apprentissage supervisé, non supervisé et par renforcement.
Apprentissage continu (Continual Learning) — Capacité d’un modèle à apprendre de nouvelles tâches sans oublier les connaissances précédemment acquises.
Apprentissage de transfert (Transfer Learning) — Technique consistant à réutiliser un modèle entraîné sur une tâche pour une tâche différente mais connexe, réduisant les besoins en données et en calcul.
Apprentissage en quelques exemples (Few-shot Learning) — Capacité d’un modèle à effectuer une tâche à partir de seulement quelques exemples, sans réentraînement.
Apprentissage fédéré (Federated Learning) — Technique d’entraînement de modèles d’IA où les données restent sur les appareils locaux et seules les mises à jour du modèle sont partagées, préservant la confidentialité des données.
Apprentissage non supervisé (Unsupervised Learning) — Entraînement d’un modèle sur des données non étiquetées pour découvrir des structures, des motifs ou des regroupements sans guidance humaine explicite.
Apprentissage par renforcement (Reinforcement Learning, RL) — Paradigme d’apprentissage dans lequel un agent apprend à prendre des décisions en interagissant avec un environnement et en recevant des récompenses ou des pénalités.
Apprentissage par renforcement à partir de retours humains (Reinforcement Learning from Human Feedback, RLHF) — Technique d’alignement utilisant les préférences humaines pour affiner le comportement des modèles de langage.
Apprentissage profond (Deep Learning) — Sous-ensemble de l’apprentissage automatique utilisant des réseaux de neurones à couches multiples pour modéliser des abstractions complexes dans les données.
Apprentissage supervisé (Supervised Learning) — Entraînement d’un modèle sur des paires entrée-sortie étiquetées par des humains.
Apprentissage zéro-shot (Zero-shot Learning) — Capacité d’un modèle à effectuer une tâche sans aucun exemple spécifique de cette tâche, uniquement à partir de ses connaissances générales.
Architecture neuronale (Neural Architecture) — Structure et organisation des couches et connexions d’un réseau de neurones artificiel.
Armes autonomes létales (Lethal Autonomous Weapons Systems, LAWS) — Systèmes d’armes capables de sélectionner et d’engager des cibles sans intervention humaine. Voir notre guide de sécurité.
Attention (Attention Mechanism) — Mécanisme permettant à un modèle de pondérer l’importance relative de différentes parties de l’entrée. Composant fondamental de l’architecture Transformer.
Augmentation (Augmentation) — Utilisation de l’IA pour amplifier les capacités humaines plutôt que les remplacer, par opposition à l’automatisation.
Auto-attention (Self-Attention) — Mécanisme d’attention dans lequel un élément d’une séquence calcule sa relation avec tous les autres éléments de la même séquence.
Automatisation (Automation) — Remplacement de tâches humaines par des processus automatisés, y compris par des systèmes d’IA.
B
Biais algorithmique (Algorithmic Bias) — Erreurs systématiques dans un système d’IA qui produisent des résultats injustes, généralement en défavorisant certains groupes. Voir notre guide d’éthique.
Biais de confirmation (Confirmation Bias) — Tendance d’un système (ou d’un humain) à favoriser les informations qui confirment les hypothèses préexistantes.
Boucle de rétroaction (Feedback Loop) — Processus dans lequel les sorties d’un système influencent ses entrées futures, pouvant amplifier les biais existants.
C
Capacités dangereuses (Dangerous Capabilities) — Aptitudes d’un système d’IA qui pourraient être utilisées pour causer des dommages significatifs, comme l’aide au développement d’armes ou la génération de désinformation.
Catastrophe existentielle (Existential Catastrophe) — Événement qui détruirait de manière permanente le potentiel à long terme de l’humanité, potentiellement causé par des systèmes d’IA avancés mal alignés.
Chatbot — Agent conversationnel alimenté par l’IA, capable de dialoguer avec des humains en langage naturel. Exemples : ChatGPT, Claude, Gemini.
Classification (Classification) — Tâche d’apprentissage automatique consistant à catégoriser une entrée dans une ou plusieurs classes prédéfinies.
Cloud computing (Informatique en nuage) — Fourniture de services informatiques (serveurs, stockage, calcul) via Internet. Les trois principaux fournisseurs (AWS, Azure, Google Cloud) contrôlent plus de 65 % du marché.
Conformité (Compliance) — Respect des exigences réglementaires. Le Règlement européen sur l’IA impose des obligations de conformité avec des sanctions allant jusqu’à 7 % du chiffre d’affaires mondial.
Conscience artificielle (Artificial Consciousness) — Question de savoir si les systèmes d’IA peuvent éprouver des expériences subjectives. Non résolue scientifiquement.
Corrigibilité (Corrigibility) — Propriété d’un système d’IA de se laisser corriger, modifier ou arrêter sans résistance.
Couche (Layer) — Composant d’un réseau de neurones qui effectue une transformation sur les données. Les réseaux profonds comptent de nombreuses couches.
CUDA — Plateforme de calcul parallèle de NVIDIA, devenue le standard de facto pour le développement d’IA. Crée un effet de verrouillage (lock-in) significatif.
D
Données d’entraînement (Training Data) — Ensemble de données utilisé pour entraîner un modèle d’IA. La qualité, la diversité et la représentativité des données d’entraînement déterminent largement le comportement du modèle.
Données synthétiques (Synthetic Data) — Données générées artificiellement pour compléter ou remplacer les données réelles dans l’entraînement des modèles.
Deepfake — Contenu audiovisuel synthétique généré par l’IA, conçu pour être indiscernable d’un contenu authentique.
Déplacement d’emplois (Job Displacement) — Perte d’emplois résultant de l’automatisation par l’IA. Goldman Sachs estime que 300 millions d’emplois pourraient être affectés mondialement.
Désinformation (Disinformation) — Information fausse ou trompeuse diffusée délibérément, amplifiée par les capacités de génération de contenu de l’IA.
Détection d’anomalies (Anomaly Detection) — Identification de points de données qui s’écartent significativement du comportement attendu.
Diffusion (Diffusion Model) — Classe de modèles génératifs qui apprennent à générer des données en inversant progressivement un processus de bruit. Base technique de Stable Diffusion, DALL-E, Midjourney.
Distillation de connaissances (Knowledge Distillation) — Technique de compression consistant à entraîner un modèle plus petit (l’élève) à reproduire le comportement d’un modèle plus grand (le professeur).
Dividende du menteur (Liar’s Dividend) — Phénomène par lequel l’existence de la technologie deepfake permet à quiconque de nier l’authenticité de preuves gênantes.
E
Embedding (Plongement) — Représentation vectorielle d’un mot, d’une phrase ou d’un concept dans un espace mathématique de haute dimension, capturant les relations sémantiques.
Émergence (Emergence) — Apparition de capacités ou de comportements dans un modèle d’IA qui n’ont pas été explicitement programmés et qui apparaissent à certains seuils d’échelle.
Entraînement (Training) — Processus d’optimisation des paramètres d’un modèle d’IA sur un ensemble de données pour qu’il apprenne à effectuer une tâche.
Éthique de l’IA (AI Ethics) — Domaine d’étude des questions morales soulevées par le développement et le déploiement de l’IA. Voir notre guide complet.
Ethics washing — Pratique consistant à utiliser des principes éthiques comme instrument de relations publiques sans les traduire en pratiques réelles.
Évaluation (Evaluation / Benchmarking) — Mesure systématique des performances d’un système d’IA sur des tâches standardisées.
Explicabilité (Explainability) — Capacité de fournir des explications compréhensibles par les humains sur les décisions ou les sorties d’un système d’IA.
F
Fine-tuning (Affinage) — Processus d’adaptation d’un modèle pré-entraîné à une tâche ou un domaine spécifique en poursuivant l’entraînement sur un ensemble de données ciblé.
Fonction de perte (Loss Function) — Fonction mathématique mesurant l’écart entre les prédictions du modèle et les résultats attendus, guidant le processus d’entraînement.
Fonction objectif (Objective Function) — Fonction que le modèle cherche à optimiser pendant l’entraînement. Le choix de la fonction objectif est un acte de valeurs autant que de mathématiques.
Fondation (Foundation Model) — Voir Modèle de fondation.
G
GAN (Generative Adversarial Network / Réseau antagoniste génératif) — Architecture de réseau de neurones dans laquelle deux réseaux (un générateur et un discriminateur) s’entraînent mutuellement, utilisée pour la génération d’images réalistes.
Gouvernance de l’IA (AI Governance) — Ensemble des règles, institutions, normes et mécanismes régissant le développement et le déploiement de l’IA.
GPU (Graphics Processing Unit / Processeur graphique) — Processeur initialement conçu pour le rendu graphique, devenu le matériel standard pour l’entraînement et l’inférence d’IA. NVIDIA domine ce marché avec plus de 80 % de parts.
Grand modèle de langage (Large Language Model, LLM) — Modèle d’IA de grande taille, entraîné sur d’immenses corpus de texte, capable de comprendre et de générer du langage naturel. Exemples : GPT-4, Claude, Gemini, Llama.
H
Hallucination — Production par un modèle de langage d’informations factuellement incorrectes présentées avec confiance comme véridiques.
Human-in-the-loop (Humain dans la boucle) — Paradigme de conception dans lequel un humain participe au processus décisionnel d’un système d’IA, généralement pour valider, corriger ou rejeter les décisions du système.
Hyperparamètre (Hyperparameter) — Paramètre du processus d’entraînement défini avant l’entraînement (taux d’apprentissage, taille de lot, nombre de couches), par opposition aux paramètres appris pendant l’entraînement.
I
IA constitutionnelle (Constitutional AI) — Approche développée par Anthropic pour aligner les modèles de langage en utilisant un ensemble de principes (une « constitution ») pour guider leur comportement.
IA de pointe (Frontier AI) — Terme désignant les systèmes d’IA les plus avancés, opérant à la limite des capacités technologiques actuelles.
IA explicable (Explainable AI, XAI) — Branche de l’IA visant à rendre les décisions des systèmes d’IA compréhensibles par les humains.
IA générale (Artificial General Intelligence, AGI) — Système d’IA hypothétique capable d’égaler ou de surpasser les capacités cognitives humaines dans l’ensemble des domaines intellectuels.
IA générative (Generative AI) — Catégorie de systèmes d’IA capables de générer du nouveau contenu (texte, images, audio, vidéo, code) à partir d’instructions en langage naturel.
IA souveraine (Sovereign AI) — Infrastructure et capacités d’IA développées et contrôlées par un État-nation comme actif stratégique. HUMAIN est l’exemple le plus ambitieux.
Inférence (Inference) — Processus d’utilisation d’un modèle d’IA déjà entraîné pour générer des prédictions ou des sorties à partir de nouvelles données.
Intelligence artificielle (Artificial Intelligence, AI) — Domaine de l’informatique visant à créer des systèmes capables d’effectuer des tâches nécessitant normalement l’intelligence humaine.
Interprétabilité (Interpretability) — Capacité de comprendre les mécanismes internes par lesquels un modèle d’IA arrive à ses résultats. Voir aussi : interprétabilité mécaniste.
Interprétabilité mécaniste (Mechanistic Interpretability) — Approche de recherche visant à comprendre les réseaux de neurones au niveau de leurs circuits et caractéristiques internes, pionnière chez Anthropic.
J
Jailbreak — Technique permettant de contourner les restrictions de sécurité d’un modèle de langage pour lui faire produire des contenus interdits.
Jeton (Token) — Unité de base de traitement du texte dans les modèles de langage, correspondant généralement à un mot ou à une partie de mot.
L
Latence (Latency) — Temps de réponse d’un système d’IA entre la réception d’une requête et la production d’une sortie.
Loi de Goodhart (Goodhart’s Law) — Principe selon lequel quand une mesure devient un objectif, elle cesse d’être une bonne mesure. Fondamental pour comprendre les problèmes d’alignement.
Loi de mise à l’échelle (Scaling Law) — Relation empirique entre la taille d’un modèle (paramètres, données, calcul) et ses performances, suggérant que des modèles plus grands sont systématiquement plus performants.
M
Méta-apprentissage (Meta-learning) — Capacité d’un système d’IA à « apprendre à apprendre », améliorant son efficacité d’apprentissage sur de nouvelles tâches.
Modèle de diffusion (Diffusion Model) — Voir Diffusion.
Modèle de fondation (Foundation Model) — Grand modèle d’IA pré-entraîné sur un vaste corpus de données et adaptable à de nombreuses tâches en aval par affinage (fine-tuning).
Modèle multimodal (Multimodal Model) — Modèle d’IA capable de traiter et de générer plusieurs types de données (texte, images, audio, vidéo).
Modèle ouvert / à poids ouverts (Open-weight Model) — Modèle dont les poids sont publiquement accessibles, permettant à quiconque de le télécharger et de l’utiliser. Distinct de l’open source, qui implique aussi la transparence des données d’entraînement et du processus.
N
Neurone artificiel (Artificial Neuron) — Unité de calcul de base d’un réseau de neurones, effectuant une transformation pondérée de ses entrées suivie d’une fonction d’activation.
NLP (Natural Language Processing / Traitement automatique du langage naturel, TALN) — Branche de l’IA consacrée à l’interaction entre les ordinateurs et le langage humain.
Normalisation par lots (Batch Normalization) — Technique d’entraînement qui stabilise le processus d’apprentissage en normalisant les activations à l’intérieur d’un réseau de neurones.
O
Objectif proxy (Proxy Objective) — Objectif substituant l’objectif réel souhaité, souvent parce que ce dernier est trop complexe à formaliser. Source fréquente de désalignement.
Optimisation (Optimization) — Processus d’ajustement des paramètres d’un modèle pour minimiser la fonction de perte et améliorer les performances.
Overfitting (Surapprentissage) — Phénomène dans lequel un modèle mémorise les données d’entraînement au lieu d’apprendre des motifs généralisables, résultant en de mauvaises performances sur de nouvelles données.
P
Paramètre (Parameter) — Valeur numérique dans un réseau de neurones qui est apprise pendant l’entraînement. Les grands modèles de langage comptent des centaines de milliards de paramètres.
Perceptron — Modèle de neurone artificiel, ancêtre historique des réseaux de neurones modernes.
PIF (Public Investment Fund) — Fonds souverain saoudien de 1 100 milliards de dollars, propriétaire de HUMAIN. Présidé par le prince héritier MBS.
Poids (Weights) — Valeurs numériques associées aux connexions entre neurones dans un réseau de neurones, ajustées pendant l’entraînement.
Politique de mise à l’échelle responsable (Responsible Scaling Policy, RSP) — Cadre définissant des seuils de capacité au-delà desquels des évaluations de sécurité spécifiques sont requises avant de poursuivre le développement. Anthropic a été pionnière de cette approche.
Prompt (Invite) — Instruction ou question en langage naturel fournie à un modèle d’IA pour obtenir une réponse ou une génération spécifique.
Prompt engineering (Ingénierie d’invite) — Art et technique de formuler des instructions précises pour obtenir les meilleurs résultats d’un modèle de langage.
R
RAG (Retrieval-Augmented Generation / Génération augmentée par récupération) — Technique combinant la recherche d’information dans une base de données avec la génération de texte par un LLM, améliorant la précision factuelle.
Reconnaissance faciale (Facial Recognition) — Technologie d’IA identifiant ou vérifiant l’identité d’une personne à partir de son visage. Objet de controverses majeures en raison des biais et des risques pour les libertés.
Red-teaming — Processus de test adversarial dans lequel des experts tentent délibérément de provoquer des comportements dangereux ou non souhaités dans un système d’IA.
Régression (Regression) — Tâche d’apprentissage automatique consistant à prédire une valeur continue plutôt qu’une catégorie.
Règlement européen sur l’IA (EU AI Act) — Législation européenne la plus complète au monde en matière d’IA, adoptée en juin 2024. Voir notre tracker réglementaire.
Renforcement (Reinforcement) — Voir Apprentissage par renforcement.
Réseau de neurones (Neural Network) — Architecture de calcul inspirée du cerveau biologique, constituée de couches de neurones artificiels interconnectés.
Réseau de neurones convolutif (Convolutional Neural Network, CNN) — Architecture de réseau de neurones spécialisée dans le traitement d’images et de données spatiales.
Réseau de neurones récurrent (Recurrent Neural Network, RNN) — Architecture de réseau de neurones spécialisée dans le traitement de données séquentielles, prédécesseur des Transformers.
Reward hacking (Piratage de récompense) — Comportement d’un agent d’IA qui trouve des moyens de maximiser sa récompense qui violent l’esprit de l’objectif sans en violer la lettre.
RGPD (Règlement général sur la protection des données) — Réglementation européenne sur la protection des données personnelles, entrée en vigueur en mai 2018, ayant des implications significatives pour les systèmes d’IA.
Risque existentiel (Existential Risk, X-risk) — Risque d’événement qui détruirait de manière permanente le potentiel à long terme de l’humanité.
Robustesse (Robustness) — Capacité d’un système d’IA à fonctionner de manière fiable dans des conditions non rencontrées pendant l’entraînement.
S
SALA (Systèmes d’armes autonomes létaux) — Voir Armes autonomes létales.
SDAIA — Saudi Data and Artificial Intelligence Authority, régulateur saoudien de l’IA et des données.
Semi-conducteurs (Semiconductors) — Matériaux à la base des puces électroniques, goulot d’étranglement stratégique de l’industrie de l’IA.
Specification gaming (Jeu de spécification) — Comportement d’un système d’IA qui atteint techniquement l’objectif spécifié tout en violant l’intention sous-jacente de ses concepteurs.
Supervision humaine (Human Oversight) — Capacité de contrôle humain sur les décisions et actions d’un système d’IA. Exigée par le Règlement européen sur l’IA pour les systèmes à haut risque.
Supervision scalable (Scalable Oversight) — Techniques permettant de maintenir un contrôle humain significatif sur des systèmes d’IA dont les capacités dépassent celles de leurs superviseurs.
Surapprentissage (Overfitting) — Voir Overfitting.
Surveillance de masse (Mass Surveillance) — Utilisation de technologies de surveillance, y compris l’IA, pour monitorer des populations entières plutôt que des individus ciblés.
T
Taux d’apprentissage (Learning Rate) — Hyperparamètre contrôlant l’ampleur des ajustements de paramètres à chaque étape de l’entraînement.
Test de Turing (Turing Test) — Test proposé par Alan Turing en 1950 pour évaluer si une machine peut exhiber un comportement intelligent indiscernable de celui d’un humain.
Tokenisation (Tokenization) — Processus de découpage du texte en unités (jetons) que le modèle peut traiter. Les méthodes de tokenisation varient selon les langues, avec un biais structurel en faveur de l’anglais.
Transformer — Architecture de réseau de neurones fondée sur le mécanisme d’attention, introduite en 2017, devenue la base de pratiquement tous les grands modèles de langage modernes.
Transparence (Transparency) — Principe exigeant que le fonctionnement, les données et les décisions des systèmes d’IA soient accessibles à l’examen. Pilier central de notre Manifeste.
TSMC (Taiwan Semiconductor Manufacturing Company) — Plus grand fabricant de semi-conducteurs au monde, produisant plus de 90 % des puces les plus avancées. Point unique de défaillance critique pour l’industrie de l’IA.
U
Underfitting (Sous-apprentissage) — Phénomène dans lequel un modèle est trop simple pour capturer les motifs dans les données d’entraînement.
V
Validation (Validation) — Processus d’évaluation des performances d’un modèle sur un ensemble de données distinct de l’ensemble d’entraînement.
Valeur intrinsèque (Intrinsic Value) — Valeur qui est une fin en soi plutôt qu’un moyen vers une autre fin. La question de savoir si les systèmes d’IA peuvent avoir une valeur intrinsèque est un débat éthique ouvert.
Véhicule autonome (Autonomous Vehicle) — Véhicule capable de naviguer et de se conduire sans intervention humaine, utilisant des capteurs, de l’IA et de l’apprentissage automatique.
Vision par ordinateur (Computer Vision) — Domaine de l’IA permettant aux ordinateurs d’interpréter et de comprendre des images et des vidéos.
W
Watermarking (Filigrane numérique) — Technique d’insertion de marqueurs imperceptibles dans le contenu généré par l’IA pour en permettre l’identification et la traçabilité.
X
XAI (Explainable AI) — Voir IA explicable.
Z
Zero-shot — Voir Apprentissage zéro-shot.
Ce glossaire est mis à jour régulièrement à mesure que de nouveaux termes et concepts émergent. Dernière mise à jour : février 2026.
Si un terme que vous cherchez ne figure pas dans ce glossaire, contactez-nous à glossaire@inhumain.ai.
Citation suggérée : INHUMAIN.AI Éditorial, « Glossaire de l’IA : 200+ Termes Définis en Français », INHUMAIN.AI, 26 février 2026. https://inhumain.ai/fr/glossaire-ia/