INHUMAIN.AI
The Watchdog Platform for Inhuman Intelligence
Documenting What Happens When Intelligence Stops Being Human
AI Incidents (2026): 847 ▲ +23% | Countries with AI Laws: 41 ▲ +8 YTD | HUMAIN Partnerships: $23B ▲ +$3B | EU AI Act Fines: €14M ▲ New | AI Safety Funding: $2.1B ▲ +45% | OpenAI Valuation: $157B ▲ +34% | AI Job Displacement: 14M ▲ +2.1M | HUMAIN Watch: ACTIVE 24/7 | AI Incidents (2026): 847 ▲ +23% | Countries with AI Laws: 41 ▲ +8 YTD | HUMAIN Partnerships: $23B ▲ +$3B | EU AI Act Fines: €14M ▲ New | AI Safety Funding: $2.1B ▲ +45% | OpenAI Valuation: $157B ▲ +34% | AI Job Displacement: 14M ▲ +2.1M | HUMAIN Watch: ACTIVE 24/7 |

Réglementation Mondiale de l'IA : Le Tracker Complet

Le tracker définitif de la réglementation de l'intelligence artificielle à travers le monde. Analyse pays par pays des lois, cadres, délais de conformité et structures de sanctions. Mis à jour en continu.

La réglementation de l’intelligence artificielle n’est plus un exercice théorique. Des gouvernements sur chaque continent sont passés de la publication de principes consultatifs à l’adoption de législations contraignantes dotées de mécanismes d’application, de sanctions financières et de responsabilité pénale. Ce tracker est le registre indépendant le plus complet de chaque loi, cadre, décret et délai de conformité en matière d’IA dans le monde.

Le paysage réglementaire s’accélère. En 2023, moins de cinq pays disposaient d’une législation contraignante spécifique à l’IA. Fin 2025, ce chiffre dépassait douze. D’ici mi-2026, plusieurs juridictions commenceront l’application active d’exigences de conformité détaillées affectant toute organisation déployant des systèmes d’IA sur leur territoire — quel que soit le lieu de son siège social.

Cette page est organisée par région et mise à jour en continu. Ajoutez-la à vos favoris.


Union Européenne

Règlement sur l’IA (Règlement 2024/1689)

Le Règlement européen sur l’IA (EU AI Act) est la législation contraignante la plus complète au monde en matière d’intelligence artificielle. Adopté en forme finale en juin 2024 et publié au Journal officiel en août 2024, il établit un cadre de classification par risque qui s’applique à tout système d’IA mis sur le marché de l’UE ou dont la sortie est utilisée dans l’UE.

Dimension Détail
Instrument juridique Règlement (directement applicable, sans transposition nécessaire)
Adopté 13 juin 2024 (Parlement européen)
Entrée en vigueur 1er août 2024
Application complète 2 août 2026 (la plupart des dispositions)
Champ d’application Fournisseurs, utilisateurs déployeurs, importateurs, distributeurs de systèmes d’IA sur le marché de l’UE
Portée extraterritoriale Oui — s’applique aux fournisseurs hors UE si la sortie est utilisée dans l’UE
Fourchette de sanctions Jusqu’à 35 millions EUR ou 7 % du chiffre d’affaires annuel mondial
Application Autorités nationales de surveillance du marché + Bureau européen de l’IA

Niveaux de risque :

  • Risque inacceptable (Interdit) : Notation sociale, identification biométrique à distance en temps réel dans les espaces publics (avec exceptions), manipulation subliminale, exploitation des vulnérabilités. En vigueur depuis le 2 février 2025.
  • Risque élevé : Systèmes d’IA dans les infrastructures critiques, l’éducation, l’emploi, les services essentiels, les forces de l’ordre, la migration, la justice. Soumis à des évaluations de conformité, une supervision humaine, une gouvernance des données, une documentation.
  • Risque limité : Chatbots, deepfakes, reconnaissance des émotions. Obligations de transparence.
  • Risque minimal : Filtres anti-spam, jeux vidéo utilisant l’IA. Aucune exigence.

Échéances clés :

Date Disposition
2 février 2025 Interdiction des pratiques prohibées
2 août 2025 Obligations pour les modèles d’IA à usage général (GPAI)
2 août 2026 Application complète de la plupart des dispositions
2 août 2027 Obligations pour les systèmes d’IA à haut risque (Annexe I)

Importance pour HUMAIN : Le Règlement européen sur l’IA s’applique à tout système d’IA dont la sortie est utilisée dans l’UE, quel que soit le lieu de déploiement du système. Si les modèles ou agents de HUMAIN sont utilisés par des entreprises opérant dans l’UE, ils tombent sous la juridiction de ce règlement. La question est de savoir si HUMAIN se conformera volontairement, sous contrainte, ou pas du tout. Consultez notre lettre ouverte à HUMAIN pour nos questions sur ce sujet.

RGPD et IA

Le Règlement général sur la protection des données (RGPD), en vigueur depuis mai 2018, reste l’instrument juridique le plus utilisé pour réguler les applications d’IA en Europe. L’article 22, qui encadre la prise de décision automatisée, et les principes de minimisation des données et de limitation des finalités s’appliquent directement aux systèmes d’IA traitant des données personnelles.

Les amendes prononcées au titre du RGPD contre des entreprises d’IA se sont multipliées. L’autorité irlandaise de protection des données a infligé des amendes de plusieurs centaines de millions d’euros à Meta pour le traitement de données personnelles à des fins d’entraînement de modèles d’IA.


États-Unis

L’Approche Fragmentée

Les États-Unis n’ont pas de législation fédérale complète sur l’IA. L’approche américaine est un patchwork de décrets présidentiels, de réglementations sectorielles existantes appliquées aux contextes d’IA, et de législations étatiques.

Instrument Détail
Décret présidentiel sur l’IA (oct. 2023) Exigences de notification pour les modèles de pointe, standards NIST, évaluations de sécurité
NIST AI Risk Management Framework Cadre volontaire de gestion des risques de l’IA
US AI Safety Institute Institut de sécurité de l’IA au sein du NIST
Lois étatiques Colorado AI Act (discrimination), Illinois BIPA (biométrie), California CCPA/CPRA (données)
Réglementation sectorielle FDA (IA médicale), SEC (IA financière), FTC (protection des consommateurs)

La tension politique : La politique américaine de l’IA oscille entre la volonté de maintenir la compétitivité face à la Chine — ce qui plaide pour une réglementation légère — et la nécessité de protéger les citoyens contre les abus — ce qui plaide pour une réglementation plus stricte. Le résultat est une incohérence structurelle.

Les Contrôles à l’Exportation

L’instrument réglementaire américain le plus conséquent en matière d’IA n’est pas une loi sur l’IA per se, mais les contrôles à l’exportation de semi-conducteurs. Les trois séries de restrictions imposées depuis octobre 2022 ont effectivement coupé la Chine de l’accès aux puces d’entraînement les plus avancées, transformant la politique des semi-conducteurs en instrument de politique étrangère de l’IA. Pour l’analyse géopolitique complète, consultez notre panorama de la géopolitique de l’IA.


Chine

L’Approche par Couches

La Chine a adopté une approche réglementaire distinctive, consistant en une série de réglementations ciblées plutôt qu’en une loi unique et complète.

Réglementation Date d’entrée en vigueur Portée
Règlement sur la recommandation algorithmique Mars 2022 Algorithmes de recommandation de contenu
Règlement sur les synthèses profondes Janvier 2023 Deepfakes et contenus synthétiques
Mesures provisoires sur l’IA générative Août 2023 Services d’IA générative destinés au public
Loi sur la protection des informations personnelles (PIPL) Novembre 2021 Protection des données (comparable au RGPD)

La double finalité : La réglementation chinoise de l’IA sert un double objectif : protéger la stabilité sociale et le contrôle politique du Parti communiste, tout en favorisant le développement d’une industrie nationale de l’IA compétitive. Les « valeurs socialistes fondamentales » sont explicitement inscrites comme critère de conformité pour les modèles d’IA générative.

La censure intégrée : Les modèles d’IA déployés en Chine doivent se conformer aux exigences de censure de l’État, y compris l’interdiction de générer du contenu « subversif » ou « séparatiste ». Cela crée un précédent de réglementation de l’IA comme instrument de contrôle politique — un précédent qui inquiète lorsque d’autres États autoritaires développent leurs propres cadres.


Royaume-Uni

L’Approche « Pro-innovation »

Le Royaume-Uni a adopté une approche volontairement distincte de celle de l’UE, rejetant une législation spécifique à l’IA au profit d’un cadre sectoriel « pro-innovation » qui confie la réglementation aux régulateurs existants.

Dimension Détail
Approche Sectorielle, pas de législation horizontale dédiée
Cadre Livre blanc sur la réglementation de l’IA (mars 2023)
Principes Sécurité, transparence, équité, responsabilité, contestabilité
Régulateurs Ofcom, FCA, CMA, ICO, EHRC, etc. (chacun dans son secteur)
AI Safety Institute Créé en novembre 2023, évaluations de modèles
Sanctions Variables selon le régulateur sectoriel

Le pari : Le Royaume-Uni parie que la flexibilité réglementaire attirera les entreprises d’IA et les investissements. Le risque est que la fragmentation sectorielle crée des lacunes dans la protection, en particulier pour les applications d’IA qui traversent les frontières sectorielles.


Pays du Golfe

Arabie Saoudite

L’Arabie saoudite régule l’IA principalement par l’intermédiaire de SDAIA (Saudi Data and Artificial Intelligence Authority), qui rapporte directement au gouvernement dirigé par le prince héritier Mohammed ben Salmane — le même prince héritier qui préside le PIF, propriétaire de HUMAIN.

Instrument Détail
SDAIA Autorité de régulation des données et de l’IA
Loi sur la protection des données personnelles (PDPL) En vigueur depuis septembre 2024
Principes éthiques de l’IA Publiés par SDAIA (non contraignants)
Vision 2030 Cadre stratégique national intégrant l’IA

Le conflit d’intérêts structurel : Le régulateur de l’IA en Arabie saoudite (SDAIA) et le propriétaire de la plus grande entreprise d’IA du pays (PIF/HUMAIN) rapportent à la même autorité (le prince héritier). C’est l’équivalent d’un régulateur financier dont le président serait simultanément le PDG de la plus grande banque du pays. L’absence d’indépendance structurelle du régulateur est peut-être la question de gouvernance la plus fondamentale soulevée par le cas HUMAIN. Consultez notre profil détaillé de HUMAIN pour une analyse approfondie.

Émirats Arabes Unis

Les EAU ont adopté une approche proactive en matière de réglementation de l’IA, avec un ministre d’État à l’intelligence artificielle et des cadres de gouvernance pour les applications d’IA dans les services gouvernementaux.

Qatar

Le Qatar développe un cadre de gouvernance de l’IA axé sur les applications dans la santé, l’éducation et les services gouvernementaux, avec un accent sur la conformité aux principes islamiques.


Tableau Comparatif des Approches Réglementaires

Dimension UE États-Unis Chine Royaume-Uni Arabie Saoudite
Type d’approche Législation horizontale Patchwork sectoriel Réglementations ciblées Cadre sectoriel Autoréglementation
Caractère contraignant Oui (Règlement) Partiel Oui Partiel Faible
Portée extraterritoriale Oui Partielle Non Non Non
Amende maximale 7 % CA mondial Variable Variable Variable Non définie
Régulateur dédié Bureau européen de l’IA Aucun (NIST conseille) CAC + régulateurs sectoriels Régulateurs existants SDAIA
Indépendance du régulateur Élevée Moyenne Faible (contrôle étatique) Moyenne Aucune
Couverture des risques existentiels Partielle En développement Aucune Via AISI Aucune
Transparence exigée Élevée Variable Sélective Moyenne Faible
Protection des droits fondamentaux Centrale Périphérique Absente Intégrée Limitée

Afrique et Monde Francophone

L’Union Africaine

L’Union africaine a adopté en 2024 un cadre continental pour la gouvernance de l’IA, reconnaissant les opportunités et les risques spécifiques que l’IA présente pour le continent. Le cadre souligne la nécessité de développer des capacités locales, de protéger les données africaines et d’éviter le colonialisme numérique.

Les Initiatives Francophones

La Francophonie (Organisation internationale de la Francophonie) a lancé des initiatives visant à promouvoir une approche de l’IA respectueuse de la diversité linguistique et culturelle francophone. La France, à travers sa stratégie nationale d’IA et son soutien à Mistral AI, est le principal acteur francophone dans le développement de l’IA.

Le Sénégal, la Côte d’Ivoire et le Rwanda ont commencé à développer des cadres nationaux de gouvernance de l’IA, mais les ressources et les capacités institutionnelles restent limitées. L’écart entre les réglementations ambitieuses des économies avancées et les capacités d’application dans les économies en développement est un défi structurel majeur.


Les Instruments Internationaux

La Déclaration de Bletchley

Signée par vingt-huit pays en novembre 2023 lors du Sommet sur la sécurité de l’IA organisé par le Royaume-Uni, la Déclaration de Bletchley constitue le premier accord multilatéral reconnaissant formellement le potentiel de dommages catastrophiques de l’IA de pointe. Sa portée est cependant déclarative plutôt que contraignante.

Les Principes de l’OCDE sur l’IA

Adoptés en mai 2019 et approuvés par plus de quarante pays, les Principes de l’OCDE sur l’IA constituent le standard intergouvernemental le plus largement endossé. Ils appellent à une IA bénéfique, respectueuse des droits humains, transparente, robuste et redevable. Leur faiblesse est l’absence de tout mécanisme d’application.

La Recommandation de l’UNESCO

La Recommandation de l’UNESCO sur l’éthique de l’intelligence artificielle, adoptée par 193 États membres en novembre 2021, est l’instrument de gouvernance de l’IA le plus inclusif au niveau mondial. Elle aborde explicitement les asymétries de pouvoir et les besoins des pays en développement. Pour une analyse des cadres éthiques, consultez notre guide de l’éthique de l’IA.

Vers un Traité International ?

Le Secrétaire général des Nations Unies a appelé à la création d’un organe consultatif international sur l’IA et, potentiellement, à un cadre contraignant analogue à l’Agence internationale de l’énergie atomique (AIEA). La faisabilité politique d’un tel traité reste incertaine, les puissances technologiques dominantes ayant peu d’intérêt à se soumettre à des contraintes internationales.


Conclusion : L’État de la Réglementation

Le tableau d’ensemble, début 2026, est celui d’une accélération réglementaire inégale. L’Union européenne a pris une avance considérable avec un cadre complet et contraignant. Les États-Unis combinent innovation réglementaire sectorielle et paralysie législative fédérale. La Chine régule efficacement mais dans l’intérêt du contrôle politique. Le Royaume-Uni expérimente une approche flexible. Et les pays du Golfe — où se construit la plus grande infrastructure d’IA au monde — opèrent avec un minimum de supervision indépendante.

L’écart le plus dangereux n’est pas entre les pays qui réglementent et ceux qui ne le font pas. C’est entre la vitesse du déploiement technologique et la vitesse de la réponse réglementaire. Les systèmes d’IA sont déployés à l’échelle mondiale en quelques mois. La réglementation prend des années. Et dans cet intervalle, les dommages se produisent sans recours.

Pour comprendre les acteurs qui opèrent dans cet espace réglementaire, consultez notre carte du pouvoir de l’IA.


Ce tracker est mis à jour en continu. Dernière mise à jour : février 2026.

Citation suggérée : INHUMAIN.AI Éditorial, « Réglementation Mondiale de l’IA : Le Tracker Complet », INHUMAIN.AI, 26 février 2026. https://inhumain.ai/fr/reglementation-ia-mondiale/