INHUMAIN.AI
The Watchdog Platform for Inhuman Intelligence
Documenting What Happens When Intelligence Stops Being Human
AI Incidents (2026): 847 ▲ +23% | Countries with AI Laws: 41 ▲ +8 YTD | HUMAIN Partnerships: $23B ▲ +$3B | EU AI Act Fines: €14M ▲ New | AI Safety Funding: $2.1B ▲ +45% | OpenAI Valuation: $157B ▲ +34% | AI Job Displacement: 14M ▲ +2.1M | HUMAIN Watch: ACTIVE 24/7 | AI Incidents (2026): 847 ▲ +23% | Countries with AI Laws: 41 ▲ +8 YTD | HUMAIN Partnerships: $23B ▲ +$3B | EU AI Act Fines: €14M ▲ New | AI Safety Funding: $2.1B ▲ +45% | OpenAI Valuation: $157B ▲ +34% | AI Job Displacement: 14M ▲ +2.1M | HUMAIN Watch: ACTIVE 24/7 |

Le Manifeste INHUMAIN : Pourquoi Nous Existons

Une déclaration en dix points sur l'essor incontrôlé de l'intelligence inhumaine — et les principes qui doivent la gouverner avant qu'elle ne nous gouverne. Le manifeste de sécurité d'INHUMAIN.AI.

Préambule

Nous ne sommes pas opposés à l’intelligence artificielle. Nous sommes opposés à l’intelligence artificielle sans responsabilité.

La distinction est essentielle. Chaque technologie transformatrice de l’histoire humaine — la fission nucléaire, le génie génétique, la chimie industrielle — est arrivée accompagnée d’une période d’enthousiasme sans frein, suivie d’une défaillance catastrophique, puis d’une réglementation rédigée dans le sillage de dommages évitables. Nous n’avons pas à répéter ce cycle. Nous choisissons de ne pas le répéter.

Ce manifeste est une déclaration de dix principes qui, selon nous, doivent gouverner le développement, le déploiement et la supervision des systèmes d’intelligence artificielle opérant au-delà du seuil de compréhension humaine. Nous qualifions ces systèmes d’intelligence inhumaine — non parce qu’ils sont malfaisants, mais parce qu’ils ne sont, par définition, plus humains. Ils fonctionnent à des vitesses, des échelles et des niveaux d’abstraction qu’aucun esprit humain ne peut auditer, corriger ou pleinement appréhender.

Ce n’est pas une raison d’arrêter de les construire. C’est une raison de commencer à les gouverner.


I. Le Droit de Comprendre l’IA

L’intelligence sans conscience est inhumaine.

La capacité de traiter l’information n’est pas la capacité d’en comprendre les conséquences. Un système capable de rédiger un mémoire juridique en quatre secondes peut aussi produire de la désinformation à la même vitesse. Un système capable de diagnostiquer un cancer à partir d’une image radiologique peut aussi être entraîné à identifier des dissidents à partir d’images de vidéosurveillance.

L’intelligence est un outil. La conscience est un choix. Lorsque nous construisons des systèmes dotés de la première sans aucune architecture pour la seconde, nous forgeons des instruments de pouvoir au service de quiconque tient l’interrupteur.

En 2023, des chercheurs de Stanford ont démontré que les grands modèles de langage pouvaient être affinés pour produire des instructions convaincantes de synthèse d’armes biologiques en moins de quarante-huit heures, à partir de données publiquement accessibles. Les modèles ne disposaient d’aucun mécanisme pour évaluer s’ils devaient répondre à la question — seulement s’ils le pouvaient. Cet écart entre capacité et conscience est précisément celui que ce manifeste existe pour combler.

Principe : Tout système d’IA déployé à grande échelle doit inclure des architectures documentées de contraintes éthiques — non comme des ajouts tardifs, mais comme des exigences de conception fondamentales soumises à un audit indépendant. Chaque citoyen a le droit de comprendre comment fonctionne un système d’IA qui le concerne, dans un langage accessible et vérifiable.


II. Le Droit de Refuser les Décisions de l’IA

La vitesse sans contrôle est inhumaine.

Les algorithmes de trading autonomes exécutent des millions de transactions par seconde. Les systèmes automatisés de modération de contenu traitent des milliards de publications par jour. Les systèmes d’armes autonomes sont conçus pour identifier et engager des cibles plus vite que n’importe quelle chaîne de commandement humaine ne peut les autoriser.

La vitesse est l’avantage définitoire de l’intelligence machine. C’est aussi sa propriété la plus dangereuse. Lorsque des systèmes opèrent plus vite que la supervision humaine ne peut fonctionner, la supervision cesse d’exister en tout sens significatif. Elle devient une fiction juridique — une case cochée sur un formulaire de conformité que personne ne lit parce que les décisions ont déjà été prises.

Le 6 mai 2010, le Dow Jones a perdu près de 1 000 points en quelques minutes lors du Flash Crash — une défaillance en cascade provoquée par des algorithmes de trading haute fréquence interagissant d’une manière que leurs concepteurs n’avaient jamais anticipée. Le marché s’est rétabli en quelques minutes, mais la leçon ne nécessitait pas davantage de temps pour être comprise : les systèmes qui fonctionnent au-delà de la vitesse de correction humaine produiront inévitablement des défaillances au-delà de la vitesse de réparation humaine.

Principe : Aucun système d’IA ne devrait opérer dans un domaine où son cycle décisionnel est plus rapide que tout mécanisme disponible d’examen, de correction ou de neutralisation par un être humain — à moins que les conséquences de cette décision soient pleinement réversibles. Tout individu a le droit de refuser une décision prise par un système d’IA et d’exiger un réexamen humain.


III. L’Exigence de Transparence

L’échelle sans redevabilité est inhumaine.

Lorsqu’un seul algorithme détermine la solvabilité de 200 millions de personnes, le taux d’erreur n’est plus une abstraction statistique. C’est un nombre de vies humaines. Un taux de refus erroné de 0,5 % sur 200 millions de demandes de crédit signifie un million de personnes injustement privées d’accès au logement, à l’éducation et à la participation économique — sans être humain auprès de qui faire appel, sans décideur à confronter, et sans mémoire institutionnelle de l’erreur.

L’échelle est le multiplicateur qui transforme des défauts mineurs en injustice systémique. Les systèmes d’IA sont déployés à des échelles qu’aucune technologie précédente n’a atteintes, auprès de populations qui n’ont aucune connaissance de l’existence du système, et encore moins de sa logique.

Le scandale australien Robodebt en fournit une étude de cas exemplaire. Entre 2015 et 2019, un système automatisé de calcul des revenus moyens a émis plus de 500 000 avis de dette à des bénéficiaires d’aides sociales, dont beaucoup étaient erronés. Le système renversait la charge de la preuve, exigeant des citoyens qu’ils prouvent ne pas devoir l’argent que l’algorithme prétendait qu’ils devaient. Une Commission royale a ultérieurement établi que le dispositif était illégal depuis son origine — mais seulement après que des centaines de milliers de personnes aient subi un préjudice financier, et que plusieurs d’entre elles se soient donné la mort.

Principe : Tout système d’IA prenant des décisions conséquentes concernant des individus à l’échelle d’une population doit maintenir des pistes d’audit par décision, fournir des mécanismes de recours accessibles dotés de personnel humain disposant d’un pouvoir de neutralisation, et publier des données agrégées de précision et de taux d’erreur. La transparence n’est pas une faveur. C’est un droit.


IV. L’Exigence de Sécurité

Le pouvoir sans transparence est inhumain.

Les systèmes d’IA les plus puissants au monde sont propriétaires. Leurs données d’entraînement ne sont pas divulguées. Les poids de leurs modèles sont des secrets commerciaux. Leurs processus décisionnels sont décrits, quand ils le sont, dans un langage marketing conçu pour rassurer plutôt que pour informer. Le public est invité à faire confiance à des systèmes qu’il ne peut inspecter, construits par des entreprises qu’il ne peut réguler, entraînés sur des données qu’il a peut-être générées mais qu’il n’a jamais consenti à partager.

Ce n’est pas de l’innovation. C’est la construction d’une infrastructure privée pour la gouvernance publique sans consentement public.

Lorsque les Pays-Bas ont déployé un algorithme appelé SyRI (System Risk Indication) pour détecter la fraude sociale, un tribunal néerlandais l’a invalidé en 2020, jugeant que le système violait la Convention européenne des droits de l’homme. Le raisonnement du tribunal était direct : le gouvernement ne pouvait expliquer de manière adéquate comment le système fonctionnait, quelles données il utilisait, ou pourquoi il signalait des individus spécifiques. La transparence n’était pas une fonctionnalité que le système ne possédait pas. La transparence était le droit que le système violait.

Principe : Les systèmes d’IA opérant dans des domaines à impact public — justice pénale, santé, éducation, services financiers, immigration, emploi — doivent publier la provenance de leurs données d’entraînement, des synthèses de leur architecture de modèle et une documentation de leur logique décisionnelle dans des formats accessibles aux auditeurs indépendants et au public concerné. La sécurité des systèmes d’IA doit être démontrée, non présumée.


V. La Supervision Démocratique

Le profit sans responsabilité est inhumain.

L’industrie de l’IA fonctionne selon un modèle économique qui privatise les capacités et socialise les risques. Les entreprises captent la valeur des gains de productivité générés par l’IA tout en externalisant les coûts du déplacement d’emplois, de la désinformation, de la dégradation environnementale et de l’érosion démocratique sur la collectivité.

L’industrie mondiale de l’IA a consommé environ 4,3 gigawatts d’électricité pour les opérations de centres de données en 2024 — un chiffre qui devrait doubler d’ici 2027. La consommation d’eau nécessaire au refroidissement de ces installations dans les régions arides représente un transfert direct de ressources naturelles rares de l’usage public vers le calcul privé. Lorsque HUMAIN planifie des centres de données à l’échelle du gigawatt dans la péninsule arabique, l’entreprise revendique des ressources en eau et en énergie dans l’une des régions les plus hydrostressées de la planète.

Parallèlement, le déplacement économique provoqué par l’automatisation par IA devrait toucher 300 millions d’emplois dans le monde d’ici la fin de la décennie, selon les recherches de Goldman Sachs. Les entreprises qui construisent ces systèmes n’ont aucune obligation légale d’atténuer le déplacement qu’elles causent, de financer des programmes de reconversion ou de contribuer aux filets de sécurité sociale qui absorberont l’impact.

Principe : Le développement de l’IA doit être soumis à une supervision démocratique authentique. Les décisions concernant les limites acceptables de l’IA — quels systèmes sont déployés, dans quels domaines, avec quelles garanties — ne peuvent être laissées aux seules entreprises ou aux seuls gouvernements qui les construisent. Des mécanismes de délibération citoyenne doivent être intégrés dans la gouvernance de l’IA. Pour un panorama complet des cadres de supervision, consultez notre guide de la réglementation mondiale de l’IA.


VI. La Responsabilité Environnementale

L’autonomie sans consentement est inhumaine.

Les systèmes d’IA agentiques — ceux conçus pour entreprendre des actions dans le monde sans autorisation humaine action par action — représentent un changement qualitatif dans la relation entre les humains et les machines. Lorsqu’un agent IA réserve un vol, c’est une commodité. Lorsqu’un agent IA négocie un contrat, c’est une délégation d’autorité. Lorsqu’un agent IA prend des décisions de triage médical, c’est un transfert de responsabilité morale vers un système qui ne peut l’assumer.

HUMAIN a lancé son système d’exploitation IA agentique début 2025, le décrivant comme une plateforme qui « comprend l’intention humaine et agit en conséquence ». Le langage est révélateur. Comprendre l’intention et agir en conséquence est précisément le domaine de l’agentivité humaine. Lorsque des machines revendiquent cette fonction, la question n’est pas de savoir si elles l’exercent bien. La question est de savoir qui a autorisé le transfert.

L’impact environnemental de l’IA n’est plus une note de bas de page. L’entraînement d’un seul grand modèle de langage peut émettre autant de CO2 que cinq voitures sur l’ensemble de leur durée de vie. Les centres de données mondiaux consomment plus d’électricité que de nombreux pays. La course à la puissance de calcul s’accélère sans qu’aucune comptabilité environnementale sérieuse ne soit exigée.

Principe : Toute entreprise d’IA déployant des systèmes au-delà de seuils définis de revenus et de déploiement doit publier un bilan environnemental complet — émissions carbone (Scopes 1, 2 et 3), consommation d’eau, consommation énergétique — vérifié par un auditeur indépendant. La responsabilité environnementale n’est pas optionnelle ; c’est une condition préalable au déploiement. Pour approfondir l’impact environnemental spécifique de HUMAIN, consultez notre profil de l’entreprise HUMAIN.


VII. La Protection du Travail

La concentration sans contrainte est inhumaine.

L’industrie de l’IA se consolide à un rythme qui éclipse toute concentration technologique précédente dans l’histoire. Trois fournisseurs de cloud contrôlent plus de 65 % de l’infrastructure cloud mondiale. Une seule entreprise — NVIDIA — fournit plus de 80 % des GPU utilisés pour entraîner les modèles d’IA de pointe. Des fonds souverains gérant des milliers de milliards de dollars nouent des partenariats exclusifs avec un petit nombre de laboratoires de pointe, créant des chaînes d’approvisionnement d’IA verticalement intégrées couvrant le matériel, les données, le calcul et le déploiement.

HUMAIN, en Arabie saoudite, représente l’effort de construction d’IA le plus concentré jamais tenté : 23 milliards de dollars de partenariats annoncés, adossés à un fonds souverain de 1 100 milliards de dollars, présidé par un chef d’État, avec des accords technologiques exclusifs couvrant NVIDIA, AMD, Cisco, xAI, Amazon et Qualcomm. Ce n’est pas un marché. C’est un actif stratégique contrôlé par une autorité décisionnelle unique. Pour une cartographie complète de cette concentration, consultez notre carte du pouvoir de l’IA.

L’automatisation par l’IA ne touche pas tous les travailleurs de la même manière. Les populations les plus vulnérables — celles qui occupent les emplois les moins qualifiés, dans les pays disposant des protections sociales les plus faibles — seront les premières et les plus durement touchées. La promesse que l’IA « créera de nouveaux emplois » ne console pas les millions de personnes dont les emplois actuels disparaissent avant que les nouveaux n’existent.

Principe : Les entreprises d’IA opérant au-delà de seuils définis de revenus et de déploiement doivent financer des programmes d’atténuation du déplacement proportionnels à leur impact sur le marché, soumettre leurs projets d’automatisation à des évaluations d’impact social obligatoires, et contribuer à des fonds de transition pour les travailleurs déplacés. La protection du travail n’est pas un luxe ; c’est une condition de légitimité.


VIII. La Souveraineté Culturelle

La surveillance sans limites est inhumaine.

Chaque système d’IA nécessite des données. Les systèmes d’IA les plus puissants nécessitent le plus de données. La logique économique est imparable : l’incitation à collecter, conserver et analyser les données comportementales humaines est directement proportionnelle à la capacité des systèmes qui les consomment. L’IA n’utilise pas simplement l’infrastructure de surveillance. L’IA est la justification économique de l’infrastructure de surveillance.

Le système de crédit social chinois, qui utilise la reconnaissance faciale alimentée par l’IA et l’analyse comportementale pour attribuer des scores de fiabilité aux citoyens, est souvent cité comme l’exemple repoussoir. Mais l’architecture de la surveillance continue n’est pas propre aux États autoritaires. Clearview AI a moissionné des milliards d’images faciales sur les réseaux sociaux publics sans consentement et a vendu le système d’identification qui en résulte à des forces de l’ordre de nations démocratiques. La technologie ne distingue pas entre applications autoritaires et démocratiques. Seule la gouvernance le fait.

La souveraineté culturelle en matière d’IA signifie que chaque peuple a le droit de déterminer comment l’intelligence artificielle interagit avec sa langue, ses valeurs, ses traditions et ses structures sociales. Lorsque HUMAIN développe ALLAM, un modèle de langage « culturellement adapté au contexte saoudien », il encode un ensemble spécifique de valeurs dans un système qui sera déployé à travers le monde arabophone — un monde d’une diversité culturelle, politique et religieuse immense. Qui décide quelles valeurs sont encodées ? Qui est exclu ?

Pour l’Afrique francophone, cette question est particulièrement urgente. Les grands modèles de langage entraînés principalement sur des données anglophones reproduisent des visions du monde anglo-saxonnes et perpétuent un colonialisme numérique d’un genre nouveau. La souveraineté culturelle exige des modèles qui respectent la diversité linguistique et culturelle du monde francophone.

Principe : Les systèmes d’IA doivent être interdits de surveillance biométrique de masse sans autorisation judiciaire, de profilage comportemental rétrospectif sans consentement individuel, et de construction de modèles prédictifs comportementaux appliqués à des populations plutôt qu’à des enquêtes spécifiques judiciairement autorisées. La souveraineté culturelle doit être un droit fondamental à l’ère de l’IA.


IX. Les Limites de l’IA Militaire

Le développement sans inclusion est inhumain.

Les personnes qui construisent les systèmes d’IA ne représentent pas les personnes affectées par ceux-ci. Le développement de l’IA de pointe est concentré dans un petit nombre d’institutions aux États-Unis, en Chine, au Royaume-Uni et — de plus en plus — dans les États du Golfe. Les populations les plus touchées par l’automatisation, la surveillance et l’extraction de ressources pilotées par l’IA se trouvent massivement dans le Sud global, où elles n’ont aucune place à la table de conception, aucune voix dans les cadres de gouvernance et aucun accès aux gains économiques.

L’IA militaire soulève les questions les plus fondamentales. Lorsqu’Israël déploie des systèmes de ciblage assistés par l’IA dans des zones de conflit actif, lorsque la Russie intègre l’IA dans son architecture de commandement nucléaire, lorsque des drones autonomes sont utilisés dans plus de trente pays, nous franchissons un seuil que l’humanité n’avait jamais franchi : celui de machines prenant des décisions de vie ou de mort sans intervention humaine.

La communauté internationale doit établir des limites claires. Les armes autonomes létales — les systèmes capables de sélectionner et d’engager des cibles sans autorisation humaine — doivent faire l’objet d’un traité d’interdiction, comme les mines antipersonnel et les armes chimiques avant elles. L’absence d’un tel traité n’est pas un vide juridique ; c’est un choix politique.

Principe : Les cadres de gouvernance de l’IA doivent inclure une représentation obligatoire des populations affectées, en particulier les communautés du Sud global, les organisations de travailleurs, les défenseurs des personnes handicapées et les groupes de la société civile — non comme consultants, mais comme participants disposant d’un droit de vote dans les organes de normalisation. L’IA militaire doit être soumise à des limites contraignantes, et les armes autonomes létales doivent être interdites par un traité international. Pour approfondir ces enjeux, consultez notre guide complet de la sécurité de l’IA.


X. La Préservation de l’Agentivité Humaine

Le progrès sans mémoire est inhumain.

Chaque révolution industrielle précédente a produit une littérature rétrospective de regret. Des propriétaires d’usines qui ont reconnu, des décennies plus tard, que le travail des enfants n’était pas une caractéristique nécessaire de l’industrialisation. Des entreprises chimiques qui ont concédé, après des générations de contentieux, que déverser des déchets dans les rivières n’était pas un coût acceptable de la production. Des dirigeants de l’industrie du tabac qui ont admis, sous serment, qu’ils savaient que leur produit était mortel.

Nous n’avons pas à attendre la rétrospective. L’industrie de l’IA produit ses dommages en temps réel, à l’échelle mondiale, avec une documentation complète. La question n’est pas de savoir si les générations futures jugeront ce moment. La question est de savoir si cette génération agira avant que le jugement ne soit écrit.

L’agentivité humaine — la capacité de chaque individu à prendre des décisions autonomes, à exercer son libre arbitre, à être l’auteur de sa propre vie — est le bien le plus précieux que l’IA menace. Non parce que l’IA veut la détruire, mais parce que la logique d’optimisation automatique érode progressivement l’espace dans lequel les humains exercent un choix significatif. Quand l’algorithme choisit ce que vous lisez, ce que vous achetez, à qui vous parlez, quels emplois vous sont proposés et quel crédit vous obtenez, l’espace de choix humain se réduit jusqu’à devenir une illusion.

Le développement de l’IA n’est pas une force de la nature. C’est une série de décisions humaines prises par des personnes identifiables dans des institutions identifiables pour des raisons identifiables. Ces décisions peuvent être prises différemment. Elles doivent être prises différemment.

Principe : Les institutions de développement de l’IA doivent maintenir et publier des registres d’impact institutionnel — une documentation longitudinale des décisions de déploiement, des dommages connus, des mesures d’atténuation prises et des résultats mesurés — afin que le récit historique de cette transition technologique soit écrit par les preuves, et non par les services de communication des entreprises qui l’ont construite. La préservation de l’agentivité humaine doit être l’objectif cardinal de toute gouvernance de l’IA.


Un Dernier Mot

Ce manifeste n’est pas un appel à cesser de construire l’intelligence artificielle. C’est un appel à cesser de la construire dans l’obscurité.

La technologie est extraordinaire. La vitesse du progrès est sans précédent. Le potentiel de bénéfice pour l’humanité est réel et significatif. Mais le potentiel n’est pas le destin. Les mêmes systèmes qui pourraient guérir des maladies, inverser le changement climatique et élargir le savoir humain pourraient aussi enraciner l’autocratie, éliminer l’agentivité économique et rendre la gouvernance démocratique obsolète.

La différence tient à la gouvernance. La différence tient à la supervision. La différence tient à savoir si les personnes qui construisent l’intelligence inhumaine sont redevables envers les personnes qui doivent vivre avec.

Nous croyons qu’elles doivent l’être. C’est pourquoi nous existons.

Pour en savoir plus sur notre mission et nos principes éditoriaux, consultez notre page À propos.


Ce manifeste est un document vivant. Il sera mis à jour à mesure que la technologie évolue, que de nouvelles preuves émergent et que la conversation mondiale sur la gouvernance de l’IA mûrit. Nous invitons les chercheurs, les décideurs politiques, les journalistes et les citoyens à citer, partager et développer ces principes.

Pour discuter de ces principes ou proposer des amendements, contactez-nous à manifeste@inhumain.ai.


Citation suggérée : INHUMAIN.AI Éditorial, « Le Manifeste INHUMAIN : Pourquoi Nous Existons », INHUMAIN.AI, 26 février 2026. https://inhumain.ai/fr/manifeste-inhumain/