INHUMAIN.AI
The Watchdog Platform for Inhuman Intelligence
Documenting What Happens When Intelligence Stops Being Human
AI Incidents (2026): 847 ▲ +23% | Countries with AI Laws: 41 ▲ +8 YTD | HUMAIN Partnerships: $23B ▲ +$3B | EU AI Act Fines: €14M ▲ New | AI Safety Funding: $2.1B ▲ +45% | OpenAI Valuation: $157B ▲ +34% | AI Job Displacement: 14M ▲ +2.1M | HUMAIN Watch: ACTIVE 24/7 | AI Incidents (2026): 847 ▲ +23% | Countries with AI Laws: 41 ▲ +8 YTD | HUMAIN Partnerships: $23B ▲ +$3B | EU AI Act Fines: €14M ▲ New | AI Safety Funding: $2.1B ▲ +45% | OpenAI Valuation: $157B ▲ +34% | AI Job Displacement: 14M ▲ +2.1M | HUMAIN Watch: ACTIVE 24/7 |

Lettre Ouverte à HUMAIN : 50 Questions Qui Exigent des Réponses

Une lettre ouverte d'INHUMAIN.AI à HUMAIN exigeant la transparence sur la gouvernance, la sécurité, la souveraineté des données, la géopolitique, l'environnement, le travail et les droits humains.

Au Conseil d’administration de HUMAIN, au PDG Tareq Amin, et à Son Altesse Royale le prince héritier Mohammed ben Salmane Al Saoud, président du Fonds public d’investissement :

Nous vous écrivons non en adversaires, mais en observateurs. HUMAIN représente la plus vaste construction concentrée d’intelligence artificielle de l’histoire, adossée aux ressources d’un fonds souverain de mille milliards de dollars, à des partenariats avec les plus grandes entreprises technologiques du monde, et au poids institutionnel complet du Royaume d’Arabie saoudite. L’échelle est extraordinaire. L’ambition est indéniable.

Pourtant, aucune entité dans l’histoire n’a entrepris un déploiement d’IA de cette magnitude avec si peu de supervision publique, de scrutation indépendante ou de redevabilité transparente. HUMAIN opère à l’intersection du pouvoir souverain et de l’intelligence artificielle d’une manière inédite dans le monde, et le monde a le droit de comprendre ce qui est construit, pour qui, et sous quelles garanties.

Les questions ci-dessous ne sont pas des accusations. Elles constituent le minimum que toute entité déployant l’intelligence artificielle à cette échelle, avec cette concentration de pouvoir, doit à la communauté mondiale. Chaque question est fondée sur des informations publiquement disponibles, des annonces officielles et des normes internationales établies.

Nous invitons HUMAIN à répondre publiquement à chacune d’entre elles.


Gouvernance et Redevabilité

1. Le président de HUMAIN est le prince héritier d’Arabie saoudite. Son propriétaire est le Fonds public d’investissement, présidé par le prince héritier. Son régulateur est SDAIA, qui rapporte au gouvernement dirigé par le prince héritier. Qui assure une supervision véritablement indépendante des opérations de HUMAIN, et comment le public peut-il vérifier la réalité de cette supervision ?

2. HUMAIN dispose-t-il d’un conseil d’administration indépendant doté de l’autorité de passer outre les décisions de la direction, ou la gouvernance s’écoule-t-elle in fine par le PIF et le bureau du prince héritier ? Si un conseil indépendant existe, qui y siège, quelles sont leurs qualifications, et l’un de ses membres a-t-il jamais exprimé un désaccord sur une décision ?

3. HUMAIN s’engagera-t-il à publier des rapports de transparence annuels complets détaillant ses opérations, ses incidents de sécurité, les demandes de données gouvernementales, les décisions de modération de contenu et ses performances financières, dans un format accessible aux chercheurs internationaux et à la société civile ?

4. Quel est le cadre de sécurité interne de HUMAIN ? Existe-t-il une équipe de sécurité dédiée disposant de l’autorité d’interrompre des déploiements ? Quelle est la chaîne de signalement des préoccupations de sécurité, et dispose-t-elle d’une indépendance par rapport aux directions commerciale et politique ?

5. HUMAIN dispose-t-il d’un comité d’éthique de l’IA ? Si oui, qui en sont les membres, quelle autorité détient-il, ses délibérations sont-elles publiées, et peut-il opposer son veto à des déploiements qu’il juge non sûrs ou non éthiques ?

6. Quelles protections des lanceurs d’alerte existent pour les employés, sous-traitants et partenaires de HUMAIN qui identifient des préoccupations de sécurité, des violations éthiques ou des abus des systèmes d’IA ? Dans un pays classé 166e sur 180 à l’indice de liberté de la presse de Reporters sans frontières, quelles garanties HUMAIN peut-il offrir que les personnes qui soulèvent des préoccupations ne subiront pas de représailles ?

7. HUMAIN a-t-il conduit une évaluation exhaustive de l’impact sur les droits humains de ses opérations, conformément aux Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme ? Si oui, sera-t-elle publiée ? Si non, pourquoi ?

Sécurité et Risques Techniques

8. HUMAIN OS est décrit comme déployant plus de 150 agents IA capables d’action autonome à travers les systèmes gouvernementaux et d’entreprise. Quels cadres de test, protocoles de validation et mesures de confinement garantissent que ces agents ne peuvent causer de dommages par erreur, comportement émergent ou exploitation adversariale ?

9. Quelle est la politique de mise à l’échelle responsable de HUMAIN ? À quels seuils de capacité HUMAIN interrompt-il le déploiement pour conduire des évaluations de sécurité, et qui prend cette décision ? Existe-t-il des capacités que HUMAIN s’est engagé à ne jamais développer ?

10. ALLAM, le grand modèle de langage arabe de HUMAIN, est décrit comme ayant été affiné pour le « contexte culturel saoudien ». Qui définit ce contexte culturel ? Quelles valeurs, normes et perspectives sont encodées, et lesquelles sont exclues ? Une documentation de ces décisions est-elle disponible pour un examen indépendant ?

11. ALLAM a-t-il été évalué par des tiers indépendants pour les biais, y compris les biais religieux, les biais de genre, les biais politiques et les biais contre les communautés minoritaires à l’intérieur et à l’extérieur du Royaume ? HUMAIN publiera-t-il les résultats de ces évaluations ?

12. Quels tests de type red-teaming et tests adversariaux ont été conduits sur les modèles et systèmes agents de HUMAIN ? HUMAIN a-t-il fait appel à des équipes de test externes, et publiera-t-il les méthodologies et les conclusions synthétiques de ces exercices ?

13. Lorsque plus de 150 agents autonomes sont déployés à travers des infrastructures gouvernementales et d’entreprise critiques, quelles protections empêchent ces agents de prendre des actions dommageables, irréversibles ou non autorisées ? Quelle est la politique d’intervention humaine (human-in-the-loop), et dans quelles circonstances les agents peuvent-ils agir sans approbation humaine ?

14. HUMAIN a-t-il évalué ses modèles et systèmes agents pour des capacités dangereuses, y compris la capacité d’aider au développement d’armes, de conduire des opérations de surveillance, de générer de la désinformation ou de saper les processus démocratiques ? Quels ont été les résultats, et quelles mesures d’atténuation sont en place ?

Souveraineté des Données et Vie Privée

15. La loi saoudienne sur la protection des données personnelles (PDPL) est entrée en vigueur en septembre 2024. Comment le traitement des données par HUMAIN se compare-t-il aux protections offertes par le RGPD de l’UE, et où la PDPL est-elle insuffisante ? Quelles protections supplémentaires, le cas échéant, HUMAIN adopte-t-il volontairement ?

16. En vertu de quelles autorités légales le gouvernement saoudien peut-il accéder aux données traitées par les systèmes de HUMAIN ? Existe-t-il un mécanisme de transparence pour divulguer le volume et la nature des demandes de données gouvernementales, et HUMAIN s’engagera-t-il à publier un rapport de transparence sur l’accès gouvernemental aux données ?

17. L’investissement de 3 milliards de dollars de HUMAIN dans xAI, l’entreprise d’IA d’Elon Musk, inclut le potentiel de flux de données entre X (anciennement Twitter) et l’infrastructure de HUMAIN. Quels accords de partage de données existent entre xAI, X et HUMAIN ? Les utilisateurs de X savent-ils que leurs données peuvent transiter vers une infrastructure contrôlée par l’Arabie saoudite ?

18. Pour les clients et partenaires internationaux de HUMAIN, quelles garanties de localisation des données sont offertes ? Les clients peuvent-ils s’assurer que leurs données ne quittent jamais une juridiction spécifique, et comment cela est-il vérifié ?

19. Le partenariat de HUMAIN avec Groq implique le déploiement d’infrastructure d’inférence en Arabie saoudite. Quelles protections de résidence et de confidentialité des données s’appliquent aux données traitées par le matériel Groq en sol saoudien, et diffèrent-elles des protections dans les autres juridictions opérationnelles de Groq ?

20. Lorsque HUMAIN traite des données pour des ministères gouvernementaux, y compris la santé, l’éducation et la sécurité, quelle segmentation existe entre les capacités de surveillance gouvernementale et les opérations commerciales d’IA de HUMAIN ? Comment la dérive de mission est-elle empêchée ?

Géopolitique et Concentration du Pouvoir

21. Le partenariat de HUMAIN avec SpaceX impliquerait une prise de participation du PIF. Lorsqu’un fonds souverain contrôlé par une monarchie absolue détient une participation dans l’entreprise qui exploite le réseau de communications par satellite dominant dans le monde, quelles garanties empêchent la transformation de l’infrastructure de communications en arme ?

22. HUMAIN a annoncé des partenariats totalisant plus de 23 milliards de dollars avec des entreprises incluant Google, Amazon, Oracle, AMD, Groq et xAI. Lorsqu’une seule entité adossée à un État souverain détient cette concentration de relations commerciales en matière d’IA, qu’est-ce qui empêche de les exploiter à des fins de levier géopolitique ?

23. Le portefeuille de 1 100 milliards de dollars du PIF inclut des participations dans des entreprises de tous les grands secteurs mondiaux. Lorsque HUMAIN, propriété du PIF, déploie des agents IA pour « l’optimisation de l’entreprise », qu’est-ce qui empêche l’IA de HUMAIN de fournir des renseignements, des analyses ou des avantages opérationnels préférentiels aux entreprises du portefeuille du PIF par rapport à leurs concurrents ?

24. L’Arabie saoudite est simultanément le plus grand exportateur de pétrole au monde et construit l’une des plus grandes plateformes d’infrastructure d’IA du monde. Lorsqu’un seul pays contrôle à la fois l’énergie qui alimente l’IA et l’infrastructure d’IA elle-même, qu’est-ce qui empêche le couplage stratégique de l’accès à l’énergie et au calcul comme outil géopolitique ?

25. HUMAIN a-t-il conduit une évaluation des applications militaires ou de renseignement potentielles de sa technologie ? Quelles politiques empêchent que les capacités d’IA de HUMAIN soient utilisées pour le ciblage militaire, la surveillance de masse, le maintien prédictif de l’ordre ou la suppression de la dissidence ?

Impact Environnemental

26. Quelle est la consommation énergétique totale du programme de construction de centres de données de HUMAIN, tant actuellement opérationnel que projeté ? Étant donné l’échelle multi-gigawatts annoncée, comment HUMAIN réconcilie-t-il cette demande énergétique avec les engagements climatiques mondiaux ?

27. L’exploitation de centres de données hyperscale dans un climat désertique, avec des températures ambiantes dépassant régulièrement 45 degrés Celsius, nécessite des dépenses de refroidissement extraordinaires. Quel est le surcoût énergétique du refroidissement en milieu désertique par rapport aux alternatives en climat tempéré, et comment HUMAIN rend-il compte de cette inefficience ?

28. Quelle est la consommation d’eau totale de HUMAIN pour le refroidissement des centres de données ? Dans un pays classé parmi les plus hydrostressés au monde, comment HUMAIN justifie-t-il les besoins en eau de l’informatique hyperscale, et quelles technologies de refroidissement alternatives sont déployées ?

29. Quelle est l’empreinte carbone totale de HUMAIN, y compris les émissions de Scope 1, 2 et 3 à travers ses opérations, sa chaîne d’approvisionnement et sa consommation énergétique ? HUMAIN s’engagera-t-il à une vérification indépendante et à une divulgation annuelle de ses émissions de carbone ?

30. HUMAIN est adossé au PIF, dont une part significative des actifs provient d’Aramco, la plus grande compagnie pétrolière du monde. Comment HUMAIN réconcilie-t-il ses engagements environnementaux avec l’intérêt économique fondamental de son propriétaire dans la poursuite de l’extraction et de la consommation de combustibles fossiles ?

Impact Économique et Travail

31. Quel pourcentage de l’effectif technique de HUMAIN est constitué de ressortissants saoudiens, et quel est le plan de saoudisation de l’entreprise ? Comment HUMAIN équilibre-t-il le recrutement de talents internationaux avec les mandats nationaux d’emploi du Royaume ?

32. HUMAIN OS déploie des agents IA décrits comme capables de remplacer des travailleurs humains dans les fonctions gouvernementales et d’entreprise. Quelle évaluation HUMAIN a-t-il conduite de l’impact du déplacement de main-d’oeuvre de sa technologie, et quelles mesures d’atténuation sont en place pour les travailleurs dont les rôles sont automatisés ?

33. La construction de l’infrastructure de centres de données de HUMAIN à l’échelle annoncée nécessitera des dizaines de milliers de travailleurs du bâtiment. Quelles normes de travail, protections salariales et conditions de travail sont garanties pour les travailleurs de la construction, y compris les travailleurs migrants, sur les projets de HUMAIN ?

34. Le fonds de capital-risque de 100 millions de dollars de HUMAIN investit dans des startups d’IA qui peuvent devenir dépendantes de l’infrastructure de HUMAIN. Quelles conditions régissent ces investissements, et comment HUMAIN empêche-t-il que ses activités de capital-risque créent un écosystème captif qui étouffe la concurrence ?

35. Lorsque HUMAIN déploie des agents IA à travers l’ensemble de l’infrastructure gouvernementale d’un pays, qu’est-ce qui empêche la création d’un point unique de défaillance, et quel risque souverain cette concentration de dépendance pose-t-elle au Royaume lui-même ?

Normes Internationales et Coopération

36. HUMAIN est-il signataire ou partisan de la Déclaration de Bletchley sur la sécurité de l’IA ? Si oui, comment HUMAIN met-il en oeuvre les engagements pris dans cette déclaration ? Si non, pourquoi ?

37. HUMAIN a-t-il soumis l’un de ses modèles ou systèmes agents à l’évaluation par le UK AI Safety Institute, le US AI Safety Institute ou tout organisme international équivalent ? Si non, s’engagera-t-il à le faire ?

38. HUMAIN soutient-il l’établissement d’un cadre international contraignant pour la gouvernance de l’IA sous l’égide des Nations Unies ? Quel rôle HUMAIN voit-il pour lui-même dans l’élaboration des normes mondiales en matière d’IA, et comment réconcilie-t-il ce rôle avec son statut d’entité adossée à un État souverain ?

39. À mesure que HUMAIN étend ses opérations commerciales pour servir des clients internationaux, s’engagera-t-il à se conformer aux exigences du Règlement européen sur l’IA pour les systèmes d’IA à haut risque, quel que soit le lieu de déploiement de ces systèmes ?

40. ALLAM est décrit comme culturellement adapté à l’Arabie saoudite. Lorsque ce modèle est déployé dans l’ensemble du monde arabophone, comment HUMAIN rend-il compte de la vaste diversité culturelle, politique et religieuse des populations arabophones ? L’adaptation culturelle est-elle divulguée aux utilisateurs finaux ?

Les Questions Fondamentales

41. Le site web de HUMAIN, humain.ai, redirige vers humain.com, un domaine qui masque le suffixe « .ai » qui signalerait immédiatement l’orientation intelligence artificielle de l’entreprise. Pourquoi ?

42. Le nom de HUMAIN dérive de « humain ». Comment l’entreprise réconcilie-t-elle le fait de se présenter autour de l’humanité tout en opérant sous l’autorité d’un gouvernement dont le bilan en matière de droits humains est systématiquement documenté par Amnesty International, Human Rights Watch et les Nations Unies comme figurant parmi les plus préoccupants au monde ?

43. Si un agent autonome de HUMAIN cause un dommage — que ce soit par erreur, biais ou comportement émergent — qui est juridiquement responsable ? L’opérateur de l’agent ? HUMAIN ? Le PIF ? Le gouvernement saoudien ? Ce cadre de responsabilité a-t-il été établi, et est-il publiquement accessible ?

44. Lorsqu’une seule entité souveraine contrôle une infrastructure d’IA à l’échelle que HUMAIN construit, sans supervision indépendante, avec une liberté de la presse limitée et sans redevabilité démocratique, cette concentration de pouvoir constitue-t-elle en elle-même une menace, indépendamment de l’intention ?

45. Quelles garanties techniques et institutionnelles spécifiques empêchent que les capacités d’IA de HUMAIN soient utilisées par les services de sécurité de l’État pour la surveillance, l’identification, le suivi ou la suppression de dissidents, de journalistes, de militants ou de communautés minoritaires ?

46. HUMAIN croit-il que les systèmes d’IA opérant à l’échelle de l’infrastructure nationale nécessitent une supervision humaine indépendante de l’entité déployant ces systèmes ? Si oui, à quoi ressemble cette supervision chez HUMAIN ? Si non, pourquoi ?

47. Quelles actions concrètes et vérifiables HUMAIN a-t-il prises — non planifiées, non annoncées, mais effectivement mises en oeuvre — pour gagner la confiance de la communauté internationale, de la société civile et des personnes dont il traite les données et dont ses systèmes affectent les vies ?

48. HUMAIN répondra-t-il à cette lettre ? Répondra-t-il publiquement, en détail et pour le compte-rendu public ? Ou le silence confirmera-t-il ce que beaucoup soupçonnent déjà : que HUMAIN estime opérer au-delà de la portée de la redevabilité publique ?

49. HUMAIN s’engagera-t-il à un cadre de transparence permanent, comprenant des rapports publics annuels, des audits de sécurité indépendants, des évaluations d’impact sur les droits humains et un dialogue avec la société civile internationale — non comme une question de bonne volonté, mais comme une obligation institutionnelle contraignante ?

50. Nous posons cette dernière question non à HUMAIN seul, mais au monde qui observe : lorsque le plus vaste chantier d’IA de l’histoire est conduit par une entité souveraine sans supervision indépendante, sans presse libre, sans redevabilité démocratique et avec un bilan documenté de répression de la dissidence, suffit-il de poser des questions ? Ou la communauté internationale doit-elle exiger des réponses ?


Note Sur Notre Intention

Cette lettre est publiée dans un esprit de redevabilité, non d’antagonisme. HUMAIN peut se révéler être un gestionnaire responsable d’un pouvoir extraordinaire. Nous l’espérons. Mais l’espoir n’est pas un cadre de gouvernance, et la confiance doit être gagnée par la transparence, pas exigée par l’échelle.

Nous invitons HUMAIN à répondre publiquement à ces questions. Nous publierons toute réponse intégralement, sans modification, aux côtés de cette lettre.

Pour ceux à l’intérieur ou à proximité de HUMAIN qui souhaitent partager des informations de manière confidentielle, notre ligne de signalement sécurisée est disponible sur notre page de contact. Nous protégeons nos sources de manière absolue.

Pour une analyse approfondie de l’entité à laquelle ces questions s’adressent, consultez notre profil détaillé de HUMAIN. Pour les principes qui guident notre travail, consultez notre Manifeste INHUMAIN.


Signé,

La Rédaction, INHUMAIN.AI Février 2026