Anthropic blacklisté : la régulation de l’IA au cœur de la crise

Temps de lecture : 4 min

Ce qu’il faut comprendre

  • Régulation : Le blacklistage d’Anthropic illustre les risques du vide juridique entourant le développement de l’intelligence artificielle.
  • Contradictions : Les géants de l’IA, malgré leurs promesses de sécurité, ont historiquement résisté à une régulation contraignante.
  • Souveraineté : La course à la superintelligence est désormais perçue comme une menace pour la sécurité nationale, bien au-delà d’un simple enjeu technologique.

Un blacklistage qui fait date

Je décrypte l’actualité tech depuis dix ans, et je dois dire que la séquence est saisissante. Fin de semaine dernière, le Pentagone a officiellement rompu tout lien avec Anthropic. Le motif ? Le refus de la société de San Francisco de laisser sa technologie être utilisée pour la surveillance de masse des citoyens américains ou pour des drones armés autonomes. Dans les faits, le Secrétaire à la Défense a invoqué une loi sur la sécurité nationale, privant l’entreprise d’un contrat estimé à 200 millions de dollars.

En clair, le gouvernement a tiré un trait. Et la réaction d’Anthropic, qui annonce contester la décision en justice, ne fait qu’ajouter une couche à un conflit qui dépasse largement le cadre commercial. Ce que nous observons, c’est l’aboutissement concret d’années d’avertissements sur l’incapacité à réguler la course à l’IA.

Les promesses non tenues de l’industrie

Max Tegmark, physicien au MIT et fondateur du Future of Life Institute, porte ce discours depuis des années. Son analyse est sans appel : les entreprises ont elles-mêmes semé les graines de cette crise. Je partage ce constat. Anthropic, OpenAI, Google DeepMind… Tous ont bâti une partie de leur réputation sur des engagements de sécurité solennels.

Pourtant, dans les faits, aucune n’a véritablement poussé pour une régulation contraignante. Elles ont préféré le mantra du « faites-nous confiance, nous nous autorégulerons ». Résultat ? Tegmark le souligne avec une métaphore percutante : aujourd’hui, aux États-Unis, il existe plus de règles pour vendre un sandwich que pour déployer une intelligence artificielle de niveau mondial. L’inspecteur sanitaire peut fermer un commerce infesté de rats, mais il ne peut rien contre une entreprise promettant une « superintelligence » incontrôlable.

La sécurité nationale, nouvel angle mort

L’argument habituel des lobbyistes est connu : « Si nous ne le faisons pas, la Chine le fera. » Ce qu’il faut comprendre, c’est que cet argument ne tient plus la route. Pékin envisage d’interdire purement et simplement les « IA petites amies », les jugeant néfastes pour sa jeunesse et donc pour la puissance nationale. Le Parti Communiste Chinois, adepte du contrôle absolu, ne tolérerait jamais qu’une entreprise développe une superintelligence capable de le renverser.

La perspective a changé. Ce qui était vu comme un atout stratégique est désormais perçu, dans les cercles de la sécurité nationale, comme une menace existentielle. Quand Dario Amodei, le fondateur d’Anthropic, parle d’un « pays de génies dans un data center », il utilise un vocabulaire qui alerte directement les services de renseignement. La course n’est plus seulement économique ; elle est devenue un enjeu de souveraineté, comparable à la course aux armements nucléaires durant la Guerre Froide.

Où en est-on vraiment de la course à l’AGI ?

Ma veille des tendances émergentes me pousse à regarder les données. Il y a six ans, les experts prévoyaient une IA de niveau humain pour 2040 ou 2050. Ils se sont trompés. Les progrès ont été exponentiels. Une étude récente co-signée par Yoshua Bengio et d’autres sommités propose une définition rigoureuse de l’Intelligence Artificielle Générale (AGI). Selon ce cadre, GPT-4 en était à 27%. GPT-5 a atteint les 57%.

Ce qu’il faut comprendre, c’est que la trajectoire est claire. Le saut de 27% à 57% en si peu de temps indique que l’échéance n’est plus lointaine. Je l’expliquais à mes étudiants au MIT : même avec un horizon de quatre ans, ils pourraient sortir diplômés sur un marché du travail radicalement transformé, où de nombreux emplois auront disparu. Il n’est pas trop tôt pour s’y préparer.

Un tournant pour toute l’industrie

La suite sera cruciale. Anthropic est blacklisté. Sam Altman d’OpenAI a annoncé soutenir la position d’Anthropic et ses « lignes rouges ». Google, pour l’instant, reste silencieux. Quant à xAI, on attend sa réaction. Ce moment force chacun à révéler ses vraies couleurs. Un concurrent va-t-il saisir l’opportunité du contrat perdu par Anthropic, ou l’industrie va-t-elle faire front commun ?

Malgré tout, je garde une forme d’optimisme. Il existe une alternative évidente, un chemin qui n’est pas encore pris : traiter les entreprises d’IA comme n’importe quelle autre industrie à haut risque. Imposer des « essais cliniques » avant le déploiement de systèmes puissants, avec validation par des experts indépendants. Cela permettrait de bénéficier des avantages de l’IA tout en écartant les risques existentiels. La crise actuelle, aussi brutale soit-elle, pourrait être le déclic nécessaire pour emprunter cette voie. L’avenir de notre écosystème digital en dépend.