Le bref consensus autour de la sécurité de l’IA, autrefois un objectif commun aux entreprises, aux législateurs et au public, s’effrite rapidement. Ce qui a commencé comme une poussée prudente en faveur de la réglementation et de la surveillance s’est transformé en une concurrence acharnée dans laquelle l’armée américaine et les principales sociétés d’IA donnent la priorité à la vitesse et à la domination plutôt qu’aux considérations éthiques. La position agressive du Pentagone et les réponses agressives d’Anthropic et d’OpenAI signalent un changement dangereux : la sécurité est désormais secondaire par rapport à l’avantage stratégique.
Le Pentagone contre Anthropic : un tournant
Le conflit entre le ministère de la Défense (rebaptisé désormais ministère de la Guerre) et Anthropic illustre parfaitement le problème. Anthropic avait précédemment insisté sur le fait que ses modèles Claude AI ne seraient pas utilisés pour des armes autonomes ou pour la surveillance de masse, une condition que le Pentagone cherche désormais à effacer. Le refus de l’armée d’accepter ces limitations a conduit Anthropic à perdre son contrat et à être qualifiée de « risque pour la chaîne d’approvisionnement », l’empêchant ainsi de travailler à l’avenir avec le gouvernement.
Il ne s’agit pas uniquement de litiges contractuels. Il s’agit de la détermination de l’armée à supprimer toute restriction à l’utilisation de l’IA, même si cela implique de repousser les limites de la légalité. La question n’est pas de savoir si l’armée peut construire des drones autonomes mortels, mais si elle le fera et à quelle vitesse. L’absence d’accords internationaux signifie que d’autres pays suivront le mouvement, créant ainsi une inévitable course aux armements en matière d’IA.
L’érosion des protocoles de sécurité
Les récents changements apportés par Anthropic à sa « politique de mise à l’échelle responsable » soulignent ce changement. La politique, conçue pour prévenir les risques catastrophiques liés à l’IA en liant les versions de modèles aux procédures de sécurité, a été discrètement abandonnée. L’entreprise a admis que la politique n’avait pas réussi à créer le large consensus nécessaire pour faire respecter les normes de sécurité. L’environnement donne désormais la priorité à la compétitivité de l’IA et à la croissance économique, laissant de côté les discussions sur la sécurité.
Le résultat est une compétition à mains nues où OpenAI a rapidement réagi pour combler le vide laissé par la résiliation du contrat d’Anthropic. Le PDG d’OpenAI, Sam Altman, a affirmé que sa décision visait à soutenir Anthropic, mais le PDG d’Anthropic, Dario Amodei, l’a accusé de saper la position de l’entreprise pour gagner les faveurs de l’administration. Ces luttes internes démontrent que même au sein des principaux laboratoires d’IA, la sécurité est de plus en plus considérée comme un handicap plutôt que comme une priorité.
L’illusion du progrès
Malgré la sombre réalité, les sociétés d’IA insistent sur le fait que la sécurité reste importante. Le directeur scientifique d’Anthropic, Jared Kaplan, affirme que les laboratoires de recherche donnent toujours la priorité au développement éthique. OpenAI considère la croissance des organisations de sécurité de l’IA et les efforts réglementaires de l’Union européenne comme des signes de progrès.
Cependant, ces affirmations sonnent creux lorsqu’on les compare aux actions du Pentagone et à la quête incessante de domination de l’industrie. OpenAI admet que même si elle a mis en place des garanties, rien ne garantit qu’elle résistera à la pression de l’armée, qui pourrait invoquer la loi sur la production de défense pour prendre le contrôle si nécessaire.
Une sombre conclusion
La situation est claire : l’IA est trop puissante, trop tentante pour être maîtrisée. Comme l’a dit le PDG d’Anthropic, Dario Amodei : « C’est le piège ». La course au développement et au déploiement de l’IA éclipsera inévitablement les préoccupations en matière de sécurité, laissant l’humanité vulnérable face à son potentiel incontrôlé. L’ère de l’optimisme prudent est révolue. L’avenir de l’IA est défini par la concurrence, et la sécurité en sera la première victime.






















