Anthropic : trop éthique pour le Pentagone ?

La startup d’intelligence artificielle liée par un contrat à l’armée américaine, irrite l’administration Trump par sa volonté d’imposer des garde-fous à l’intégration de son assistant Claude dans les dispositifs de défense des États-Unis.

Un contrat de 200 millions de dollars, deux lignes rouges et une menace sans précédent contre une entreprise américaine. C’est en substance ce qui oppose depuis plusieurs semaines Anthropic, la jeune pousse d’intelligence artificielle fondée par Dario Amodei, au Pentagone.

Un conflit qui dépasse largement le cadre d’un simple différend commercial pour toucher aux questions fondamentales de surveillance de masse, d’autonomie létale des machines et de libertés civiles.

L’affaire a éclaté discrètement en début d’année, lorsque le département de la Défense a sollicité les quatre entreprises d’IA avec lesquelles il collabore — Anthropic, OpenAI, Google et xAI, la société d’Elon Musk — afin de leur soumettre un nouveau type de contrat.

Baptisé « all lawful uses » (Tous les usages légaux), ce document prévoit de supprimer purement et simplement les politiques d’utilisation propres à chaque entreprise, c’est-à-dire les règles qu’elles imposent à leurs clients commerciaux et à leurs utilisateurs, pour les remplacer par une clause unique autorisant l’armée américaine à faire « tout ce qui est légal » avec ces systèmes.

Deux conditions non-négociables

OpenAI, Google et xAI ont accepté sans résistance apparente. Seule Anthropic s’y est opposée. Déjà engagée sur plusieurs projets avec le Pentagone, notamment dans le cadre de plateformes d’IA à usage administratif ou stratégique (aux côtés de Palantir et Amazon Bedrock), la société a fixé deux conditions irrévocables : pas de surveillance de masse domestique, et aucune implication dans des systèmes d’armes autonomes capables de tuer sans validation humaine.

« Nous devons utiliser l’IA pour la défense de toutes les manières, sauf celles qui nous rapprocheraient de nos adversaires autocratiques », écrit notamment Amodei, dans The Adolescence of Technology, un essai paru le 26 janvier.

Une telle mise en garde a de quoi provoquer l’ire du département de la Défense. Celle-ci a non seulement menacé d’annuler le contrat de 200 millions de dollars, mais envisage également de désigner Anthropic comme « risque pour la chaîne d’approvisionnement ».

Une fracture au cœur de la Silicon Valley

Cette mesure exceptionnellement grave est habituellement réservée aux entreprises étrangères considérées comme des menaces pour la sécurité nationale, à l’image du chinois Huawei soupçonné d’installer des portes dérobées dans ses équipements pour Pékin.

Pourtant, selon des sources proches des négociations citées par la presse américaine, Dario Amodei et son équipe ne cèdent pas. L’argument avancé sur les armes autonomes est d’ailleurs autant technique qu’éthique, car les systèmes actuels ne sont tout simplement pas suffisamment fiables pour piloter des frappes de précision de manière autonome.

Au-delà du différend contractuel, cette confrontation s’apparente à un test de loyauté dans un climat où l’ensemble des grandes entreprises technologiques ont cédé aux exigences du pouvoir exécutif. Qu’un refus limité à deux usages précis entraîne une riposte aussi disproportionnée illustre la pression croissante qui pèse sur le secteur.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.