Dans sa bataille contre le gouvernement américain, Anthropic bénéficie de l'appui de nombreux employés des géants de l'IA, une union peu conventionnelle qui renforce son combat. Un jour après que la start-up ait déposé une plainte contre l'administration Trump concernant sa désignation comme "risque pour les approvisionnements", près de quarante salariés d'OpenAI, Google et DeepMind ont présenté un mémoire d'amicus curiae pour apporter leur éclairage et leur soutien au tribunal.
Les signataires, dont Jeff Dean, directeur scientifique de Google, reprochent à l'administration d'avoir potentiellement abusé de son pouvoir en qualifiant Anthropic de "risque pour les approvisionnements". "Si les accusés n'étaient pas satisfaits des termes de leur contrat avec Anthropic, ils auraient pu simplement y mettre fin et choisir une autre entreprise", assurent-ils.
Un abus de pouvoir manifeste
Ils considèrent que l'administration Trump aurait dû opter pour des négociations, plutôt que d'appliquer une sanction directe à Anthropic, qui a refusé de céder à des demandes militaires. Cette décision empêche les fournisseurs fédéraux d'établir des relations commerciales avec la jeune start-up, affectant ainsi sa compétitivité. Comme l'indiquent les employés, cette désignation été traditionnellement réservée à des adversaires étrangers comme Huawei et Kaspersky, ce qui soulève des inquiétudes quant à l'impact sur le secteur de l'IA aux États-Unis.
"Cette sanction risque d'affaiblir la compétitivité des États-Unis dans le secteur industriel et scientifique de l'IA", déplorent les employés.
Ils espèrent persuader le tribunal de réexaminer la classification d'Anthropic, la qualifiant d'arbitraire. En effet, ils affirment que cette désignation pourrait nuire sérieusement non seulement à l'industrie de l'IA, mais également à la discussion sur les avantages de cette technologie innovante.
Des enjeux éthiques fondamentaux
Les signataires soutiennent que la position d'Anthropic est légitime. La start-up se refuse à permettre l'utilisation de son IA pour des applications militaires telles que le contrôle d'armes autonomes. Pour eux, ces technologies présentent des risques trop importants. "Les modèles d'IA actuels ne sont pas fiables et ne devraient pas déterminer des décisions vitales", estiment-ils.
Alors que des systèmes modernes de surveillance exploitent déjà abondamment les données personnelles, l’intégration de l’IA pourrait créer des dispositifs de surveillance encore plus intrusifs, préviennent-ils. "Sans cadres de gouvernance adéquats, les engagements éthiques des développeurs doivent être considérés non pas comme des obstacles à l'innovation mais comme des catalyseurs", concluent-ils.







