Un juge américain remet en question le caractère punitif de l’interdiction gouvernementale visant une entreprise d’IA Anthropic

0
18

Un juge fédéral américain a exprimé de vives inquiétudes quant au fait que la mise sur liste noire d’Anthropic, une société d’intelligence artificielle, par le gouvernement, semble être punitive plutôt que fondée sur des risques légitimes pour la sécurité nationale. L’affaire est centrée sur le refus d’Anthropic d’accorder au Pentagone un accès militaire sans restriction à son modèle Claude AI, une décision qui a provoqué des représailles de la part de l’administration Trump.

Différend concernant l’accès militaire illimité

Le conflit a commencé lorsqu’Anthropic s’est publiquement opposé à l’utilisation de son IA dans des systèmes d’armes létaux autonomes sans surveillance humaine ni surveillance massive des citoyens américains. En février, le président Trump et le secrétaire à la Défense Pete Hegseth ont annoncé la rupture de leurs liens avec l’entreprise, ce qui a conduit à une désignation gouvernementale qualifiant Anthropic de « risque de chaîne d’approvisionnement pour la sécurité nationale » et à une interdiction immédiate pour les agences fédérales d’utiliser son modèle Claude.

Cette décision est très inhabituelle ; généralement, ces désignations sont réservées aux entités étrangères. Selon l’informaticien Ben Goertzel, PDG de SingularityNet, l’action de l’administration démontre une capacité troublante à réinterpréter les lois à volonté. Si elle est pleinement appliquée, la désignation pourrait effectivement empêcher Anthropic de vendre des logiciels à toute entreprise impliquée dans des contrats gouvernementaux, bien que Goertzel note que l’entreprise pourrait prospérer en dehors de ces partenariats.

Préoccupations liées au premier amendement et défis juridiques

Anthropic a intenté deux poursuites contre le gouvernement, contestant la désignation de risque pour la chaîne d’approvisionnement et alléguant une violation du droit à la liberté d’expression du premier amendement. Lors d’une audience mardi, la juge de district Rita F. Lin s’est ouvertement demandé si l’interdiction était une punition pour les critiques publiques de l’entreprise à l’égard de la position du Pentagone. Elle a déclaré que les actions du gouvernement « ressemblent à une tentative de paralyser Anthropic ».

L’avocat du gouvernement a insisté sur le fait que la décision était basée uniquement sur l’utilisation abusive potentielle de l’IA d’Anthropic, et non sur la position publique de l’entreprise. Cependant, le juge Lin a émis des doutes, se demandant si le Pentagone avait agi légalement en interdisant aux agences d’utiliser les produits d’Anthropic après que le secrétaire à la Défense Hegseth ait exhorté les entreprises à rompre leurs liens avec la société d’IA.

Implications plus larges pour l’industrie de l’IA

L’affaire a des implications importantes pour l’industrie de l’IA. Si les actions de l’administration Trump sont maintenues, cela pourrait décourager d’autres entreprises de contester les exigences du gouvernement, forçant ainsi leur conformité par la coercition. Cette décision pourrait créer un précédent en matière de excès de pouvoir de la part de l’exécutif dans le contrôle du développement et du déploiement de l’IA.

Le juge Lin espère rendre une décision dans les prochains jours sur la suspension temporaire de l’interdiction pendant que le tribunal examine l’affaire plus en détail. Le résultat sera surveillé de près car il pourrait remodeler la relation entre les sociétés d’IA et le gouvernement américain, déterminant si la liberté d’expression et les frontières éthiques peuvent coexister avec les préoccupations de sécurité nationale.

L’affaire met en évidence une tension croissante entre le contrôle gouvernemental et l’autonomie du secteur privé dans le domaine en évolution rapide de l’intelligence artificielle. Le scepticisme du juge suggère une volonté d’examiner le pouvoir exécutif, mais la décision finale déterminera si les entreprises d’IA doivent s’aligner sur les agendas politiques pour survivre.