Sąd amerykański zadaje pytania dotyczące karnego charakteru zakazu nałożonego na firmę Anthropic dotyczącą sztucznej inteligencji

0
16

Sędzia sądu federalnego Stanów Zjednoczonych wyraził poważne zaniepokojenie faktem, że umieszczenie przez rząd na czarnej liście Anthropic, firmy zajmującej się sztuczną inteligencją, wydaje się mieć charakter karny, a nie opierać się na rzeczywistych zagrożeniach dla bezpieczeństwa narodowego. Sprawa dotyczy odmowy przez firmę Anthropic przyznania Pentagonowi nieograniczonego dostępu wojskowego do jej modelu AI Claude, co wywołało odwet ze strony administracji Trumpa.

Brak porozumienia w sprawie nieograniczonego dostępu do wojska

Konflikt rozpoczął się, gdy firma Anthropic otwarcie sprzeciwiła się wykorzystaniu swojej sztucznej inteligencji w autonomicznych systemach uzbrojenia bez interwencji człowieka i masowej inwigilacji obywateli amerykańskich. W lutym prezydent Trump i sekretarz obrony Pete Hegseth ogłosili, że zrywają kontakty z firmą, co doprowadziło do umieszczenia Anthropic przez rząd jako „ryzyka w łańcuchu dostaw bezpieczeństwa narodowego” i natychmiastowego zakazu stosowania modelu Claude przez agencje federalne.

Ten ruch jest bardzo nietypowy; Zazwyczaj takie oznaczenia są zastrzeżone dla organizacji zagranicznych. Według informatyka Bena Goertzela, dyrektora generalnego SingularityNet, działania administracji wykazują alarmującą zdolność do reinterpretacji prawa według własnego uznania. Jeśli oznaczenie to zostanie w pełni egzekwowane, może skutecznie uniemożliwić Anthropic sprzedaż oprogramowania jakiejkolwiek firmie zaangażowanej w kontrakty rządowe, chociaż Goertzel zauważa, że ​​firma mogłaby dobrze sobie radzić poza tymi partnerstwami.

Problemy związane z pierwszą poprawką i roszczenia prawne

Anthropic złożyła dwa pozwy przeciwko rządowi, kwestionując oznaczenie firmy jako stwarzającej ryzyko w łańcuchu dostaw i oskarżając rząd o naruszenie prawa do wolności słowa wynikającego z Pierwszej Poprawki. Podczas wtorkowej rozprawy sędzia okręgowy Rita F. Lin otwarcie zadała pytanie, czy zakaz jest odpowiedzią na publiczną krytykę firmy dotyczącą stanowiska Pentagonu. Powiedziała, że ​​działania rządu „wyglądają na próbę osłabienia Anthropic”.

Prawnik rządu upierał się, że decyzję podjęto wyłącznie na podstawie potencjalnego nadużycia sztucznej inteligencji Anthropic, a nie na publicznym stanowisku firmy. Sędzia Lin wyraził jednak wątpliwości, kwestionując, czy Pentagon działał zgodnie z prawem, zakazując agencjom używania produktów Anthropic po tym, jak Sekretarz Obrony Hegseth wezwał firmy do zaprzestania współpracy z firmą zajmującą się sztuczną inteligencją.

Szersze konsekwencje dla branży sztucznej inteligencji

Sprawa ma istotne implikacje dla branży AI. Jeśli działania administracji Trumpa zostaną poparte, może to zniechęcić inne firmy do kwestionowania żądań rządu, skutecznie wymuszając przestrzeganie przepisów za pomocą przymusu. Decyzja ta może stworzyć precedens dla nadużycia władzy wykonawczej w kontrolowaniu rozwoju i wdrażania sztucznej inteligencji.

Sędzia Lin spodziewa się w nadchodzących dniach wydać orzeczenie, czy zakaz powinien zostać tymczasowo zawieszony do czasu dalszego rozpatrywania sprawy przez sąd. Wynik będzie uważnie obserwowany, ponieważ może zmienić kształt relacji między firmami zajmującymi się sztuczną inteligencją a rządem USA, określając, czy wolność słowa i granice etyczne mogą współistnieć z obawami dotyczącymi bezpieczeństwa narodowego.

Sprawa podkreśla rosnące napięcie między nadzorem rządowym a autonomią sektora prywatnego w szybko rozwijającej się dziedzinie sztucznej inteligencji. Sceptycyzm sędziego sygnalizuje chęć zbadania nadużyć na stanowiskach kierowniczych, ale ostateczne orzeczenie zadecyduje, czy firmy AI muszą dostosować się do interesów politycznych, aby przetrwać.