Судья федерального суда США выразил серьезную обеспокоенность тем, что включение Anthropic, компании в сфере искусственного интеллекта, в черный список правительством выглядит как карательная мера, а не как основанная на реальных угрозах национальной безопасности. Дело касается отказа Anthropic предоставить Пентагону неограниченный военный доступ к своей модели Claude AI, решение, которое спровоцировало ответные действия администрации Трампа.
Разногласия Из-За Неограниченного Военного Доступа
Конфликт начался, когда Anthropic открыто выступила против использования своего ИИ в системах автономного оружия без участия человека и массовой слежки за американскими гражданами. В феврале президент Трамп и министр обороны Пит Хегсет объявили о разрыве связей с компанией, что привело к внесению Anthropic в правительственный список как «риск для цепочки поставок национальной безопасности» и немедленному запрету на использование ее модели Claude федеральными ведомствами.
Этот шаг крайне необычен; обычно такие обозначения резервируются для иностранных организаций. По словам ученого-компьютерщика Бена Герцеля, генерального директора SingularityNet, действия администрации демонстрируют тревожную способность переинтерпретировать законы по своему усмотрению. Если обозначение будет полностью приведено в действие, это может фактически помешать Anthropic продавать программное обеспечение любой компании, участвующей в государственных контрактах, хотя Герцель отмечает, что компания может преуспеть и вне этих партнерств.
Проблемы Первой Поправки и Юридические Иски
Anthropic подала два иска против правительства, оспорив обозначение как риск для цепочки поставок и обвинив правительство в нарушении своего права на свободу слова, гарантированного Первой поправкой к Конституции США. На слушании во вторник окружной судья Рита Ф. Лин открыто задала вопрос, не является ли запрет ответом на публичную критику позиций Пентагона со стороны компании. Она заявила, что действия правительства «выглядят как попытка ослабить Anthropic».
Юрист правительства настаивал на том, что решение было основано исключительно на потенциальном злоупотреблении ИИ Anthropic, а не на публичной позиции компании. Однако судья Лин выразила сомнения, задаваясь вопросом, действовал ли Пентагон законно, запретив ведомствам использовать продукты Anthropic после того, как министр обороны Хегсет призвал компании прекратить сотрудничество с AI-фирмой.
Более Широкие Последствия Для AI-Индустрии
Дело имеет значительные последствия для AI-индустрии. Если действия администрации Трампа будут поддержаны, это может отбить у других компаний желание бросать вызов требованиям правительства, фактически вынуждая к подчинению через принуждение. Решение может создать прецедент для злоупотребления исполнительной властью в контроле над разработкой и внедрением ИИ.
Судья Лин ожидает вынесения решения в ближайшие дни о том, следует ли временно приостановить запрет, пока суд не рассмотрит дело дальше. Исход будет внимательно следить за ним, поскольку он может изменить отношения между компаниями в сфере ИИ и правительством США, определяя, могут ли свобода слова и этические границы сосуществовать с проблемами национальной безопасности.
Дело подчеркивает растущее напряжение между государственным контролем и автономией частного сектора в быстро развивающейся области искусственного интеллекта. Скептицизм судьи свидетельствует о готовности изучить злоупотребления исполнительной властью, но окончательное решение определит, должны ли AI-компании соответствовать политическим интересам, чтобы выжить.
