Gate News сообщает, что федеральный судья в Сан-Франциско, Рита Лин, постановила, что действия Пентагона против компании Anthropic могут нарушать Первую поправку Конституции и являются формой преследования за свободу слова. Ранее компания публично осуждала действия «Министерства войны», что вызвало резкую реакцию правительства. В настоящее время иск передан в суд штата Калифорния, и Anthropic требует отмены своего ярлыка «риски цепочки поставок», который ранее привел к запрету использования их искусственного интеллекта модели Claude правительством.
Судья отметил, что меры правительства, похоже, не связаны с национальной безопасностью, а скорее представляют собой наказание для Anthropic. Представитель компании Майкл Мунган заявил, что подобные действия ранее не предпринимались, их полномочия слишком узки и не позволяют полностью запрещать использование ИИ-технологий. Судья подчеркнул, что основной вопрос в деле — это законность действий правительства, а не оправданность прекращения использования ИИ.
Ранее Anthropic сотрудничала с несколькими федеральными агентствами и подписала контракт на сумму 200 миллионов долларов с Пентагоном, позволяющий запускать системы в закрытых сетях. Однако переговоры зашли в тупик при подключении Claude к платформе GenAI.mil. Пентагон стремится получить полный доступ для военных задач, в то время как Anthropic ясно выразила несогласие с использованием своих технологий в военных целях и требует более строгих ограничений. Адвокат правительства Гамильтон заявил, что компания не отказывается от контракта, а лишь ставит под сомнение законность военного использования.
Недавно обновленная система искусственного интеллекта Claude может автоматически управлять компьютером пользователя для выполнения задач, таких как подготовка презентаций, отправка приглашений на встречи с приложениями и другие операции, что выводит её в ряды AI-агентов, способных работать без постоянного ввода команд. Популярность OpenClaw ускорила этот тренд: модели Anthropic и OpenAI теперь могут получать задания через WhatsApp или Telegram, получать доступ к локальным файлам и выполнять автоматизированные операции с высокой эффективностью.
Это решение затрагивает не только вопросы военного применения ИИ и исполнения контрактов, но и вызывает опасения по поводу возможных злоупотреблений власти со стороны правительства США в сфере цифровых инноваций. Инцидент с Anthropic подчеркивает сложную борьбу между развитием искусственного интеллекта, свободой слова и технологической автономией, а его последствия могут распространиться на большее число инновационных компаний и глобальную экосистему ИИ.