Суддя жорстко розкритикував армію США за порушення конституції! Вимагає скасувати етикетку ризику постачання Anthropic, звіт до 4/6.

CryptoCity

Федеральний суддя тимчасово зупинив Пентагон, щоб Anthropic потрапила до «чорного списку» заборонених компаній, визнавши це неконституційною помстою; план гігантського IPO компанії зі штучним інтелектом на 3 800 млрд доларів США продовжується.

Судове «лезо» розсікло Пентагон: суддя різко засудив «орвелівське» маркування як таке, що суперечить Конституції

Нещодавно американська індустрія ШІ отримала знакову судову перемогу. Федеральна суддя в Каліфорнії Rita Lin у четвер минулого тижня (3/26) офіційно оголосила попередню судову заборону, яка забороняє адміністрації Трампа додати AI-гіганта Anthropic до чорного списку компаній із ризиком для ланцюгів постачання. Це рішення напряму кидає виклик адміністративному наказу Пентагону та міністра оборони Піта Хегсетса (Pete Hegseth); у тексті постанови суддя вжила дуже жорстких формулювань, зазначивши, що поведінка уряду, який наклеює на американську компанію з домівки США ярлики «потенційний опонент» і «руйнівник», є надзвичайно іронічною.

Rita Lin підкреслила, що чинна правова рамка не підтримує таку «орвелівську (Orwellian)» логіку адміністративного управління. Адміністративна система лише через те, що підприємство займає позицію, відмінну від позиції уряду, вважає його загрозою для національної безпеки — очевидно, виходить за межі наданих повноважень. Суд зобов’язав федеральний уряд негайно припинити виконання відповідних обмежень і до 6 квітня подати звіт про дотримання вимог із поясненням конкретного способу виконання рішення про скасування заборони.

Суть цієї юридичної боротьби полягає в тому, чи використовує уряд ім’я «національна безпека» для помсти за висловлювання. Згідно з матеріалами, які розкрив суд, рішення Міністерства оборони (або так званого «відомства війни») щодо Anthropic великою мірою ґрунтувалося на публічних заявах компанії в медіа, а не на ретельній технічній оцінці безпеки. Суддя вказала, що покарання Anthropic викликає увагу громадськості до позиції уряду щодо контрактів, і є дією помсти, яка порушує першу поправку до Конституції. Під час слухання у вівторок у Сан-Франциско Rita Lin поставила під сумнів занадто низький поріг, за яким уряд визначає компанії як «загрози».

Вона вважає, що якщо в Пентагону є сумніви щодо технічного контролю, то можна просто припинити використання моделі Claude. Маркувати компанію як «ризик для ланцюгів постачання» з елементами приниження та знищення — недоречно. Це рішення тимчасово відновило партнерський статус Anthropic із федеральними підрядниками, створивши правовий «парасольковий» захист для майбутніх AI-компаній у ситуаціях тиску з боку уряду.

Не дати перетворитися на машину війни: Anthropic за наполягання на етиці ШІ зазнає помсти

Першопричиною цього конфлікту стала «точка спалаху»: контракт на 200 млн доларів США, підписаний Anthropic і Пентагоном у липні 2025 року. Тоді сторони домовилися, що Claude стане першим передовим AI-моделем, який отримав дозвіл працювати в конфіденційних мережах.

Втім, співпраця між сторонами обірвалася в лютому 2026 року. Міністерство оборони спробувало знову обговорити умови контракту, вимагаючи від Anthropic скасувати всі обмеження та дозволити військовим використовувати Claude для всіх законних цілей. Постійно наголошуючи на безпеці ШІ, Anthropic тримала межу: вона відмовилася застосовувати свою технологію в смертоносних автономних системах озброєнь, а також у масштабних внутрішніх програмах нагляду щодо громадян США. Керівництво компанії вважає, що на сьогодні AI-моделі ще не мають достатньої безпеки та точності для цих чутливих сфер; ризик необережно кинути їх на поле бою або в завдання стеження спричинить катастрофічні наслідки.

Далі події швидко ескалували: реакція адміністративної системи виразно показала сильне особистісне емоційне забарвлення. 24 лютого міністр оборони Хегсетс під час зустрічі дав Anthropic остаточний ультиматум, погрожуючи санкціями, якщо обмеження не будуть зняті. Після того як Anthropic відмовилася йти на компроміс, президент Трамп 27 лютого у Truth Social публічно розкритикував цю компанію як «радикальних лівих, пробуджених корпорацій», звинувативши її в спробі залякати Міністерство оборони; одразу після цього він наказав усім федеральним органам припинити використання продуктів Anthropic.

Одразу ж після цього Хегсетс охарактеризував позицію Anthropic як «шедевр зарозумілості та зради» і офіційно оприлюднив маркування «ризик для ланцюгів постачання». Цей крайній захід, який раніше зазвичай зберігали для іноземних розвідувальних організацій або терористичних угруповань, уперше застосували до американської вітчизняної технологічної компанії. Експерти вважають, що така «військова» інструментація права відображає нетерплячість адміністративної системи, яка зіткнулася з викликом технічної етики.

  • Пов’язані новини: National security vs ethics: Anthropic відмовляється прибрати захисні огорожі для Claude безпеки, зіштовхується з Пентагоном США

Оцінка в капітальному ринку отримує «голос довіри», гігант із вартістю 3 800 млрд просуває план виходу на біржу в жовтні

Незважаючи на бурю політики та права, Anthropic у капітальному ринку тримається дуже впевнено, демонструючи сильну стійкість. Дані станом на 2025 рік показують: Anthropic має 32 % частки на ринку корпоративного ШІ, випереджаючи OpenAI із 25 %; компанія посідає лідерську позицію в індустрії. У цьому році, одразу в лютому, ця AI-зірка щойно завершила раунд фінансування на 30 млрд доларів США: її оцінка вже зросла до 3 800 млрд доларів США. Раунд очолив суверенний фонд MGX.

Паралельно технологічні гіганти на кшталт Alphabet’s Google, Amazon, Microsoft і Nvidia теж вибудували глибокі партнерства з Anthropic: сума інвестицій та угод щодо інфраструктури загалом сягає сотень мільярдів. Підтримка цих «сили Силіконової долини» дає Anthropic економічну подушку безпеки проти політичного тиску.

  • Пов’язані новини: Anthropic подає до суду! Заявляє, що уряд Трампа мститься забороною Claude; 37 дослідників ШІ висловлюють підтримку

Останнє судове рішення проклало для Anthropic шлях до публічного ринку. Інсайдери повідомляють, що Anthropic пришвидшує просування плану IPO (першого публічного розміщення акцій); найшвидше компанія може бути розміщена на біржі в жовтні 2026 року. Очікуваний обсяг залучених коштів перевищить 60 млрд доларів США. Наразі провідні інвестбанки на кшталт Goldman Sachs, JPMorgan та Morgan Stanley вже внесені до переліку потенційних консультантів андеррайтерів.

Юристи зазначають: якщо урядова заборона зі «чорного списку» й далі залишатиметься чинною, це призведе до суттєвого звуження частки Anthropic на ринку та сильно вдарить по довірі інвесторів. Тепер, коли суд визнав заборону неконституційною, захищено комерційні інтереси компанії. Це також передає ринку меседж: наполегливе дотримання бізнесом етики безпеки ШІ має бути підтримане законом, а не використовуватися як привід для тиску з боку уряду.

У Техасі починають будівництво дата-центру на 5 млрд: підрозділи на передовій ігнорують заборону та продовжують використовувати Claude

Окрім юридичних «атак» і «відповідей», кроки Anthropic з розширення інфраструктури не зупиняються. Google планує підтримати проєкт дата-центру на 5 млрд у Техасі та здавати його повністю в оренду Anthropic для використання. Цей майдан площею 2 800 акрів обслуговує Nexus Data Centers; очікується, що до кінця 2026 року він забезпечить близько 500 мегават (MW) потужностей — цього достатньо, щоб підтримувати потреби в електроенергії 500 тис. домогосподарств. У майбутньому потужність може бути розширена до 7,7 гіга ват (GW). Географічне розташування проєкту вигідне: поруч розташовані основні трубопроводи природного газу. Там можна використовувати стаціонарні газові турбіни для автономного електропостачання, забезпечуючи високу надійність обчислень для ШІ. Цей масштабний план інфраструктури демонструє, що технологічна індустрія твердо налаштована інвестувати в довгострокову інфраструктуру для ШІ.

Крім того, за повідомленнями закордонних медіа, у внутрішньому середовищі США у військових структурах сформувалася «залежність від маршруту» щодо моделі Claude. Навіть попри те, що Біла домівка видала сувору заборону, Центральне командування США (CENTCOM) у нещодавніх авіаційних ударах по Ірану продовжує використовувати AI-моделі Anthropic для бойової підтримки. Це виявляє розрив між політикою уряду та потребами передової.

  • Пов’язані новини: The Wall Street Journal: Після того як Трамп ввів заборону для Anthropic, США та їхні союзники під час авіаударів по Ірану все одно покладаються на Claude

Адміністративний апарат через політичну позицію вносить її до переліку ризиків; бойові підрозділи через технічну перевагу обирають покладатися на неї. Початок будівництва дата-центру та бойове застосування доводять важливість Anthropic. Після того як суд відновив для неї статус федерального постачальника, цей AI-гігант і надалі розвиватиметься, балансуючи між технічною етикою та національними інтересами, та вирішуватиме питання можливих подальших апеляцій з боку уряду.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів