Федеральний суддя тимчасово зупинив рішення Міністерства оборони США про внесення Anthropic, розробника AI моделі Claude, до списку ризиків ланцюжка поставок. Постанова, видана в четвер суддею Ритою Лін у Сан-Франциско, фактично припиняє зусилля Пентагону щодо обмеження доступу Anthropic до державних контрактів і може дозволити компанії відновити співпрацю з федеральними відомствами.

Чому Це Важливо: AI та Національна Безпека

Дії Пентагону проти Anthropic пов’язані з розбіжностями щодо обмежень використання, які AI-компанія встановила за своєю технологією. Адміністрація Трампа вважала ці обмеження неприйнятними, що призвело до внесення Anthropic в “чорний список”, фактично позбавивши організацію доступу до прибуткових державних угод. Цей випадок підкреслює зростаючу напругу: наскільки жорсткий контроль повинен мати уряд над приватною розробкою AI, особливо коли йдеться про військові цілі? Ця суперечка стосується не лише однієї компанії; це випробувальний приклад для ширшого регулювання AI та питань національної безпеки.

Постанова: Тимчасова Відстрочка

Суддя Лін визнала рішення Пентагону “ймовірно суперечить закону і довільним”. Вона заявила, що уряд не дав переконливих підстав припускати, що Anthropic саботує власні технології просто тому, що хоче контролювати способи їх використання. Постанова відновлює умови, що існували до 27 лютого, коли обмеження були введені, дозволяючи Anthropic продовжувати роботу в колишньому режимі, доки триває судовий позов.

Що далі?

Пентагон, як і раніше, може розірвати контракти з Anthropic або підштовхувати партнерів до відмови від її інструментів, але тепер він не може офіційно посилатися на позначення “ризику ланцюжка поставок” як виправдання. Anthropic може використовувати це рішення, щоб заспокоїти клієнтів, стурбованих співпрацею з компанією “чорного списку”. Однак другий позов, поданий Anthropic, все ще перебуває на розгляді в суді округу Колумбія, і Пентагон може зробити альтернативні юридичні кроки.

“Це рішення не заважає Міністерству оборони переходити на інших постачальників штучного інтелекту, якщо ці дії відповідають чинним правилам”, – написала суддя Лін, наголосивши на обмеженості негайної допомоги.

Довгостроковий результат залишається невизначеним, але рішення судді сигналізує про готовність ретельно вивчати агресивну тактику уряду у регулюванні AI-індустрії.

Короче кажучи, Anthropic виграла час, але ширший конфлікт між приватними розробниками AI та державним контролем ще далекий від завершення.