Пентагон и Anthropic спорят об условиях применения ИИ Claude
Пентагон и компания Anthropic не согласовали условия использования модели Claude в военных проектах.
Американское Министерство обороны и компания Anthropic, разработавшая модель искусственного интеллекта Claude, не смогли договориться о правилах применения технологии в военной сфере. Предмет спора касается не самого факта использования ИИ, а условий, на которых он может применяться.
Пентагон настаивает на том, что системы искусственного интеллекта, поставляемые для нужд армии, должны быть доступны для всех законных задач ведомства. В оборонном ведомстве считают, что ограничения со стороны разработчика могут затруднить реализацию проектов, связанных с национальной безопасностью.
Anthropic придерживается иной позиции. Компания закрепила в своих правилах запрет на использование Claude в автономных системах вооружения и в проектах массового наблюдения за гражданами без участия человека. Руководство стартапа подчеркивает важность поддержки задач безопасности, однако указывает, что соблюдение этических принципов остается обязательным условием разработки и внедрения ИИ.
Разногласия поставили под угрозу контракт на сумму до 200 млн долларов, подписанный прошлым летом. Документ предусматривал интеграцию Claude в ряд оборонных решений. В Пентагоне допускают, что при отсутствии компромисса сотрудничество может быть прекращено, а использование технологий Anthropic ограничено и для партнеров ведомства.
Эксперты портала «boda» отмечают, что конфликт отражает более широкий вопрос: кто должен определять границы применения искусственного интеллекта — государство или частные разработчики.