В США назвали разработчика ИИ Anthropic угрозой для армии

Пентагон признал компанию Anthropic, занимающуюся разработкой систем искусственного интеллекта, потенциальной угрозой для цепочек поставок.

Коллаж: генерация ChatGPT

Пентагон признал компанию Anthropic, занимающуюся разработкой систем искусственного интеллекта, потенциальной угрозой для цепочек поставок. Об этом сообщает Bloomberg со ссылкой на представителя американского военного ведомства.

Включение компании в список риска означает, что использование ее технологий может создавать уязвимости. По мнению Пентагона, такие системы способны повлиять на проведение военных операций и безопасность США.

При этом, как отмечают источники агентства, несмотря на официальную позицию ведомства, разработанная компанией модель искусственного интеллекта Claude продолжает использоваться американскими военными. По данным СМИ, она применяется в рамках операции против Ирана.

Ранее президент США Дональд Трамп распорядился, чтобы все федеральные ведомства страны, включая Пентагон, прекратили использование разработок Anthropic.

В феврале Министерство обороны США заключило контракт с компанией xAI предпринимателя Илона Маска на использование системы искусственного интеллекта Grok.

Кроме того, по данным источников, военное ведомство требовало от Anthropic предоставить полный доступ к своей системе Claude. В противном случае компании могли грозить проблемы с контрактами и участием в цепочках поставок.

Сама Anthropic выступает против использования искусственного интеллекта в военных целях или для массового наблюдения. Представители компании заявляли, что их разработки не должны применяться для ведения боевых действий.

Читайте также: Умные очки Meta* передавали приватные записи на ручную проверку 

Источник: Московский комсомолец

Полная версия