В США назвали разработчика ИИ Anthropic угрозой для армии

Пентагон признал компанию Anthropic, занимающуюся разработкой систем искусственного интеллекта, потенциальной угрозой для цепочек поставок.

Пентагон признал компанию Anthropic, занимающуюся разработкой систем искусственного интеллекта, потенциальной угрозой для цепочек поставок. Об этом сообщает Bloomberg со ссылкой на представителя американского военного ведомства.

Включение компании в список риска означает, что использование ее технологий может создавать уязвимости. По мнению Пентагона, такие системы способны повлиять на проведение военных операций и безопасность США.

При этом, как отмечают источники агентства, несмотря на официальную позицию ведомства, разработанная компанией модель искусственного интеллекта Claude продолжает использоваться американскими военными. По данным СМИ, она применяется в рамках операции против Ирана.

Ранее президент США Дональд Трамп распорядился, чтобы все федеральные ведомства страны, включая Пентагон, прекратили использование разработок Anthropic.

В феврале Министерство обороны США заключило контракт с компанией xAI предпринимателя Илона Маска на использование системы искусственного интеллекта Grok.

Кроме того, по данным источников, военное ведомство требовало от Anthropic предоставить полный доступ к своей системе Claude. В противном случае компании могли грозить проблемы с контрактами и участием в цепочках поставок.

Сама Anthropic выступает против использования искусственного интеллекта в военных целях или для массового наблюдения. Представители компании заявляли, что их разработки не должны применяться для ведения боевых действий.

Читайте также: Умные очки Meta* передавали приватные записи на ручную проверку