Пентагон признал компанию Anthropic, занимающуюся разработкой систем искусственного интеллекта, потенциальной угрозой для цепочек поставок. Об этом сообщает Bloomberg со ссылкой на представителя американского военного ведомства.
Включение компании в список риска означает, что использование ее технологий может создавать уязвимости. По мнению Пентагона, такие системы способны повлиять на проведение военных операций и безопасность США.
При этом, как отмечают источники агентства, несмотря на официальную позицию ведомства, разработанная компанией модель искусственного интеллекта Claude продолжает использоваться американскими военными. По данным СМИ, она применяется в рамках операции против Ирана.
Ранее президент США Дональд Трамп распорядился, чтобы все федеральные ведомства страны, включая Пентагон, прекратили использование разработок Anthropic.
В феврале Министерство обороны США заключило контракт с компанией xAI предпринимателя Илона Маска на использование системы искусственного интеллекта Grok.
Кроме того, по данным источников, военное ведомство требовало от Anthropic предоставить полный доступ к своей системе Claude. В противном случае компании могли грозить проблемы с контрактами и участием в цепочках поставок.
Сама Anthropic выступает против использования искусственного интеллекта в военных целях или для массового наблюдения. Представители компании заявляли, что их разработки не должны применяться для ведения боевых действий.
Читайте также: Умные очки Meta* передавали приватные записи на ручную проверку