«Мертвоботы» могут в цифровом виде преследовать близких людей

По мнению исследователей из Кембриджского университета, искусственный интеллект (ИИ), позволяющий пользователям вести текстовые и голосовые разговоры с ушедшими из жизни близкими, рискует нанести психологический вред и даже «преследовать» живых.

Фото: Кадр из видео

По мнению исследователей из Кембриджского университета, искусственный интеллект (ИИ), позволяющий пользователям вести текстовые и голосовые разговоры с ушедшими из жизни близкими, рискует нанести психологический вред и даже «преследовать» живых.

«Мертвоботы» (Deadbots или Griefbots) - это чат-боты с искусственным интеллектом, которые имитируют речевые обороты и черты характера умерших, используя оставленные ими цифровые следы. Некоторые компании уже предлагают такие услуги, обеспечивая совершенно новый тип «посмертного присутствия».

Как пишет SciTechDaily , специалисты по этике ИИ из Центра изучения будущего интеллекта имени Леверхальма на базе Кембриджского университета описывают три сценария разработки платформ, которые могут появиться в рамках развивающейся «индустрии цифровой загробной жизни», чтобы показать потенциальные последствия небрежного подхода к разработке в области ИИ, которую они оценивают «с высоким уровнем риска».

Исследование, опубликованное в журнале Philosophy and Technology, показывает, что компании могут использовать «мертвоботов» для скрытой рекламы товаров или для манипуляции людьми, внушая им, что ушедший родственник все еще с ними.

Платформы, предлагающие за небольшую плату «воссоздать мертвых» с помощью искусственного интеллекта, уже существуют. Например, «Проект Декабрь», который начал использовать модели GPT, а затем разработал собственные системы, и приложения, включая HereAfter.

Подобные сервисы также начали появляться в Китае. Один из потенциальных сценариев, о которых идет речь в новой статье, MaNana: разговорный ИИ-сервис, позволяющий людям создать мертвого робота, имитирующего покойного без согласия «донора данных» - ушедшего человека. В другом сценарии, представленном в статье, воображаемая компания под названием Parent рассказывает о примере смертельно больной женщины, оставившей «мертвобота» для поддержки своего восьмилетнего сына. В начале робот полезен в качестве терапевтической помощи, но по мере адаптации к потребностям ребенка ИИ начинает генерировать странные фразы, например, изображать предстоящую личную встречу.

В еще одном гипотетическом сценарии, рассмотренном в исследовании, пожилой человек создает «мертвобота», оставляя свои данные и образцы голоса, оплачивает двадцатилетнюю подписку в надежде, что это утешит его взрослых детей и позволит внукам лучше узнать его. После смерти мужчины сервис начинает работать. Один не подключается к сервису и получает шквал электронных писем с голосовыми сообщениями от почившего родственника. Другой подключается, но в итоге оказывается эмоционально истощенным и испытывает чувство вины за судьбу покойного. При этом отключение «мертвобота» нарушило бы условия контракта, который их родственник подписал с сервисной компанией.

«У людей могут возникнуть сильные эмоциональные связи с такими симуляторами, что сделает их особенно уязвимыми для манипуляций. Мы рекомендуем разработать протоколы, которые не позволят использовать мертвых ботов в неуважительных целях, например, для рекламы или активного присутствия в социальных сетях», - говорит соавтор исследования доктор Томаш Холланек.

Источник: Московский комсомолец

Полная версия