В России будут маркировать контент, созданный нейросетями

Один из крупнейших игроков на рынке искусственного интеллекта и нейросетей, компания OpenAI, сообщила, что начали маркировать все изображения, которые создаются в ChatGPT и их API. Чуть ранее компания Meta (признана в России экстремистской и запрещена) так же объявила, что будет маркировать изображения, созданные ИИ, которые публикуются в соцсетях компании. Эксперты отмечают, что Россия так же нуждается в регулировании рынка контента, созданного при помощи алгоритмов.


Количество фейков, распространяемых в сети, растет. Согласно данным АНО "Диалог Регионы", за 2023 год в российском сегменте интернета было зафиксировано 4 тыс. уникальных фейков и 12 млн случаев их распространения. По прогнозу экспертов, в 2024 году число уникальных фейков вырастет до 4,5 тыс., а их копий - до 15 млн.

В конце декабря 2023 года премьер-министр России Михаил Мишустин поручил Минцифры "обеспечить проработку" мероприятий по выявлению недостоверных данных. В частности, речь идет об идентификации контента, сгенерированного с использованием технологий искусственного интеллекта (ИИ). Согласно поручению главы кабмина, Минцифры должно выполнить поставленную задачу к 19 марта 2024 года.

Эксперты отмечают целый набор проблем, связанных с нерегулируемым применением ИИ для генерации контента. Это и нарушения авторских прав, и генерация абсолютно вымышленного контента в ситуациях, когда необходимо опираться на фактуру, и мошеннические действия с применением дипфейков.

"Как адвокат, занимающийся вопросами, связанными с ИИ, я слежу за развитием судебной практики, и серьезное беспокойство вызывают случаи, когда, например, даже опытные, именитые зарубежные адвокаты, используют ИИ при подготовке к суду, а ИИ просто выдумывает судебные прецеденты, на которых основывается позиция по делу. Такая ситуация случилась с с адвокатами Стивеном Шварцем и Питером Лодуком, и хорошо, что судья заметил вымышленные кейсы, ведь это не только разрушает деловую репутацию конкретных адвокатов, но и может стать причиной ошибочного решения, что совершенно недопустимо", - говорит Наталья Вашеняк, адвокат, член адвокатская палаты г. Москвы.

"Проблем уже сейчас достаточно много. Могу сказать, что с такими вопиющими случаями нарушения авторских прав мы не сталкивались никогда. Крайне интересно, по какому пути пойдет законодательство в этой сфере, надеюсь, что в скором времени все-таки примут новую редакцию статьи о результатах интеллектуальной деятельности, созданных с использованием искусственного интеллекта", - отмечает IP/IT юрист София Залуцкая.

Опрошенные "РГ" юристы полагают, что на этом фоне дипфейки - исключение из общего правила. "Вопрос маркировки в этом случае кажется затруднительным и, на мой взгляд, регулирование дипфейков нуждается в создании серьезного массива императивных норм. Мне близок опыт Китая; законодателями этой страны было принято решение о создании жестких ограничений в этой сфере", - уверена Залуцкая.

С этим согласен глава комитета Госдумы по информполитике Александр Хинштейн. "Технически дипфейки и контент, созданный генеративными нейросетями, это разные истории. Но темпы развития ИИ сейчас таковы, что мы часто встречаемся, например, с графическим контентом, который создается нейросетью на основе образов знаменитостей, политиков и т.д. Кибермошенники используют модуляцию голоса, обучая нейросеть на записях голоса реального человека", - сообщил Хинштейн "РГ".

Сегодня дипфейки скорее приносят обществу больше отрицательного, чем хорошего, создавая новые вызовы. Среди них, прежде всего проблема использования их в мошеннических целях, а также создание их без согласия владельца персональных данных, уверен член комитета Госдумы по информполитике Антон Немкин. По его словам, закон о маркировке контента, созданного при помощи искусственного интеллекта, сегодня уже прорабатывается в Госдуме.

При этом, эксперты обращают внимание на то, что для введения полноценного регулирования в этой сфере предварительно потребуется законодательное закрепление целого ряда специальных терминов.

"Вопрос маркировки контента, созданного нейросетями, прежде всего требует законодательного закрепления понятий "нейросеть", "дипфейк", "искусственный интеллект". ИИ, при стремительном распространении технологии, сегодня упоминается всего лишь в двух федеральных законах. Эту ситуацию необходимо менять, иначе мы столкнемся с серьезными затруднениями в ближайшее время. Чтобы этого не допустить, межведомственная рабочая группа, в которую вхожу и я, разрабатывает концепцию Цифрового кодекса, где будут отражены эти вопросы", - сообщил Хинштейн.

Наиболее компромиссным путем, полагают эксперты, действительно может стать маркировка такого контента. "Учитывая тот факт, что наша страна выбирает стратегию не "остановить" развитие ИИ, а возглавить этот процесс и занять лидирующие позиции в мире, регулирование в этом вопросе должно вводиться обязательно, но крайне обдуманно и аккуратно", - полагает депутат Немкин.

Если же пустить ситуацию на самотек, то это может приводить, и уже приводит к весьма неприятным последствиям. Например, дипфейки могут использоваться в политических целях. Антон Немкин напомнил, как в прошлом году ряд телеканалов и радиостанций транслировали видеоролик с "обращением" президента России Владимира Путина, который был подготовлен при помощи технологии дипфейк с использованием замены лица. "В записи, которая выдавалась за выступление президента, было сделано ряд серьезных заявлений - если бы их распространение не удалось вовремя пресечь, последствия такой преступной выходки хакеров могли бы быть крайне масштабными".

Широкие возможности открываются и для мошеннических действий. В частности, не так давно распространилась мошенническая схема, в рамках которой мошенники взламывали аккаунты пользователей в Telegram и рассылали сообщения с просьбой занять в долг. При этом в рассылке таких сообщений аудиодипфейки - практически беспроигрышный способ обмана, так как люди не привыкли, что сегодня сгенерировать можно и это. Насколько беззащитными окажутся люди, если это будут не просто голосовые сообщения, а например видеозвонки в реальном времени - представить трудно.

При этом выявлять материалы, созданные с помощью ИИ, в России уже умеют - например, с помощью системы мониторинга "Зефир", разработанной АНО "Диалог Регионы". Система используется для верификации и анализа сфабрикованного аудиовизуального контента, в том числе дипфейков, транскрибирования и перевода речи на различные языки и поиска копий ранее загруженных файлов.

Как рассказали "РГ" в АНО "Диалог Регионы", за 2023 год "Зефиром" было обработано свыше 3,5 тыс. единиц медиаконтента, выявленного в ходе ежедневного мониторинга. Специалисты определили, что порядка 1 тыс. проверенных роликов оказались сгенерированными с помощью технологий ИИ. Также, за этот же период в поточном автоматическом режиме было проверено еще порядка 2 млн видео- и аудиозаписей.

При этом система умеет определять съемки на хромакее, выявлять следы обработки аудиоконтента, находить копии по видеоматериалам и по транскрибированному тексту, выявлять первоисточник и отслеживать известных персон в видеороликах.

Однако, отмечают специалисты, крайне важно в стремлении контролировать технологию, не остановить ее развитие. Ведь дипфейк может использоваться не только в мошеннических целях, но и например в творческих.

За три года эта технология прошла огромный путь - от шуточных видео, когда кто-то кого-то изобразил, до реального инструмента. Есть вопросы к качеству, оно требует доработки, но технология активно развивается, отмечает глава ИРИ Алексей Гореславский.

"Десять лет назад в Голливуде было около 5% компьютерной графики, сейчас уже более 30%, по разным подсчетам. А искусственный интеллект плюс компьютерная графика равно новые синтетические актеры, которые работают 24/7 и бесплатно. Вместо того, чтобы платить гонорар по 100 миллионов долларов в год, можно сгенерировать самого популярного артиста. Думаю, что в ближайшие 2-3 года мы увидим полностью искусственных персонажей, которые станут главными героями контента - художественного, развлекательного, музыкального - и в России", - рассказал он "РГ".

Источник: Российская газета

Полная версия