В Гражданском кодексе появится запрет на воспроизведение голоса постороннего человека
Наши законодатели пришли к выводу, что неповторимый голос гражданина надо защищать на законодательном уровне, точно так же, как сейчас защищается его изображение.
Веками подделывать чужой голос могли единицы - особо талантливые в этом смысле граждане. Этим они потешали публику с эстрады, а мошенники успешно обманывали граждан, уверенных, что им звонит хорошо знакомый человек. Вот только те времена остались уже в прошлом.
Имитировать голоса теперь стала техника. Да так удачно, что отличить настоящий тембр от поддельного не могут даже специалисты.
И такие устройства сегодня может приобрести кто угодно и по вполне доступным ценам. Обманутые жуликами граждане стали клясться правоохранителям, что им звонили и просили о помощи именно их близкие, чей голос они точно узнали.
Ну, а сами полицейские и не удивляются - они точно знают, что скопировать чужой голос перестало быть проблемой. С помощью искусственного интеллекта можно сгенерировать речь любого гражданина без его участия. Так что охрана голоса сегодня уже не кажется чем-то из области фантастики.
Зампред совета по развитию цифровой экономики при Совете Федерации Артем Шейкин объяснил газете "Известия", что наши сенаторы разрабатывают документ, который закрепит понятие "синтез голоса" при помощи искусственного интеллекта. Понятно, что такого понятия в отечественном законодательстве нет. И в законопроект еще впишут ответственность за создание несогласованной с гражданином аудиодорожки, уточнил Шейкин.
Все, что касается "голосовой" проблемы, в нашем законодательстве действительно - полная пустота.
Сегодня в российском Гражданском кодексе есть лишь статья 152.1. В ней говорится про охрану изображения гражданина. Судя по комментариям тех, кто имеет отношение к документу, владелец голоса сможет потребовать удалить запись из открытого доступа, если она там появилась без его согласия.
Будет прописана ответственность за возможность где-то говорить чужим голосом.
Известно также, что в будущем законопроекте пропишут не только запрет обнародовать и использовать записи голоса без согласия самого гражданина. В документе будет предусмотрена и последующая судьба таких записей.
Речь о том, что после смерти человека запись его голоса нельзя будет каким-либо способом использовать без согласия его наследников.
Так откуда родилась сама идея подобного законопроекта? Оказывается, в самом начале года, еще в январе с подобным важным предложением - закрепить в законе понятие охраны голоса - выступил Союз дикторов России.
Те, кто был знаком с этим документом, говорят, что в том письме члены Союза дикторов высказали обоснованные опасения, что кто-то нехороший с помощью технологий искусственного интеллекта сможет скопировать голос диктора и использовать его там, где сочтет нужным, или продать. Союз дикторов в том письме и предложил закрепить запрет на отчуждение прав диктора при использовании технологии голосового синтеза, перейти на лицензионные договоры "с четко определенным сроком действия". А также закрепить условие, что запись синтезированного голоса может использоваться лишь в конкретном проекте.
Специалисты не исключают, что в недалеком будущем записи разговоров с клиентами аферисты будут продавать точно так же, как сегодня продают базы данныхВот только проблема, о которой писали дикторы, оказалась действительно настолько актуальной, что безусловно вышла за рамки законопроекта для узкой, сугубо профессиональной аудитории.
Уже сегодня мошенники нередко проделывают такую аферу - они от имени гражданина отправляют его знакомым сотни сообщений с просьбой срочно выслать деньги. А чтобы получилось правдоподобно, в стандартную схему обмана стали включать новый элемент: голосовое сообщение.
Тембр, интонация и сам голос очень похожи на настоящего собеседника. Скорее всего, образец мошенники взяли из аудиосообщений во взломанном мессенджере. Эксперты говорят, что у многих людей действительно хранятся в "облаке" голосовые сообщения, которые мы нередко пересылаем.
С появлением новой схемы мошенничества под удар попадают все, кто отправляет голосовые сообщения. И даже любителям посланий теперь стоит задуматься, какие видео они публикуют в социальных сетях. Ведь для создания клона голоса на самом деле вполне достаточно записи длиной всего в пару предложений. От массового применения нового типа интернет-попрошайничества пока спасают сами технологии. Эксперты уверяют, что на создание копии голоса нейросети сейчас нужно много времени. Но если вдуматься, то запись голоса аферисты могут добыть у всех. Для этого вполне достаточно позвонить человеку по телефону с каким-нибудь вопросом, опросом, предложением. Скептики уверяют, что недалеко то время, когда голос робота в трубке, предупреждающий, что ваш разговор может быть записан, заставит гражданина быстро завершить разговор и повесить трубку.
Специалисты не исключают, что в очень недалеком будущем, если этот законопроект не превратится в закон, любые записи разговоров с клиентами аферисты будут выставлять на продажу точно так же, как сегодня продают базы данных банков, поликлиник, госорганов. И если такое вдруг произойдет, то технологии использования поддельных голосов превратятся в очень опасную вещь.
Российская газета - Федеральный выпуск: №234(9179)