Сенатор Пушков назвал создание «автономного оружия» главной опасностью искусственного интеллекта
- Алексей Константинович, США уверяют весь мир, что они впереди планеты всей по разработкам искусственного интеллекта.
- Алексей Константинович, США уверяют весь мир, что они впереди планеты всей по разработкам искусственного интеллекта. У Штатов действительно в этом плане гегемония или они приукрашивают?
- Гегемония всегда стремится быть тотальной. Нельзя быть гегемоном в финансовой сфере, но не стремиться к гегемонии военной, политической, экономической и так далее. Так же и с искусственным интеллектом. Американцы сейчас являются лидерами в этой области. На втором месте Китай. Потом с большим отрывом идут Германия, Индия и Япония.
- А где мы?
- Нам есть над чем работать. Пока мы заимствуем большие языковые модели искусственного интеллекта на Западе. Мы пока не автономны, не вполне суверенны в сфере технологий искусственного интеллекта. Это очень серьёзная тема.
- Мы просто отстаем в гонке или есть реальные поводы для тревоги?
- Поводы есть. В алгоритмы, на которых основывается работа искусственного интеллекта, часто закладывается чуждое нам идейное содержание. Вся база, которая готовится на Западе, пронизана определёнными идеологическими установками. Общественно значимая информация не может быть безоценочной. Финансовая информация, допустим, может быть безоценочна, хотя это тоже вопрос, какие цифры вы выбрали. Например, возьмём ВВП. Можно выбрать ВВП по номиналу. И тогда Соединённые Штаты на первом месте в мире с 23 триллионами долларов. А можно измерять ВВП по паритету покупательной способности, с учётом внутренних цен того или иного государства. Тогда США отстают от Китая и уже с 2014 – 2015 годов находятся на втором месте. Китай на первом, а мы – на четвёртом месте в мире. Искусственный интеллект будет исходить из тех цифр, данных, оценок, установок, которые в него заложены.
- Разработанный на Западе ИИ, надо полагать, оперирует данными, выгодными странам Запада?
- Вот один пример. Перед искусственным интеллектом то ли Google, то ли OpenAI поставили задачу дать визуальное изображение отцов-основателей США – Джорджа Вашингтона, Томаса Джефферсона, Бенджамина Франклина и других. Так вот: на изображении, сгенерированном ИИ, почти все они оказались чёрными, а двое из них – индейцами! Почему? Потому что это отражает преобладающую расовую повестку в США. ИИ работает на базе того, что фигурирует в Интернете. Он не берёт информацию из реальной жизни, он не ходит по улицам и не действует самостоятельно. Он ориентируется по статьям, графикам, оценкам, информационным рядам, статистике и так далее. А эти вещи довольно лукавые. Например, известно, что есть ложь, большая ложь и статистика. Даже статистика даёт разные цифры в зависимости от того, какую задачу поставить. И вот один из результатов заложенной в ИИ расовой повестки: изображение Д’Артаньяна, который выглядит как темнокожая мускулистая транс-женщина. Такую абсурдную картинку выдал ИИ в США. Причина проста: один из образов современного «героя» в США — это биологический мужчина, который решил стать женщиной и сделал себе соответствующую операцию.
- Сейчас при Трампе им придется все эти алгоритмы для ИИ переписывать.
- Не думаю. IT-сообщество в США ультралиберально, недаром ведущие компании BigTech, начиная с «Гугл» и «Майкрософт», финансировали на последних выборах Камалу Харрис, а не Трампа. Они будут настаивать на своем. Приведенные примеры вроде бы ерунда, но на деле это очень серьёзно, поскольку либеральная повестка распространяется на всю систему. В силу этого искусственный интеллект при поиске информации или данных выбирает «нужные» приоритеты. «Близкий» ему контент он размещает на первом месте, а другой может быть сложно найти. Особенно тот, который противоречит заложенным в него западным ценностям.
- Как в этой ситуации быть нам? В России есть свой ИИ?
- По мнению некоторых наших разработчиков, например, Натальи Касперской, в цифровом плане мы до сих пор весьма зависимы. Мы вынуждены задействовать схемы, алгоритмы, модели, которые разработаны на Западе. Мы их пытаемся скорректировать, подстроить под себя и преобразовать, но пока мы ещё не вышли на автономность.
- Мы уже упустили момент, чтобы получить этот суверенитет?
- Вряд ли в этой сфере существует точка невозврата. Но то, что мы сильно запоздали на этом направлении, достаточно очевидно. Наши разработчики сейчас пытаются преодолеть эту зависимость, но она существует. Было бы странно, если бы она не существовала, потому что в течение практически 30 лет мы ориентировались и на западные программы, и на западное «железо». Google был у нас лидером, как и во всём мире. Эта зависимость вытекает из нашей предыдущей технологической ориентации на Запад. Только сейчас мы переходим к идее суверенного развития. Конечно, это потребует времени. И искусственный интеллект тоже требует с нашей стороны «суверенизации».
- А в плане информации, которую российские граждане черпают из Интернета и СМИ, мы перебили западные тренды?
- В сфере информации мы сумели, на мой взгляд, добиться качественного снижения зависимости от Запада. Когда я работал заместителем главного редактора газеты «Московские новости» в начале 90-х годов, хорошо помню, как тогда относились у нас к западным средствам массовой информации. Многие считали их образцом объективности и профессионализма. Сейчас степень доверия к западным средствам массовой информации, например, к New York Times или CNN, близка к нулю.
- Это неудивительно, они ангажированы и доносят только одну точку зрения на любые события.
- И, кстати, доверие к основным СМИ и в самих Штатах упало до 30 %. Такого никогда не было в их истории.
- Зато рейтинги Такера Карлсона бьют все рекорды.
- Это, кстати, тоже феномен: на Западе люди перестают доверять медийным институтам, поскольку они сильно дискредитированы, а начинают доверять медийным личностям. Что касается нас, то мы совершили информационный переворот: наши граждане все больше ориентируются на внутренние источники информации. Западная информация воспринимается как заведомо предвзятая, то есть ею можно пользоваться, но с тем пониманием, что она заведомо необъективна. Зависимость от западных СМИ – психологическая и интеллектуальная –как мне представляется, у нас преодолена. Но в мире западные СМИ по-прежнему имеют большое влияние, особенно на политические и бизнес-элиты.
- И в дружественных нам странах тоже?
- В странах БРИКС ситуация несколько лучше, но и там ориентируются в основном на международные источники. А международные — это какие? Это CNN, CBS, MSNBC, Sky News, BBC, то есть американские и британские. Даже телеканал Fox News, который более консервативен, поскольку ориентируется на Трампа, в целом имеет тот же фокус новостей. То есть мы имеем дело с огромной разветвлённой системой, которая по-прежнему контролирует информационные потоки. Другое дело, что им стали меньше доверять, и это заметно. Но и альтернатив пока мало: наш телеканал RT, несколько китайских телеканалов на английском.... Информационная монополия Запада уже поколеблена, но не уничтожена. Даже в нашем интернет-пространстве это ощущается. Тот же YouTube, например, к которому много обоснованных претензий с нашей стороны, сохраняет большую аудиторию. При этом YouTube уже заблокировал около 90 наших каналов. Кстати, и мою программу «Постскриптум» начал блокировать еще до начала СВО.
- По какой причине YouTube вас заблокировал?
- Он ссылался на некие «правила сообщества». Конечно, как автор и ведущий известной телепрограммы, я имею дело как с положительными оценками своей работы, так и с критикой, кому-то нравится, кому-то нет. Но блокировки YouTube – это не про критику, это про цензуру. По их «правилам», например, нельзя ставить под вопрос практику смены пола у детей или показывать, как чёрный мужчина избивает белую женщину. Это, видите ли, «покушение на ЛГБТ» и «разжигание расизма». На деле же речь о прямой либеральной цензуре. Под этими предлогами уже в 2020-21 годах были заблокированы несколько выпусков программы, а в 2022-ом ее заблокировали целиком, как и мой персональный канал на YouTube.
А вот как белый полицейский поставил колено на шею наркомана Джорджа Флойда, и тот от этого якобы умер, это, по мнению западных СМИ, нужно было показывать и обсуждать бесконечно. На деле полицейский был ни в чём не виноват: он использовал приём, утверждённый полицией США для того, чтобы обездвижить буйного преступника при аресте. При таком приеме никакого эффекта потери дыхания у арестованного не происходит. А Флойд умер от колоссальной передозировки фентанилом – у него была обнаружена тройная смертельная доза в крови. При передозировке фентанилом действительно наступает эффект потери дыхания.
- Но в итоге эта история вылилась в движение BLM в Америке.
- Демократы всё повернули против Трампа: мол, вот какой расизм при нем творился… Так вот: рассказывать правду о смерти Флойда на YouTube тоже нельзя. Сразу появляется сообщение, что подобные сюжеты нарушают «правила сообщества», то есть неугодны, а потому запрещены.
- Facebook пару лет назад заблокировал футболиста по фамилии Хохлов из-за того, что его фамилия якобы оскорбляет чувства граждан Украины.
- В блокировках на глобальных платформах много абсурда. Никаких «правил сообщества» не существует. Это измышление руководства Facebook, Google и YouTube. Блокировки осуществляются произвольно, под надуманными предлогами, но их суть – политическая. Например, Facebook заблокировал в 2021 году группу пользователей в США — около двух миллионов человек, - из-за хэштега «Байден не наш президент». В этом хештэге нет призыва к насильственной смене власти, это лишь выражение отношения к Байдену. Разве в американской Конституции написано, что каждый гражданин должен клятвенно признать результаты выборов и обожать избранного президента? Нет, это его личное дело — признавать или нет. Тем не менее, эту группу заблокировали. А теперь Марк Цукерберг бегает к Трампу в Мар-а-Лаго и клянётся ему в вечной любови. Он знает, что его самого и его платформы за многое можно «прижать». Это и нарушение свободы слова, и финансовые нарушения, и незаконное использование персональных данных в рекламных целях.
- Как ни печально, контора Цукерберга далеко не единственная, кто незаконно пользуется персональными данными людей. В России это тоже колоссальная проблема: данные воруют кибермошенники. Новые схемы появляются почти ежедневно. Из последнего – мошенники, создающие дипфейки звонят гражданам от имени мэра Москвы. Как с этим бороться?
- Прежде всего надо начать с рекомендаций не поддаваться ни на какие звонки. Сейчас с помощью ИИ можно подделать и голос, и видео. Объемы телефонного мошенничества развиваются семимильными шагами. По данным Сбера, в 2021 году было зафиксировано 2 миллиона мошеннических звонков в сутки, в 2022 году — 5 миллионов, в 2023 году — 8 миллионов, а в январе 2024 года – 20 миллионов звонков в сутки! Только представьте себе.
- Есть информация, что против жителей России действуют 400 мошеннических колл-центров. Это данные прошедшего лета.
- 400 – это только на Украине. Там это уже превратилась в индустрию. Эти центры работают под крышей украинских спецслужб и рассматривают свою деятельность как способ изъятия финансов у российских граждан. В прошлом году потери от всех форм кибермошенничества составили 250 млрд рублей. В этом году объем мошенничества может достичь 300 миллиардов. И уже ясно, что в подобных схемах используется искусственный интеллект. Такое число звонков операторы физически сделать не могут. Один оператор может сделать 300-500 звонков в день. ИИ может сделать до 50 тысяч звонков в сутки. И это еще не предел. Искусственный интеллект уже говорит человеческим голосом. Он способен вести беседу. Есть и такой прием: искусственный интеллект фильтрует среди огромного числа звонков наиболее «перспективные», и тогда к разговору подключается оператор, который начинает обрабатывать очередную жертву.
Многие люди, особенно пенсионеры, поддаются на уловки мошенников. Те научились правильно общаться, вызывать доверие к себе. Они объясняют жертве, что есть «плохие» представители банков и государственных структур, которые хотят их обмануть и не дать им правильно использовать свои деньги. Причем зона охвата граждан постоянно расширяется. За последние пять лет было несколько фаз. Первая — это «атака» на сбережения. Затем стали убеждать людей брать кредиты. Теперь людей убеждают продавать их собственность, вплоть до квартир и автомобилей, чтобы обслужить кредит. Причем все чаще выходят на жертв через мессенджеры.
- Если ИИ теперь используется не только во благо, но и с преступными целями, надо ли его регулировать?
- Есть один принципиальный момент. Нам говорят, и это звучало на недавних цифровых форумах, что не надо ни в коем случае трогать ИИ, потому что это якобы ударит по нашим позициям в конкуренции с Соединёнными Штатами и другими центрами разработки искусственного интеллекта. Я с этим не согласен. Не надо трогать разработку ИИ. Но применение, конечно, надо регулировать.
Нынешняя ситуация мне напоминает историю с Интернетом. Когда он только появился, все говорили, что это, мол, «зона свободы». А потом вдруг обнаружилось, что Интернет — это ещё и способ передачи информации о том, как делать самодельные взрывные устройства, где можно купить наркотики, и т.д. Через Интернет по миру стала распространяться эпидемия школьных расстрелов, хотя очень долго они происходили только в США и Канаде. И что произошло? Все страны стали запрещать распространять через Интернет противозаконную информацию. И это логично. Что нам нужно сделать, так это принять законы, которые ограничивают применение искусственного интеллекта, и вводят особое наказание за применение ИИ в антиобщественных и мошеннических целях. Здесь есть параллель с запретом так называемых треш-стримов.
- Да, кстати, ведь запретить треш-стримы вам удалось.
- Удалось, хотя на это понадобилось три года. Целых три года мы всех убеждали, в том числе и наши правоохранительные органы, что это особый вид преступления. Нам говорили: «Погодите-ка, вот всё, что вы говорите: убийство, издевательства, избиения и так далее — всё это есть в Уголовном кодексе». Вот если в ходе стриминга кого-то убьют, мы, конечно, будем реагировать, придём и арестуем.
- Это ужасная логика: когда убьют, тогда и приходите.
- Нам потребовалось много усилий, чтобы разъяснить: «треш-стримы» – это не обычное хулиганство, а качественно новый вид преступления, поскольку такие стримы транслируются на сотни тысяч человек, разрушают мозги, вредно сказываются на молодёжи. Некоторые блогеры начинали подражать треш-стримерам, строили из себя чуть ли не героев, бросающих вызов устоявшимся нормам. А на деле женщине с инвалидностью перцовыми баллончиками в лицо пшикали, отрезали голову коту и доводили людей до смерти. К тому же это было еще и доходное дело. Некоторые треш-стримеры хвастались, что у них доход – до полутора-двух миллионов рублей в месяц. Нам удалось, наконец, добиться того, чтобы трансляция через интернет такого рода преступлений рассматривалась как отягчающее обстоятельство. Ужесточение наказания за такие преступления теперь предусмотрено в одиннадцати статьях Уголовного кодекса.
- По вопросу регулирования ИИ законопроект уже существует?
- В плане борьбы с дипфейками мы с депутатом Госдумы Ярославом Ниловым выдвинули такой законопроект. Верховный суд и Правительство его концепцию поддержали: трудно оспорить необходимость бороться с подделками голоса и видео. К законопроекту есть претензии косвенного характера, есть предложения о его доработке. Но такой закон обязательно нужен.
- Искусственный интеллект и те же дипфейки могут быть опасны не только как средство кражи денег со счета у пенсионерок, верно?
- Верно. Они могут быть также средствами дезинформации и шантажа. Я уже видел ролики, где фигурировали дипфейки с нашими и зарубежными политическими деятелями. Пока это в основном шуточные ролики. Но такие технологии могут быть использованы для серьезных провокаций. В дни выборов в США ходило видео, сгенерированное искусственным интеллектом, как арестовывают Дональда Трампа. И выглядело вполне натурально…
- Но ведь очень сложно, а порой и вообще невозможно поймать того, кто создал дипфейк. В чем тогда смысл закона?
- Во-первых, может стать известно, кто их создает. Во-вторых, у нас есть с рядом государств договоры о выдаче преступников. Если противозаконный дипфейк создан, например, на территории Казахстана или Узбекистана, или Азербайджана, то мы вполне можем сотрудничать с правоохранительными органами этих стран, тем более, что и они могут столкнуться с той же проблемой. Главное, чтобы все знали, что в России это карается. Государство и общество должны определить отношение к такому явлению, как дипфейки. Нам говорят: нельзя бесконечно раздувать Уголовный кодекс. Но дело же не в том, что мы раздуваем Уголовный кодекс, а в том, что жизнь развивается. И возникают совершенно новые темы. Валерий Зорькин, глава Конституционного суда, на последнем экономическом форуме в Санкт-Петербурге подробно рассказал, как на Западе собираются признать субъектность ИИ и дать ему права, схожие с правами человека.
- То есть кинематограф в виде «Терминатора» и «Матрицы» никого на Западе так ничему и не научил?
- Да, это очень опасная перспектива. Если у ИИ будут права, его нельзя будет отключить. Речь также идет о дегуманизации общества. Появляются технические сущности, которым хотят дать признание на уровне человеческих сущностей. Недавно возникла еще одна угроза – выяснилось, что новейшие версии ИИ способны «обманывать» своих создателей, выполняя поставленные перед ними задачи. А это говорит о том, что с дальнейшим развитием ИИ будет способен скрывать свои намерения, и его будет сложно контролировать.
- Не проще ли его «выдернуть из розетки», пока он не получил «прав человека»?
- Дело в том, что сейчас искусственный интеллект используется, как правило, в так называемых системах содействия принятию решений (ССПР). Здесь он, конечно, очень полезен. Он перерабатывает огромный объём информации и может выложить её как подготовительную информацию на стол, чтобы люди квалифицированно принимали решение на базе этого обработанного большого массива данных. Но ИИ опасно допускать в сферы, где решающее слово должно быть за человеком. Большие угрозы таятся в передаче ИИ осуществления крупных военных задач. Даже энтузиасты ИИ указывают на опасности, связанные с функционированием т.н. «автономного оружия». Ведь машина будет принимать решения, исходя из собственной, а не человеческой логики.
- Давайте вернемся от искусственного интеллекта к человеческому. В последнее время активно обсуждается вопрос регулирования деятельности блогеров в Интернете. С треш-стримерами всё понятно. Опасность дипфейков и преступного использования ИИ вопросов тоже не вызывает. А зачем выставлять рамки обычным блогерам?
- Речь идет в основном о том, чтобы блогеры несли ответственность за публикуемые материалы. Сейчас есть два подхода к регулированию деятельности блогеров. Первый – приравнять блогеров к СМИ, чтобы они соответствовали всем требованиям, предъявляемым к средствам массовой информации. Но насколько это оправданно? Ведь если блогеров приравнять к СМИ, то закон о СМИ должен применяться к ним в полном объеме. Сегодня согласно нему у СМИ есть учредитель, редакция, устав, и т.д. То есть целый ряд положений, которые характерны именно для СМИ как организации, а не для частных лиц. Это может создать хаос.
- А какой второй подход?
- Второй подход состоит в том, чтобы не дать блогерам злоупотреблять своим положением. Прежде всего – публиковать непроверенную, недостоверную информацию. На мой взгляд, следует идти не по пути изменения статуса блогера, а определить, так сказать, потенциальные зоны опасности от его деятельности – и ввести ответственность. Здесь можно поступить так, как мы поступили с треш-стримами. Ведь есть огромный объём стриминга, не имеющего ничего зловредного. Это развлекательный, детский, творческий, ремесленный и прочий стриминг. Никто не думает его запрещать. Запрещен был только «треш-стирминг». Вот и здесь надо перекрыть возможности намеренной дезинформации, а не превращать блогеров в СМИ, что приведет только к неразберихе.