«Могут быть перехвачены злоумышленниками»: эксперт предупредил о рисках передачи личных данных нейросетям

Искусственный интеллект стал незаменимым помощником многих людей в работе, учёбе и повседневных делах. ChatGPT и другие нейросети обрабатывают миллиарды запросов ежедневно, а диалоги с ними, как правило, сохраняются и анализируются для совершенствования моделей. Однако не всю информацию можно сообщать чат-боту. В беседе с RT специалист Пермского политеха рассказал, какие данные нельзя передавать ИИ, кто может получить к ним доступ и стоит ли доверять ответам нейросетей.

Сгенерировано с помощью ИИ

В Пермском национальном исследовательском политехническом университете объяснили, как нейросети, такие как ChatGPT, собирают информацию о пользователях, какие риски связаны с передачей данных таким сервисам и почему не стоит безоговорочно доверять ответам искусственного интеллекта.

Сегодня нейросети стали неотъемлемой частью цифровой жизни людей. По статистике, только ChatGPT ежедневно пользуются около 200 млн человек, а число запросов к чат-боту превышает 1 млрд в день. Нейросеть помогает в работе, учёбе, творчестве и повседневных делах. Однако доцент кафедры «Информационные технологии и автоматизированные системы» ПНИПУ, кандидат технических наук Даниил Курушин напоминает: в диалогах с нейросетями следует соблюдать осторожность.

Известно, что ChatGPT сохраняет все данные диалогов с пользователями в целях анализа и улучшения работы системы. Каждой беседе с ИИ присваивается уникальный ID, с помощью которого разработчики отслеживают контекст диалога и собирают данные, необходимые для совершенствования алгоритмов нейросети.

Источник: RT новости

Полная версия