— В Китае обсуждается введение обязательной маркировки контента, сгенерированного ИИ, поскольку эта технология якобы создаёт новые вызовы общественной и национальной безопасности. Если говорить о работе с текстами, есть ли реальные основания для беспокойства?
— Как правило, люди побаиваются новых технологий, это нормально. Чтобы технологии работали на благо, нужно их правильно применять. И именно этому нужно учить школьников и студентов, это задача системы образования. Не думаю, что сейчас ИИ представляет какую-то угрозу и его «произведения» нужно специально маркировать. Хотя не исключено, что это и потребуется в будущем.
— Как именно передовые генеративные нейросети создают тексты? Похоже ли это на процесс написания текста человеком?
— В основе любой нейросети — математическая модель, организация которой напоминает биологические нейронные сети, которые присутствуют в мозгу человека. Однако не следует забывать, что мозг функционирует намного сложнее, чем любая современная нейросеть.
Генеративные нейросети, которые могут создавать тексты, представляют собой большую языковую вероятностную модель. Её на больших корпусах данных обучают предсказывать следующее слово в предложении, а также предложение в тексте. Это подобно старой программе Т9 в телефонах. Современные нейросети могут генерировать новый контент на основе уже готовых образцов, на которых их учили. При этом, разумеется, принципы создания текста человеком намного более сложные.