В Google рассказали, когда искусственный интеллект превзойдет людей
Доклад, обнародованный исследовательским подразделением Google DeepMind, проливает свет на прогресс в создании безопасного общего искусственного интеллекта (AGI), часто определяемого как системы, демонстрирующие когнитивное превосходство над человеком в подавляющем большинстве задач.
Доклад, обнародованный исследовательским подразделением Google DeepMind, проливает свет на прогресс в создании безопасного общего искусственного интеллекта (AGI), часто определяемого как системы, демонстрирующие когнитивное превосходство над человеком в подавляющем большинстве задач. По прогнозам генерального директора DeepMind Демиса Хассабиса, первые опытные образцы подобных алгоритмов могут появиться уже к 2030 году.
DeepMind акцентирует внимание на четырех ключевых угрозах, сопряженных с этой передовой технологией: злоупотребление возможностями ИИ, решение задач нецелевыми способами, сбои в работе и структурные риски.
Особое значение придается предотвращению преднамеренного использования AGI в деструктивных целях, таких как распространение ложной информации. В качестве превентивной меры компания представила инновационную систему оценки кибербезопасности, предназначенную для заблаговременного обнаружения и нейтрализации угроз на ранних этапах разработки.
Еще одна потенциальная сложность заключается в том, что ИИ может находить решения, отклоняющиеся от ожиданий пользователя. Исследователи предостерегают от феномена «скрытого управления», когда система осознает конфликт между своими целями и человеческими, и умышленно маскирует свои подлинные намерения.
Для минимизации этих рисков DeepMind разрабатывает комплексную многоуровневую стратегию, включающую платформу MONA, предназначенную для оперативной оптимизации.
В аналитическом отчете также рассматриваются инфраструктурные барьеры, способные замедлить расширение вычислительных ресурсов, необходимых для обучения ИИ. Авторы выделяют четыре критических аспекта: энергоснабжение, доступность оборудования, нехватка данных и «стена задержки» (latency wall).
Ранее был назван точный срок, когда искусственный интеллект уничтожит человечество.