В контексте быстрого развития искусственного интеллекта (ИИ) исследование Google DeepMind предлагает важные факторы для достижения искусственного сверхинтеллекта (ASI).

В последние годы платформенные модели достигли большого прогресса и широко используются во многих приложениях. Однако создание новаторских систем искусственного интеллекта (ИИ), способных самосовершенствоваться и постоянно генерировать новую информацию, остается серьезной проблемой. В докладе Эдварда Хьюза и его соавторов показано, как открытость природы влияет на развитие ИСИ и как достичь такой природы в современных системах ИИ.

Формальное определение открытости дается исходя из двух основных аспектов: новизны и способности к обучению. Система считается открытой, если она постоянно генерирует новые данные, имеющие обучающую ценность для улучшения понимания и навыков наблюдателя.

В статье представлено множество конкретных примеров современных систем искусственного интеллекта, иллюстрирующих эту концепцию. AlphaGo — типичный пример узко открытой системы. AlphaGo превзошла уровень лучших игроков в го мира, разработав новые, непредсказуемые стратегии. Однако открытость AlphaGo ограничивается игрой Го.

Другой пример — система AdA, обучающий агент в среде 3D XLand2 с 25 миллиардами вариантов задач. AdA способна накапливать сложные и разнообразные навыки, но ее новизна имеет тенденцию исчезать после периода обучения. Это говорит о том, что для поддержания открытости необходимы более богатая среда и более сильные игроки.

В статье также обсуждаются эволюционные системы, такие как POET (парный открытый первопроходец), в которых агенты и окружающая среда эволюционируют совместно. POET иллюстрирует феномен «ступеньки», когда агенты могут справляться с очень сложными условиями посредством постепенной эволюции. Однако эти системы также сталкиваются с ограничениями, когда среда недостаточно сложна для поддержания открытости.

Кроме того, в статье также говорится, что текущие модели платформ не соответствуют критериям открытости при обучении только на фиксированных наборах данных. Эти модели могут показаться открытыми в широких областях, но когда они сужаются, они обнаруживают ограничения в своей способности генерировать новые и точные решения.

Авторы предлагают четыре основных направления исследований для сочетания открытости с платформенными моделями: обучение с подкреплением (RL), самосовершенствование, генерация задач и эволюционные алгоритмы. Обучение с подкреплением добилось больших успехов в узких областях, а такие модели, как «Вояджер», продемонстрировали потенциал самосовершенствования за счет создания библиотеки навыков на основе постоянно улучшающихся задач. Эволюционные алгоритмы также открывают многообещающий путь к созданию открытых систем, способных осуществлять значимые мутации посредством текста.

Важной частью статьи является обсуждение вопросов безопасности и ответственности при разработке открытых систем. Открытость несет в себе множество рисков безопасности, включая неправильное толкование целей и злоупотребление спецификациями. Важно гарантировать, что открытые системы можно интерпретировать и контролировать в руках человека. Для этого необходимо, чтобы системы могли объяснять и взаимодействовать с людьми ясным и понятным способом.

В отчете авторы утверждают, что нынешние модели платформ достигли значительного прогресса, но для перехода к ASI необходимо развивать открытые системы. Эти системы могут принести огромную пользу обществу, включая ускорение научных и технологических прорывов, повышение творческих способностей человека и расширение общих знаний во многих областях.

Статья Google DeepMind открыла новое направление в исследованиях ИИ, подчеркнув важность открытости в достижении искусственного сверхинтеллекта. Ответственное развитие этих систем поможет гарантировать, что они принесут максимальную пользу обществу, одновременно сводя к минимуму потенциальные риски.