Искусственный интеллект, разработанный Google одерживает победу в Го: на 10 лет раньше ожидаемого
Искусственный Интеллект смог преодолеть последний рубеж в мире игр — сложнейшая китайская игра в Го была освоена системой искусственного интеллекта AlphaGo. Разбираемся как и почему это произошло.
AlphaGo возник как проект группы Deep Mind в составе Google под руководством Дэвида Сильвера и Демиса Хассабиса. Для проверки возможностей своего детища в лондонский офис был приглашен Фань Хуэй, трижды чемпион Европы по Го. В серии партий, проходивших за закрытыми дверьми, искусственный интеллект одержал победу пять раз подряд, тем самым впервые продемонстрировав, что машина способна победить профессионального игрока в Го.
После сокрушительной победы Google опубликовала новость в своем блоге, отметив, что этим было преодолено одно из величайших препятствий, стоявших перед ИИ, причем на десять лет раньше, чем предполагалось.
Немного об истории игр между человеком и компьютером
Метод проверки возможностей ИИ через игру с живым человеком вошел в практику более полувека назад. Еще в 1952 компьютер смог освоить игру в крестики-нолики, в 1994 — шахматы. Затем, в 1997 суперкомпьютер Deep Blue, созданный IBM смог победить Гарри Каспарова, чемпиона мира по шахматам.
Спустя полтора десятка лет, в 2011 году, система Watson, созданная для обработки запросов на естественном языке, смогла одержать победу над своими соперниками-людьми в телевикторине Jeopardy.
В 2014 алгоритм Deep Mind самостоятельно освоил десятки игр от Atari. Система совместила в себе алгоритмы глубинного обучения и применила свои ресурсы на вычисление закономерностей между поведением пикселей и посылаемыми сигналами, благодаря чему смогла показать отличные результаты во всех изученных играх. И тем не менее, игра в Го оставалась последним рубежом, который машинам до поры не удалось преодолеть, и по прогнозам должна была оставаться им еще с десяток лет.
Почему человеческий интеллект считался необходимым для игры в Го
Обладая большим количеством потенциальных ситуаций на игровом поле, чем количество атомов во вселенной, Го предъявляет требования не только к интеллекту игрока, но и к его интуиции.
Правила игры относительно просты: два игрока помещают на поле, разделенное на 19 секторов по вертикали и горизонтали черные и белые фишки. Цель игры — захватить фишки оппонента, полностью окружив их своими. Победа достигается через контроль более, чем половины пространства игровой доски.
Сложность состоит в том, что потенциальных комбинаций здесь больше, чем человек способен запомнить, поэтому профессиональные игроки часто полагаются на собственную интуицию.
И хотя считалось, что интуиция присуща только человеку, AlphaGo показал, что дела обстоят иначе.
Как работает механизм обучения AlphaGo
Обилие возможных комбинаций делает их просчет слишком большой работой даже для мощностей современных компьютеров. Поэтому алгоритм, разработанный Deep Mind можно назвать куда более человечным, чем все предыдущие наработки в области игр.
Дэвид Сильвер дал следующий комментарий по этому поводу: «[наш алгоритм] более всего напоминает воображение».
Ранние игровые алгоритмы строились на основе технологии поискового древа Монте-Карло (MCTS), в которой случайный фрагмент древа используется для последующего поиска наилучших ходов. AlphaGo совмещает эту технологию с методом машинного обучения, в котором две связанных нейросети, повторяющие структуру человеческих нейронов создают симуляцию партии внутри машины, после чего алгоритм выбирает оптимальный ход.
Как отметил глава Deep Mind, Демис Хассабис: «Самый важный момент во всем этом… то, что AlphaGo — это не просто высококвалифицированная система, выстроенная по заранее определенным правилам. Вместо этого она использует общие принципы машинного обучения, чтобы с их помощью выигрывать в Го».
В процессе обучения две нейросети играют друг с другом, осваивая новые стратегии и учась выделять закономерности в процессе проб и ошибок.
Хассабис также отметил, что Го — всего лишь игра с определенными и ограниченными правилами, не имеющая отношения к ситуациям реального мира, поэтому еще рано переживать экзистенциальный кризис, глядя на успехи машин.
На десять лет раньше, чем ожидалось
В мае 2014 года в Wired была опубликована статья под заголовком «Загадка Го, древней игры, в которой компьютер все еще не способен победить», где исследователь Реми Кулом предположил, что компьютерам понадобится по меньшей мере десять лет, чтобы победить профессионального игрока в Го.
Недавно же Кулом заявил журналу Nature: «Глубинное обучение избавляет ИИ от всех существовавших проблем».
В 2014 году Ли Седоль, легендарный чемпион мира по Го также заявил: «В западном мире есть шахматы, но Го — игра куда более тонкая и интеллектуальная». Его последующее поражение в пяти играх из пяти можно сравнить с матчем Гарри Каспарова против Deep Blue в 1997 г.
При использовании любых материалов, размещённых на сайте, обязательна активная гиперссылка с переходом на используемую публикацию сайта finexecutive.com.