Интернет-конференция
Технология «Шахматы втемную» представляла собой модель искусственного интеллекта, но, кажется, не имела ничего общего с интернетом. Но развитие облачных вычислений и возможности управления большими объемами информации наконец-то объединили ИИ и интернет в одну устойчивую технологию, которая существенно отличается от «Шахмат втемную». Распределенные вычисления в сочетании с большими объемами информации и новым алгоритмом принятия решений демонстрируют успешное сочетание человеческого и машинного интеллекта.
В 2016-2017 годах AlphaGo (программа для игры в го) всколыхнула человечество. Процесс ведения игры AlphaGo отличается и от человеческого мышления, и от «Шахмат втемную». Проще говоря, механизм питается десятками миллионов человеческих шахматных партий. Выражаясь более профессионально, успеху AlphaGo способствовали алгоритм поиска Монте-Карло и механизм распознавания образов, основанные на глубоком обучении. Однако ни его предшественники, ни «Шахматы втемную» к технологии глубоко обучения отношения не имели.
Согласно исследованиям, AlphaGo не изобретает собственный механизм игры, а изучает десятки миллионов игроков (массивы данных). Он запоминает каждый ход, каждую игру из миллионов ситуаций и использует данные для обучения с помощью нейронной сети. Все это делается для того, чтобы иметь возможность предсказать, как мастер-человек сумеет выйти из той или иной ситуации. На практике компьютер анализирует текущую ситуацию и находит ее аналоги в прошлом. Затем ищет возможные варианты развития и выбирает несколько наиболее оптимальных. Таким образом, вместо того, чтобы пробовать все возможные варианты, он останавливается на наиболее выгодных. Тем самым сокращает объем вычислений. Система не истощается и получает защиту от поражения. Этот подход похож на человеческий. Мы не пробуем все подряд, а выбираем несколько вариантов, опираясь на опыт и чувства. Но после того, как сделаем свой выбор, мы все еще должны производить подсчеты и сравнения в поисках оптимального хода. Машина же передаст эти расчеты алгоритму поиска Монте-Карло.
Ниже я использую метафору. Она не точная, но достаточно понятная.
Поиск решения по методу Монте-Карло – это оптимизация предыдущего алгоритма дерева решений. Предыдущий алгоритм, даже если он предоставлял качественный вариант решения задачи, должен был быть единственным в каждой точке для того, чтобы выбрать следующую ветвь с бесконечным