Китайская логическая игра го считается одной из самых древних и самых сложных настольных игр на планете. Она на порядок сложнее, чем шахматы. Тем не менее, по некоторым данным, в неё играют около 40 миллионов человек по всему миру (хотя большинство людей всё же признаются, что понять го почти невозможно). Самые мощные суперкомпьютеры мира также не могли играть в го выше простейшего уровня. До настоящего времени.
Исследователи Google разработали программу искусственного интеллекта под названием AlphaGo, которая способна конкурировать с профессиональными игроками. Не так давно эта программа обошла действующего трёхкратного чемпиона Европы по игре в го Фань Хуэя (Fan Hui) со счётом пять-ноль.
Как когда-то после победы суперкомпьютера Deep Blue над чемпионом по шахматам Гарри Каспаровым, это достижение можно считать переломным моментом в истории развития искусственного интеллекта и суперкомпьютеров.
Кроме того, система AlphaGo освоила игру на своём собственном опыте.Исследователь подразделения компании Google DeepMind Демис Хассабис (Demis Hassabis) пишет в своём блоге, что для ориентации в сложной игре программа AlphaGo использует технологию нейронных сетей – систему, которая работает подобно человеческому мозгу. Как пояснили разработчики, играя в го, система проигрывает в своём "мозгу" все возможные сценарии дальнейшей игры заранее.
У AlphaGo нейронных сетей две: одна из них оценивает позицию на доске, вторая – разрабатывает стратегии дальнейших действий, чтобы выбрать оптимальный следующий шаг.http://www.vesti.ru/doc.html?id=2713546