Перейти к содержанию

AlphaGo выиграла вторую партию у Ли Седоля

Материал из Викиновостей, свободного источника новостей

10 марта 2016 года

Ли Седоль
Типичный японский гобан

В четверг, 10 марта 2016 года программа AlphaGo одержала вторую победу в матче с одним из сильнейших игроков в Го южнокорейцем Ли Седолем. Турнир проходит в Сеуле. За игрой можно было следить в прямом эфире. Запись матча доступна на YouTube.

Во второй партии Ли Седоль играл белыми, программа компании Google DeepMind — чёрными.

Вчера, 9 марта 2016 года, Ли Седоль сдался после трёх с половиной часов игры, хотя у него в запасе ещё оставалось время.

На этот раз кореец выбрал более размеренную тактику — больше размышлял над ходами. После окончания основного времени перешёл к бёёми (англ. byo-yomi) — лимиту в одну минуту на каждый следующий ход. При этом игрок может не более трёх раз превысить этот лимит с вычетом штрафных очков из результата.

В этот момент у AlphaGo ещё оставалось достаточно времени, и её игра продолжала быть размеренной.

К тому моменту, когда у AlphaGo осталось ещё 10 минут основного времени, Ли Седоль уже дважды превысил лимит бёёми и был обязан строго укладываясь в 60 секунд каждый следующий ход.

Вскоре закончилось основное время и у программы, и она также перешла в бёёми.

Через некоторое время Ли Седоль признал поражение, положив на гобан камень противника.

Кореец Ли Седоль считается одним из лучших игроков в го в современности. За свою карьеру он выиграл более 800 турниров.

Всего Ли Седолю предстоит сыграть против алгоритма Google пять игр на протяжении недели. Следующая партия состоится в субботу, 12 марта 2016 года, и также будет транслироваться на YouTube. Если Ли Седоль победит в большинстве партий, Google выплатит ему один миллион долларов. Если выиграет AlphaGo, сумма выигрыша будет пожертвована на благотворительность.

Программа AlphaGo, ранее успешно обыгравшая чемпиона Европы Фань Хуэя. разработана британской компанией DeepMind, которая сейчас принадлежит Google. Прогресс в результативности программы, наряду с классическими подходами (базы классических ситуаций и перебора дерева состояний), связан с использованием двух глубоких нейронных сетей (англ. deep neural networks, англ. DNN; см: Глубинное обучение). То есть AlphaGo «получила» лишь «базовые знания» об игре го, далее же обучалась самостоятельно на реальных партиях, а потом и играя сама с собой.

Ход второй партии Матча AlphaGo — Ли Седоль:

19
18
17
16
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
Первые 99 ходов


19
18
17
16
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
Ходы 100—199


19
18
17
16
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
Ходы 200—211



Ссылки

[править]

Источники

[править]

Комментарии[править]

Викиновости и Wikimedia Foundation не несут ответственности за любые материалы и точки зрения, находящиеся на странице и в разделе комментариев.