这样训练是不是更好?
1
ngloom Mar 14, 2016
好像是会自我对弈做训练的 :P
|
2
Sequencer Mar 14, 2016
貌似有一个阶段就是这样训练的...
|
3
jackwow Mar 14, 2016
它和人在下棋的时候,当人落子之后, AlphaGo 就是在自己和自己下后面的几步,然后判断落子在哪里接下去胜率最大。
|
4
dxwwym Mar 14, 2016 via iPhone
其实每走一步都在和自己下来预演,个人感觉应该是这样
|
5
alex321 Mar 14, 2016
人家已经明说有 18 个 AlphaGo 版本了,和李对战的是第 18 个版本,并且是单机模式。
此前 Google 一直在用 18 个 AlphaGo 做相互之间的对战训练的。。 AlphaGo 虽然是 AI ,但是是无形的,就像机器宝宝,最终那个小盒子也不过是它临时的容身之所罢了,本质上就是个应用。 |
6
hahastudio Mar 14, 2016
https://deepmind.com/alpha-go.html
"..., and by reinforcement learning from games of self-play." "This program was based on general-purpose AI methods, using deep neural networks to mimic expert players, and further improving the program by learning from games played against itself." |
7
Sivan Mar 14, 2016
详见微软小冰 vs 微博聊天机器人
|
9
clino Mar 14, 2016
@alex321
http://sports.sina.com.cn/go/2016-03-11/doc-ifxqhmve9078783.shtml "这次比赛我们使用的是分布式版的 AlphaGo ,并不是单机版。分布式版对单机版的 AlphaGo 胜率大约是 70%。" |
10
alex321 Mar 14, 2016
@Jackiepie
@clino 单机是这里看到的: http://www.techweb.com.cn/column/2016-03-08/2291955.shtml 呃。。。。。 我看完那个之后就没看后续的了。 |
12
birdccc Mar 14, 2016
会死机吧
|
14
charlie21 Mar 14, 2016
木遥:关于 AlphaGo 论文的阅读笔记
http://songshuhui.net/archives/93895 |
16
menc Mar 14, 2016 若干月后, alphago 和 betago 两台 AI 对弈,人们已经做好看不懂两位 AI 下棋的思路的准备,可是结果还是出人意料。
alphago 执黑先走一子, betago 思考良久,认输。 |
17
picasso250 Mar 14, 2016
@menc 按照现在的贴目规则,更有可能是:
alphago 执黑先走一子, betago 应了一手, alphago 思考良久,认输 |
18
strwei Mar 14, 2016
期待中。。。。。。
|
19
firstinout Mar 15, 2016
@alex321 U R being watched
|
20
alex321 Mar 15, 2016
@firstinout 哈哈,后面撒玛利亚人上线的时候就变成 We are being watched 了,然后两个交叉在片首出来。
|
21
firstinout Mar 15, 2016
@alex321 太赞的片子 有空二刷
|