23日起跑的“中国乌镇围棋峰会”,由柯洁对战AlphaGo掀开序幕。 历时四个多小时的比赛,最终执黑棋先行的柯洁以1/4子之差落败,由AlphaGo取得第一胜。 赛后发布会上,柯洁和AlphaGo创始人、DeepMind首席执行官哈萨比斯(Demis Hassabis)以及DeepMind 强化学习团队首席程序员David Silver出席并回答了提问。
哈萨比斯称:“AlphaGo采用了十颗TPU(Tensor Processing Units)在云上运行,跟去年相比,本次对弈的新版AlphaGo计算量小了十倍,自我对弈能力更强,运行起来更简单,更好,功耗也更小。”
换句话说,就是“AlphaGo已经是自己的导师”,甚至于它已经不满足于只是单纯取得胜利,而是控制胜利的概率以及输赢的差距。这个说法已经得到了DeepMind工程师的现场验证:“我们的确在研究如何通过多线路决策来扩大胜率,甚至是去控制胜率,这是我们的一个探索方向。”
根据2016年3月份,当初替AlphaGo落棋的黄世杰博士表示,与李世石对战的AlphaGo是分布式版本,与当时单机版本AlphaGo对战的话,胜率大约是70%。
哈萨比斯表示,我们在科学杂志《自然》发表了论文,这周之后我们会公布更多细节和计划,众所周知目前也有很多强大人工智能软件,我们也会在今后公开AlphaGo更多技术细节,使其他实验室或团队能够建造自己的AlphaGo。
关于谷歌第二代TPU
谷歌前不久刚刚推出第二代TPU(相关阅读),对于标榜可发挥高达180TFLOPS的第二代TPU (Tensor Processing Unit),Google说明此项处理器依然是针对开放学习框架TensorFlow加速为主,因此无法像NVIDIA提出Tesla V100等GPU加速模式可额外支持Caffe、Cognitive Toolkit等学习框架。
相比第一代TPU仅能针对逻辑推演作加速,Google此次宣布推出的第二代TPU不但大幅提升运算效能,更增加对应深度学习应用加速设计,配合越来越多人使用的TensorFlow学习框架,将使TPU应用领域变得更加多元,甚至直接挑战NVIDIA以GPU加速的深度学习应用模式。
不过,在Google I/O 2017期间进一步向Google询问,确认第二代TPU设计依然是以针对开放学习框架TensorFlow加速为主,本身并不像NVIDIA Tesla V100等藉由GPU加速模式可额外支持Caffe、Cognitive Toolkit等学习框架,因此在实际布署应用弹性可能相对受限。 只是从TPU大幅去除非必要组件,仅针对深度学习、逻辑推演加速功能优化,预期仍将使NVIDIA面临不少竞争压力。
关注最前沿的电子设计资讯,请关注“电子工程专辑微信公众号”。
联系客服