关于TPU
有关硬件的问题,一定不会缺席。去年问过的芯片,这次再度来袭。(这个flow怎么样?)
关于TPU你们有什么新想法?未来5-15年机器学习硬件会有什么改变?
去年就有人问过TPU这件事,当时Jeff Dean相对详细的介绍了一下进展。今年5月17日,第二代TPU发布,不过AlphaGo的计算,还是基于第一代TPU。量子位也有相关报道谈到这些:《 新AlphaGo首度揭秘 》、《 详解谷歌第二代TPU 》等。
这次 Jeff Dean 没有过多回答TPU的新进展,再次介绍了云端TPU目前免费向研究人员开放申请使用。对于未来的发展趋势,Jeff表示:
机器学习硬件在未来5-10年(和以后)将是一个非常有趣的额领域。对于更多计算力的需求很大,专业化的线性代数精度降低可以加速大批深度学习模型。针对机器学习优化而创造的硬件,可以提供非常好的性能并提高能效。
有很多大公司和一大批初创公司在这个领域各显神通,这非常令人兴奋。它们提供的硬件包括用于移动设备的低功耗机器学习硬件,以及部署大型数据中心的机器学习超级计算机等。
下一代TPU何时推出?Google会卖TPU么?它能取代GPGPU么?
“我们已经推出了两代TPU,欢迎猜测未来的趋势 = ) ”TensorFlow产品经理 Zak Stone 回答了这个问题。(量子位插一句:实际上,过去新一代TPU都是在每年的Google I/O大会上发布。)
Stone继续补充:TPU目前只计划在Google的数据中心进行部署,我们还在大量使用GPU,并且努力让TensorFlow支持最新的GPU,比方英伟达的V100。这个领域变化很快,没有迹象表明某个平台可以通吃一切。
“另外GPU在机器学习之外还有很多其他用途,另外对于浮点精度有很高要求的传统HPC计算领域,GPU仍然是一个更好的选择。”
http://baijiahao.baidu.com/s?id=1578472258575023986&wfr=spider&for=pc