首页
社区
课程
招聘
谷歌数据中心使用的芯片不是CPU,而是针对机器学习用的自制ASIC
发表于: 2016-5-19 14:44 1312

谷歌数据中心使用的芯片不是CPU,而是针对机器学习用的自制ASIC

2016-5-19 14:44
1312
新闻链接:http://bobao.360.cn/news/detail/3065.html
新闻时间:2016-05-19 14:35:45
新闻正文: 一直以来,都有传言称,Google公司在人工智能和机器学习领域投入了大量的研究人员和研究经费,想要取得进一步的突破。现在,他们做到了。其中最有趣的研发成果就是所谓的TPU(Tensor Processing Unit,张量处理单元)。

近期,根据Alphabet公司(Google进行了重组,原先的Google将成为Alphabet的全资子公司)透露,他们已经研发出了一款专门定制的ASIC(Application Specific Integrated Circuits,专用集成电路)芯片,将其称为TPU。在测试成功后,Google公司迅速将其投入使用,至今,已有一年时间。它的应用领域主要为涵盖Google人工智能、机器学习等业务的应用程序服务领域。

Google知名硬件工程师Norm Jouppi表示:“TPU的问世,满足了机器学习应用程序发展的需要,降低了芯片对计算精度的要求。这就意味着,在每次进行运算时,参与工作的晶体管的数量会比以前减少,从而,我们可以将更多晶体管投入更多其他的,需要硅元件参与的工作中,比如功能强大且复杂的机器学习模型,使其能够更加快速地运转,为用户提供更加快速准确的运算结果。”

Norm Jouppi继续说道:“有趣的是,我们发现,其中一块带有TPU的元件板刚好能插入我们数据中心一个硬盘驱动器的卡槽里,尺寸,大小正好吻合,能够正常工作。Google从开始着手研发第一块硅元件,到其测试成功并投入使用,所花的时间仅仅为22天。”

“在评价机器学习应用程序的性能时,必须要有一个可量化的评价标准,即完成一项工作,所需的耗电量和消耗的元器件数目,并且能对其进行优化,提高元件的性价比。也即是说,我们现在所采用的技术,应是集成电路领域在未来7年内所要发展的主流技术。(体现了第三代摩尔定律的原理)。”

Jouppi同时还对一些关于Google发展单晶硅元件技术的报道,进行了阐释。他说道:“优秀的软件需要同样优秀的硬件设备来给予支持。这就是为什么我们会在7年前,就启动这一研究项目的原因。目的是想要证实,我们通过自己现有的硬件基础,在机器学习应用程序研发方面,能够完成哪些改进与优化。

Google也对其使用的Power9 服务器的存储系统进行了检查,并且经常对装有ARM微型处理器的服务器进行调试,主要是测试该服务器上goo-goo eyes的功能能否实现。

TPU的研发与生产,需要大量优秀的单晶硅元件设计师的参与。这也就解释了为什么在Google公司的一些广告中,会出现要招聘单晶硅元件设计师的信息。但并不是所有TPU的研发与生产,都需要设计师的全程参与。这一范围仅仅限定于要生产那些为私人定制的,有特殊需求的TPU,我们才会让设计师与客户进行沟通,为其量身定做,生产出满足他们需求的TPU。

[注意]传递专业知识、拓宽行业人脉——看雪讲师团队等你加入!

收藏
免费 0
支持
分享
最新回复 (0)
游客
登录 | 注册 方可回帖
返回
//