米乐新闻

米乐m6

当前位置: 首页 > 米乐新闻

米乐新闻

首页 > 米乐新闻

Google:机器学习芯片让AI更快更高效

作者:米乐发布时间:2025-01-13

  原文:Google Says Machine Learning Chips Make AI Faster and More Efficient 作者: Edd Gent 翻译:无阻我飞扬

  摘要:作者介绍了Google专用机器学习芯片TPU,从TPU的诞生,TPU的作用,TPU与CPU和GPU的比较,以及Google推出TPU的目的等方面做了阐述,以下是译文。

  Google最近对外公布了其专用的机器学习芯片TPU的内部工作原理。在AI硬件至上的军备竞赛中打响了前哨战。

  TPU是Tensor Processing Unit(Tensor处理单元)的缩写,这个芯片是为Google的开源机器学习库TensorFlow量身定做的,自2015年以来,Google的数据中心一直在使用该芯片。但在本月初,公司最终提供了该设备的性能数据。

  公司表示,目前这一代的TPU设计用于推介—利用已经训练过的神经网络执行某种功能。比如通过Google Now识别语音命令。在执行这些任务上,公司表示TPU比同一时期的GPU和CPU快15到30倍,同样重要的是,TPU的功效也比同一时期GPU和CPU高30到80倍。

  CPU,也就是中央处理器是自20世纪60年代以来大多数计算机的核心处理器。但是,CPU不太适合现代机器学习方法,特别是无法满足深度学习极高的计算需求。

  在二十世纪末,研究人员发现,显卡更适合这些任务的高度并行性,而GPU,也就是图形处理单元成为实现神经网络最基本的技术。但是随着对机器学习使用的不断发展,Google希望为他们的需求量身打造一些东西,TPU应运而生。

  “大约在六年前,当开始在我们产品的愈来愈多的地方使用昂贵的计算深度学习模型时,对TPU的需求就已经出现了。因为使用这些模型的计算费用让我们担忧,”Google首席工程师Norm Jouppi 在博客中写道。

  “假设一个场景,人们每天使用谷歌语音搜索仅三分钟米乐m6网址。在我们所使用的处理单元上为语音识别系统运行深度神经网络,那么Google数据中心的数量就会翻番! ”

  Nvidia表示这种比较不完全公平,比较片面。谷歌将其TPU与服务器级英特尔Haswell CPU和Nvidia K80 GPU进行了比较,但从那时起已经有两代Nvidia GPU。英特尔一直保持沉默,但Haswell也已经有了三代。

  公司在一篇博文中说:“随着NVIDIA的开普勒一代GPU在2009年问世,有助于唤醒全世界将GPU加速计算用于深度学习的可能性。它从未为该任务专门优化过”

  为了证明这一点,他们有了自己新的基准,指出最新的P40 GPU的计算速度是之前的两倍。但重要的是,TPU浮出水面,这并不奇怪,Google已经准备好了,甚至已经在用新一代改进设计的TPU。

  也就是说,它不会颠覆芯片市场。Google不会把TPU卖给竞争对手,而是完全专注于推介。Google仍然使用大量的Nvidia的GPU进行机器训练,这解释了公司为何对争论沉默以对。

  Google也可能是世界上为数不多的公司之一,用金钱和愿景从头开始构建一个全新领域的产品。但它也是世界上最大的处理器采购商之一,它决定了满足自己需求的唯一方法是设计自己的芯片,这也为芯片制造商敲响了警钟。

  事实上,这似乎是这个想法的一部分。网络世界的Steve Patterson写道: “Google发布这篇研究论文旨在提高机器学习界和芯片制造商之间的讨论水平,现在是实现商业解决方案,大规模运行推介的时候了”

  这可能不会太远,分析师Karl Freund 在《福布斯》杂志上写道“鉴于市场的快速增长以及对高性能的渴望,我认为硅片厂商将不可避免地推出专为机器学习设计的芯片。”

  Nvidia公司不太可能让其市场领先地位下滑,而在今年晚些时候,英特尔将发布第一个具有机器学习焦点Nervana技术的芯片,Nervana在去年的8月份被英特尔收购。甚至手机玩家已经开始行动了。

  Arm的Dynamiq微架构允许客户将AI加速器直接构建到芯片中,从而将原生机器学习引入到智能手机等设备。而高通公司的项目Zeroth发布了一款软件开发工具包,可以在具有骁龙处理器的智能手机和无人机等设备上运行深度学习程序。

  Google发布TPU可能只是一个温柔的推动,使业界朝着正确的方向前进。

  关注EETOP公众号,后台输入:百宝箱,查看更多AI相关文章:

  人工智能|机器学习|深度学习

Google:机器学习芯片让AI更快更高效

  10分钟!用初中数学知识看懂深度学习!

  AI芯片|浅析Yann LeCun提到的两款Dataflow Chip

  走进深度学习,你需要先了解这25个概念和术语...

  AI芯片踏入红海

  解读AI:快速获取样本将成重点研究方向

  机器学习和深度学习的最佳框架大比拼

  深入浅出机器学习

  机器学习和深度学习的最佳框架大比拼

  哪些国家和大学人工智能研究领先?中国第一?

  人工智能的“脑洞”有多大?院士:目前太依赖计算

  浅说深度学习:核心概念

  深度学习简易入门

  几张图读懂机器学习:基本概念、五大流派与九种常见算法

  通过生活案例读懂机器学习五大算法思维

  腾讯云FPGA的深度学习算法

  如何在单块GPU上训练超大型深度学习模型

  AI芯片怎么降功耗?从ISSCC2017说起

  AI驾临人间 四大芯片流派华山论剑

  机器学习追根溯源:和计算机技术一样久远

  [透析] 卷积神经网络CNN究竟是怎样一步一步工作的?

  中国正在引领人工智能?纽约时报说:“是的!”

  Nvidia是如何成为AI圈的弄潮儿米乐M6

  人工智能芯片: AI巨轮的引擎

  李开复|如何给非专业人士讲解什么是深度学习

  神经网络入门

  从人工智能能机器学习到深度学习,不容错过的人工智能简史

  浅析:人工智能的前沿—机器视觉的种类

  浅析深度学习

  在机器学习中机器是怎么从资料中「学」到东西的?

  12张图生动地告诉你,深度学习中的卷积网络是怎么一回事?

  从人工智能机器学习到深度学习,不容错过的人工智能简史

  【高盛AI研究报告】人工智能是时代的拐点

  一文带你理解深度学习的局限性

  无解的神经网络内在逻辑

  FPGA是如何实现30倍速度的云加速的?都加速了哪些东西

  深度学习 语音识别 FPGA 实现

  2017年人工智能行业分析:芯片企业最少,计算机视觉与图像企业数量最多

  关于人工智能的七大常见误解与七个真相!

  一个故意不通过图灵测试的人工智能-Part 1

  最适合人工智能开发的5种编程语言

  一文说清楚机器学习、深度学习、人工智能的区别与联系

  机器学习与人工智能究竟有何区别?

  机器学习算法比较

  云中的机器学习:FPGA 上的深度神经网络

  什么是机器学习?

  机器学习导入芯片设计领域

  AI技术大爆发背景下,开源深度学习框架的发展趋势如何?

  中国初创公司在AI芯片(IP)领域的机会

  深度学习简易入门

  浅谈Alpha Go所涉及的深度学习技术

  深度学习 语音识别 FPGA 实现

  点击阅读原文查看更多

13244776666

milem6@technology.com