| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

温哥华资讯

温哥华地产

温哥华教育

温哥华财税

新移民/招聘

黄页/二手

旅游

谷歌: 一文读懂谷歌TPU:英伟达暴跌跟它有关


请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!



Alphabet兼谷歌首席执行官桑达尔·皮查伊

文丨无忌


编辑丨苏扬

股价“跌跌不休”,英伟达都不得不站出来表态,“我们领先了全行业一代”。

事情要从巴菲特“谢幕之作”说起——伯克希尔·哈撒韦公司首次建仓谷歌母公司Alphabet股票,随后更劲爆的是市场又传出英伟达大客户Meta考虑2027年在其数据中心部署谷歌TPU,并于2026年通过谷歌云租用TPU算力。

英伟达在紧急声明中,强调GPU在性能、通用性和可移植性方面“远优于”ASIC(专用集成电路),并重申自研TPU无法替代 GPU的灵活性。谷歌发言人也表示继续和英伟达保持合作关系,并强调公司致力于同时支持TPU和英伟达GPU。

TPU,从一个10年前为了解决AI计算效率瓶颈的“救命项目”,如今已经发展成为谷歌的“经济支柱”。

作为自研ASIC芯片的代表,TPU已经具备动摇英伟达根基的潜力,只不过谷歌的逻辑不是和英伟达比单卡性能,而是在用一套完全不同的超大规模系统哲学,重新定义AI基础设施的未来。

一切都要从10年前,TPU诞生的那一刻说起。


01 TPU的前世今生



TPU v1


谷歌在2015年启动TPU项目,这并非出于炫技,更不是为了彰显技术实力,而是被逼入了一个“不自研将难以支撑未来业务规模”的现实。

随着深度学习谷歌内部的应用不断扩散,谷歌工程团队当时意识到一个关键问题正在逼近——包括搜索、广告等谷歌核心服务都涉及巨量用户请求,如果全面采用深度学习模型,那么谷歌全球数据中心的功耗将暴涨至难以承受的程度,即使采购再多GPU也无法满足需求,更不用说成本上的激增。

彼时GPU更适合训练大规模神经网络,但其能效并非针对实时在线推理设计。

谷歌内部甚至出现过预测:如果未来所有核心业务上线深度模型,全球数据中心的电力成本会增长十倍。内部高层意识到,继续依赖 CPU和GPU的现有路线不可持续。

因此,谷歌决定自研ASIC加速器,目标不是造一个“最强通用芯片”,而是造一个“可大量部署在数据中心、用于特定矩阵运算的高能效芯片”。

最终,TPU v1在2016年正式投入使用,用于支持谷歌翻译以及部分搜索功能,证明了ASIC方案具备可行性。
觉得新闻不错,请点个赞吧     还没人说话啊,我想来说几句
上一页12345下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0372 秒 and 3 DB Queries in 0.0013 秒