您的位置: 西双版纳信息港 > 军事

NVIDIA新金矿一个暴富的英伟达

发布时间:2020-01-10 07:50:31

NVIDIA“新金矿”:一个“暴富”的英伟达

不久的将来,我们很可能会目睹一个暴富的英伟达出现。

两天前的2017台北电脑展上,一身黑色皮衣的 黄教主 再次现身,并且在独立的人工智能论坛上再次发表了主题演讲。不出意外的,演讲中的内容主要来自半个月前的GTC:新硬件 Tesla V100、新自动驾驶架构NVIDIA DRIVE、跟丰田合作、新机器人云端平台。

那么是否还有其他新东西呢?事实还真有NVIDIA HGX合作伙伴计划,NVIDIA将会和富士康、英业达、广达电脑、纬创四家ODM一起,推进AI云计算的硬件普及。

虽然听起来不复杂,但它却决定了 人工智能龙头NVIDIA接下来能赚多少钱,同时还将影响人工智能改变人类生活所需要的时间。

NVIDIA

,依旧转型中的AI巨头

NVIDIA DGX-1内部照

我们公司已经是一家人工智能公司了 这样的说法早就出现过不止一次。相比其他公司,相信没几个人会质疑NVIDIA已经是一家人工智能公司这个说法。

事实上,最大的反对声音正是来自NVIDIA自家的财报。

为了更加明显对比,雷锋也专门收集了过去2年间NVIDIA的季度财报数据,在折线图中表示如下:

但从折线图来看,消费级显卡所肩负游戏用途依旧是NVIDIA整个营收中最重的部分,也决定了NVIDIA当下季度的财务表现。这也给很多普通投资者留下了 话柄:虽然说起人工智能就会想到NVIDIA,但是实际上连 NVIDIA 自己现在也不能完全叫做人工智能公司。

不过单纯只看营收数据也不完全准确,尤其是上图中 数据中心 在最近3个季度所表现出的强势上涨,所以我们换成整体营收百分比的方式再来看看变化:

在整体百分比的视角下,虽然蓝色的游戏还是占据的绝大部分,但是灰色的数据中心增长有目共睹。相反,剩下的三个板块包括汽车在内都是稳步甚至下滑的趋势。

趋势有了,但为什么数据中心这一块业务进展的那么慢呢?这背后有着一系列的问题,比如很多人会选择高端消费级显卡而不是专业卡,又或者是专用的服务器计算模块单价太高,但是反过来这些云端设备的缺乏也会为具体应用场景的探索设下障碍。

可以说,这不仅是NVIDIA 已经要到嘴的一块肥肉,同时也是一个亟待推进的方向。于是乎,NVIDIA再次祭出了ODM(原厂委托设计代工)合作这招。

不起眼但野心足够大:NVIDIA HGX架构

NVIDIA HGX-1宣传照

作为整个计划背后的主角NVIDIA HGX 架构主要包含两个关键 部件:Tesla 系列 GPU、NVIDIA NVLink,两项都值得单独拎出来说说的技术。

首先是Tesla系列GPU,相比普通消费级产品,前者的进化要神速不少。这一点我们可以从下面这个列表中看出:

表中一共有7款Tesla系列的代表性产品,当然在这份表格之前可能还有类似Tesla K80这样的重要产品,但这里我们暂时忽略。虽然一共 7 款产品,但是他们之间最大的发布时间间隔不过19个月,连两年都不到。

既然是运算设备,首先关心的自然是计算能力,Maxwell、Pascal、Volta 三代架构的迭代给计算能力奠定了基础。当然这两年间 GPU 芯片的制程工艺也有所提升,让在 GPU芯片不断升级的前提下依旧能保证散热效果。

除了绝对参数之外,SXM外形和接口的引入同样重要。名字乍看与笔记本中传统使用的 MXM 规格对应(SXM 更小),但在接口方面却采用了相当 丧心病狂 的方案左右两部分一共 800pin。要知道,超过 1000pin 的芯片也只剩 CPU 一种了。

这种远比常规显卡规格PCIe X16 的双面 164 个针脚多的方案一方面为未来的 GPU 运算核心升级留下了余量,另外一方面给 NVIDIA Link打下了基础。

Tesla P100处理器模块的背面(两个白色长方形即插槽)

接下来简单说说 NVIDIA Link,这项技术早在 GTC2014 上就曾展示过。当时官方给出的参考性能是,NVIDIA Link 完全能够做到普通显卡 5~12 倍的传输速度。除了链接 GPU 与 GPU 之外,甚至还可以链接 CPU 和 GPU。究竟 Tela V100 的如何打造出 900GB/s的惊人显存带宽,目前没人知道。唯一可以确定的是,在高速存取数据的数据中心中,带宽宽一点总归是好的。

这么强劲的技术,NVIDIA并没有打算 藏着掖着。今年3月9号,NVIDIA 就已经宣布了加入OCP开放计算计划,最终与微软合作推出的 HGX-1 超算模块,CPU 方面更是没有品牌限制,Intel 和 AMD家的产品都可以。

追根溯源,OCP(开放计算项目)实际上是跨公司设计和制造数据中心产品的一个组织。其中包含了一系列知名公司,比如:英特尔、诺基亚、苹果、谷歌、微软、希捷、戴尔等等。

这个组织的目的也很简单设计和实现最高效的服务器,同时还让存储服务器和数据中心更具有弹性。实际上,之前自己开发出另外一套HGX 架构机器 Big Basin 系统的 Facebook,直接将自己机器的主板设计图都上传了。

顶级ODM巨头齐聚首,吹响进军号角?

介绍完前面这么多相关信息,我们终于可以回到这次透露的信息中来。毕竟我们已经知道了:NVIDIA自己必然会加大自己在数据中心市场的投入,而且 HGX 架构已经相当完善,技术也足够成熟领先。

接下来问题就简单了,如何才能够让尽可能多的人来购买为数据中心打造的 GPU产品。答案实际上就两个字价格。

市面销售的非公版GTX1080

对于降低成本这件事,NVIDIA 自己可谓非常有发言权。为了降低风险,同时又能够让市场内部保持一定竞争关系,主板、显卡厂商其实一直都采用同一套模式:由 Intel/Nvidia 提供核心运算芯片。其他部件如 PCB、电子元件什么的都交给这几家 ODM 之类的厂商来完成。而 ODM 除了负责生产,同时还要利用自己在生产过程中的丰富经验,帮助 NVIDIA 不断降低生产成本。

这样做法一家独大肯定不行,所以 NVIDIA 一口气找来了 4 家,这些 ODM 之间还会形成另外的竞争关系,在最终产品、经营策略、售价等方面或许都会因为竞争而产生不同,而这恰恰会与消费者自身的不同条件形成对应。

黄教主曾经专门送了一台DGX-1给钢铁侠Elon Musk的OpenAI

在雷锋看来,由这些 ODM 和 NVIDIA 形成的全新 GPU 加速服务器大军在 2017 年内可能就会来袭,而他们的目标则是为当下所有存储在服务器或者正在产生着的数据提供处理能力。

顺利的话,再造一个等同于消费级的数据中心 GPU 市场也是可能的。而后甚至有可能作为 NVIDIA 的跳板,反过来推进生活中分布式的小节点。

在一个游戏已经不是唯一甚至不是重点的 次显卡时代,NVIDIA 已经准备好向数据中心出击了。一旦迈出这步,NVIDIA 离业绩 暴富也就不远了。

小儿脾胃虚弱怎么食疗小孩积食怎么快速消食小儿脾胃虚弱的症状

玉林制药湿毒清胶囊主治什么
治疗静脉炎最好方法
深静脉血栓的治疗
患上胆囊炎怎么办
猜你会喜欢的
猜你会喜欢的