当前位置: win11系统之家 >  微软资讯 >  人工智能大潮,为什么赢家是英伟达?探讨英伟达在AI领域的优势

人工智能大潮,为什么赢家是英伟达?探讨英伟达在AI领域的优势

更新时间:2023-05-30 08:41:03作者:relsound

人工智能大潮,为什么赢家是英伟达?探讨英伟达在AI领域的优势

导语:为什么在人工智能热潮中,英伟达(Nvidia)成了最大赢家,市值破了万亿?

2022年,美国芯片制造商英伟达发布了H100,这是其有史以来最强大的处理器之一,也是最昂贵的处理器之一,每颗价格约为4万美元。

这次发布似乎时机不对,企业在通货膨胀中正想少花钱。

然后在11月,ChatGPT出现了。

英伟达的首席执行官黄仁勋说:"去年相当艰难的一年,一夜之间转机了"。

他说,OpenAI的热门聊天机器人是一个 "惊喜时刻","创造了即时需求"。

ChatGPT的突然流行,引发了全球大科技公司和初创公司之间的人工智能军备竞赛。这些公司急于获得H100,黄称其为 "世界上第一个为生成性人工智能设计的计算机(芯片)",这是指能够快速创建类似人类的文本、图像和内容的人工智能系统。

在正确的时间拥有正确的产品,股市大力表扬。英伟达周三宣布,截至7月的三个月的销售额将达到110亿美元,比华尔街之前的估计高出50%以上,因为大科技公司的数据中心支出复苏以及对AI芯片的需求。

5月25日,投资者对这一预测的狂热,使英伟达市值在一天之内增加了1840亿美元,这家已经是世界上最有价值的芯片公司,估值接近10万亿美元。

英伟达成为生成性人工智能爆发式崛起的大赢家,这项技术有可能重塑各个行业,产生巨大的生产力收益,并取代数百万的工作岗位。

H100将加速这一技术飞跃,这种芯片基于被称为 Hopper "的新的Nvidia芯片架构,以美国编程先驱格雷斯·霍普的名字命名,成了硅谷最热门的商品。

"这整个事情就在我们开始生产Hopper的时候起飞了,"黄说,英伟达在ChatGPT首次亮相的几周前,就开始了大规模的生产。

黄对未来收益的信心,部分源于能够与芯片制造商台积电合作,扩大H100的生产规模,以满足微软、亚马逊和谷歌等云供应商、Meta等互联网集团和企业客户的爆炸性需求。

"这是地球上最稀缺的工程资源之一,"人工智能云基础设施创业公司CoreWeave的首席战略官兼创始人布兰宁·麦克比说,CoreWeave公司今年早些时候首批收到H100。

一些客户等了6个月,才拿到了想要用来训练庞大数据模型的数千个H100芯片。人工智能初创企业担心H100会供不应求。

马斯克为自己新成立的人工智能公司X.ai购买了数千颗Nvidia芯片,他在本周的华尔街日报活动上说,目前GPU(图形处理单元)"比毒品更难获得"。

他开玩笑说,"在旧金山,这其实不是一个高标准"。

马斯克说:"计算的成本已经达到了天文数字,为了建立生成性人工智能系统,服务器硬件的最低门槛必须是2.5亿美元"。

H100被证明特别受微软和亚马逊等大型科技公司的欢迎,这些公司正在建立以人工智能工作负载为中心的整个数据中心。以及OpenAI、Anthropic、Stability AI和Inflection AI等生成性人工智能初创公司。

这种芯片有更高的性能,可以加速产品的推出或随着时间的推移降低培训成本。

"就获得进入权限而言,是的,这就是提升新架构GPU的感觉,英伟达的超大规模和高性能计算业务负责人伊恩·巴克说,他负责增加H100的供应以满足需求,一个艰巨任务。

他说:"这是超大规模的,一些大客户需要数以万计的GPU"。

这种不同寻常的大型芯片,是数据中心的 "加速器",拥有800亿个晶体管,是最新iPhone处理器的五倍。虽然价格是2020年发布的A100的两倍,但一些已经用上的公司,说H100的性能至少是三倍。

"H100解决了一直困扰(人工智能)模型创造者的可扩展性问题,"Stable Diffusion图像生成服务的公司之一,Stability AI的联合创始人兼首席执行官埃马德·莫斯塔克说。"这很重要,因为它让我们都能更快地训练更大的模型,因为这已经从一个研究问题变成了一个工程问题。"

虽然H100的推出时机非常理想,但Nvidia在人工智能方面的突破,可以追溯到近二十年前的软件创新,而不是硅。

英伟达的Cuda软件创建于2006年,允许GPU作为加速器被重新用于图形以外的其他类型的工作负载。然后在2012年左右,巴克解释说,"人工智能找到了我们"。

加拿大研究人员意识到,GPU非常适合创建神经网络,这是一种受人脑中神经元互动方式启发的人工智能形式,当时正成为人工智能发展的一个新焦点。巴克说:"我们花了近20年时间才达到今天的水平。"

英伟达现在拥有比硬件工程师更多的软件工程师,能够支持随后几年出现的许多不同种类的人工智能框架,并使芯片在训练人工智能模型所需的统计计算方面更加高效。

Hopper是第一个针对“Transformer模型”进行优化的架构,这种方法是OpenAI的“生成式预训练变换(generative pre-trained transforme)”聊天机器人的基础。

英伟达与AI研究人员的紧密合作,使其能够在2017年发现Transformer模型的出现,并开始相应地调整其软件。"

"Transformers"在这里指的是一种机器学习模型,特别是在自然语言处理领域中广泛使用的模型。这种模型基于"注意力机制"(Attention Mechanism)工作,能够捕捉输入数据(如文本)中的复杂模式和依赖关系。

"英伟达可以说比其他人更早地看到了未来,他们的支点是使GPU可编程,"AI初创企业的投资者Air Street Capital的普通合伙人内森·贝奈奇说。"发现了一个机会,并下了大赌注,而且一直超过了竞争对手。"

贝奈奇估计,英伟达比竞争对手有两年的领先优势,但他也说:"英伟达的地位在硬件和软件方面都远非不可撼动。"

Stability AI的莫斯塔克也同意,"谷歌、英特尔和其他公司的下一代芯片正在迎头赶上,随着软件的标准化,即使是Cuda也变得不再是一道护城河。"

对人工智能行业的一些人来说,华尔街本周的热情看起来过于乐观了。然而,芯片咨询公司D2D咨询公司的创始人杰伊·戈德堡说,"就目前而言,还在半路上的人工智能市场,看起来仍将是属于英伟达的赢家通吃市场。"

本文源自阿尔法工场研究院

相关教程