ayx爱游戏第一品牌Brad 和我和你共进晚餐时-ayx手机版登录(综合)官方网站入口/网页版/安卓/电脑版

NVIDIA()公司 CEO 黄仁勋近期作客「Open Source」双周对话,同 Brad Gerstner 与 Altimeter 合伙东说念主 Clark Tang 全部探讨了与对于推动智能向通用东说念主工智能(AGI)发展的主题。
在 AI 和机器学习规模深耕多年,黄仁勋对 AI 发展近况和出路的评价一语说念破:这是一场透顶的调动。
推理迎来爆炸式增长,开源模子需求量爆棚,完整兼容的 AI 基础设施持续落地……这个 AI 大行其说念的时期,黄仁勋骁勇构想,但愿将来的英伟达能够领有 5 万名职工和 1 亿个 AI 助手。
当谈及英伟达在咫尺 AI 寰宇的竞争壁垒和定位时,黄仁勋对自身上风十分自信透露,同期也有着不小的诡计:英伟达最擅长的是算法,咱们的责任是为新寰宇构建一个无处不在的诡计平台。
天然,有别于争夺阛阓份额,这颗诡计只关乎「开拓」。

在时长近一个半小时的访谈中,黄仁勋眼神苛虐地剖析了机器学习如何重塑诡计寰宇,AI 如何带来前所未有的技艺调动,并最终掀翻巨大的调动波浪。此外,还波及 AI 的安全性和开源争议等话题。
看似高冷的皮夹克之下,是黄仁勋对 AI 规模的酷热初心:我会负责对待劳动,负责对待责任,负责对待社会孝敬以及咱们所处的时期。
本次访谈的信息密度特地之大,对于 AI 行业的探讨也前所未有的深入,拦截错过!
原访谈视频运动:
咱们对黄仁勋在本次访谈中的主要不雅点作念了简要梳理,如下:
个东说念主 AI 助手将很快出现,而且会随时分持续进化;咱们还是从东说念主类编程转向了机器学习,所有这个词这个词技艺栈都在终了创新和增长;促进 AI 的加速进化,需要对「飞轮」的每个部分都进行加速;将来的诡计(应用尺度开发)将高度依赖机器学习和 AI,而且会有智能体来匡助东说念主类使用这些应用尺度;AI 不会取代劳动,它将改变劳动,并将对东说念主们如何看待劳动产生长远影响;AI 的安全是基础,不一定需要为每一项紧迫技艺单安稳法,也不成让监管过度推广到不必要的规模;必须有开源模子来推动 AI 的创建,开源对于许多行业的激活是必要的;
以下是由 APPSO 编译的访谈全文:
从东说念主类编程转向机器学习
Brad Gerstner:现在是 10 月 4 日星期五,咱们在英伟达总部,就在 Altimeter 街下。咱们将在周一召开年度投资者会议,商榷 AI 的所有这个词影响,以及咱们在智能推广速率上的进展。
我真的想不出比你更合适的东说念主来开启这个话题了,你既是股东,亦然咱们的军师伙伴,和你全部探讨想法总能让咱们变得愈加理智。咱们对这段友谊暗示谢意,是以感谢你的到来。
黄仁勋:很欢笑来到这里。
Brad Gerstner:本年的主题是将智能推广到通用东说念主工智能(AGI)。
令东说念主颤动的是,两年前咱们作念这个的时候,主题是 AI 时期,而那是在 ChatGPT 发布前两个月。预料这一切变化,真的是让东说念主讶异。是以我想咱们不错以一个想想实验来驱动,也许还不错作念个展望。
如果我把通用东说念主工智能(AGI)浅易会通为我口袋里的个东说念主助手,正如我所会通的那样,它知说念我所有这个词的事情,领推敲于我的竣工牵挂,能够与我疏导,不错为我预订旅馆,以至不错为我预约大夫。在你看来,今天这个寰宇的变化速率如斯之快,你认为咱们什么时候能够领有这种口袋里的个东说念主助手?
黄仁勋:很快会以某种神态出现。阿谁助手会跟着时分的推移变得越来越好。这等于咱们所了解的技艺的奥妙之处。是以我认为,刚驱动时它会相配灵验,但并不竣工。然后跟着时分的推移,它会变得越来越竣工。就像所有这个词技艺一样。
Brad Gerstner:当咱们不雅察变化速率时,我铭记 Elon 曾说过,唯一紧迫的事情是变化速率。咱们确乎感到变化的速率大大加速了,这是咱们在这些问题上见过的最快的变化速率,因为咱们在 AI 规模还是研究了约莫十年,而你以至更久一些。在你的奇迹生存中,这是你见过的最快的变化速率吗?
黄仁勋:是的,因为咱们再行发明了诡计。这些变化很猛进程上是因为咱们在曩昔 10 年内将诡计的旯旮成本责难了 10 万倍。如果按照摩尔定律诡计,这个过程约莫是 100 倍的普及,但咱们作念到了远远超过这极少。咱们通过几种口头终明晰这一缱绻。
起初,咱们引入了加速诡计,将在 CPU 上成果不高的劳动调节到 GPU 上。
其次,咱们发明了新的数值精度,开发了新的架构,瞎想了集成中枢,改进了系统的构建口头,MVLink 加多了超快的内存(HBM),并通过 MVLink 和 InfiniBand 终明晰全栈推广。基本上,所有这个词我形容的对于英伟达作念事口头的细节,都促成了超越摩尔定律的创新速率。
现在,确切令东说念主咋舌的是,正因为如斯,咱们从东说念主类编程转向了机器学习。
而机器学习最令东说念主讶异的场所在于,事实诠释它的学习速率相配快。是以,跟着咱们再行界说诡计的散布口头,咱们进行了多种神态的并行处理:张量并行、活水线并行,以及多样种种的并行诡计口头。咱们在这一基础上发明了新算法,并开发了新的教悔活动。所有这个词这些发明都在相互之间产生了复合效应。
回到曩昔,如果你望望摩尔定律其时的运作口头,会发现软件是静态的。它被预设为像包装好的产物一样静态存在,然后硬件则以摩尔定律的速率发展。而现在,咱们是所有这个词这个词技艺栈在增长,所有这个词这个词栈都在进行创新,我认为这等于近况。
现在一会儿之间咱们看到了惊东说念主的推广,天然,这口舌凡的变化。但咱们以前商榷的是预教悔模子以及在这个层面上的推广,如何通过将模子大小翻倍,安妥地将数据量也翻倍。
因此,每年所需的诡计才略都会加多 4 倍。这其时是个大事。但现在咱们看到了在后教悔阶段的推广,也看到了推理阶段的推广,对吧?东说念主们曩昔常认为预教悔很难,而推理相对容易。
现在一切都变得很难,这种不雅点其实是合理的,毕竟将所有这个词东说念主类的想维都归结为一次性完成的过程是无理的。是以想维一定存在快想维和慢想维、推理、反想、迭代、模拟等主意,而现在这些主意正在渐渐融入进来。
Clark Tang:我认为,就这极少而言,对于英伟达最被歪曲的一件事等于英伟达的确切技艺上风有多大,对吧?我认为外界有一种看法,认为一朝有东说念主发明了一种新芯片或者更好的芯片,他们就赢了。
但事实是,曩昔十年你们一直在构建完整的技艺栈,从 GPU 到 CPU,再到网罗,尤其是那些让应用尺度能够在英伟达平台上运行的软件和库。你认为今天英伟达的技艺上风比三到四年前更大如故更小?
黄仁勋:我很感谢你意志到诡计还是发生了变化。事实上,东说念主们之是以认为(现在好多东说念主仍然这样认为)瞎想一款更好的芯片就行了,是因为它有更多的浮点运算才略(flops),有更多的翻转、字节和位,你懂我的风趣吗?你看他们的主题演讲幻灯片,上头都是这些翻转和浮点运算,还有多样条形图、图表之类的。
这些都很好,我的风趣是,性能天然很紧迫,是以这些基本上确乎很紧迫。关联词,可怜的是,这是老旧的想维口头。因为那时的软件只是在 Windows 上运行的某个应用尺度,软件是静态的,这意味着你能改进系统的最好口头等于制造越来越快的芯片。
但咱们意志到,机器学习不是东说念主类编程。机器学习不单是是对于软件,它是对于所有这个词这个词数据通路的。事实上,机器学习的中枢飞轮(flywheel)是最紧迫的东西。那么,你是如何研究在推动这个飞轮的同期,让数据科学家和研究东说念主员能够在这个飞轮中高效能动的?而这个飞轮从最率先的阶段就驱动了。
许多东说念主以至没挑升志到,施行上需要 AI 来整理数据,来教导另一个 AI。而只是这个 AI 自己就还是特地复杂了。

▲个东说念主 AI 助手将很快以某种口头出现(图源:NITCO)
加速飞轮的每一步
Brad Gerstner:那它自己也在改进吗?它是否也在加速?你知说念,当咱们再一次想考竞争上风时,对吧?这施行上是所有这个词这些身分的组合效应。
黄仁勋:完全正确,恰是因为更智能的 AI 来整理数据,现在咱们以至有了合成数据生成以及多样不同的数据整理和呈现口头。是以在你进行教悔之前,就还是波及到大量的数据处理。而东说念主们老是预料 PyTorch 是所有这个词这个词寰宇的动身点和绝顶。
它确乎相配紧迫,但不要忘了,在使用 PyTorch 之前有大量的劳动,使用 PyTorch 之后也有大量劳动。而对于飞轮的主意,施行上是你应该想考的口头。你知说念,我应该如何去想考所有这个词这个词飞轮?我该如何瞎想一个诡计系统,一个诡计架构,匡助你让这个飞轮尽可能高效运转?这并不是一个应用教悔的单一册领,对吧?这只是其中一步,好吗?
飞轮的每一步都很用功,是以你应该起初想考的不是如何让 Excel 更快运行,也不是如何让《撤销战士》更快运行,那是曩昔的老路,对吧?
现在你需要研究的是如何让这个飞轮更快。而这个飞轮包含了好多不同的本领,正如你们所知说念的,机器学习莫得什么是浅易的,OpenAI 所作念的事情,或者 X 所作念的事情,或者 Gemini 团队和 DeepMind 所作念的事情,都莫得什么是浅易的。
因此咱们决定,这才是你应该确切想考的。这是所有这个词这个词过程,你需要加速每一个部分。你要尊重阿姆达(Amdahl)定律,阿姆达定律会告诉你,如果这个部分占用了 30% 的时分,我将它加速了 3 倍,我并莫得真的将所有这个词这个词过程加速太多,明白吗?
你真的需要创建一个能加速每一步的系统,只消通过加速所有这个词这个词过程,你才调确切显耀改善这个轮回时分,而阿谁学习速率飞轮,最终等于导致指数式增长的原因。
是以我要说的是,一个公司的不雅点施行上会反应在它的产物上。把稳,我一直在驳倒这个飞轮。
Clark Tang:你是说所有这个词这个词周期。
黄仁勋:没错,而且咱们现在加速了一切。现在的主要焦点是视频。好多东说念主都专注于物理 AI 和视频处理。试想一下前端,每秒稀有 TB 的数据进入系统。给我举个例子,确认处理这些数据的管说念是如何运行的,从数据吸收到准备进行教悔的全过程,而这一切都是 CUDA 加速的。
Clark Tang:现在东说念主们只在想考文本模子,但将来还包括视频模子,同期使用一些文本模子,比如 o1,来在咱们驱动处理之前先处理大量的数据。
黄仁勋:语言模子将会波及到每一个规模。行业耗尽了大量技艺和元气心灵来教悔语言模子,来教悔这些大型语言模子。现在咱们在每一步都使用更低的诡计成本。这真的相配了不得。
Brad Gerstner:我不想过于浅易化这个问题,但咱们确乎广泛从投资者那边听到这样的问题,对吧?是的,但定制化芯片呢?是的,但他们的竞争壁垒会不会因此被破碎?
我听到你所说的是,在这个组合系统中,上风是跟着时分增长的。是以我听你说,咱们今天的上风比三四年前更大,因为咱们在改进每一个组件。而这种组合效应,意味着你知说念,比如动作一个买卖案例研究,英特尔也曾在技艺栈中占据主导地位,而你们今天相对他们而言处于什么位置?
也许不错浅易详尽一下,相比一下你们今天的竞争上风与他们在巅峰时期的竞争上风。
黄仁勋:英特尔口舌凡的。英特尔之是以特地,是因为他们可能是第一家在制造工艺工程和坐蓐方面极其出色的公司,而在制造工艺的基础上更进一步的是瞎想芯片,对吧?他们瞎想了芯片,构建了 x86 架构,而且持续制造更快的 x86 芯片。这是他们的聪敏之处。他们将这极少与制造工艺加以采集。
咱们的公司略略有些不同,因为咱们相识到,事实上,平行处理并不需要每个晶体管都相配竣工。串行处理条目每个晶体管都必须精细绝伦,而平行处理需要大量的晶体管以终了更高的成本效益。
我宁肯要多 10 倍的晶体管,速率慢 20%,也不肯要少 10 倍的晶体管,速率快 20%。明白吗?他们则更可爱相悖的弃取,因此单线程性能和单线程处理与平行处理相配不同。是以咱们意志到,施行上咱们的寰宇并不是追求往下作念得更好。咱们想作念到尽可能的好,但咱们的寰宇确切怜惜的是如何往上作念得更好。
并行诡计、并行处理很难,因为每个算法都需要根据架构以不同的口头重构和再行瞎想。东说念主们没挑升志到的是,你不错有三种不同的 CPU,它们都有各自的 C 编译器,你不错把软件编译到相应的 ISA(指示集架构)上。这在加速诡计中是不可能的,在并行诡计中亦然不可能的。
开发出架构的公司必须开发出我方的 OpenGL。是以咱们透顶改变了深度学习,因为咱们有一个特定规模的库,叫作念 CUDNN。莫得 CUDNN,就莫得今天的深度学习。
莫得东说念主驳倒 CUDNN,因为它是在 PyTorch 和 TensorFlow 之下的一层。早期还有 Caffe 和 Theano,现在有 Triton,还有好多不同的框架。阿谁特定规模的库,像 CUDNN,还有 Optics,一个特定规模的库叫作念 CuQuantum,Rapids,还有其他好多库。
Brad Gerstner:行业特定的算法就位于阿谁大家都关注的 PyTorch 层之下,比如我广泛听到东说念主们说,如果莫得这些底层库的话……
黄仁勋:如果咱们莫得发明它,任何顶层的应用尺度都无法运行。你们明白我在说什么吗?从数学上讲,英伟达确切擅长的是算法,它会通了表层的科学与基层的架构,这是咱们确切擅长的。

▲黄仁勋在访谈中
咱们还是进入推理时期
Clark Tang:现在所有这个词的关注点终于采集到了推理上。然而我铭记两年前,Brad 和我和你共进晚餐时,咱们问你一个问题:你认为英伟达在推理规模的技艺上风会像在教悔规模一样苍劲吗?
黄仁勋:我敬佩说过,它会更苍劲。
Clark Tang:你刚才提到了好多身分,比如模块化组合,不同组合的总成,偶然咱们并不完全了解。对于客户来说,能够在这些之间生动切换相配紧迫。但你能不成再谈谈,现在咱们还是进入了推理时期。
黄仁勋:推理等于大限制的推理教悔,对吧?是以,如果你教悔得好,那么很有可能你的推理也会很好。如果你在这种架构上进行教悔而莫得任何调和,它将能够在这种架构上运行。
天然,你依然不错为其他架构进行优化,但至少,因为它还是是在英伟达的架构上构建的,是以它能够在英伟达的架构上运行。
另一个方面,天然,还有老本投资方面的问题。当你教悔新模子时,你会但愿使用最新最好的开采进行教悔,而这会留住之前使用过的开采。而这些开采相配安妥用于推理。因此,会有一条免费的开采旅途。
新的基础设施背后有一条免费的基础设施链,这些开采与 CUDA 兼容。是以咱们相配严谨,确保所有这个词这个词过程的兼容性,这样咱们留住的开采依然能够保持特地性能。
同期,咱们也参加了大量元气心灵,持续再行发明新的算法,以确保其时机驾临时,Hopper 架构的性能会比刚购买时普及 2 到 4 倍,从而让基础设施络续保持高效。
是以,咱们在改进新算法、新框架方面所作念的所有这个词劳动,不仅匡助了咱们每一个装配的基础架构,Hopper 因此变得更好,Ampere 也因此变得更好,以至 Volt 也因此变得更好。
我铭记 Sam 刚刚告诉我,他们最近刚从 OpenAI 退役了他们的 Volt 基础设施。是以,我认为咱们留住了这些装配基础架构的陈迹。正如所有这个词诡计基础架构一样,装配基础架构是很紧迫的。
英伟达的产物遍布每一个云表、里面部署,直到边缘开采。因此,在云表创建的 Vela 视觉语言模子无需修改便能竣工运行于边缘的机器东说念主上。这一切的底层都是 CUDA。是以,我认为架构兼容性的主意对大型技俩相配紧迫。这和 iPhone 或其他开采的兼容性主意莫得什么不同。
我认为,装配基础架构对推理相配紧迫,但咱们确切受益的是,因为咱们在新的架构上教悔这些大型语言模子时,咱们能够想考如何创造出在将来相配优秀的推理架构。
是以咱们一直在想考迭代模子和推理模子,如何为你的个东说念主智能体创造相配交互性的推理体验,比如当它需要停驻来想考一段时分时,如何快速与你互动。
是以,咱们是如何终了这一缱绻的?谜底是 NVLink。你知说念,NVLink 让咱们能够使用这些安妥教悔的系统,但当教悔完成后,它的推感性能也相配特地。你但愿优化的是初次 Token 的响当令分,而终了初次 Token 的响当令分相配用功,因为这需要大量的带宽。
如果你的高下文也相配丰富,那么你还需要大量的诡计才略。因此,你需要在统一时分领有无尽的带宽和诡计才略,才调终了几毫秒的响当令分。而这种架构相配难以终了。为此,咱们发明了 Grace Blackwell NVLink。

▲NVIDIA Blackwell 架构(图源:NVIDIA)
英伟达正在构建完整的、兼容的 AI 基础设施
Brad Gerstner:你知说念,我这周早些时候和 Andy Jassy 共进晚餐,Andy 说:「咱们有 Tranium,还有行将到来的 Inferencia」。我认为大多数东说念主,如故认为这些对于英伟达是个挑战。
但紧接着他说「英伟达是咱们一个相配紧迫的团合资伴,而且将来还将络续是咱们相配紧迫的团合资伴,至少在我所能意象的将来」。
寰宇依靠英伟达运行,对吧?是以,当你预料这些为特定应用开发的定制 ASIC,比如 Meta 的推理加速器,或者 Amazon 的 Tranium,或者 Google 的 TPUs,还有你现时边临的供应穷乏问题时,这些身分会改变你们之间的动态,如故说它们只是对你们系统的补充?
黄仁勋:咱们只是在作念不同的事情,咱们试图终了不同的缱绻。英伟达正在尝试为这个新寰宇构建一个诡计平台,这个机器学习的寰宇,这个生成式 AI 的寰宇,这个智能体 AI 的寰宇。
咱们想要创造的是,经过 60 年的诡计,咱们再行发明了所有这个词这个词诡计栈,从编程到机器学习的口头,从 CPU 到 GPU 的软件处理口头,从软件到东说念主工智能的应用口头,对吧?软件器具、东说念主工智能——诡计栈的每个方面,技艺栈的每个方面都发生了变化。
咱们想要作念的是创建一个无处不在的诡计平台,这施行上是咱们劳动的复杂性所在。如果你想考咱们在作念什么,咱们是在构建一个完整的 AI 基础设施,咱们把它看作是一台诡计机。
我以前说过,数据中心现在是诡计的基本单元。对我来说,当我想考一台诡计机时,我不是在想那块芯片,我是在想这个主意:它是我的心智模子,里面包括所有这个词的软件、编排和所有这个词的机械部分。这是我的责任,这是我的诡计机,咱们每年都在试图构建一台全新的诡计机。
是的,这太豪恣了,之前莫得东说念主这样作念过。咱们每年都在尝试构建一台全新的诡计机,而且每年咱们都托福两到三倍的性能普及。每年咱们都会将成本责难两到三倍,每年咱们都会将能效提高两到三倍。
是以咱们告诉客户,不要一次性购买所有这个词开采,每年购买极少,好吗?原因是,咱们但愿他们能够渐渐进入将来,所有这个词的架构都是兼容的,好吗?
现在,只是以这样的速率构建这个平台就还是相配难了,而双倍的难度在于,咱们不仅要销售基础设施或服务,而是把它们拆解开来,然后将它们集成到 GCP 中,集成到 AWS 中,集成到 Azure 中,集成到其他平台中,明白吗?
每个平台的集成都不一样。咱们必须把所有这个词的架构库、所有这个词的算法和所有这个词的框架集成到他们的系统中。咱们把咱们的安全系统集成到他们的系统中,咱们把咱们的网罗集成到他们的系统中,对吧?然后咱们每年进行卤莽 10 次这样的集成。而这等于遗迹所在。
Brad Gerstner:这等于遗迹所在,为什么?我的风趣是,这太豪恣了。你每年都在作念这些事,这真的很豪恣。想一想,是什么驱动你每年都这样作念的?
然后再说到这极少,你知说念 Clark 刚从中国台湾、韩国和日本追忆,见了你所有这个词的供应团合资伴——那些你还是有十多年团结关系的伙伴。这些团结关系对于构建阿谁竞争壁垒的组合效应有多紧迫?
黄仁勋:是的,当你系统性地理解时,大家越是理解,就越会感到讶异,所有这个词这个词电子行业生态系统今天是如何致力于于与咱们团结,最终构建出这个诡计机的立方体,并将其整合到所有这个词不同的生态系统中的?而且和谐是如斯无缝。显着,咱们向后传递了 API、活动学、业务经由和瞎想法律解释,上前传递了活动学、架构和 API。
Brad Gerstner:这些还是被强化了几十年。
黄仁勋:强化了几十年,同期也在持续演进。但这些 API 在需要的时候必须整合在全部——所有这个词这些在中国台湾和寰宇各地制造的东西,最终会落到 Azure 的数据中心。它们会组合到全部。
Clark Tang:有东说念主只需要调用 OpenAI API,它就能正常劳动。
黄仁勋:没错,完全是那种豪恣的嗅觉。这等于咱们发明的东西,咱们发明了这个广泛的诡计基础设施,所有这个词这个词寰宇都在和咱们全部构建它。
它被整合到了各个规模,你不错通过戴尔销售它,不错通过惠普(HPE)销售它,它托管在云表,也延长到了边缘开采。东说念主们现在在机器东说念主系统中使用它,在东说念主形机器东说念主中使用它,它们在自动驾驶汽车中使用,它们都在架构上兼容,这真的相配豪恣。
Clark,我不但愿你误以为我莫得修起你的问题,事实上,我还是修起了。我所指的与你的 ASIC 相关的问题是这样的。
咱们动作公司,只是在作念不同的事情。动作一家公司,咱们但愿能够对环境有澄莹的知道。我对咱们公司过火生态系统周围的一切都相配透露,对吧?
我知说念所有这个词在作念不共事情的东说念主以及他们在作念什么。偶然候,这对咱们来说是抗争性的,偶然候不是。我对此相配透露。但这并不会改变咱们公司的缱绻。公司唯一的缱绻等于构建一个不错无处不在的架构平台,这等于咱们的缱绻。
咱们并不想从任何东说念主那边霸占阛阓份额。英伟达是阛阓的开拓者,而不是份额的争夺者。如果你看咱们的公司证明,你会发现咱们从来不谈阛阓份额,从来莫得一天咱们会在公司里面驳倒阛阓份额。
咱们所有这个词的商榷都是对于如何创造下一个东西?咱们如何治理飞轮中的下一个问题?咱们如何为东说念主们作念得更好?咱们如何将曩昔需要一年的飞轮周期裁减到一个月?你知说念,这特地于飞轮的光速,不是吗?咱们在想考所有这个词这些不同的问题,但有一件事是细主见,咱们对周围的一切都有透露的相识,但咱们对我方的责任相配明确。
唯一的问题是,这个责任是否必要,是否有道理。所有这个词伟大的公司都应该有这样的责任。
从压根上讲,问题是你在作念什么?唯一的问题是,它是否必要,是否有价值,是否有影响力,是否能匡助到别东说念主?我相配细目,如果你是别称开发者,一家生成式 AI 初创公司,正在决定如何成为一家公司,你唯一不需要研究的弃取等于相沿哪个 ASIC。
如果你只相沿 CUDA,那么你不错在职何场所使用它,你以后随时不错改变主意,但咱们是进入 AI 寰宇的进口,不是吗?一朝你决定进入咱们的平台,其他有缱绻都不错延后,你以后随时不错开发我方的 ASIC,咱们对此满不在乎。
当我与 GCP 团结时,GCP、Azure 等公司,咱们会提前几年向他们展示咱们的路子图。他们不会向咱们展示他们的 ASIC 路子图,这也不会冒犯咱们,明白吗?如果你的缱绻明确且有道理,而且你的责任对你我方和他东说念主都很紧迫,那么你就不错保持透明。
把稳,我的路子图在 GTC 上是公开的,而我的路子图在 Azure、AWS 等团合资伴那边会更深入。咱们在这些方面莫得任何用功,即使他们正在开发我方的 ASIC。

▲NVIDIA 的责任是构建完整兼容的 AI 基础设施(图源:The Brand Hopper)
AI 正在改变行业将来
Brad Gerstner:我以为,当东说念主们不雅察这个行业时,你最近说过,对 Blackwell 的需求是「豪恣的」。你还说,劳动中最难的一部分等于在这个诡计资源穷乏的寰宇里,隐忍对别东说念主说「不」所带来的热沈职守。
但品评者说,这只是一个时分节点,他们认为这就像 2000 年想科过度确立光纤一样,将会阅历茁壮与凄迷。你知说念,我预料 2023 年年头咱们全部吃饭的时候,其时的展望是英伟达 2023 年的营收会达到 260 亿好意思元,但你们施行作念到了 600 亿,对吗?
黄仁勋:承认吧,这是寰宇上有史以来最大的展望失败。
Brad Gerstner:那时候咱们在 2022 年 11 月相当鲁莽,因为像来自 Inflection 的 Mustafa 和来自 Character 的 Noam 等东说念主来到咱们办公室商榷投资他们的公司。他们说,如果你们不成径直投资咱们的公司,那就买英伟达吧,因为全寰宇都在争相获取英伟达的芯片,用来构建那些将要改变寰宇的应用。
天然,跟着 ChatGPT 的出现,这一「寒武纪时刻」到来了。关联词,即便如斯,这 25 位分析师仍然千里迷于「加密酷寒」,无法想象寰宇上正在发生的事情,对吧?是以最终闭幕远超预期。
你明确暗示,对 Blackwell 的需求相配豪恣,而且将来会一直如斯。天然,将来是未知且不可知的,但为什么品评者的看法错得如斯离谱?这不会像 2000 年想科那样成为过度确立的场面。
黄仁勋:想考将来的最好口头是从基本道理推理出来,对吧?是以问题是,咱们现在在作念的事情的基本道理是什么?第一,咱们在作念什么?咱们在作念什么?咱们正在再行发明诡计,不是吗?
咱们刚刚说过,将来的诡计将高度依赖机器学习,对吗?咱们简直所有这个词的应用尺度,岂论是 Word、Excel、PowerPoint、Photoshop、Premiere、AutoCAD,岂论你给我举什么例子,所有这个词这些都是手工瞎想的。我向你保证,将来这些都会高度依赖机器学习,不是吗?
而且,在这些器具之上,你还会有智能体来匡助你使用它们。
是以,到现在为止,这还是是个事实了,对吧?咱们再行发明了诡计,咱们不会回头。所有这个词这个词诡计技艺栈正在被再行界说。
好了,现在咱们还是作念到了这极少,咱们说软件将会不同,软件的编写口头将会不同,使用软件的口头也会不同。是以,让咱们承认这些是我的基本领实。是的,那么问题来了,接下来会发生什么?
那么让咱们追忆一下,曩昔的诡计是如何作念的。咱们有一万亿好意思元的诡计机开采。望望曩昔的数据中心,开放门望望,你会说那些是你想要用来濒临将来的诡计机吗?谜底是狡赖的。
你看到那些 CPU,咱们知说念它能作念什么,不成作念什么。咱们也知说念现在有价值一万亿好意思元的数据中心需要当代化。因此,脚下,如果咱们要在将来四五年内进行当代化调动,那是完全合理的,亦然理智的。
Brad Gerstner:是以咱们还是在和那些需要进行当代化调动的东说念主疏导,他们正在使用 GPU 进行当代化调动,没错。
黄仁勋:我的风趣是,让咱们作念个假定。你有 500 亿好意思元的老本开销,你会弃取 A 选项:为将来确立老本开销,如故 B 选项:按照曩昔的模式确立老本开销?你还是有了曩昔的老本开销,就在那边放着,归正它不会变得更好。
摩尔定律基本上还是闭幕了,是以为什么要重建呢?咱们只需要把这 500 亿好意思元参加到生成式 AI 中,不是吗?这样你的公司就会变得更好。那么你会把这 500 亿中的几许参加进去?我会把 100% 的 500 亿都参加进去,因为我还是有了四年的旧基础设施。
是以现在,从基本道理动身,你只是从这个角度来推理,而这恰是他们正在作念的事情。聪敏的东说念主在作念聪敏的事情。
现在第二个部分是这样的:咱们有一万亿好意思元的容量要去确立,对吧?一万亿好意思元的基础设施,可能参加了 1500 亿好意思元,对吧?是以咱们在将来 4 到 5 年内要确立一万亿好意思元的基础设施。
咱们不雅察到的第二点是,软件的编写口头不同了,而将来软件的使用口头也会不同。咱们将会有智能体,不是吗?
咱们公司将会稀有字职工,他们会在你的收件箱里,在将来,这些小点点、小头像会变成 AI 的图标,不是吗?我会向他们发送任务。我不再用 C++ 编程了,我会用教唆词来「编程」AI,不是吗?这和我今天早上写了一堆邮件莫得什么不同。
我给我的团队下达了指示,对吧?我形容了布景,确认了我知说念的基本截止,并形容了他们的任务。我会给他们充足的标的感,让他们明白我需要什么,我但愿对预期闭幕尽可能明确。但我也会留出充足的创造空间,让他们不错给我带来惊喜,不是吗?
这和我今天如何教唆 AI 莫得什么不同,这恰是我教唆 AI 的口头。是以在咱们当代化调动的基础设施之上,将会有一个全新的基础设施。这套新基础设施等于将操作这些数字东说念主的 AI 工场,它们会全天候地运行。
咱们将在全球所有这个词的公司中领有它们,在工场中领有它们,在自动化系统中领有它们,对吗?是以这个寰宇需要建立一整层诡计结构,我称之为 AI 工场的基础设施,这些现在还不存在。
是以问题是,这个限制有多大?咫尺咱们还无法知说念,可能是几万亿好意思元的限制,但奥妙的是,当代化调动的数据中心架构与 AI 工场的架构是雷同的。
Brad Gerstner:这等于奥妙之处。你还是说得很透露了,你有一万亿好意思元的旧基础设施需要当代化调动,同期至少还有一万亿好意思元的新 AI 劳动负载正在到来,本年约莫聚有 1250 亿好意思元的收入。
你知说念,也曾有东说念主告诉你们这家公司长久不会超过 10 亿好意思元的市值。而如今你坐在这里,如果你只占到了几万亿总阛阓(TAM)的 1250 亿收入,有什么事理让你认为你们将来的收入不会是现在的 2 倍、3 倍?有什么事理让你们的收入不会络续增长?
黄仁勋:莫得,没错。你知说念,这并不是对于现在的事情。公司只会受到「水池」大小的截止,你知说念,金鱼只可长到与水池相匹配的大小。
是以问题是,咱们的水池有多大?这需要好多想象力,这亦然为什么阛阓开拓者会想考将来,而不是只在现存的水池里竞争。
如果你只是追忆曩昔、试图霸占阛阓份额,这很出丑清将来。阛阓份额的争夺者只可作念到这样大,而阛阓的开拓者不错变得相配大。是以,我认为咱们公司的红运之处在于,从公司成立的第一天起,咱们就必须为我方创造阛阓空间。
东说念主们其时没挑升志到这极少,但咱们简直从零驱动创造了 3D 游戏 PC 阛阓。咱们基本上发明了这个阛阓以及所有这个词相关的生态系统,包括显卡的生态系统。咱们发明了这一切。是以,创造一个全新的阛阓来服务它,对咱们来说是一件相配纯属的事情。

▲Brad Gerstner(左)和 Clark Tang(右)在访谈中
不可想议的 OpenAI 和 X.AI
Brad Gerstner:没错,动作一个发明了新阛阓的东说念主来说,这确乎如斯。让咱们略略调节话题,谈谈模子和 OpenAI。你知说念,OpenAI 这周筹集了 65 亿好意思元,估值达到约 1500 亿好意思元。咱们都参与了此次融资。
黄仁勋:真的为他们感到欢笑,真的很欢笑这一切获胜达成。是的,他们作念得很棒,团队也推崇得相配出色。
Brad Gerstner:有证明称他们本年的收入或收入运行率约莫是 50 亿好意思元,来岁可能达到 100 亿好意思元。如果你看今天的业务限制,它的收入约莫是谷歌在 IPO 时的两倍。
他们有 2.5 亿的每周活跃用户,咱们揣测这是谷歌 IPO 时用户量的两倍。而如果你看它的业务倍数,如果你信托他们来岁能达到 100 亿好意思元收入,那么他们的市值约莫是来岁收入的 15 倍,这和谷歌和 Meta 在 IPO 时的倍数差未几,对吧?当你预料这家公司 22 个月前还莫得任何收入和每周活跃用户时,这相配惊东说念主。
黄仁勋:Brad 对历史有着不可想议的掌捏。
Brad Gerstner:当你预料这极少时,和咱们谈谈 OpenAI 动作你们的团合资伴,以及它在推动公众对 AI 的知道和使用方面的紧迫性。
黄仁勋:嗯,这是咱们时期最具影响力的公司之一。这是一家隧说念的 AI 公司,追求通用东说念主工智能(AGI)的愿景。
岂论 AGI 的界说是什么,我简直不认为它的界说完全紧迫,也不信托时分节点的紧迫性。我所知说念的一件事是,AI 将在将来的时分里持续展现出一系列才略。这些才略的发展路子图将会相配惊东说念主。在到达任何东说念主所界说的 AGI 之前,咱们就会将其粗鲁应用。
你现在要作念的等于去和数字生物学家、欢快科技研究东说念主员、材料研究东说念主员、物理科学家、天体物理学家、量子化学家对话。你不错去找视频游戏瞎想师、制造工程师、机器东说念主巨匠,弃取你可爱的行业,深入其中,和那些紧迫的东说念主对话,问他们,AI 是否透顶改变了他们的劳动口头?然后你把这些数据点带追忆,再问问我方,你到底有多怀疑?
因为他们不是在驳倒 AI 将来某天的主意性克己,他们正在驳倒现在就使用 AI。岂论是农业科技、材料科技、欢快科技,弃取你想要的科技规模或科学规模,它们正在逾越,AI 正在匡助他们鼓动他们的劳动。
就在咱们谈话的这一刻,每个行业、每家公司、每所大学都在使用 AI,难以置信,不是吗?它绝对会在某种进程上改变买卖,咱们知说念这极少,对吧?我的风趣是,这种变化是如斯真实,正在发生。是以我认为 ChatGPT 所激勉的 AI 醒悟完全是不可想议的。我可爱他们的速率和他们推动这一规模的单一缱绻,是以它真的相配具有影响力。
Brad Gerstner:他们构建了一个不错为下一代模子融资的引擎。我认为硅谷的共鸣正在加多,即所有这个词这个词模子层正在渐渐商品化,Llama 让好多东说念主不错以相配低的成本构建模子。
是以一驱动,咱们有好多模子公司,比如 Character、Inflection、Cohere、Mistral 等等。好多东说念主质疑这些公司是否能够达到经济引擎的「逃遁速率」,络续为下一代模子提供资金。我的嗅觉是,这亦然为什么咱们看到阛阓的整合,对吧?
显着,OpenAI 还是达到了阿谁「逃遁速率」,他们不错为我方的将来融资。但对我来说,不透露的是,好多其他公司能否作念到这极少。这是否是对模子层近况的一个公说念概述?就像咱们在其他许多阛阓中看到的一样,阛阓带领者会有一个经济引擎和应用来让他们络续投资。
黄仁勋:起初,模子和东说念主工智能之间有一个压根分裂,对吧?模子是东说念主工智能的一个必要但不及的构成部分,对吧?东说念主工智能是一种才略,但为了什么?应用是什么?
自动驾驶汽车的东说念主工智能与东说念主形机器东说念主的东说念主工智能推敲,但它们并不雷同。它们与聊天机器东说念主的东说念主工智能推敲,但也不雷同,对吧?是以你需要会通这个栈的分类。在栈的每一层都会有契机,但并不是每一层都有无尽的契机。
我刚刚说了一些话,你所需要作念的等于把「模子」一词替换为「GPU」。事实上,这是咱们公司 32 年前的首要发现——GPU 图形芯片与加速诡计之间有一个压根分裂。加速诡计与咱们在 AI 基础设施中所作念的劳动不同,虽然相关,但并不完全雷同。它们是建立在相互之上的,但并不完全雷同。每一层抽象都需要完全不同的技巧。
一个相配擅长构建 GPU 的东说念主,可能完全不知说念如何成为一家加速诡计公司。有好多东说念主在构建 GPU,而咱们发明了 GPU,但今天并不是只消咱们一家在制造 GPU,对吧?寰宇上有好多 GPU,但并不是所有这个词的公司都是加速诡计公司。而且有好多加速器应用尺度,但这与加速诡计公司不同。举例,一个相配专门的 AI 应用尺度可能会相配告成。
Brad Gerstner:这等于 MTIA。
黄仁勋:没错,但它可能不会成为一个具有粗鲁影响力和才略的公司。是以你必须决定你想处于哪个位置。在这些不同的规模可能都有契机,但就像建立公司一样,你必须把稳生态系统的变化,以及哪些东西跟着时分推移被商品化,分透露什么是功能、什么是产物、什么是公司,这是一定的。好吧,我刚刚谈到了好多不同的想路。
Brad Gerstner:天然,还有一个新加入者领有资金、聪理智谋和弘愿,那等于 X.AI,对吧?外界有报说念称,你和 Larry 以及 Elon 共进了晚餐。他们劝服你松手了 10 万个 H100s,他们去了孟菲斯,在几个月内建立了一个大型的超等诡计集群。
黄仁勋:起初三个点不在一条线上,我和他们共进了晚餐,因果关系只是等于这样。
Brad Gerstner:你如何看他们构建超等诡计集群的才略?外界还在商榷他们想要再加多 10 万个 H200s 来推广这个超等集群的限制。
起初,和咱们谈谈 X 公司的志在四方以及他们还是取得的成就。同期,咱们是否还是进入了 20 万或 30 万个 GPU 集群的时期?
黄仁勋:谜底是敬佩的。起初要承认他们的成等于应得的。从主意阶段到数据中心的建成,并准备好让英伟达的开采进驻,到咱们供电、联结开采并进行初次教悔,这一过程。
起初,建造这样一个广泛的工场,聘任液冷技艺、完成能源供应、获取许可,并在这样短的时天职完成。我是说,这简直是超东说念主的成就。就我所知,全寰宇只消一个东说念主能作念到这极少,埃隆·马斯克在工程、建筑、大型系统和资源调配方面的会通是唯一无二的,简直难以置信。
天然,他的工程团队也相配出色,软件团队、网罗团队、基础设施团队都很棒。埃隆对此有着深入的会通。从咱们决定启动技俩的那一刻起,咱们的工程团队、网罗团队、基础设施诡计团队、软件团队都进行了充分的准备。
然后,所有这个词的基础设施、物流以及今日进入的数据量和开采量,还有英伟达的基础设施和诡计技艺,一切都在 19 天内完成了教悔。
你知说念这意味着什么吗?有谁寝息了吗?24 小时不停地劳动,毫无疑问,莫得东说念主寝息。起初,19 天的时分真实不可想议,但如果退一步想考,这只是短短几周。你能看到的技艺开采数目简直令东说念主难以置信。
所有这个词的布线和网罗联结,与英伟达开采的网罗联结与超大限制数据中心的网罗联结完全不同。一个节点上的电线数目,诡计机背部实足是电线。只是是把这座技艺岑岭整合起来,再加上所有这个词的软件,简直难以置信。
是以我认为埃隆和他的团队所作念的事情相配了不得,我也很谢意他招供咱们在工程和缱绻方面与他们的团结。但他们所取得的成等于唯一无二的,前所未有。
为了让你更好地会通,10 万个 GPU,毫无疑问,这是地球上速率最快的超等诡计机。这只是一个集群。广泛你建造一台超等诡计机需要三年时分来缱绻,对吧?然后托福开采并花一年时分让它全部运行起来。而咱们在驳倒的是 19 天。

▲ChatGPT 所激勉的 AI 醒悟是不可想议的(图源:artnet)
推理将迎来爆炸式增长
Clark Tang:英伟达平台的上风是什么呢?它的所有这个词这个词经由都还是经过强化,对吧?
黄仁勋:是的,一切都还是在运行。天然,还有一大堆 X 算法、X 框架和 X 堆栈,咱们还需要进行大量的集成。但它的前期缱绻相配出色,只是是预缱绻就还是令东说念主印象深刻了。
Brad Gerstner:Elon 是唯一无二的存在,但你刚刚修起时提到,20 万到 30 万个 GPU 集群还是存在了,对吧?它能推广到 50 万个吗?它能推广到 100 万个吗?你们产物的需求是否取决于这些集群能否推广到百万级?
黄仁勋:临了一个问题的谜底是狡赖的。我的看法是,散布式教悔必须起作用,我认为散布式诡计将会被发明出来,某种神态的联邦学习和散布式、异步诡计将会被发现。我对此相配有信心,也相配乐不雅。
天然,需要意志到的是,曩昔的推广法律解释主若是对于预教悔。现在咱们还是进入了多模态,咱们驱动了合成数据生成。后教悔阶段的推广变得相配快,合成数据生成、奖励系统、基于强化学习的教悔都发展飞快。现在推理阶段的推广也达到了极限。
这个想法是,在模子修起问题之前,它还是进行了 10000 次里面推理,这可能并不夸张。它可能还是进行了树搜索,可能还是基于这个问题进行了强化学习,可能进行了某种模拟,敬佩进行了大量反想,可能查阅了一些数据和信息,对吧?是以它的高下文可能特地广泛。
我想,这种智能等于咱们正在作念的,不是吗?这等于咱们正在作念的。是以,如果你对这种推广进行诡计,将模子限制和诡计限制每年推广 4 倍,再加上使用需求持续增长……
咱们是狡赖为咱们需要数百万个 GPU?毫无疑问,是的。这是咫尺的一个细目性问题。那么问题是,咱们如何从数据中心的角度来架构它?这在很猛进程上取决于数据中心是一次性达到千兆瓦级,如故每次 250 兆瓦?我的看法是,这两种情况都会出现。
Clark Tang:我以为分析师老是关注现时的架构弃取,但我认为从此次对话中最大的得益之一等于,你们是在想考所有这个词这个词生态系统,以及将来多年的发展。
因此,英伟达推广限制,岂论是纵向如故横向推广,都是为了草率将来,而不是只是依赖一个有 50 万或 100 万个 GPU 集群的寰宇。到散布式教悔确切到来时,你们还是编写了相沿它的软件。
黄仁勋:没错,记取咱们和团合资伴在约莫七年前开发的 Megatron。如果莫得它,这些大限制教悔任务的推广是不可能的。咱们发明了 Megatron,咱们发明了 Nickel、GPU Direct,还有咱们通过 RDMA 所作念的所有这个词劳动,这使得活水线并行处理变得愈加容易。
所有这个词的模子并行处理,所有这个词散布式教悔的理解、批处理等所有这个词这些技艺,都是因为咱们作念了早期的劳动,现在咱们也在为将来的下一代技艺作念准备。
Brad Gerstner:那么咱们来谈谈 Strawberry 和 o1 吧。
起初,我以为他们把 o1 定名为 o1 签证是很酷的,对吧?o1 签证是为了招引全球最优秀、最聪敏的东说念主才来到好意思国,我知说念咱们都对此深有热沈。
我相配可爱这个想法,建造一个能想考、推动咱们走向智能推广新高度的模子,向那些通过侨民来到好意思国的天才请安,恰是他们成就了今天的咱们。
黄仁勋:敬佩是一种外星智能。
Brad Gerstner:天然,这个技俩是由咱们的一又友 Noah Brown 带领的,他曾参与 Pluribus 和 Cicero 的劳动,都是 Meta 的技俩。推理时分推理动作一个完全新的智能推广维度,与只是构建更大模子的口头迥乎不同,这有多紧迫?
黄仁勋:这相配紧迫,极其紧迫。好多智能无法事前完成,你知说念吗?以知友多诡计都不成事前再行排序。乱序扩充不错提前完成,但好多事情只可在运行时完成。
是以岂论是从诡计机科学的角度来看,如故从智能的角度来看,好多东西都需要高下文和情境,你所寻找的谜底类型偶然浅易的快速谜底还是充足了,而谜底的后果取决于你使用这个谜底的性质。
是以有些谜底不错花一个晚上想考,有些谜底可能需要一周的时分,对吧?我完全不错想象,我给我的 AI 发送一个教唆词,告诉它,想一晚上,不要坐窝告诉我,对吧?我想让你整晚想考,然后未来早上告诉我你最好的谜底,并为我推理分析。
因此,我认为智能的分层,从产物角度来看,会有一次性的版块,也会有一些需要五分钟来完成的。
Brad Gerstner:这个智能层能够将这些问题与合适的模子和使用场景相匹配。昨晚咱们在使用先进的语音模式和 o1 预览版,我正在蛊惑我女儿的 AP 历史查验,嗅觉就像寰宇上最好的 AP 历史教学坐在你阁下全部想考这些问题,真口舌凡的体验。
黄仁勋:我的导师现在是 AI。
Brad Gerstner:天然,他们今天还是存在了。这也回到了这个话题,你知说念,你们今天有超过 40% 的收入来自推理。但推理将因为「推理链」而迎来爆炸式增长,对吧?
黄仁勋:推理的增长将会是十亿倍的。
Brad Gerstner:翻倍,再翻十亿倍。
黄仁勋:对。这是大多数东说念主还莫得完全会通的部分。这恰是咱们之前驳倒的行业变革,这是工业调动。
Brad Gerstner:这是智能的坐蓐,对吧?
黄仁勋:它将增长十亿倍。
Brad Gerstner:大家都高度关注英伟达,认为它主若是用于更大模子的教悔。是不是这样,如果你们今天的收入有 50% 来自教悔,那么将来推理的限制将远远超过教悔。教悔虽然紧迫,但推理的增长将会远超教悔的增长,咱们但愿如斯,简直不可能有其他情况。
黄仁勋:咱们但愿如斯,是的,上学是功德,但最终缱绻是你能在社会中有所孝敬。是以教悔这些模子是好的,但最终缱绻是要让它们产生影响。
Brad Gerstner:你们是否还是在使用「推理链」和雷同 o1 的器具来改进你们我方的业务?
黄仁勋:咱们今天的网罗安全系统离不开咱们我方的智能体。咱们有智能体匡助瞎想芯片,如果莫得这些智能体,Hopper 芯片就不可能终了,Blackwell 也不可能终了,Rubin 就更不必说了。
咱们有 AI 芯片瞎想师、AI 软件工程师、AI 考证工程师,而且咱们都是在公司里面开发的,因为咱们有这个才略,咱们更高兴愚弄这个契机我方探索这项技艺。

▲推理的增长将会是十亿倍的(图源:NVIDIA)
咱们需要更高效,更安全的 AI
Brad Gerstner:你知说念,今天我走进这栋楼时,有东说念主走过来对我说,你知说念,问问 Jensen 对于文化的事情,一切都与文化推敲。我看着你们的业务,咱们谈了好多对于适合性和成果的事情,扁平化的组织结构不错快速扩充,小团队运作。
你知说念,英伟达在这个规模独树一帜,每位职工平均创造了约莫 400 万好意思元的收入,每位职工约莫创造了 200 万好意思元的利润或解放现款流。你们建立了一种成果文化,确切开释了创造力、创新力、责任感和主东说念主翁意志,你破碎了传统的职能握住模式。大家都可爱驳倒你有几许径直陈述的职工。
AI 的愚弄是否是让你们在保持高度创造力的同期保持高效的关键?
黄仁勋:毫无疑问。我但愿有一天,英伟达今天有 32000 名职工,咱们在以色列有 4000 个家庭,我但愿他们一切安好。我但愿有一天英伟达会成为一个领有 50000 名职工和 1 亿个 AI 助手的公司。
在每个团队中,咱们都会有一个 AI 目次,里面有一批擅长作念多样事情的 AI。咱们还会有一个收件箱,里面充满了咱们团结过而且知说念很擅长咱们技巧规模的 AI 目次。因此,AI 会招募其他 AI 来治理问题。AI 也会在 Slack 频说念中相互交流。
Brad Gerstner:而且与东说念主类全部团结。
黄仁勋:和东说念主类全部团结。是以咱们将会是一个广泛的职工群体,一部分是数字化和 AI,一部分是生物学上的东说念主类职工,我但愿将来还有一些是机电一体化的职工。
Brad Gerstner:从买卖角度来看,我认为这经常被歪曲。你刚刚形容了一家公司,它的产出特地于领有 15 万职工的公司,但施行上你只用了 5 万职工。你并莫得说你要裁掉所有这个词职工,你仍在加多职工数目,但这家公司的产出将会显耀加多,对吧?
黄仁勋:这是广泛被歪曲的场所。AI 不会取代劳动,它将改变每一个劳动。AI 将对东说念主们如何看待劳动产生长远影响,这极少咱们必须承认,对吧?
AI 有可能带来巨大的克己,也有可能酿成伤害,咱们必须构建安全的 AI,没错,这极少必须动作基础。然而被忽视的部分是,当公司愚弄东说念主工智能提高坐蓐力时,它很可能会带来更好的收益或更好的增长,或者两者兼容并蓄。而当这发生时,CEO 的下一封邮件不太可能是裁人文告。
Brad Gerstner:天然,因为公司在增长。
黄仁勋:是的,原因是咱们有比咱们能够探索的更多的想法,咱们需要东说念主们来匡助咱们想考,然后再去自动化这些想法。而自动化的部分,AI 不错匡助咱们终了。
显着,它也会匡助咱们进行想考,但咱们仍然需要去弄透露咱们想要治理什么问题。咱们不错治理无数的问题,但公司必须弃取那些最需要治理的问题,然后找到一种口头来终了自动化并扩大限制。
因此,跟着咱们变得更高效,咱们将会雇佣更多的东说念主。东说念主们经常健忘这极少。如果追忆历史,显着咱们今天有比 200 年前更多的想法。这亦然 GDP 和处事增长的原因,尽管咱们一直在豪恣地进行自动化。
Brad Gerstner:这恰是咱们进入这一时期的紧迫点,简直所有这个词的东说念主类坐蓐力和茁壮都是曩昔 200 年技艺和自动化的副产物。你不错追忆一下,从亚当·斯密到熊彼特的创造性防碍,曩昔 200 年东说念主均 GDP 的增长图表,它持续加速发展。这让我预料一个问题。
如果你看 90 年代,好意思国的坐蓐力增长率约莫是每年 2.5% 到 3%。然后到了 2000 年代,它放缓到约莫 1.8%。而曩昔十年,是记载上坐蓐力增长最慢的时期。这指的是咱们在固定的劳能源和老本参加下的产出增长,是咱们有记载以来最慢的。
许多东说念主对此进行了商榷。但如果寰宇如你所形容的那样,而且咱们将愚弄和制造智能,那么咱们是否正处于东说念主类坐蓐力行将出现巨大推广的边缘?
黄仁勋:这是咱们的但愿。这是咱们的但愿,天然,你知说念,咱们生活在这个寰宇中,因此咱们有径直的字据,对吧?咱们有径直的字据,比如个别研究东说念主员愚弄 AI,现在不错在前所未有的限制上探索科学,这等于坐蓐力的体现。
或者咱们瞎想出如斯复杂的芯片,并以如斯快的速率完成瞎想,而公司的职工限制并莫得以雷同速率增长,这亦然坐蓐力的体现,对吧?咱们开发的软件也越来越好,因为咱们在愚弄 AI 和超等诡计机匡助咱们,而职工数目简直是线性增长的。
这又是一个坐蓐力的诠释。是以岂论我深入到哪个行业,我都不错自我稽查,我不错躬行考证这些推崇是否普遍存在。毫无疑问,智能是寰宇上最有价值的资源,而现在咱们将大限制坐蓐它。
咱们都必须学会如安在周围都是 AI 的环境中生活,这些 AI 能够相配出色地完成任务,以至比咱们更好。当我反想这极少时,我发现这等于我的生活。
我有 60 个径直陈述的下属,对吧?他们都是各自规模的寰宇级东说念主才,作念得比我好得多。我和他们团结莫得任何问题,我也莫得问题去指导他们、与他们疏导。因此,我认为东说念主们将要学到的是,他们都将成为 AI 智能体的 CEO。
他们需要领有创造力、决心,以及一些学问,知说念如何理解问题,从而能够编程这些 AI 来匡助他们达成缱绻,就像我握住公司一样。
Brad Gerstner:你提到了一个问题,等于对于对都、安全 AI 的商榷。你也提到了中东正在发生的悲催。你知说念,现辞寰宇的不同场所都有好多自主性和 AI 的应用。
是以咱们来谈谈不良活动者、安全 AI,以及与华盛顿的和谐问题。你现在的感受如何?咱们是否走在正确的说念路上?咱们的和谐是否充足?我铭记马克·扎克伯格曾说,驯服坏 AI 的口头是让好 AI 变得更好。你会如何形容咱们如何确保 AI 对东说念主类有积极净效益,而不是让咱们堕入一个无主见的反乌托邦寰宇?
黄仁勋:对于安全的商榷相配紧迫,也很有道理。抽象的不雅点,行将 AI 视为一个大型的神经网罗,这种看法就不太好。而原因是,咱们知说念,东说念主工智能和大语言模子虽然相关,但并不雷同。
现在有好多正在进行的劳动,我认为相配出色。第一,开放源代码模子,使得每个行业、每家公司和所有这个词这个词研究界都能战役到 AI,并学习如何愚弄这种才略来应用于他们的规模。相配好。
第二,AI 的发展技艺力量正在专注于发明如何使 AI 愈加安全。AI 被用来筛选数据、筛选信息、教悔其他 AI,创造出对都的 AI,生成合成数据的 AI,推广 AI 的学问,减少幻觉的 AI,以及所有这个词被创造出来的用于矢量图像、图形等 AI,来奉告和监控其他 AI 的系统,这些用于创建安全 AI 的 AI 系统还莫得得到充足的招供。
Brad Gerstner:这些系统还是被构建出来了。
黄仁勋:对,咱们正在建造这些系统,所有这个词这个词行业的所有这个词东说念主都在这样作念。包括红队测试、经由限度、模子卡、评估系统、基准系统等等,所有这个词这些安全机制正在以惊东说念主的速率被构建出来。这些踊跃还莫得得到应有的赞好意思,你们懂的。
Brad Gerstner:是的,咫尺莫得任何政府律例条目你们这样作念。这是现时行业中的参与者们正在严肃对待这些关键问题,并围绕最好实践进行和谐。
黄仁勋:完全正确,这些踊跃莫得得到充足的招供,也莫得被充分会通。东说念主们需要驱动商榷 AI 动作一个由多种 AI 构成的系统,以及它动作一个经过细致工程瞎想的系统的骨子。
对于监管,咱们要记取,AI 是一种才略,它不错应用于好多规模。不一定需要为每一项紧迫技艺单安稳法,然而也不成让监管过度推广到不必要的规模。
大部分的监管应该针对具体的应用来进行,举例 FAA(联邦航空握住局)、NIH(好意思国国立卫生研究院)、FDA(好意思国食物药品监督握住局)等机构还是在握住技艺应用了,现在他们需要驱动握住包含 AI 的技艺应用。
因此,不要歪曲这极少,不要忽视咱们将需要激活的现存大量监管体系。不要仅依赖一个全球 AI 委员会,因为每个监管机构的缔造都是有原因的。这些不同的监管机构存在的原因,等于为了草率不同的挑战。让咱们再次回到基本原则。

▲Clark Tang 在访谈中
AI 开源推动行业激活
Brad Gerstner:如果我不回到开放源代码这个问题上,我的伙伴 Bill Gurley(编者注:本场访谈 Bill 缺席)可能会训斥我。你们最近发布了一个相配紧迫、相配苍劲的开源模子。显着,Meta 也在为开源作念出首要孝敬。
我在读 Twitter 时发现,对于开放与顽固的商榷相配强烈。你如何看待开源,尤其是你们我方的开源模子与前沿技艺保持同步的才略?这是第一个问题。
第二个问题是,领有开源模子以及为买卖运营提供能源的顽固模子,这是否是你们将来的愿景?这两者是否能为 AI 安全创造一种健康的张力?
黄仁勋:开源与闭源的商榷与安全性推敲,但不单是是对于安全性。举例,领有闭源模子动作经济模子的引擎来守护创新,这是完全莫得问题的,我对此尽心全意相沿。
我认为,将问题单纯地界说为闭源抗争开源是一种无理的想维口头。应该是闭源和开源,对吧?因为开源对许多行业的激活是必要的。
如果现在莫得开源,所有这个词这些不同的科学规模如何能够在 AI 上激活?因为他们必须开发我方的规模专属 AI,而且他们需要愚弄开源模子来创建规模专属 AI。这两者是相关的,但并不雷同。
只是因为你有一个开源模子,并不料味着你就领有了 AI。因此,你必须有开源模子来推动 AI 的创建。是以,金融服务、医疗保健、交通运载,以及许多其他规模的科学和行业,都是因为开源的推动而得以激活的。
Brad Gerstner:难以置信,你们的开源模子需求量很大吧?
黄仁勋:咱们的开源模子?天然,Llama 的下载量,对吧?显着,Mark(扎克伯格)和他的团队所作念的劳动,令东说念主难以置信,需求量爆棚,透顶激活了每个行业和每个科学规模。
咱们创建 Nemotron 的原因是为了合成数据生成。直观上,认为某个 AI 会一直轮回生成数据来学习我方,听起来似乎不太可靠。你能在阿谁无尽轮回里转几许圈,这值得怀疑。不外,我的心中有一个形象,就像把一个超等聪敏的东说念主关在一个软包房里,一个月后再出来,可能并不会变得更聪敏。
然而,如果有两三个东说念主在全部商榷,咱们有不同的 AI 模子,领有不同的学问散布,能够相互问答、往复交流,那么咱们三个东说念主都会变得更聪敏。是以 AI 模子之间相互交换、互动、往复商榷、狡辩,进行强化学习和合成数据生成,这个想法直不雅上是有道理的。
因此,咱们的 Nemotron 350B、340B 是寰宇上最好的奖励系统模子。它是最好的品评性模子,确乎相配出色。是以,这是一个增强所有这个词其他模子的奇妙器具,岂论其他模子何等优秀,我都冷落使用 Nemotron 340B 来进行增强,让它变得更好。而咱们还是看到 Llama 变得更好,所有这个词其他模子也因此受益。

▲Meta 在为开源作念出首要孝敬(图源:Linkedin)
AI 是一场透顶的调动
Brad Gerstner:动作在 2016 年托福首台 DGX-1 的东说念主,这段旅程真的太不可想议了。你的旅程既不寻常又令东说念主咋舌。你告成渡过了率先的粗重时期,这自己就生命关天。
你在 2016 年托福了第一台 DGX-1,咱们在 2022 年迎来了这个「寒武纪时刻」。是以我想问一个我广泛被问到的问题,那等于,你以为你现在的劳动情状还能持续多久?
你有 60 个径直陈述的下属,你无处不在,推动着这场调动。你享受这个过程吗?有莫得其他你更想作念的事情?
黄仁勋:你这是在问曩昔一个半小时的感受吗?谜底是:很棒。我渡过了一段相配欢快的时光,完全无法想象还有什么事情比这更值得我去作念。
让我想想,我不认为应该让东说念主以为咱们的劳动老是充满乐趣。我的劳动并非老是真义的,我也不期许它老是真义的。劳动是否应该老是真义?我认为紧迫的是劳动老是紧迫的。我不会太把我方当回事,但我相配负责对待劳动。我相配负责地对待咱们的责任,负责对待咱们对社会的孝敬,以及咱们所处的时期。
这老是真义的吗?不,但我是否老是爱重它?是的,就像所有这个词事情一样,岂论是家庭、一又友、孩子,是否老是充满乐趣?不,但咱们是否老是深深地爱着他们?绝对是。
我能作念多久?确切的问题是,我能保持相关性多久?这个问题的谜底只消通过另一个问题来修起:我将如何络续学习?今天我愈加乐不雅了,我并不是因为咱们今天的商榷而这样说。因为 AI 的出现,我对我方保持相关性和络续学习的才略愈加乐不雅。我每天都在使用它。我不知说念你们是否也使用,但我每天都在使用它。
莫得一项研究不波及 AI,即使我知说念谜底,我也会用 AI 来查对。令东说念主讶异的是,接下来我问的两三个问题,通常能揭示一些我不知说念的事情。
你不错弃取你感兴趣的主题,我认为 AI 动作导师、AI 动作助手,AI 动作一个不错一起初脑风暴的伙伴,来稽查我的劳动。伴计们,这真的是一场透顶的调动。而我是别称信息劳动家,我的输出是信息。
是以我认为 AI 对社会的孝敬口舌凡的。如果我能像这样保持相关性,并络续作念出孝敬,我知说念这份劳动充足紧迫,值得我络续追求。而我的生活质料亦然不可想议的。
Brad Gerstner:我无法想象,如果错过这个时刻会若何。你我还是在这个行业劳动了几十年,而这是咱们三十年来最紧迫的时刻。咱们对这段团结深表感谢。
黄仁勋:不要错过接下来的十年。
Brad Gerstner:相配感谢你们的想想交流,你让咱们变得更理智。谢谢你,我认为你动作带领者,在乐不雅且安全地引颈将来方面阐述了相配紧迫的作用。
黄仁勋:感谢你和咱们在全部。我真的很享受,真的很感谢,感谢 Brad,感谢 Clark。
