华为管理培训
数智化转型培训

六位AI大神对谈:黄仁勋, 辛顿, 李飞飞, 杨立昆, 约书亚, Bill Dally

640(220.132)
△从左至右:杨立昆、李飞飞、黄仁勋、杰弗里·辛顿、
Bill Dally、Yoshua Bengio

版权声明

来源:Web3天空之城(Web3SkyCity)、书享界(readsharecn)

嘉宾:杰弗里·辛顿(Geoffrey Hinton),2018年图灵奖得主,英国皇家学会院士,加拿大皇家学会院士,美国国家科学院外籍院士,多伦多大学名誉教授

杨立昆(Yann LeCun),2018年图灵奖得主,Facebook首席人工智能科学家和纽约大学教授

Yoshua Bengio,2018年图灵奖得主,英国皇家学会院士,蒙特利尔大学教授,Element AI联合创始人

黄仁勋(Jensen Huang),NVIDIA公司创始人兼首席执行官

Bill Dally,NVIDIA研发高级副总裁兼首席科学家

李飞飞,美国国家工程院院士、美国国家医学院院士、美国艺术与科学院院士,美国斯坦福大学首位红杉讲席教授

导语

这是一场罕见的对话,11月6日,杰弗里·辛顿Geoffrey Hinton、杨立昆Yann LeCun和Yoshua Bengio、黄仁勋Jensen Huang、Bill Dally、李飞飞六位鼎鼎大名的人工智能(AI)世界的先驱,因共同荣获2025年伊丽莎白女王工程奖而齐聚一堂。他们分享了各自职业生涯中的“顿悟”时刻,深入探讨了当前AI热潮的本质,分析了其是真实的产业革命还是短暂的泡沫,并最终展望了通用人工智能(AGI)的未来,各位先驱就其实现时间线和核心定义给出了截然不同但发人深省的观点。以下为对谈全文:

1

顿悟时刻:塑造AI历史的个人启示

主持人:我很高兴能被选中向大家介绍今天围坐在桌旁的这群杰出人士。我认为他们是当今地球上最杰出、最有影响力的人中的6位。我认为这绝非夸大其词。这些是2025年伊丽莎白女王工程奖的获得者。今天我们看到的获奖者因其对当今人工智能技术的独特影响而受到表彰。鉴于你们在高级机器学习和人工智能方面的开创性成就,以及你们帮助构建的创新如何塑造我们今天的生活。

 

我想每个人都很清楚,为什么能让你们齐聚一堂是一个非常难得和令人兴奋的机会。就我个人而言,我非常兴奋地想听听你们反思我们所处的当下,每个人都试图超越和理解的当下,以及你们的旅程,将你们带到今天的旅程。但也要了解你的工作以及你作为个体如何相互影响和作用,以及你所创建的公司和技术。最后,我很乐意听到你们展望未来,帮助我们更清楚地看到未来,而你们最适合做这件事。所以我很高兴今天能和大家在一起,并期待着讨论。

 

所以我将从宏观视角开始,逐步深入到非常个人的层面。我想听听你们每个人在职业生涯中的个人“顿悟”时刻,你认为这些时刻对你所做的工作产生了影响,或者是一个转折点,让你走上了今天的道路,从而让你坐在这里。无论是在你职业生涯的早期、研究阶段,还是最近,是什么样的个人觉醒时刻影响了技术?我们从你开始好吗,Yoshua?谢谢。

 

Yoshua:好的,很乐意。我想讲两个时刻。一次是我读研究生时,我正在寻找一些有趣的研究课题,我读了Geoff 辛顿的一些早期论文,我想,哇,这太令人兴奋了。也许有一些简单的原则,就像物理定律一样,可以帮助我们理解人类智能,并帮助我们构建智能机器。

 

我想谈的第二个时刻是两年半前,在GPT问世后,我意识到,哦,我们在做什么?如果我们制造出能够理解语言、拥有目标,而我们又无法控制这些目标的机器,会发生什么?如果它们比我们更聪明,会发生什么?如果人们滥用这种力量,会发生什么?所以我决定完全改变我的研究议程和我的职业生涯,尽我所能来解决这个问题。

 

主持人:这是两种非常不同的事情。非常有趣。请跟我们讲讲您构建基础设施的时刻,这些基础设施正在推动我们今天所拥有的成果。

 

Bill Dally:也有两个时刻。所以第一个是在90年代末,我在斯坦福大学试图弄清楚如何克服当时被称为“内存墙”的问题,即从内存访问数据在能源和时间上的成本远高于对其进行算术运算。我突然想到将计算组织成由流连接的这些内核,这样你就可以进行大量的算术运算而无需进行太多的内存访问。这基本上为后来被称为流处理(最终是GPU计算)奠定了基础。我们最初构建它是考虑到我们可以将GPU不仅应用于图形,还可以应用于一般的科学计算。

 

所以第二个时刻是我和我的同事吴恩达在斯坦福大学共进早餐,当时他在谷歌工作,使用一种叫做神经网络的技术在互联网上寻找猫,使用了16000个CPU。他基本上说服我这是一项伟大的技术,所以我与Brian Kappenzauer合作,在英伟达的48个GPU上重复了实验。当我看到结果时,我绝对相信这就是英伟达应该做的事情。我们应该构建我们的GPU来进行深度学习,因为这在寻找猫之外的各种领域都有巨大的应用。那是一个顿悟时刻,真正开始努力专门化GPU用于深度学习,并使它们更有效。

 

主持人:飞飞也参与其中。那是什么时候?哪一年?

 

Bill Dally:早餐会是在2010年,我认为我们在2011年重复了那个实验。

 

主持人:好的。杰夫,跟我们讲讲你的工作。

 

辛顿:我想一个非常重要的时刻是大约在1984年,我尝试使用反向传播来学习单词序列中的下一个单词。所以那是一个很小的语言模型,并且发现它可以学习到单词含义的有趣特征。所以仅仅是给它一串符号,仅仅通过尝试预测符号串中的下一个单词,它就能学会如何将单词转换成捕获单词含义的特征集合,并且让这些特征之间产生交互,从而预测下一个单词的特征。所以那实际上是一个来自1980年代末,1984年末的小型语言模型,我认为它是这些大型语言模型的前身。基本原理是相同的。只是很小。但这花了40年。我们有100个训练样本。

 

主持人:虽然,这花了我们40年才走到今天。

 

辛顿:这花了40年才走到今天。这花了40年的原因是,我们没有算力,也没有数据。当时我们并不知道这一点。我们无法理解为什么我们不能仅仅用反向传播来解决所有问题。

 

主持人:这让我们顺利地谈到了Jensen。40年来我们没有算力,而现在,你正在构建它。告诉我们你真正清晰的时刻。

 

黄仁勋:就我的职业生涯而言,我是第一代能够使用更高级别表示和设计工具来设计芯片的芯片设计师。当我在2010年左右,同时从三个不同的实验室了解到一种新的软件开发方式时,这个发现很有帮助。多伦多大学发生了什么,那里的研究人员与我们联系的同时,纽约大学的研究人员也与我们联系,斯坦福大学的研究人员也在同一时间与我们联系。大约在同一时间,我看到了深度学习的早期迹象,它使用框架和结构化设计来创建软件。结果证明该软件非常有效。

 

第二个观察结果,再次看到,使用框架、更高层次的表示、结构化类型的结构,比如深度学习网络,我能够开发软件,这对我来说与设计芯片非常相似。而且模式非常相似。那时我意识到,也许我们可以开发出能够很好地扩展的软件和能力,就像我们多年来扩展芯片设计一样。所以对我来说,那是一个重要的时刻。

 

主持人:您认为芯片真正开始帮助扩展我们今天拥有的大型语言模型(LLM)的时刻是什么时候?因为您说是2010年,那仍然是15年。

 

黄仁勋:是的。英伟达架构的优点在于,一旦你能够让某些东西在GPU上良好运行,因为它变成了并行的,你就可以让它在多个GPU上良好运行。将算法扩展到在单个GPU上运行于多个处理器的相同思路,同样适用于在多个GPU上运行,然后现在可以扩展到多个系统,甚至多个数据中心。因此,一旦我们意识到可以有效地做到这一点,剩下的就是想象你可以将这种能力推断到什么程度。我们有多少数据?网络可以有多大?它可以捕获多少维度?它可以解决什么样的问题?所有这些在那个时候实际上都是工程问题。深度学习模型如此有效这一观察,确实是一个火花。剩下的实际上是工程推断。

 

主持人:飞飞,和我们说说你的时刻。

 

李飞飞:是的。我还有两个时刻要分享。大约在2006年和2007年,我正在从一名研究生过渡到一名年轻的助理教授。我是第一代机器学习研究生,阅读着杨、约书亚、杰夫的论文。我当时非常着迷于试图解决视觉识别问题,也就是让机器能够理解日常图片中物体的含义。我们在机器学习中遇到一个叫做泛化性的难题,也就是说,在从一定数量的例子中学习后,我们是否能识别新的例子,新的样本?我尝试了所有可能的算法,从贝叶斯网络到支持向量机再到神经网络。我和我的学生意识到,缺失的部分是数据。如果你看看像人类这样的智能动物的进化或发展,我们早期发展阶段被数据淹没,但我们的机器却缺乏数据。所以我们决定在那时做一件疯狂的事情,在三年内创建一个互联网规模的数据集,名为ImageNet,包括1500万张图片,由世界各地的人们手工整理,涵盖22000个类别。对我来说,那一刻的顿悟是大数据驱动机器学习。

 

主持人:现在它是限制因素,是我们所见所有算法的基石。

 

李飞飞:它是当今人工智能扩展定律的一部分。第二个顿悟时刻是2018年,我当时是谷歌云人工智能的首任首席科学家。我们所做的工作之一是服务于阳光下的所有垂直行业,对吧?从医疗保健到金融服务,从娱乐到制造业,从农业到能源。那是在我们称之为ImageNet AlexNet时刻的几年后,以及AlphaGo之后的几年。我意识到……AlphaGo是一种能够在围棋这种中国棋盘游戏中击败人类的算法。是的。作为谷歌的首席科学家,我意识到这是一项文明技术,将影响到每个个体人类以及每个商业领域。如果人类将要进入人工智能时代,那么指导框架是什么?这样我们不仅能创新,还能通过这项强大的技术为每个人带来仁慈。所以我回到斯坦福大学担任教授,共同创立了以人为本的人工智能研究所,并提出了以人为本的人工智能框架,以便我们能够将人性和人类价值观置于这项技术的中心。

 

主持人:那么,既要发展,也要关注影响和下一步,这就是我们其余人介入的地方。扬,你想在这里总结一下吗?你觉得最精彩的部分是什么?

 

杨立昆:可能要追溯到很久以前。我意识到,当我还是本科生的时候,我就对人工智能和更广泛的智能问题着迷,并且发现50年代和60年代的人们致力于训练机器,而不是编程机器。我对这个想法真的很着迷,可能是因为我觉得我太笨或太懒,无法从头开始构建一台智能机器,对吧?所以最好让它自己训练自己,或者自我组织。这就是生命中智慧构建自身的方式。它是自我组织的。所以我想这个概念非常吸引人,但是当我从工程学毕业时,我找不到任何人。顺便说一句,我当时在做设计。我想去读研究生。我找不到任何人在研究这个,但和一些对此感兴趣的人联系上了,发现了杰夫的论文,例如。他是1983年我开始读研究生时最想见的人,我们最终在两年后见面了。

 

主持人:那么今天你们是朋友,可以这么说吗?

 

杨立昆:是的。哦,我们在1985年一起吃了午饭,基本上我们可以互相接话。他在一次会议上用法语写了一篇论文,并在会上作了主题演讲,并且设法破译了其中的数学原理。它有点像是反向传播,用来训练多层网络。从60年代开始人们就知道,机器学习的局限性在于我们无法用多层来训练机器。所以那真的是我的执念,也是他的执念。所以我写了一篇论文,提出了一些可行的方法,他设法看懂了其中的数学原理。我们就是这样联系上的。

 

主持人:这就是让你走上这条道路的原因。

 

杨立昆:是的。在那之后,一旦你能训练像这样的复杂系统,你就会问自己,那么我该如何构建它们呢?它们可以做一些有用的事情,比如识别图像或类似的东西。当时,我和杰夫在80年代末我做博士后时有过一场辩论。我认为唯一被很好地公式化的机器学习范式是监督学习。你向机器展示一张图片,然后告诉它答案是什么。对。他说,不,不,不。就像我们取得进展的唯一方法是无监督学习。并且当时有点不屑一顾。在2000年代中期,当Yoshua和我开始合作并重新燃起社区对深度学习的兴趣时,我们实际上把赌注押在了无监督学习上。这只是一个强化循环,对吧?这不是强化。不,这基本上是在没有训练机器执行任何特定任务的情况下发现数据中的结构,顺便说一下,这正是大型语言模型(LLM)的训练方式。因此,大型语言模型被训练来预测下一个单词,但这并不是真正的任务。这只是系统学习一种好的表征或捕捉结构的方式。

 

主持人:那里没有奖励系统吗?抱歉说得太技术性了,但是没有什么可以说明这是正确的,因此要继续这样做吗?

 

杨立昆:如果你能正确预测下一个单词,那就是正确的。

 

辛顿:是的。这与强化学习中的奖励不同,在强化学习中你会说这很好。

 

主持人:是的。好的。

 

杨立昆:所以,实际上,我要为此责怪你。事实证明,李飞飞制作了一个名为ImageNet的大型数据集,该数据集被标记。因此,我们可以使用监督学习来训练系统。结果证明,这实际上比我们预期的要好得多。因此,我们暂时放弃了整个关于自监督和无监督学习的计划,因为监督学习的效果非常好。我们发现了一些技巧。

 

主持人:约书亚坚持了下来。我说我没有。

 

杨立昆:不,你没有。它仍然运行良好。但如果你愿意,它在某种程度上重新聚焦了整个行业和研究界,专注于深度学习、监督学习等等。又过了几年,大概在2016、17年左右,我们告诉人们,这不会把我们带到我们想去的地方。我们现在需要做自监督学习。而大型语言模型(LLM)正是这方面的最佳例子。但我们现在正在做的是将此应用于其他类型的数据,如视频传感器数据,而大型语言模型在这方面非常不擅长。这是未来几年的新挑战。

2

当下浪潮:泡沫还是新纪元?

 

主持人:这实际上将我们带到了现在。我想你们都看到了这股兴趣浪潮,来自那些以前不知道人工智能是什么,对人工智能不感兴趣的人。现在大家都涌向这里。这已经不仅仅是一项技术创新,对吧?这是一个巨大的商业繁荣。它已经成为一个地缘政治战略问题。每个人都在试图弄清楚这是什么,或者理解它。

 

黄仁勋,我先来问问你。我希望你们都反思一下现在的这一刻。英伟达尤其如此,它基本上每天、每小时、每周都在新闻里出现,你知道,而且你们已经成为世界上最有价值的公司。所以这里面有一些人们想要的东西。

 

辛顿:听到这个你可能要担心了。

 

主持人:是的。你知道,请告诉我们,你是否担心我们正走向一个人们不太理解的境地,我们都跑得太快了,而且会有一个泡沫即将破裂,然后它会自行纠正?如果不是这样,关于人工智能带来的需求,与比如互联网泡沫时代相比,或者人们不理解的最大误解是什么?如果情况并非如此?在互联网泡沫时代,在泡沫期间,部署的大部分光纤都是暗光纤,这意味着该行业部署的光纤比它需要的要多得多。

 

黄仁勋:今天,你能找到的几乎每个GPU都被点亮并使用。因此,我认为重要的是退一步,去理解和了解什么是人工智能。你知道,对很多人来说,人工智能就是ChatGPT,就是图像生成。这都是真的。这是它的应用之一。在过去的几年里,人工智能取得了巨大的进步,它不仅能记忆和概括,还能推理,有效地思考,并通过研究来扎根。它现在能够产生答案并做更有价值的事情。这更加有效。并且,能够建立对其他企业有帮助的业务的公司数量也在增加,例如,一家软件编程公司,一家我们使用的名为Cursor的AI软件公司,它们非常盈利,而且我们大量使用它们的软件。并且,对于那些服务于医疗保健行业、做得非常非常好、产生真正良好结果的精简版或开放证据来说,它非常有用。而且,而且,因此,AI能力已经增长了很多。

 

因此,我们看到了同时发生的这两个指数增长。一方面,产生答案所需的计算量已经大幅增长。另一方面,这些AI模型的使用量也在呈指数级增长。这两个指数增长导致了对计算的大量需求。现在,当你退一步,从根本上问自己,今天的AI与过去的软件行业有什么不同?过去的软件是预编译的,软件所需的计算量不是很高,但是为了使AI有效,它必须具有上下文感知能力。它必须这样,它目前只能产生智能。你无法提前生成它并检索它。那就是,你知道的,那叫做内容。人工智能必须实时生成和产生。

 

因此,我们现在有了一个行业,其中产生真正有价值且需求旺盛的东西所需的计算量非常巨大。我们创造了一个需要工厂的行业。这就是为什么我提醒我们自己,人工智能需要工厂来生产这些令牌,来产生智能。这是一次,你知道的,千年一遇的,以前从未发生过计算机实际上是工厂的一部分的情况。因此,我们需要数千亿美元的这些工厂,以便为建立在智能之上的数万亿美元的行业提供服务。你知道,你回头看看过去的软件。过去的软件是软件工具。它们被人使用。人工智能是首次增强人类智能的技术。因此,它涉及劳动力问题。它涉及工作问题。它完成工作。

 

主持人:所以你说,不,这与人无关。

 

黄仁勋:我认为,我们正处于智能构建的初期阶段。而且,事实是,今天大多数人仍然不使用人工智能。

 

主持人:在不久的将来,我们所做的几乎每一件事,你懂的,每一刻,你都会以某种方式与人工智能互动。

 

黄仁勋:所以,从我们今天的状态,即使用率相当低的状态,到我们未来某天的状态,即使用率基本上是连续的状态之间,这种构建是,你知道,而且,即使大型语言模型(LLM)的发展停滞,你认为GPU和你正在构建的基础设施仍然可以在不同的范例中发挥作用。

 

主持人:接下来我想让其他人发言。

 

黄仁勋:大型语言模型(LLM)是人工智能技术的一部分。你知道,人工智能是由模型组成的系统,不仅仅是大型语言模型(LLM),大型语言模型(LLM)是其中很大的一部分,但为了使人工智能比现在更具生产力,无论我们如何称呼它,都需要模型的系统和必要的技术。我们还有很多技术需要开发。

 

主持人:谁想参与进来,谈谈这个?特别是如果你不同意的话。

 

Yoshua:我认为我们不应该再称它们为大型语言模型(LLM)了。它们不再是语言模型了。它们,它们最初是作为语言模型出现的,至少这是预训练阶段,但最近,在使它们成为智能体方面已经取得了很大的进展。换句话说,经历一系列步骤,为了通过对话与环境、与人们进行互动,从而实现某种目标,但越来越多的是与计算基础设施互动。而且技术正在变化。这和三年前的情况完全不同。我认为我们无法预测两年、五年、十年后技术会发展到什么程度。但我们可以看到趋势。所以我正在做的事情之一是试图召集一组国际专家,以跟踪人工智能的最新发展,以及它的发展方向。风险是什么?这些风险是如何被缓解的?而且,在如此多的基准测试中,趋势非常明显。现在,你知道,仅仅因为我们过去在改进技术方面取得了如此多的成功,并不意味着未来也会一样。那么,如果未能达到预期,就会产生经济后果。但从长远来看,我完全同意。

 

主持人:但目前,你们其他人怎么看?你们认为,根据你们对技术和应用方面的了解,这些估值是合理的吗?

 

Bill Dally:我认为有三个趋势可以解释目前发生的事情。首先,模型变得越来越高效。例如,如果你只看注意力机制,从直接注意力到GQA再到MLA,你会以更少的计算量获得相同或更好的结果。因此,这会以某种方式推动需求,使以前可能过于昂贵的东西变得便宜。现在你可以用人工智能做更多的事情。与此同时,模型也在变得更好。也许它们会继续通过transformers变得更好,或者会出现一种新的架构。但我们不会倒退。我们将继续拥有更好的模型,这些模型仍然需要GPU。当然。是的。事实上,这使得它们比更专业化的东西更有价值,因为它们更灵活,并且可以随着模型更好地发展。但最后一点是,我认为我们才刚刚开始触及应用的皮毛。因此,几乎人类生活的方方面面都可以通过人工智能协助人们的职业,帮助他们的日常生活而变得更好。我认为我们可能已经达到了最终需求的百分之一。因此,随着需求的扩大,这种用途的数量将会增加。所以我认为这里面没有什么泡沫。我认为,正如黄仁勋所说,我们正处于多重指数增长的早期阶段,而且它会持续下去。

 

主持人:在某种程度上,英伟达已经习惯了这一点,因为即使这种范式发生变化,出现其他类型的人工智能和其他架构,你仍然需要底层的原子。这对你来说是合理的。飞飞,你想插句话吗?

 

李飞飞:我确实认为,当然,从市场的角度来看,它会有自己的动态,有时它会自我调整。但如果你着眼于长期趋势,我们不要忘记,总的来说,人工智能仍然是一个非常年轻的领域,对吧?我们走进这个房间,墙上是物理学的方程式。即使我们看现代物理学,物理学也是一门有400多年历史的学科。人工智能还不到70年。如果我们追溯到艾伦·图灵,那大约是75年。

 

因此,未来还有更多的新领域。黄仁勋和约书亚谈论了大型语言模型和智能体。这些更多是基于语言的。但即使你对人类智能进行自我反省,语言之外还有更智能的能力。我一直在研究空间智能,这实际上是感知和行动的结合或关键,在感知、推理、互动和创造超越语言的世界方面,人类和动物都拥有不可思议的能力。即使是今天最强大的基于语言或基于LLM的模型,也无法通过基本的空间智能测试。所以从这个角度来看,作为一个学科,作为一门科学,还有更多的前沿需要征服和开拓。这也带来了应用,你知道,开辟了更多的应用。

 

主持人:Yann,你在一家公司工作,所以你具有研究人员和在商业领域工作的双重视角。你同意吗?你认为这一切都是合理的,你能看到这一切的根源吗?或者你认为我们已经走到了尽头,我们需要找到一条新的道路?

 

杨立昆:所以我认为有几个观点表明我们没有处在泡沫中。至少有一种观点,我暗示我们正处于泡沫之中,但它又有所不同。所以我们并不是说基于大型语言模型可以开发很多应用,从这个意义上来说,我们不处于泡沫之中。大型语言模型是当前的主导范式,并且有很多可挖掘之处。这就是,你知道的,比尔所说的,用当前的技术来帮助人们的日常生活。这项技术需要被推动,并且这证明了在软件方面和基础设施方面所做的所有投资都是合理的。一旦我们有了,你知道的,每个人都拥有智能可穿戴设备,并在他们的日常生活中为他们提供帮助,正如黄仁勋所说,服务于所有这些人所需的计算量将是巨大的。所以从这个意义上讲,投资没有浪费。

 

但在某种意义上存在泡沫,那就是某种程度上认为当前的大型语言模型范式将被推到拥有人类级别智能的程度,我个人不相信这一点,你也不相信。在我们获得真正具有我们观察到的那种智能的机器之前,我们需要一些突破,不仅在人类身上,也在动物身上。我们没有像猫一样聪明的机器人,对吧?因此,我们仍然缺少一些重要的东西,这就是为什么人工智能的进步不仅仅是更多基础设施、更多数据、更多投资以及更多当前范式开发的问题。这实际上是一个科学问题,即我们如何朝着下一代人工智能取得进展。

3

展望未来:人类水平智能还有多远?

 

主持人:这就是你们所有人来到这里的原因,对吧?因为你们实际上激发了整个事情的开端。我觉得,你知道,我们正朝着工程应用方面发展。但你所说的是我们需要回到最初把你带到这里的原因。关于人类水平智能的问题,我们剩下的时间不多了。所以我只想做一个快速提问。我很好奇,你们每个人能说一下,你们认为我们需要多久才能达到那个程度,即你相信我们拥有,你知道的,与人类甚至像章鱼或其他什么聪明的动物相当的机器智能?我们还有多远?只要年数?

 

杨立昆:这不会是一个事件。

 

主持人:好的。好的。

 

杨立昆:因为各种领域的能力将逐步扩展。

 

主持人:在什么时间段内?

 

杨立昆:在,你知道,也许我们会在未来5到10年内取得一些重大进展,从而提出一种新的范式。然后也许,你知道,进展就会到来。但这将比我们想象的要长。

 

李飞飞:好的。机器的某些部分将取代人类智能,而机器智能的某些部分将永远不会与人类智能相似或相同。它们是为了不同的目的而建造的。我们什么时候能达到取代?其中一部分已经在这里了。我们当中有多少人能识别出世界上22000个物体?

 

主持人:你不认为一个成年人能识别出22000个物体吗?

 

李飞飞:这种精细度和保真度,不能。有多少成年人能翻译100种语言?

 

主持人: 那更难,是的。

 

飞飞:所以,是的。所以我认为我们应该细致入微并立足于科学事实,就像飞机能飞,但它们不是像鸟一样飞。而且基于机器的智能将做很多强大的事情。但在我们的社会中,人类智能始终占据着至关重要的地位。黄仁勋,你有什么要说的吗?

 

黄仁勋:我们拥有足够的通用智能,可以在未来几年内将这项技术转化为大量对社会有用的应用。在接下来的一年里?我们今天就在做。所以我认为,首先,我们已经做到了。其次,答案的另一部分是这无关紧要。

 

主持人:因为在这一点上,这有点像一个学术问题。

 

黄仁勋:我们将应用这项技术,并且这项技术会不断变得更好,我们将应用这项技术来解决从现在开始的许多非常重要的事情。所以我认为答案是这无关紧要。

 

而且现在也是如此。你来决定。如果你稍微改进一下这个问题,比如说,在多久之后,如果你和这台机器辩论,它总是会赢。

 

辛顿:我认为这肯定会在20年内发生。

 

主持人:我们还没有达到那个程度,但我认为肯定会在20年内实现。

 

辛顿:所以,如果你把这定义为通用人工智能(AGI),它总是会在辩论中胜过你。我们可能会在不到20年的时间内达到那个目标。

 

主持人:好的。比尔,你有什么要说的吗?

 

Bill Dally:我确信对于黄仁勋来说,这是一个错误的问题,对吧?因为我们的目标不是构建人工智能来取代人类或比人类更优秀。

 

主持人:但这是一个科学问题。这不是说我们会取代人类。问题是,作为一个社会,我们能否创造出一些东西?

 

Bill Dally:但我们的目标是构建人工智能来增强人类。因此,我们想要做的是补充人类擅长的方面。人类无法识别22000个类别,或者说我们大多数人无法解决这些奥林匹克数学题。所以我们构建人工智能来做这些。这样人类就可以做那些独属于人类的事情,那就是发挥创造力,富有同情心,并且懂得如何与我们世界中的其他人互动。我认为,人工智能是否能做到这一点对我来说并不明确,但人工智能可以为人类提供巨大的帮助。

 

Yoshua:所以我恕难苟同。我看不出任何理由说明为什么在某个时候我们不能制造出几乎可以做我们所能做的一切的机器。当然,就目前而言,在空间和机器人方面,它还比较落后,但没有概念上的理由说明我们不能做到。所以在时间线上,我认为存在很多不确定性,我们应该据此制定计划。但我也发现一些有趣的数据,我们看到人工智能在不同时间跨度进行规划的能力,在过去6年里呈指数级增长。如果我们延续这种趋势,大约在5年内,人工智能就能达到一名员工在其工作岗位上的能力水平。

 

现在,这只是工程任务中的一类,还有很多其他事情很重要。例如,一个可能改变游戏规则的事情是,许多公司正致力于专注于人工智能从事人工智能研究的能力。换句话说,就是进行工程设计、计算机科学研究,以及设计下一代人工智能,包括可能改进机器人技术和空间理解。所以我并不是说它一定会发生,但是人工智能能够进行越来越好的编程和理解算法的领域,发展速度非常非常快。这可能会解锁许多我们不知道的其他东西。我们应该真正持不可知论的态度,不要妄下断言,因为那里存在很多可能的未来。

主持人:所以我们的共识在某种程度上是,我们认为未来就在今天,但永远不会有一个确定的时刻。今天你们各位的任务是帮助引导我们沿着这条路线前进,直到我们达到一个与这些系统并肩工作的程度。我个人非常激动地想看看我们将走向何方。如果我们一年后再做这件事,那将是一个不同的世界。非常感谢你们的参与,感谢你们分享的故事,以及感谢你们与我们共同探讨这个巨大的革命性时刻。谢谢。

1111

1

书享界保留所有权 |书享界 » 六位AI大神对谈:黄仁勋, 辛顿, 李飞飞, 杨立昆, 约书亚, Bill Dally

扩展阅读请点击
分享到:更多 ()

相关推荐

评论区 抢沙发

华为管理培训 · 数智化转型培训

服务案例联系书享界