

版权声明
来源:Web3天空之城(Web3SkyCity),书享界(readsharecn)
作者:埃里克·施密特,前谷歌CEO
2025 年12月2日,前谷歌CEO埃里克·施密特与哈佛教授格雷厄姆·艾利森在哈佛肯尼迪学院进行了一场对话,双方探讨了人工智能的未来、地缘政治竞争(特别是中美关系)以及亨利·基辛格的遗产。讨论涵盖了AI技术的演进(从语言到推理)、“旧金山共识”对通用人工智能(AGI)的预测、中美在算力与应用层面的不同战略路径,以及AI时代对人类能动性、制度和全球安全的挑战。施密特还就开源与闭源模型、AI意识、以及未来职场与社会结构的变化回答了学生提问。
主持人:晚上好,欢迎来到政治学院的约翰·F·肯尼迪青年论坛。我的名字是MoGungiGunjigunta,我是哈佛学院计算机科学和经济学专业的大一新生,也是肯尼迪青年论坛委员会的成员。在开始之前,请注意出口,它们位于论坛的公园侧和肯尼迪街侧。如遇紧急情况,请步行至离您最近的出口,并在肯尼迪公园集合。也请您现在花点时间将手机调至静音。
请与我一起欢迎哈佛学院的本科生MateoCagliero。大家晚上好。今晚,我非常荣幸地欢迎各位来到哈佛政治学院的约翰·F·肯尼迪青年论坛。我的名字是MatteoCagliero。我是哈佛学院大三学生,主修应用数学与计算机科学,辅修经济学。我是约翰·F·肯尼迪青年论坛学生委员会的成员。
今晚,我们聚集在可以说是人类历史上最关键的时刻之一。人工智能已从一个未来主义的概念演变为我们日常生活中不可或缺的一部分,它在悄然但深刻地重塑着经济、战争乃至人类社会的结构本身。
自核时代的黎明以来,全球稳定首次可能不仅仅取决于军事实力或经济权重,还取决于为在这项新技术智能领域中争夺竞争优势而展开的角逐。
总而言之,人工智能体现了我们以前从未见过的事物。知识产生方式的转变,决策方式的转变,以及最终人类看待自身在世界中地位的转变。20年后的社会会是什么样子?更重要的是,人工智能将如何塑造它?现在,为了评论这些观点,我很高兴地向大家介绍今晚的演讲嘉宾。
埃里克·施密特曾在2001年至2011年间担任谷歌的董事长兼首席执行官。今天,他担任相对空间公司(Relativity Space)的主席兼首席执行官。他是“创新实业”(Innovation Endeavors)的创始合伙人,并且是美国乃至全球人工智能和国家安全领域的主要声音。
格雷厄姆·艾利森是哈佛大学肯尼迪学院的道格拉斯·迪伦政府学教授,他曾担任该学院创始院长兼贝尔弗中心(Belfare Center)科学与国际事务主任。他还曾在第一届克林顿政府中担任国防部长助理,并荣获国防部杰出公共服务奖章。现在,话不多说,请大家与我一起开启今晚的讨论,并欢迎我们尊敬的嘉宾登台。
1
缅怀亨利·基辛格与跨代友谊
格雷厄姆:非常荣幸地欢迎我们的同事和朋友埃里克·施密特再次回到肯尼迪青年论坛,共同探讨亨利·基辛格、人工智能和未来。正如你们在这里看到的,这张埃里克和亨利的照片,他们是最好的朋友,这段友谊发展得比较晚,但变得非常深厚。在这段友谊中,埃里克慷慨地充当了95岁的亨利·基辛格的导师。亨利是在他讲完一个讲座的尾声时,听到德米斯·哈萨比斯(Demis Haseeb)开始谈论人工智能后,才发现人工智能的,他决定需要学习相关知识。
他给我打电话,我告诉他,亨利,别想了,你知道你没有任何科学和技术的背景。我告诉他,事实上,你都分不清芯片和薯片(potato chip)的区别。他说,那倒是真的,但是埃里克答应教我。
所以我们非常高兴他能来到这里。他去年来过这里。这可能已经成为一种年度传统了。亨利在上周去世了,距今两年了。
施密特:所以他享年100岁,回想这一百年真是度过了多么精彩的一生。
格雷厄姆:他是一个对美国国家安全和世界产生巨大影响的人,也对许多许多人的生活产生了巨大影响,其中一些人曾是他的学生,一些人曾是他的辅导老师,还有许多其他人。因此,埃里克已经介绍了。我想提醒大家几件事。
首先,我想说,埃里克是那位首席执行官,他带领谷歌从一个理念发展成为世界上的伟大公司之一,这真是一件了不起的事情。其次,他很早就将人工智能(AI)确定为未来的一个领域,并且谷歌实际上买下了他能找到的全世界所有的顶尖人才,包括深度思维公司(DeepMind),该公司随后为谷歌带来了德米特里·卡茨金(Demetri Katsim),他因在谷歌关于蛋白质方面的研究而获得了去年的诺贝尔奖。

穆斯塔法·苏莱曼(Mustafa Suleiman),他现在负责微软的消费者人工智能业务,是这次收购的另一部分,还有许多许多其他人。
关于埃里克的另一件事,以及为什么很高兴他在这里,是因为人们试图理解所有关于人工智能的说法。大多数声音最大的人都在推销自己的观点。
所以当我听山姆·奥特曼(Sam Altman)或Anthropic的人,甚至现在的穆斯塔法在微软谈论时,他们必须谈论他们公司的立场。
格雷厄姆:但你拿的是我的书。他们必须谈论他们公司的业务,谈论他们的未来。他们正在追逐他们认为是前所未有的、彩虹尽头最大的金矿。因此,很难判断他们实际上的想法是什么,以及他们正在说什么。
埃里克在这个领域已经可以说是晋升为政治家了,因为他曾在这个领域有重大的投入,但现在他退居幕后,尤其是在与亨利合作之后,他基本上是试图尽可能清晰、尽可能如实地表达他的看法。因此,我认为他是关于正在发生的事情更有价值的线索来源,胜过听取那些只顾推销自己的人的大部分言论。
我们先从亨利开始,然后我们将转向人工智能,之后我们将听取现场观众的提问。
格雷厄姆:埃里克,你在亨利的追思会上精彩地谈到了亨利对你个人生活产生了多大的影响,甚至影响了你提出的问题,那些你认为重要的事情。所以请多告诉我们一些亨利在这段关系中意味着什么。另外,对于那些没有机会认识他的人,他们如何才能领略到他的一点点魔力呢?
施密特:当我第一次见到,谢谢你,格雷厄姆,一如既往,很高兴来到这里。我认识亨利的时候,他已经八十出头了。通常情况下,八十出头的男士会变得有点不太对劲。他有多么睿智,给我留下了深刻的印象。所以我对自己说,他参加了第二次世界大战。他获得了铜星勋章,因为他们是犹太家庭,所以从德国移民或逃了出来。并且参加了战争,然后利用《退伍军人权利法案》来到哈佛,完成了本科和研究生学习,最终成为了这里的教授。
我试图弄明白,当他处于你这个年纪时,他一定非常聪明。并不是说当时那个建筑就存在了。所以这是他在哈佛读本科时的一段引文。引文是:在每个人的生命中,都会有一个时刻,他意识到,在他青年时代所有看似无限的可能性中,他实际上已经变成了一种现实。生活不再是一片广阔的原野,四处是森林、高山和诱人的景象,而是变得很明显,一个人穿过草地的旅程确实遵循了一条固定的道路。他再也不能往这边或那边去了,而是方向已经确定,界限也已划定。这就是他写下你这个年龄时所写的内容。
当他还是这里的本科生时,他保持着学院有史以来最长本科论文的记录。在他提交了关于康德和世界意义的本科论文后,他们制定了一条至今仍适用于你的新规定,即你的论文不得超过350页。供您参考。这是真的。
所以他显然是一位非凡的博学天才。对于亨利,除了,我真的非常关心他之外,我自己的解释是,看着他的家人,特别是他的父亲——我们对此进行了很多讨论——目睹纳粹掌权时,德国周围世界的毁灭。当他们逃离时,他看到了对他父亲和父亲思想的伤害。等等,亨利在战后决定尽他所能,避免未来的战争。
现在,你可以对他的所作所为提出异议或激烈争论,但你不能否认他的目标不是我刚才所说的。数据支持所有历史学家都同意这一点。你可以不同意具体的策略。但归根结底,他寻求的是一个没有第三次世界大战的世界。
并思考他在20世纪50年代和60年代所面临的问题。他过去常跟我说起这个小组,他一直认为最有趣的政策问题都发生在小团体中,这是麻省理工学院、哈佛大学和兰德公司之间的一次合作,他们在20世纪50年代初期发明了“相互确保摧毁”(mutuallyassureddestruction)。我说,我不知道,这个小组里都有谁?奥本海默,拜托,所有最有名的人。
所以他很幸运生在那个对的时代。他显然是当时在世的最聪明的人之一。他很幸运在家人和自己被杀害之前离开了德国。他很幸运能够享受到《退伍军人法案》(GIBill)。他有很多有趣的故事。
我最喜欢的一段是,有一天我告诉他,你得去看医生。他年纪大了。他说,好的。我说,我想让你去梅奥诊所。我说,好的。他是个纽约人。而梅奥诊所的人就像中西部人一样。说话轻声细语,和蔼可亲,不像那种很强势的纽约人。他去了梅奥诊所,回来后我说,我很喜欢那里。我说,你为什么会喜欢明尼苏达州罗切斯特市中心的梅奥诊所呢?他说,让我想起了战争。
我说,什么?他说,他刚到这个国家的时候,是不会说英语的。他曾在一家制造剃须刷的工厂工作。正如所有人预料的那样,他被征兵入伍,然后上了战场。他和一支来自威斯康星州的美籍团体一起。所以他将自己的身份归于那个群体,他几乎不会说英语,而且反正也没人能听懂他的英语,他将自己归类到那个群体中。
所以他有很多这样感人至深的小故事。我有很多关于他是如何成为美国人,以及他当然成为美国公民的类似故事。接下来的历史你们也都知道了。
格雷厄姆:嗯,我会说他是一个了不起的人。我有幸在这里选修了一门课程。作为一名学生。
施密特:那是什么样的情景?
格雷厄姆:1965年,天哪,由亨利教导,此后便一直是他的随行人员之一。
我认为关于他最让我印象深刻的是那种战略敏锐度,即有能力将一个问题提升到其360度战略挑战的整体层面来审视,然后找到政策进程可以被影响的切入点。
我曾为他的百岁诞辰写过一些东西,当时每个人都被要求写一点,一些东西,埃里克写了一些,我也写了一些,我说,真正思考亨利,他并非是,如果你想想,他经常因其现实主义,或者无情的现实主义或赤裸的现实政治而受到批评。但如果你看看他所做的事情,那并非是仅仅为了一个国家的利益而推行的赤裸裸的现实政治。他始终致力于构建一个可行的秩序,以防止灾难性的战争。他亲身经历了犹太大屠杀和历史上最致命的战争。
他预见到了一场可能真正将地球生命灭绝的核战争的前景。他身处于冷战之中,那是当时美国和苏联之间所见过的最激烈的对抗。他一直试图超越这一切,为美国找到一种生存之道。
以及对美国而言。为了全人类同胞。所以我想这就是他如何以一种间接的方式触及人工智能问题,对他而言,这只是另一代在某种程度上类似的问题。
施密特:嗯,他写过关于康德和意义的含义的本科毕业论文,当他去听德马斯(Demas)讲话时,他立刻就明白了。他立刻对自己说,这对人类存在意味着什么?我们今天正在努力解决他在我们首次开始这项工作时20年前就预见到的问题。在人工智能时代,做人意味着什么?做孩子、做成年人、做领导者意味着什么?这对经济学意味着什么?这对工作意味着什么?
所有这些。但他核心的论点是,这是一个史诗般的变革,意味着它类似于我们过去在科学革命等领域所经历的各种重大变革,因为我们人类从未有过一个非人类的、但智力水平与我们相当或更高的竞争者。而我们人类将采取什么行动是不可预测的。
他过去常说,在魔法中会发生的情况是,当人们不理解某事时,他们要么认为那是一种新的宗教,要么就会拿起武器。武器。所以你会说,我们是要对人工智能拿起武器,还是要把它变成一种新的宗教?我说,我希望是宗教。因为我想我能从宗教中受益。
2
旧金山共识与技术奇点
格雷厄姆:因此,在去年出版的、名为《创世纪》(Genesis)的书——那是埃里克(Eric)、亨利(Henry)和克雷格·邦迪(CraigBundy)在他去世前所做的工作——其中有一段话明确是亨利写的,书中说,引述,谈到美国和中国,如果双方都希望最大化其在人工智能领域的单方面地位,那么将出现人类前所未见的、由敌对军事力量和情报机构之间的竞争所构成的局面。今天,在首个超级智能到来之前的几周、几个月和几天里,一场关乎生存的“安全困境”正等待着我们。所以你已经将这种超级智能视为一种超乎我们想象的生存威胁。请多说一些。
施密特:我称之为旧金山共识。我称之为旧金山共识的原因是,旧金山的每个人都相信这一点。这可能为真,也可能不为真,但如果你去旧金山,相信除了他们通常的旧金山娱乐活动之外,他们都在做这件事。基本构建是,我们已经经历了一场语言革命。你明白,语言聊天,GPT,这里的每个人都知道那是什么。现在正处于地平线上的智能体(Agents),这些智能体能让你基本上实现任务自动化。
理解智能体的关键在于它们可以被串联起来。所以你可以做这个,然后做这个,再做这个,然后它们都被整合在一起。我为什么谈论智能体?因为我刚才描述了工作流程。而这正是企业所做的、大学所做的、政府所做的,等等等等。
然后下一个是推理。现在,推理是人类更高阶的功能,而推理革命才刚刚开始。截至今日,可以说适用于人工智能的规模法则尚未放缓。规模法则基本上说明了,如果你投入更多的数据、更多的电力和更多的芯片,你就会接二连三地看到这种涌现行为。你可以看到这一点,例如,刚刚发布的Gemini3击败了刚刚发布的OpenAI5,后者击败了刚刚发布的Claude4.5,后者击败了DeepSeek,因为他们反正都抄袭了,诸如此类。

所以它……以防你们没注意到,Jim和我三(指代Gemini3)来自谷歌。是的。我很高兴地说,在下一次到来之前,我们重新掌握了主导权。这是非常、非常具有竞争性的。正在发生的是,这些大规模的数据中心建设,顺便说一句,它们是美国经济的关键驱动力之一,不仅帮助提升了我们的经济,它们也在构建这类东西。与我全部的经验相比,这是一个全新的世界。
所以问题是,随着时间的推移会发生什么?所以你拥有语言、智能体和推理。嗯,这不是我们所做的吗?我们做事、我们交流、我们执行动作。因此,旧金山的共识是,在某个时间点,这些东西会汇集在一起,你会得到所谓的递归式自我改进。而递归式自我改进是指它在自行学习。今天,这已不再属实。今天,当你建立其中一个庞大的数据中心时,你知道它们是什么样子的,你必须告诉它要学习什么。
但人们相信,让计算机编写程序、生成数学猜想、发现新事实的能力正在到来,并且有大量证据表明它正在到来。看起来这非常非常近了。许多人相信,在未来一年内,将会出现用于设计的新数学、新的数学家,即人工智能数学家,供人们喜爱。
因此,我们作为一个行业,共同相信这很快就会发生。如果你问旧金山的人,他们会说两年,这真的很快了。如果你问我把它加倍到四年,这真的很快,所以它正在发生,而且发生得非常快。我希望,亨利当然希望,我们希望它能以美国的价值观和人类的价值观来构建。
在我看来,有一个临界点,我们对此进行了大量讨论,即某人需要站出来说,我们做得太过火了。这里的危险太大了。我们不希望将该年龄(权限)赋予计算机,我们希望人类负责管理它。关于那个临界点在哪里尚未达成一致,但我们的书花了大量时间讨论那个点可能在哪里。
另一个例子是,你发现计算机已自行决定获取武器的访问权限。这显然是一个,就像每个人都会同意的那样,不是一个好主意,人类拥有武器已经够糟糕了。想象一下如果计算机拥有武器,以及其遵循的标准是什么,你可以想到许多其他此类例子。根本上,是关于人类能动性的问题。
我们也花了大量时间讨论这对儿童的影响。我们正在对人类发展进行一项大规模实验,向那些可能还没有自我认同的年轻人(当然不是成年人),部署了这些极度令人上瘾的系统,无论是在iPad上、手机上还是其他设备上,他们很容易被操纵。
那么,一个最好的朋友是非人类的儿童意味着什么呢,除了可能成为一个超级书呆子?
但我不知道。这意味着什么?我们没有任何数据。我们不知道这对年轻的男孩和女孩意味着什么,对他们的发展意味着什么,对他们的人际交往能力意味着什么。他们最终会反叛,然后说,我只爱人吗?我讨厌电脑吗?孩子们会反叛的。我们只是不知道。
格雷厄姆:那么,你能切换到下一张幻灯片吗?对不起,我有遥控器,但我把它留下了。你们能让下一张幻灯片放出来吗?好的,谢谢。
所以在这里,就是所谓的“基辛格挑战”。这是亨利,1969年。尼克松在1968年当选,于1969年1月就任总统,任命时任哈佛大学教授的亨利为他的国家安全事务助理。正如你们在这里看到的,亨利写道,任何在60年代末上任的人,都无法不对和平所面临的空前严峻的挑战感到敬畏。
然后到最后一点,没有什么比防止核战争的灾难更重要的职责了。
因此,随着核武器的不断发展,这成为了他在冷战中面临的一个决定性的挑战,但正如引文所说,没有比防止核战争更高的职责了。
3
美中竞争与战略分岔
施密特:那么,当我们试图思考美国、中国和人工智能时,这在当前如何适用呢?嗯,我想说,没有什么比维护人类的能动性和人类自由更重要的职责了,我们集体最为珍视的事物。我想这对你们所有即将毕业的人来说将是一个核心挑战。你们所有人都将面临这些问题,它们是复杂而微妙的。
想象一下,如果互联网是由中国发明,并且它没有今天互联网所具有的那种开放性,而是处于中国的互联网之下。看起来中国正在推行与我所谈论的不同战略。在我最近一次访问中国时,我的行事方式是,我向工程师提出技术性问题,因为他们不会对你撒谎,而我对其他所有人则不那么确定。我最终弄清楚了中国人在做什么,他们真的非常专注于将人工智能应用于他们的业务。
他们将比我们更具竞争力。我们将输给中国,因为他们在每种产品中都惊人地采用了人工智能,他们只是不懈努力,工作非常刻苦。这被称为“996”,即晚上9点到,每周工作6天。顺便说一句,在中国是非法的。在美国也是非法的,但实践得却不少。他们来了。它们似乎没有像旧金山共识那样专注于超级智能和我在描述的路径,当然,这可能会改变。
所以看来这两者正在追求不同的道路。对于你们在研究生甚至本科生(考虑到这是哈佛)阶段的人来说,一个问题是开始弄清楚当这些分岔的道路遇到障碍时会发生什么,因为两者都有。一个例子是,在美国,我们基本上没有生产新的电力,因为提供电力非常困难。
中国拥有无限的电力,这要归功于他们在可再生能源等方面的巨大投资。他们在过去五年中建造了大约120吉瓦的新可再生能源,大概是这个数字。
格雷厄姆:在中国,每天,每天,电网都新增了一个吉瓦的电力,全年都是如此。
施密特:这相当惊人。在这里。每一天。所以我的观点是,顺便说一句,举个例子,一个核电站大约有多大,1.5吉瓦?再次使用这些数字,这就是中国正在发生的电力革命的规模。我们在美国建了多少这样的电站?零。而且我们肯定正在因为这里所有人都知道的原因,在可再生能源竞赛中输给中国。
所以他们拥有很大的电力,我们没有。我们有很多芯片。他们没有。这为竞争奠定了基础,而每方都会追求不同的道路。其中一个技术问题,有一种叫做“扩散”的东西,你所做的就是拿一个非常强大的模型,我们以目前的顶尖模型Gemini3为例,你向它提出一万个问题,然后取其答案,系统就可以从这些问题和答案中学习到足以模仿的程度,而无需承担进行大规模训练的开销。那个大模型。
再次思考中国将要采取的战略以及美国可行的战略,可能非常重要。有趣的是,这两个国家都依赖私营部门来完成这项工作。在亨利那个时代,你可能会认为会动用政府的力量。但事实上,我们的政府无法这么快地推进,补偿制度等等也是如此。事实证明,这对中国人来说可能也是如此。我不确定在安全层面这是否属实,但我没有在中国发现任何大型、奇怪的曼哈顿计划式项目,尽管许多私营公司的人员都在为国家安全而努力。
格雷厄姆:那么就人工智能这个总体话题,请告诉我们,花一两分钟时间,最让您兴奋的、在未来一、两年、三年的可见范围内,有哪些积极的方面?
施密特:嗯,第一个问题是,为什么会出现这种疯狂?这一定是泡沫,而且它将会破裂。不,这不是泡沫。恰恰相反,它被低估了,因为你正在从根本上实现业务的自动化。人们投入这笔巨额资金的原因是为了自动化他们业务中无聊的部分,或者他们认为重要的部分。无论是账单、会计、产品设计、交付、库存、管理还是其他任何方面,人们都在对其进行自动化。那里有很多东西。想想医学。想想气候变化、工程学、新科学。这很非凡。
格雷厄姆:那么,在你看来,哪些是你能预见到而我们其他人可能看不到的事情最让你兴奋呢?我们都能在自己的想象中看到我们对它的看法。然后我们会听听埃里克怎么说,是的。
施密特:当我开始时,在我上高中的时候,我是个早期程序员,我喜欢编写代码。当我上大学和研究生院时,我那时只想做那件事。我忽略了所有这些历史方面和类似的事情。那时我就是书呆子的代名词。而我在20多岁时所做的一切,那些让我走到今天的位置的事情,现在已经完全自动化了。我所做的编程的方方面面,设计的方方面面,现在都由计算机完成了。
我最近让它为我编写了一个完整的程序,我坐在那里看着它生成类和交互的细节等等,心想天啊,我的时代结束了。我想,我从事编程已经55年了,亲眼目睹一个从开始到结束的过程发生在自己眼前,而自己还活着,这真的非常深刻。我现在可以说,计算机科学不会消失,计算机科学家——至少在他们被取代之前——将负责监督这一切。但是,这些系统所能做到的代码生成能力是革命性的。
这意味着你们每一个人口袋里都有一台超级计算机和一个超级程序员。现在,这里没有人是恐怖分子,使用负面例子总是更容易。有很多,我用一个刻板印象来说,就是一些住在地下室的年轻人,他们的母亲给他们送食物,然后他们就沉浸在相当于加密货币、4chan、偏执狂,随便什么,任你选择的环境中。
他们都有能力使用这些工具来构建极其强大的系统,网络攻击,其他事情,随便他们关心什么。有一些证据表明,我认为是曼乔内(Mangione),那个杀了保险高管的家伙,对这些东西很着迷。有些人正在研究他的一些著作,当然他现在在监狱里,但表明他受到了某种影响。现在,我不是在证明因果关系。但这正是人性中最黑暗的一些角落的写照。
你把这类工具交给那些人。我们必须做好准备。现在,业界对此非常清楚,我们正在努力解决这个问题。防御系统能够正常运作这一点非常重要。顺便说一句,人工智能的最终解决方案是人工智能对抗人工智能,即好的对抗坏的。这就是它(解决之道)的全部意义所在。
4
开源、闭源与未来战略
格雷厄姆:好的,请能放下一张幻灯片吗?我想问一下您如何看待中美在人工智能领域的竞争。如果幻灯片不够清晰,我深表歉意,但它表明,如果我们看一系列指标,你会发现24年1月的表现差距比现在要大得多。我们如何解读这一点,以及我们如何解读可能的未来走向?
施密特:所以图表是正确的,但受此影响的人声称这种情况不会持续太久,因为推理革命需要大量的芯片以及旧金山那些人所发明的许多“魔法”(此处“魔法”指核心技术),并以此为代号,他们认为差距将会扩大。我自己的观点是差距会扩大,但原因不同。我认为中国的主要关注点,如我所提到的,是将人工智能嵌入到万物之中,如智能烤面包机、汽车等等。
他们的进展速度比我们快得多。我认为绝大多数人形机器人将由中国人工智能提供动力和制造,原因很简单,因为他们知道如何降低成本。他们的供应链令人难以置信。他们的成本控制,他们工作非常努力,诸如此类,所有这些都算在内。所以我的猜测是,差距可能会扩大,但这才是真正的问题,作为消费者,你最终会因为一个中国产品而不是美国产品获得更好的体验吗?答案是,从装配和光洁度来看,可能中国的产品会更好,这一点令人担忧。
格雷厄姆:所以让我再深入探讨一下这个问题。所以人们正在就半打左右的问题下注,而你已经对此进行了深入的思考。一个问题是,我们是会押注于计算机芯片、堆栈还是大脑?另一个问题是,我们是会押注于封闭系统还是开放系统?
还有一个问题是,我们是会押注于在通用人工智能(AGI)还是扩散模型和应用方面努力?

施密特:所以如果你看看这个光谱,如果我看中国的那一部分,DeepSeek认为,200个有头脑的人就可以拥有一个成本仅为OpenAI千分之一的推理机器。现在,来自同一领域还有其他六条小龙正在出现。所以这一点让我感到担忧。关于封闭与开放,如果我没记错我们上次谈话的内容,你几乎得出结论,开放最终会变成封闭,但我们所有的公司都是……大多数是封闭的。那关于这一点呢?第三,也许如果出现了这种通用人工智能(AGI)的突破,所有其他事情都将不再重要。
但如果扩散和应用已经在其他领域发挥作用,那么这只会让我们在竞争中再进一步。
扩散指的是,我回顾一下,扩散本质上是指许多对(数据)进行学习,并像我们讨论的那样进行学习。我个人的看法是,我不太确定,但我认为,那些大公司最终不会发布它们最大的模型。这样做太危险了,所以它们会对其进行子集化。我就会这么做。现在,我假设他们会做出那个决定。
我认为最有趣的问题是开源与闭源。对于那些没有这方面背景的人来说,开源,开放权重。开源是我几十年来一直从事的工作,当你使用任何形式的计算机时,你使用的许多软件都是由开源开发的,这意味着源代码被公开发布,人们会共同推动其发展。围绕此有一个完整的运动,我就是其中一员。因此,在我看来,我坚定地支持开源。
大型公司大多出于经济原因而采用闭源模式。基本上,如果你从金融市场借款500亿美元,他们希望收回本金,而你却告诉他们,‘顺便说一句,我们要免费发放所有模型’,你可能无法获得回报,这可能不是一个很好的法律或财务策略。因此,美国的模式似乎演变成了闭源模式。奇怪的是,中国的模型是完全开放的,权重开放,源代码开放。
为什么?我不知道。一种可能的解释是,中国政府已经意识到他们在闭源竞争中处于劣势。得不到硬件。而开源,因为它免费,可以实现技术的广泛传播。因此,开源和权重开放的后果之一是,地球上绝大多数人将使用中国的模型。为什么?因为它们是免费的,而且大多数国家负担不起计算能力和数据中心等等。他们只会免费获取中国的模型并将其嵌入使用。
现在,这算是一个问题吗?绝对是。因为它带有中国的价值观、中国的培训、中国的偏见等等。我们更希望它是美国的。我们将拭目以待。在美国有一些开源项目是我支持的,但它们无法从公开市场筹集到所需的100亿美元才能达到它们的目标。所以它们是瑰宝,但尚未达到规模。我主张美国政府应该帮助资助它们。我主张慈善家应该帮助资助它们,但我真的不确定。
格雷厄姆:好的,这非常有帮助。那么最后一个问题,然后我们将听取观众的提问。如果你要挑选两到三个问题,供对人工智能和地缘政治这一领域感兴趣的研究生或本科生思考,你能否给出两到三个问题,以便你下次来时,我们能请到一位对这些问题有所解答或部分解答的人来谈谈?
施密特:所以有几个,嗯,再次说明,我们这里面对的是世界上一些最聪明的人。那么第一个问题是,在人工智能时代,成为人类意味着什么?这是一个可以写多篇博士论文的问题。所以基本上,研究历史,研究哲学,研究人们如何工作,研究经济学,然后弄清楚这项新技术将要做什么。在我的行业里,因为我们没有上过这些课程,我们总是忽略这些事情,你们有能力以某些方式回答这些问题,如果我们偏离了轨道,也许可以用这些来提醒我们。
第二个问题与中美之间的竞争有关。为什么是中美?只有这两个国家会产生影响。原因在于你需要巨额的资金和庞大的人口。尽管我很喜欢欧洲,但欧洲没有组织起来,没有足够的人口,没有足够的资金来做到这一点。印度目前还没有足够的组织能力来做到这一点,尽管他们正在努力。而且大多数其他国家没有足够的资金,没有足够的人才,没有合适的大学,等等。
那么第三个问题更多地与冲突有关。在一个拥有人工智能的恐怖分子,以及拥有人工智能的政府的世界里,冲突会是什么样子?针对一个大国的恐怖袭击会是什么样子?显然,我不是在提倡或支持这种行为。这是一件可怕的事情。我们如何防范它?中国与美国的冲突也是如此。但俄罗斯与乌克兰呢?欧洲与某方的冲突呢?试图理解在人工智能驱动一切的算法战争中冲突是如何展开的,这是一个非常、非常富有成效的研究和新思想领域。这只是刚刚开始。
格雷厄姆:这是大家在此期间可以着手研究的好课题。我们从这里开始。请做个自我介绍并提一个简短的问题。
5
观众互动与深入问答
观众:大家好,我叫特蕾莎。我是加拿大这所学校的二年级学生,正在上艾莉森教授的国家安全课。我们在一堂课上讨论了网络安全,以及支撑美国国土安全部的大部分技术。都是由私营企业掌握的。那么,您认为哪种治理模式能真正帮助协调政府和私营公司,尤其是在发生类似人工智能类型的紧急情况时?鉴于我们经常谈论美中竞争,尽管存在技术和投资方面的竞争,但政府模式也存在巨大差异。那么,您认为这两种治理模式在哪些方面会产生影响呢?在国土安全网络危机方面。
施密特:嗯,首先,我认为在特朗普政府的领导下,我们不会看到对人工智能进行太多监管。这一点相当明确。在中国,似乎是允许这些公司为所欲为。尽管他们有关于各种事务的法律,但他们似乎没有在执行。所以看起来这是一场全面爆发的商业冲突。
我最大的担忧是网络攻击。如果你能像我所见到的那样编写代码,而且我的世界里的每家公司现在都将程序员和人工智能程序员结合起来使用。这非常非同寻常。这发生得非常快。看看ClaudeCode,比如最新的它目前处于领先地位,来自Anthropic公司,还有其他一些正在赶上。当然,Gemini声称它有竞争对手,但目前来看,ClaudeCode略胜一筹。
如果你会写代码,你也可以编写网络攻击,因为目标函数很简单。就是不断地写代码,直到你把某样东西搞坏为止。如果你有足够的硬件和足够的能源,你就可以一直这样做下去。我认为未来将会有更多更多的网络攻击。而且,这不一定来自政府。也可能来自恐怖分子和邪恶组织。我认为为这种情况做好准备将是我的首要关切。
观众:感谢您的到来。我是大卫·魏德曼。我是MPP2。您提到了当前闭源模型的强大之处。如果我说错了,您可以告诉我。我认为开源模型比当前的闭源模型落后大约半代。将开源与闭源的对抗定性为美国与中国之间的问题,可能有点危险。我的担忧是,您提到的那些硅谷人士正在寻求监管俘获,这就是他们想围绕开源模型散布恐慌的原因。如果我们寻求对闭源模型实施禁令,在全球范围内建立这项禁令需要做些什么?
施密特:我想我不同意您的问题,我很抱歉。我看不到美国在开源方面的领导地位,而我只看到了中国在开源方面的领导地位。我认为那是事实。所以我认为在开源方面不存在监管俘获。而且我认为,再说一遍,在特朗普政府的领导下,你不太可能看到对闭源公司进行重大监管。
但如果你理解我的意思,我认为闭源决策在很大程度上是由经济驱动的,而非政策驱动的。从字面上讲,你根本做不到,想想这些东西的成本。我们谈论的是100亿、200亿美元。如果没有这个(资金),你将如何筹集这笔钱?
格雷厄姆:而且我认为,埃里克,这回到了,如果我们正在列出我们要问的问题清单,我会补充一点:融资考虑因素如何影响战略选择?因为如果这仅仅是由于财务结构上的一个偶然巧合,那并不一定能反映国家利益。那将仅仅反映现有的资本市场。
施密特:我认为重要的是要承认,美国拥有迄今为止世界上最非凡的资本市场金融体系。我认为,交易量的60%和价值美元的90%等都在美元计价。因此,那些非美元计价的国家确实畏惧这个金融市场的力量。我们在筹集资金的能力上看到了这一点。

当我访问中国时,与我的朋友交谈时,这一点非常清楚。他们无法接触到如此深度的金融市场。他们实际上拿不到资金。三年前相比,中国的风险投资融资额减少了五倍。现在有很多原因,不只是我们世界,也不只是美国。但如果没有这种资本获取渠道,开发这些大型模型将非常困难。需要进行复杂的训练。
现在,你可以想象我所说的一切都会随着底层算法的改变而改变。有人正在研究新的、成本更低的非Transformer模型。许多人对人脑的能源效率与这些数据中心的成本进行了比较。相信我们的大脑很复杂,但它们并不耗费太多能源。可能又会出现一项突破,从而改变我们正在讨论的这种计算模式。请说。
观众:我叫法琼·塞迈亚库(FationSemayaku),是哈佛肯尼迪学院的MCMPA学生,来自阿尔巴尼亚。在人工智能时代,您和基辛格博士描述了一个人工智能系统开始为我们解释现实的世界。如果人类的战略判断,哪怕是微妙地,被机器生成的框架所塑造,那么全球事务中的责任之锚又将落在何处?换句话说,当一个受人工智能影响的决策产生现实世界的后果时,谁来承担道德责任——是采取行动的人类、部署该系统并影响了认知的机构,还是算法本身?而且,民主国家应该如何在这种模糊性成为地缘政治弱点之前重塑其制度?
施密特:一个措辞非常精妙的观点。所以我担心民主的未来是不确定的,仅仅因为,或者举一个美国的例子,我们相信言论自由,我当然支持美国绝对的言论自由,但我不支持增强的言论或算法言论。那么界限在哪里呢?如果我说了一些错误的话,然后算法因为我的主张很离谱而决定将其广泛传播,这在民主社会中是恰当的吗?
你可以想象,我再说一遍,我不是在搞党派之争。我认为政治体系中的任何一方都可以利用这一点达到任何效果。现在生成人们深信不疑的虚假信息的能力变得如此简单,我希望答案是人类能够接受更好的教育和批判性思维。
但你可以想象,如果我是一个邪恶的人,我希望我不是,我坐下来开始向每个人灌输我特定的、独特的信息,我可以通过无情的复制和重复来压倒你对真相的信念。我们知道存在一种所谓的锚定偏见。如果你先听到某个信息,你就会以此为基准进行判断,所以如果我设法先让你知道大楼着火了,尽管它没有着火,我也不是在犯罪。如果我能先让你接收到这个信息,你就会从那个点开始锚定。
你看到了这里的危险。这是非常真实的。我认为,回答你的问题是,每个民主国家都会面临这个问题,而且我认为民主国家将根据文化价值观和对威胁的理解做出不同的决定。你不会看到民主国家有一个统一的答案。
观众:非常感谢您今晚莅临此处。我叫埃莉诺·克兰(EleanorCrane),是贝尔福中心的研究员。所以我想问,首先,您能否就像您我这样的普通人在人工智能的非常长远发展中的作用发表评论?我们的作用将变成什么?而且,我们经常因为价值体系的原因,将中美之间的争论定性为一种竞争。但从协作的角度来思考这件事是否有价值呢?也许更有趣的是,您提到欧洲可能有些杂乱无章,但他们也拥有巨大的实力和巨大的人才。比如法国的明斯特拉(Mistral)等等。在那方面与他们进行协作是否有所作为?
施密特:所以有几点评论。关于欧洲,我是Mistral的第一位投资者,所以我非常看好Mistral。Mistral无法像美国那样筹集资金。他们有同样的问题,并且正在努力寻找解决方案。
关于美国和中国,因为亨利的原因,我花了大约五年时间研究中国的同业竞争。
我曾认为有可能与中国走得更近。后来,通过他的工作以及其他人的努力,我发现中国人比我们更害怕与我们竞争或合作。舞蹈需要双方配合,我认为这是极不可能的。我希望在你们有生之年能明白我们必须共存,但由于显而易见的原因,这两个体系极不可能成为最好的伙伴。
我想谈谈关于人类在非常长远来看有什么用处这个问题。非常非常清楚的是,人类是社会性动物,希望和其他人在一起。同样非常清楚的是,我们有一些必需品,比如医疗护理等等,将由人类提供。我认为,用一种比较粗略的方式来说,大多数其他职能都可以由计算机来完成。我们会允许它们这样做吗?那是你的研究要解决的问题,那条界限在哪里?
我以前的例子是这样的。那时候我在谷歌构建Waymo。所以这个思想实验是,纽约市除了Waymo和竞争对手的自动驾驶汽车之外什么都没有。而谷歌和其他公司的工程师已经找到了完全优化交通的方法。那些街道是不会改变的。你拥有每条街道上绝对数学上真实的最高负载,而且它是无缝的。然后你有一个紧急情况,一个孕妇,随便什么,她必须去医院,需要一个例外。车里是否有例外按钮,上面写着你必须违反所有规则,因为发生了什么事情?
施密特:现在,如果车里没有例外按钮,那就是计算机对人类的支配。而人类将会反抗。如果我回到镐头与宗教的对比,人类会反抗的。这将被视为政府的压迫,在这种情况下,是纽约市的市长,无论你想用什么比喻,以及计算机公司本身。
如果系统另一方面能够适应人类的需求,并说,啊,我们有实际的医疗紧急情况,而不是有人吸毒或者随便什么人在胡闹,或者某个孩子在玩弄按钮,它会进行推理,然后说,我的天哪,我必须尽一切努力将这个人送到医院。那么它就会被更广泛地接受。因此,这很大程度上取决于它是否能与我们的人类经验和需求相结合。它会限制我们的自由,还是会增加自由?
我已经得出了一个看法。我现在年纪大了,相信维护我们的自由,我们思想、行动、集会、聚集的自由,所有这些事情,真的,真的非常重要。如果它们侵犯了我们的自由,那么它们必将遭到反抗。而我将领导这场斗争。
观众:我叫伊尔玛·阿夫罗斯,我来自印度。你在谈话中提到了印度。我很幸运能成为埃里森教授的学生,并向他学习。我的问题是如何将美国和印度结合起来。印度拥有一些非常优秀的人才。我们如何才能将我们两国联合起来,以创造一个民主蓬勃发展的世界,并且这对我们两国都是一个双赢的伙伴关系。
施密特:我非常同意。我在印度待了很长时间,而且确实,由于印度的信息技术人才(IATs)和人才质量,印度的天赋深度是非凡的。然而,计算能力的深度却不是。去年,我们做了一个估算。对于10亿人口的整个国家来说,只有大约1000个图形处理器(GPU)。因此,我和其他人已经组织起来试图解决这个问题。
所以我对最近的贸易战感到警惕,我认为那次贸易战让印度和美国都倒退了,这个问题需要得到解决。我不理解贸易战,我的立场是这正在伤害我们。印度是我们的天然伙伴,它是一个民主国家。它是一个混乱的民主国家,但我们也是。在硅谷,与我共事的多数人都是。基本上是南亚血统,来自印度或一些其他国家。所以至少在硅谷,印度人正在蓬勃发展,我希望与他们实现最紧密的融合。
格雷厄姆:谢谢。
观众:请说。我叫乔希。我是肯尼迪学院的一名MPP2(二年级公共政策硕士)。埃里克,您早些时候概述了两种国家战略:推进前沿技术或推行应用普及,但理想情况下您希望两者兼顾。那么,我们来谈谈在美国的采纳情况。目前,企业采纳的主要障碍有哪些?这会因行业而异吗?政府应该做些什么来帮助解决这些障碍,如果有的话?
施密特:政府通常在这方面做得不太好。业界认为存在一种叫做“技术积压”(technologyoverhang)的现象,即我们——你们友好的业界——已经开发了比你们使用更多的工具。这是我们的看法,它是否属实可以再讨论。而且很多问题似乎是技术采纳的准备度,以及大部分这些东西都是软件,很抱歉这么说,但大多数公司都没有很好的人才,还有内部所需进行的变革。

我个人相信,这项技术的采纳问题只是一个暂时性的问题,随着新首席执行官的上任和赢家的出现,美国非常高的竞争压力将促成这种采纳。在受监管的行业中,你很少看到技术被采纳,因为监管被用作不创新的借口。但在那些硬核的、具有创新性的行业中,我认为这个问题会得到解决。但总的来说,我的观点是,我不希望政府做太多事情,因为我不认为那会有帮助。
有帮助的将是让每家企业都明白,如果它们想要赚钱(这是资本主义的愿景),就需要更深入地使用人工智能。请记住,你可以通过人工智能来定位你的客户、服务他们、了解他们、与他们交流等等。这其中有很多负面问题,例如,它可能导致公司裁员。有很多低端工作岗位被计算机取代的例子,这显然是工作岗位流失。这是一个社会问题。但从采纳的角度来看,答案只是时间问题。
观众:我是计算机科学专业的一名三年级博士生,研究方向是人工智能。我的问题是关于您刚才提到的中国对企业人工智能自动化的强烈关注。我猜在硅谷,似乎每天都有新的初创公司出现。都是大型种子轮融资,目标是针对工作流程的某种自动化。我们也有那种朝九晚九到朝九晚六的潮流。您认为中国人工智能自动化业务中有一个关键的区别点是什么,是您认为美国需要迎头赶上,或者至少是现在的硅谷初创公司需要追赶的方面吗?
施密特:您的博士课题是什么?
观众:我研究的是大型语言模型的推理能力。
施密特:太棒了。
观众:那么您对通用人工智能(AGI)的时间预期是多久?我估计大概需要六到七年。
施密特:您看,这不是旧金山的共识,而是东海岸的共识。很好。我们拭目以待。您可能是对的。我认为那个……我想,这与这些梦想的宏伟有关。当我在中国时,我听到的言论与在加利福尼亚听到的不同。在加利福尼亚,人们说两年内世界就会改变,没人准备好,事情发展如此迅速,诸如此类,正是这种言论在驱动,而且是自我复制的,它是一种信仰体系,就像一种宗教。
现在,它总是比梦想家们说的要花费更长的时间。我在中国听不到这种说法。这有明显的不同。
施密特:举个例子,关于推理能力,你知道Deepseek在R3上做了什么。他们做了一项了不起的工作。他们发明了一种新的有监督的微调方法。真是非常非常聪明的做法。你只是在国家层面上听不到这种声音。顺便说一句,DeepSeek是中国的国家级佼佼者。他们现在确实,他们已名列著名公司名单之列。他们正在获得巨额资金。上次我和他们会面时,他们说,我们已经解决了我们的硬件问题,而“硬件问题”的暗语就是政府。他们只是会给他们大量的芯片。没错。欢迎来到一个共产主义国家。
格雷厄姆:好的。那么,这位女士,请到这个频道来。
观众:你好,非常感谢你的到来。我是索尼娅。我是工商管理硕士和政策学院的双学位学生。这可能是一个稍微更离奇和开放性的问题,但你谈了很多关于成为人类意味着什么,我认为其中很大一部分就是意识。我很好奇,当我想到意识理论时——这些理论显然定义得非常模糊不清——人工智能正越来越多地触及这些理论的边界。因此,如果说有什么需要,那就是我们需要一场关于我们如何思考意识的革命。
施密特:但我很想知道,您如何看待人工智能中的意识,以及您是否认为人工智能有可能已经或将会变得有意识,那会是什么样子,以及在这种情况下,模型的福祉会是什么样子?让我问,让我问你一个简单的问题:我们假设,我将把格雷厄姆算作有意识,作为回报,他似乎有意识,作为回报,格雷厄姆会把它给我。为了论证的目的,电脑就在桌子上,我们问电脑:“你有意识吗?”它回答:“是的。”那么,你这位哈佛聪明的研究生,请想出一系列问题。
它能正确回答所有问题。我们怎么知道的?你怎么能知道这台计算机是有意识的?你如何理解它的内部推理状态?现在,你可以探查它推理工作的方式,人们现在正在这么做。他们所做的是观察权重结构中所谓的超级节点,以观察它是如何实际做出这个决定的。
所以也许你可以通过检查来发现意识,但这只是推测。所以我与一些神经科学家坐下来,因为我不知道这个问题的答案。我问,意识是如何演化的?他们的理论,也仅仅是一个理论,是当异构系统协同工作并不断发展,并对彼此产生感知时,意识就会演化,人类意识之所以演化,是因为我们需要理解我们是某种存在,本我(id)、自我认同(identity)等的产生,对于控制这个系统是必要的。
现在,这没有办法证明。所以答案是,我不知道。但这向在场的各位提出了第四个需要思考的问题。这里有两个问题。第一个,它是如何运作的?第二个,你如何验证它?
格雷厄姆:我不幸地肩负着宣布我们已到最后时刻的责任了。你想再待五分钟吗?再待五分钟。我答应过你的,我答应过给你安排日程的人,我会让你脱身的。所以请。简短的问题和简短的回答。
观众:好的,谢谢你,埃里克。我是来自哈佛商学院的索恩,一名二年级学生,在攻读工商管理硕士之前,我也有国际关系背景。您是否确信需要一个国际原子能机构(IAEA)级别的国际人工智能机构?所以我的问题是,美国国务院、五角大楼以及类似机构需要如何调整自身,为即将到来的超级智能时代做好准备?我的第二个稍微带点风险的问题是,如果您今年夏天或冬天正在寻找人来协助您研究这个课题,我将非常乐意效劳。
施密特:我喜欢有勇气的人。那么关于国际能源署(IEA)的问题。有一群非常亲近我的人得出的结论是,我正在回答的这些问题的唯一解决方案是建立一个相当于欧洲核子研究中心(CERN)的机构。这个想法是,我们所有人,包括中国,包括每个人,都聚集在一起,把所有资源都投入其中,汇集所有顶尖的头脑,共同致力于此事,从而建立一个伟大的未来,因为这对人类的好处是如此巨大。
开始考虑消除所有疾病,解决我们面临的真正棘手的问题。我们有梅根在这里,她专精于能源问题,以及所有这类事情。我认为这可能相当……你可能会说,这可能相当不可能发生。然后下一组人说,那么我们需要一个国际原子能机构(IEA),它本质上是一个针对核能的强制性检查小组。进入这种情景,你需要去,这个小组将访问每个国家每家公司的数据中心和算法。
现在,请记住,维也纳小组是在经过15年的谈判(包括像亨利这样的人)以及在广岛和长崎投下两枚原子弹之后才发生的,这两次事件的恐怖性我们都可以同意。我们还没有遇到过这样的例子。我知道有些人会说以下这些话,他们说这话并非出于恶意。他们说,我们不会,我们将发生一个事件,迫使实行这个国际原子能机构的事情,而我们希望那是一个切尔诺贝利级别的事件。
我说,那意味着什么?他们说,没有那么多人死亡,与核攻击相比。因此,在我所处的圈子里,存在一种与此一致的思维倾向。但我认为,首先,我认为没有人知道。而且,在出现真正的危机之前,各国不太可能容忍这种情况。我以前说过,在气候被破坏、地球融化、海平面上升的20年后,将会召开一个所有大国齐聚的会议,人们会在会上说,我们真的把事情搞砸了,现在我们必须修复它。
所以我想,对于一个全球性的挑战和解决方案来说,是存在先例的,但过程非常混乱。它不是理性地完成的。它不是像你我双方达成一致那样。必须存在某种危机和某种政治动态,而且情况可能会相当严峻。
格雷厄姆:让我们为下一代创造一个机会。让我们赶紧把这件事办完。要问那三个问题吗?只问你的简短问题。我们请埃里克来总结陈词。
观众:您好,感谢您抽出额外的时间。我叫凯文。我是法学院二年级的学生。我的问题是关于自动化和就业的。几个月前,萨姆·奥特曼接受采访时说,他暗示如果某件事可以被自动化,那么它可能从一开始就不是一份真正的工作。我想听听您对这个说法的看法,以及您是否同意这个前提,即如果某件事可以被自动化,它是否应该被自动化?另外一个相关的问题是,如果您不同意,我们社会有哪些方式可以决定我们应该自动化什么、不应该自动化什么?
格雷厄姆:好的。请讲,菲茨。
观众:晚上好。我叫格里斯亚姆。我是中级职员,公共事务硕士。而且我曾是谷歌的员工,所以很高兴见到您。我的问题是关于算法外交的。就像基辛格博士过去常说的那样,建设性的模糊性和人类的停顿是绝对必要的,但是当人工智能是二元的,我们是否正走向一个冲突升级在计算上变得不可能的世界?这是否会推动一种我们可以更加努力推进的新算法外交?
观众:谢谢。我叫卡尼什。我来自哈佛商学院。我的问题是关于伦理超级智能的。首先,你为什么不相信如果美国开发出超级智能,其他国家(比如中国Deepseek上做的那样)也会跟随并能够复制它?其次,如果我们试图为其注入伦理,那么如果其他人提出了一个不讲伦理的超级智能,它难道不会比美国试图开发的受约束的超级智能模型更自由、能力更强吗?
施密特:抱歉,你刚才对你的问题再说一遍好吗?
观众:我想问你对萨姆·奥特曼(Sam Altman)引言的看法。谢谢。
施密特:是的。处于这个层面的人们常常忘记的一点是,人的尊严包含着目标。而大量的职业为许许多多的人提供了目标。这些职位的消失是一场巨大的危机,不是在财务上,而是在情感上,在意义感方面。因此,为了让我们度过难关,我们将不得不解决这个问题,我们将不得不真正做正确的事情。而正确的事情将是更好的工具等等的某种组合。
我对就业问题没有那么担心,因为我们正在制造更少的人类,而我认为这是一场重大的危机。总的来说,你们这一代人生的孩子比我这一代少,而我这一代人生的孩子又比我父母那一代少,以此类推。我们需要更多的人口。部分原因是我是个商人,所以你需要更多的顾客。但重点是我们现在需要更多的人力。如果我们的人力减少,那么就会出现空缺的职位,没有人来填补它们。人工智能可以帮助那些尚未准备好从事某项工作的人,让他们做好准备。
观众:你对未来谷歌员工(Googler)的寄语是什么?不,是算法、外交、算法外交和计算。
施密特:在你问题的预设前提中,你将算法描述为二元的。如果你想到1971年基辛格提出“战略模糊”时,你认为一两年内计算机能否发明“战略外交模糊”,考虑到它已经被实践过了?我认为答案是肯定的。我认为算法正变得越来越智能,只要这是一个过去就存在的概念,它可能就能想出应用它的方法。我不同意你的看法,认为它像你的问题所暗示的那样是二元的。
超级智能。我认为是一样的。回答,某种形式的超级智能将会出现。我自己的观点,这可能与共识不同,是我们将会开发出杰出的人工智能物理学家、杰出的人工智能生物学家、杰出的人工智能化学家、杰出的人工智能作家、杰出的人工智能历史学家。但是那个概念,以及将驱动它们的系统,如果你在1902年是爱因斯坦,拥有当时可用的数学知识量,你是否会有那种智慧去利用今天的算法发明狭义相对论,这一点也远非显而易见。
在业界有一种观点认为,这是下一个真正难题。对此有各种各样的理论。一个答案是你可以只做重复。你可以不断地提问,就像猴子敲击键盘那种方式,最终你会做到的。另一种方式是你可以将优化函数设置为好奇心,如果你等待足够长的时间,它就会发现狭义相对论。
但爱因斯坦不是这么做的。爱因斯坦在17、18岁时,点着灯,拿着他的小笔和纸,想出了这个理论。我们还没有达到那个阶段。我个人的看法是,那将是一个非常难以逾越的界限。换句话说,我们将达到超人行为的水平,这与超级智能不同,而后者,我会说爱因斯坦以及其他一些人已经实现了。等等,他们确实做到了。格雷厄姆,能和您在一起是我的荣幸。
格雷厄姆:非常高兴您能来这里,我们期待您再次光临。让我们一起说声谢谢吧。感谢大家。

书享界保留所有权 |书享界 » 前谷歌CEO施密特:我们将输给中国,他们把AI用在了所有产品里
书享界