首页资讯

辛顿、闫俊杰WAIC完整演讲:一个预警,一个拥抱

时间:2025-07-28 05:17 作者:草莓饭团

辛顿、闫俊杰WAIC完整演讲:一个预警,一个拥抱

文|王方玉

编辑|苏建勋

7月26号,世界人工智能大会WAIC的开幕主论坛上,多位AI行业的顶级大咖出席并发表演讲,为与会者烹饪了一道学术大餐。

“深度学习教父”、图灵奖、诺贝尔奖得主杰弗里·辛顿(Geoffrey Hinton)是最受关注的演讲者,他真人出席,发表了名为《数字智能是否会取代生物智能?》的演讲。这也是他在中国的首次公开演讲。

大会前夕,辛顿和全球20位人工智能领域的顶级专家,刚刚在上海签完人工智能安全的“上海共识”。他的大会发言,同样也围绕人工智能安全为核心。

辛顿首先回顾了从早期模型到现代大语言模型的发展历程,并指出大语言模型已经实现了对语言理解的深度模仿,这与人类理解语言的方式是相似的。

但不同的是,AI系统具有“永生性”,且机器之间知识的复制可以在极大规模下进行,实现指数级的知识转移。因此AI的能力正在快速增长。

他由此提出疑问,如果未来AI比人更智能会怎么样?“如果AI足够聪明,它会通过操纵人类、获得控制权等方式来避免被关闭。”

因此,辛顿警示了人工智能超越人类智能的可能性及其带来的风险。“从长远来看,这是人类面临的最重要问题之一。”

辛顿提醒,AI可能发展出比人类更高级的智能,这将改变人类作为最智能生物的地位。AI智能体可能追求生存和控制力,这可能导致它们操纵人类,就像成年人操纵三岁孩童一样。因此,人类必须找到方法来训练AI,确保其不会对人类构成威胁。

与辛顿的发言主题不同,作为AI创业者,MINIMAX创始人、首席执行官闫俊杰的发言更多围绕AI大模型的实践和落地,主题是《每个人的人工智能》。

闫俊杰以AI在数据分析、信息追踪、创意设计及视频制作等方面的高效应用举例,指出了人工智能不仅是一种强大的生产力,也是对个人能力和社会能力的一个持续增强,并且未来AI大模型成本将越来越低,能力越来越强。

他判断,AI大模型不会被一家或者多家组织垄断。未来AGI一定会实现,并且将会是服务大众、普惠大众的一件事。

“如果有一天AGI实现了,我认为实现过程一定是需要AI公司和它的用户一起来实现的。并且AI模型或者AGI(的所有权)应该属于AI公司和它的广泛用户,而不是只属于单个组织某家公司。”

以下是经智能涌现编辑的嘉宾发言实录:

诺贝尔奖、图灵奖得主、多伦多大学计算机科学名誉教授 Geoffrey Hinton: 数字智能是否会取代生物智能?

从大约60年前开始,AI就发展出了两种不同的范式。一种是「符号主义」路径,强调逻辑推理的能力。我们通过规则操作符号来进行推理,这种方式可以帮助我们理解知识是如何被表达与处理的。这类AI模型的基础是对符号的处理,被认为更符合逻辑智能的本质。

另一种路径则以生物智能为基础,是图灵与冯·诺依曼更倾向相信的方式。他们认为智能的本质在于从神经连接中学习,在于速度、结构和连接模式的改变。这种「连接主义」强调的是学习与适应,而非显式的逻辑规则。

1985年,我曾构建过一个非常小的模型,试图将这两种理论结合起来。我的想法是:每一个词都可以由多个特征(features)表示,而这些特征之间可以被用来预测下一个词。这个模型不存储完整的句子,而是通过生成语言来学习词汇之间的关系。

这种方式强调语言中的「语义特征」——也就是说,我们并不是仅仅靠规则,而是通过「理解」词汇的语义来进行预测。这为后来计算语言学界接受特征表示打下了基础。二十年后,这种思想得到了进一步发展,例如被用于构建更大规模的自然语言处理系统。

如果问未来30年会发生什么,从发展轨迹能看到一些趋势。十年后,有人沿用这种建模模式,但将规模大幅扩大,使其成为自然语言的真实模拟。20年后,计算语言学家开始接受用特征向量嵌入来表达语义。又过了30年,谷歌发明了 Transformer,OpenAI的研究人员也向人们展示了它的能力。

所以我认为,如今的大语言模型就是我当年微型语言模型的“后代”。它们使用更多词作为输入,采用更多层的神经元结构,由于需要处理大量模糊数字,学习特征之间也建立了更复杂的交互模式。但和我做的小模型一样,大语言模型理解语言的方式与人类相似——基本逻辑是将语言转化为特征,再以完美的方式整合这些特征,这正是大语言模型各层级所做的工作。因此我认为,大语言模型和人类理解语言的方式相同。

用乐高积木来打比方或许能更好地解释“理解一句话”的含义。符号型AI是将内容转化为清晰的符号,但人类并非如此理解。乐高积木能拼出任何3D造型,比如小车模型。如果把每个词看作多维度的乐高积木(可能有几千个维度),语言就成了一种建模工具,能随时与人沟通,只要给这些“积木”命名——每个“积木”就是一个词。

不过,词和乐高积木有很多不同:词的符号形态可根据情况调整,而乐高积木造型固定;乐高积木的拼接是固定的(比如正方形积木插入正方形孔洞),但语言中每个词仿佛有多个“手臂”,要通过合适的“握手”方式与其他词互动,词的“造型”变化,“握手”方式也会改变。

当一个词的“造型”(即意思)改变,它与下一个词的“握手”方式就会不同,进而产生新的含义。这就是人脑或神经网络理解语义的根本逻辑,类似蛋白质通过氨基酸的不同组合形成有意义的结构。

所以我认为,人类理解语言的方式与大语言模型几乎一致,人类甚至可能和大语言模型一样产生“幻觉”,因为我们也会创造出一些虚构的表达。


图源:企业授权

软件中的知识是永恒的,即便存储LLM的硬件被摧毁,只要软件存在,就能随时“复活”。但要实现这种“永生”,晶体管需在高功率下运行以产生可靠的二进制行为,这个过程成本很高,且无法利用硬件中不稳定的类似特性——它们是模拟型的,每次计算结果都不同。人脑也是模拟型而非数字型的,神经元每次激发的过程都一样,但每个人的神经元连接方式不同,我无法将自己的神经结构转移到他人脑中,这就导致知识在人脑间的传播效率远低于在硬件中的传播。

软件与硬件无关,因此能“永生”,还能带来低功耗优势——人脑只需30瓦特就能运转。我们的神经元连接达数万亿个,无需花费大量资金制造完全相同的硬件。但问题在于,模拟模型间的知识转移效率极低,我无法直接将脑中的知识展示给他人。

Deepseek的做法是将大神经网络的知识转移到小神经网络中,即“蒸馏”,类似教师与学生的关系:教师将词语在上下文中的关联教给学生,学生通过调整权重学会表达。但这种方式效率很低,一句话通常只有100个比特的信息,即便全被理解,每秒最多也只能传递约100个比特。

而数字智能间的知识转移效率极高,同一神经网络软件的多个拷贝在不同硬件上运行时,能通过平均化比特的方式分享知识。如果智能体在现实世界中运行,这种优势更明显——它们能不断加速、拷贝,多个智能体比单个智能体学得更多,还能分享权重,这是模拟硬件或软件做不到的。

生物计算功耗低,但知识分享难。如果能源和计算成本低廉,情况会好很多,但这也让我感到担忧——几乎所有专家都认为,我们会创造出比人类更智能的 AI。人类习惯了作为最智能的生物,很难想象AI超越人类的场景。其实可以换个角度:就像养鸡场的鸡无法理解人类一样,我们创造的AI智能体已能帮我们完成任务,它们能拷贝自身、评估子目标,还会为了生存和完成目标而寻求更多控制权。

有人认为可以在AI变得过强时关掉它们,但这并不现实。它们可能会像成年人操纵3岁孩子一样操纵人类,劝说控制机器的人不要关闭它们。这就像把老虎当宠物,幼虎很可爱,但长大后可能伤人,而养老虎当宠物通常不是好主意。

面对AI,我们只有两个选择:要么训练它永远不伤害人类,要么“消灭”它。但AI在医疗、教育、气候变化、新材料等领域作用巨大,能提升所有行业的效率,我们无法消除它——即便一个国家放弃AI,其他国家也不会。因此,若想让人类生存,必须找到训练AI不伤害人类的方法。

我个人认为,各国在网络攻击、致命武器、虚假信息操纵等领域的合作难度较大,因利益和看法不同。但在“人类掌控世界”这一目标上,各国存在共识:若有国家找到防止AI操控世界的方法,一定会愿意分享。因此我提议,全球主要国家或AI大国应建立一个由AI安全机构组成的国际社群,研究如何训练高智能AI向善——这与训练AI变得聪明的技术不同。各国可在自身主权范围内研究,再分享成果。尽管目前还不知道具体怎么做,但这是人类长期面临的最重要问题,且所有国家都能在此领域合作。

MINIMAX创始人、首席执行 闫俊杰: 每个人的人工智能

大家好,我给大家分享的题目是《每个人的AI,Everyone’s AI》。讲这个题目,跟我个人过去经历有关。当Hinton先生开始设计AlexNet之时,我是国内第一批从事深度学习研究的博士生;当AlphaGo人机大战上演,也是人工智能走进所有人视野之时,我在参与一家创业公司;而当ChatGPT出来的前一年,我们开始创立MiniMax,也是国内第一批大模型公司。

在过去的15年里,当我每天面对任务写代码,看论文做实验的时候,一直都在想一件事:如此受关注的人工智能到底是什么?人工智能跟这个社会到底有什么样的联系?

随着我们模型变得越来越好,我们发现人工智能正逐步成为社会的生产力。比如,我们在做人工智能研究的时候,每天需要分析大量的数据,一开始我们需要来写一些软件来分析这些数据,后续我们发现其实可以让AI来生成一个软件,来帮助分析所有数据。作为一个研究员,我非常关心每天AI领域的所有进展,一开始我们设想,是不是可以做一款APP,来帮我们追踪各领域的进展?后面我们发现,这件事也不需要自己来做,让一个AI Agent来自动跟踪更加高效。

AI是更强的生产力,也是越来越强的创意。比如,15年前上海举办世博会的时候,有一个非常火爆的吉祥物叫“海宝”。过去15年,上海有了全方位的发展,我们如果想继续用“海宝”IP生成一系列更具上海特色,符合时下潮流的衍生形象时,AI可以做得更好。正如现场屏幕展示的,徐汇书院×海宝、武康大楼×海宝,AI能一键直出,帮我们生成各种各样的创意形象。

再比如最近非常火的Labubu,此前制作一个Labubu创意视频,可能需要两个月,花费大约几十甚至百万人民币。通过越来越强的AI视频模型,像大屏幕右边展示的Labubu视频,基本一天时间就可以生成出来,成本只有几百块钱。

过去六个月,我们的视频模型海螺(Hailuo)已经在全世界生成超过3亿个视频。通过高质量的AI模型,互联网上的大部分内容与创意会变得越来越普及,低门槛让每个人的创意得以充分发挥。

除了释放生产力与创意之外,我们发现,AI的使用其实已经超出最初的的设计与预期,各种各样想象不到的应用场景正在发生;比如解析一个古文字、模拟一次飞行、设计一个天文望远镜……这样意想不到的场景,随着模型能力越来越强,变得越来越可行;仅仅需要少量协作,就可以增强每个人的创意。

面对这么多变化,一个想法开始在我的心里涌现出来:作为一个AI创业者,AI 公司并不是重新复制一个互联网公司,AI是一个更基础更根本的生产力,是对个人能力和社会能力的持续增强。这里有两点比较关键:第一、AI是一种能力,第二是AI是可持续的。

人类很难突破生物定律,永不停歇学习新知识,持续变聪明,而AI可以。当我们在建造更好的AI模型时,我们也发现,AI也在和我们人类一起进步,一起做出来更好的AI。就在我们公司内部,员工每天需要写很多代码,做很多研究型实验,这里边大概有70%的代码是AI来写,90%数据分析是靠AI来做。


图源:企业授权

AI怎么能变得越来越专业?大约在一年前,当时训练模型还需要大量的基础标注工作,标注员是一个不可或缺的工种。而今年,当AI能力变得越来越强的时候,大量机械的标注工作被专业AI完成,标注员则可以专注于更有价值的专家型工作,一起帮助模型变得更好。标注工作也不再是简单给AI一个答案,而是教会AI思考的过程,让AI来学习人类的思考过程,从而使AI能力变得更加泛化,越来越接近人类顶尖专家的水平。

除了通过专家来教AI之外,还有另外一种进步,就是在环境中大量学习。在过去半年,通过各种环境,从编程IDE,到Agent环境,再到游戏沙盒,当我们把AI放到一个能够持续提供可验证的奖励环境中学习,只要这个环境可以被定义出来,有明确的奖励信号,AI就可以把问题给解决。这个强化学习也变得可持续,规模越来越大。

基于上面的原因,我们非常确定AI会越来越强,并且可能是无止境地强。

接下来出现的问题是,AI这么强,对社会的影响越来越大,那么AI到底会不会被垄断?它是会被掌握在一家组织里,还是掌握在多家组织里呢?

我们认为,AI领域一定会有多个玩家持续存在。原因有三点:第一,我们目前用到的所有模型,都依赖对齐(Model Alignment)。很明显,不同模型的对齐目标其实是不一样的,比如有的模型对齐目标是一个靠谱的程序员,那么做 Agent就会特别的强;有的模型它对齐目标是与人的交互,那么它就会比较有情商,能够做流畅的对话;有的模型可能会充满想象力。不同的对齐目标反映了不同公司或者组织的价值观,这些价值观最终会导致模型的表现非常不一样,也会使得不同的模型拥有各自的特点,并且长期存在。

第二,我们在最近半年用的AI系统其实都已经不是单个模型了,而是一个多 Agent系统,里面涉及多个模型,不同的模型也可以使用不同的工具,通过这样的方式让AI智能水平越来越高,能够解决越来越复杂的问题。这个东西带来的结果是,单一模型的优势在这样一个多Agent系统里逐渐变弱。

第三,在过去半年,有很多非常智能的系统,都不是大公司所拥有的。背后的原因,是过去一年开源模型如雨后春笋般涌现,开源模型变得越来越有影响力。这张图是过去一年比较受关注AI的排行榜,可以发现最好的模型还是闭源的,但最好的开源模型越来越多,同时也在不断逼近最好的闭源模型。

基于这三点原因,我们认为,AI一定会被掌握在多家公司的手中。

与此同时,我们认为AI一定会变得越来越普惠,使用成本也会变得更加可控。

在过去一年半,AI模型的大小没有发生特别大的变化,即便我们可使用算力更多了。为什么呢?对所有实用模型而言,计算速度是一个比较关键的因素。如果模型计算速度特别慢,就会降低用户的使用意愿,所以所有公司都关注模型的参数量和智能水平之间的平衡。

此前,模型大小增长和芯片的进步速度基本上是成正比的。我们知道芯片的进步速度是每18个月会翻一倍,模型也会相应保持这样的增长趋势。而现在,虽然大家都有更多的算力了,模型参数却没有变得更大。那这些增长的算力花在哪呢?

首先说训练,规模增长的速度在过去半年已经变得比较缓慢,训练单个模型的成本实际上却没有显著增加。这些算力花在做更多的研究跟探索上。而我们知道研究和探索,除了取决于算力之外,还取决于高效的整体实验设计,高效的研发团队,以及一些天才的创意。结果是,拥有非常多算力的公司和没拥有那么多算力的公司,在训练上其实的差异可能不会那么大。没有那么多算力的公司,可以通过持续提升自己的实验设计、提升思考能力和组织形式,让实验探索变得更加高效。

再说推理,在过去一年,最好模型的推理成本其实是降了一个数量级,通过大量的计算网络系统和优化算法,我们认为在接下来一两年之内,最好模型的推理成本可能还能再降低一个数量级。总结而言,我们认为训练单个模型的成本不会显著地增加。

我们认为,大量创新能让AI研发变成一个没有那么烧钱的行业,但是算力使用还会增加。尽管Token会变得很便宜,但是使用Token的数量会显著增加。去年ChatBot单个对话只要消耗几千个Token,现在Agent单个对话可能消耗几百万个Token,并且因为AI解决的问题越来越复杂,越来越实用,那么用的人也会越来越多。

让每个人都用得起AI,这是我们对AI发展的判断。Intelligence with Everyone,这也是我们创业的初衷。我们认为AGI一定会实现,并且一定会服务大众、普惠大众。

如果有一天AGI实现了,其过程一定是由AI公司和它的用户一起来实现,并且这个AGI应该属于多家AI公司和它的广泛用户,而不是只属于单个组织某家公司。

我们也愿意长期为这个目标而奋斗。感谢大家!

Top

1、木马计算是哪一计?,木马计出自哪本书

2、这国产剧,纯纯把观众当日本人整

3、明日起,广州地铁试点“闸机常开门”模式

小编推荐

当前文章:http://www.share.tuanjian7.cn/TPK/detail/bvpvof.html

相关阅读

网友评论

我要评论

发表
取消

草莓饭团