- +1228
当英伟达“算力魔法”不再性感,AI五大新趋势浮出水面
冯·诺伊曼曾预言:“技术不断加速进步,将会引发人类历史上某个关键的奇点。”
英伟达的算力故事看上去似乎没那么性感了。
短短一年时间,两场GTC大会,台上的黄仁勋依旧穿着熟悉的皮衣,却多了些磕绊,少了些从容。
上一次GTC大会,正值英伟达如日中天高歌猛进。全球科技公司对生成式AI进行不计回报的疯狂投入,将英伟达一步步推上神坛,一度成为全世界市值最大的公司。
但今年以来,英伟达的股价持续震荡,1月27日单日跌幅接近17%,市值蒸发近6000亿美元,创下美股单日市值损失历史纪录。而当DeepSeek横空出世,人们突然意识到,单纯依赖算力的“暴力美学”已触及边际效益的临界点。与此同时,AI技术的应用瓶颈、成本压力以及社会需求的变化,正将行业推向一个更复杂、更务实的阶段。
如今的算力就像当年的云计算,正慢慢变成AI时代的公共基础设施,不可或缺但已给不出更多兴奋点,其叙事逻辑也由“算力囤积”向“需求牵引”演变。
一边是依然信奉“大力出奇迹”塑造出的模型能力,在大规模数据和算力支撑下不断冲击新的性能高度;另一边是利用工程创新和算法优化精雕出各类AI应用,试图在算力红海中开辟一条降本增效的新通路,这种分野在产业实践中愈发明显。而这些正浮现的关键趋势将锚定AI未来的价值坐标。

趋势一:大模型将从“训练”卷向“推理”
2024年,OpenAI的一系列动作对大语言模型领域产生了深刻影响。9月,OpenAI发布了首款推理模型o1。
类似于GPT-4等传统大语言模型,在回答问题时往往依赖于预设的知识库和训练模式,直接提供最先浮现的答案。尽管反应迅速,但答案的准确性和合理性常常难以确保,有时甚至会产生错误或不合理的回答。
o1在回答问题前,会逐步分析用户的提示词(Prompt),通过比对不同的结果来呈现一个最佳回答,从而大幅减少错误。这种逐步推理的能力,让AI能够应对更复杂的任务,解决许多普通聊天机器人无法胜任的问题。
在深度学习中,“训练”和“推理”是两个紧密相关但又有所不同的阶段。训练过程通过调整模型参数来优化模型性能,需要大量的标注数据和计算资源;而推理过程则注重模型的预测能力,需要快速且准确地生成预测结果。
值得注意的是,当一种方法无效时,推理模型甚至会自动尝试其他方法,这种处理逻辑与人类思考和解决问题的方式颇为相似,极大地提升了模型在处理数学、物理和逻辑等复杂问题时的准确性和可靠性。
比如2024年12月DeepMind推出的实验性新型网络浏览智能体Mariner,当被要求寻找圣诞饼干配方并将原料添加到在线购物车时,Mariner遇到了选择面粉种类的难题。此时,Mariner在聊天窗口中清晰地阐述了其解决策略,利用浏览器的后退功能返回食谱页面以确认所需的面粉种类。
这一行为展示了智能体能够将复杂任务拆解为具体的操作步骤,并通过合理的推理选择解决问题的行动,对智能体在现实场景中广泛应用具有重要意义。
在AI推理方面,一个重要趋势正在浮现——慢速深度推理。与强调实时响应的快速推理不同,慢速深度推理聚焦于更为复杂、需要多步逻辑链条的任务,力求在知识复杂度和推理深度上实现突破。

这一趋势的核心在于,大模型通过“分解-推理-重构”的方式,实现对复杂问题的多层次理解与求解。同时,结合外部知识库和大模型内部的记忆系统,AI可以通过知识调用与整合,实现更具深度的逻辑推理。
慢速推理虽然响应时间略长,但能够保证更高的输出质量,特别适用于对精度要求极高的任务场景。例如,在医疗诊断、金融分析、法律咨询等行业中,慢速深度推理能够通过多轮分析和逻辑校验,为用户提供精准的解决方案,真正实现AI的“类人思考”。
从技术视角来看,当前AI推理还存在三方面挑战。
首先,面对海量的输入与复杂的计算任务,如何在资源有限的情况下实现快速响应和高质量输出,成为AI推理的核心难题。
其次,不同用户和企业场景对AI输出的需求不同,需要模型具备更强的场景适配能力和定制化能力。
第三,相比预训练阶段的高耗能,推理阶段更强调轻量化与可部署性,如何降低推理成本、提升资源利用率至关重要。
由于“推理”更强调自主性以及解决复杂问题的能力,因此,从今年乃至未来很长一段时间内,“推理”将成为大语言模型领域的核心议题,AI的竞争规则由此被重写——从“谁拥有更强的算力”转向“谁能更聪明地使用算力”,相关研究和应用将持续深化。
趋势二:后训练推动AI迈入“精耕时代”
随着预训练阶段的算力扩张遭遇边际效益递减,行业焦点正转向后训练优化与实时推理架构创新。以DeepSeek为代表的AI应用的崛起并非算力的终结,而是推动AI进入了“精耕时代”。
大模型训练通常需要经历三个阶段:预训练、后训练、持续训练。
预训练就像是一个拥有大量语言知识的“毛坯房”,通过使用海量数据训练模型,使其掌握通用特征和知识。后训练则基于预训练模型,针对特定任务或数据集进行额外训练和精细调整,通常涉及微调、人类反馈强化学习(RLHF)、直接偏好优化(DPO)等技术,使其能够更好地适应诸如回答问题、生成文本、遵循指令等任务。
例如,一个预训练模型可能在一般的语言理解上表现不错,但对于专业领域的问题回答可能不够准确,通过后训练,它可以在该领域的知识和推理能力上得到显著提升。
在模型完成预训练和后训练后,需要继续在新数据上进行训练,以不断更新和提升模型性能。这一阶段可能在模型部署后的任何时间进行,从而适应新数据并保持模型性能的稳定提升。
数据是后训练的核心要素之一。数据合成技术可以生成新的训练数据,增加数据的多样性和数量。例如,通过一些规则和模板,可以生成大量的对话示例、问题与回答对。同时,数据处理也非常关键,需要对数据进行清洗,去除噪声、重复和错误的数据,还会进行质量评估和分类,确保用于训练的数据是高质量且符合任务需求的。
以Llama 3.1为例,首先,它使用了大量的合成数据和人类偏好数据进行训练,以提高模型的泛化能力和准确性。其次,它采用了迭代训练的方法,通过多轮训练和生成来逐步优化模型性能。最后,它还采用了数据清洗、质量控制和语义去重等手段来确保训练数据的质量和多样性。
在具体实践中,Llama 3.1的后训练过程包括多个阶段。在每个阶段中,都需要仔细调整数据比例、优化模型参数,并在多个基准测试上评估模型性能。通过多轮迭代和不断优化,Llama 3.1最终取得了显著的性能提升。
在提高模型性能方面,后训练技术体现在增强模型的适应性、任务专注性、鲁棒性以及降低数据依赖等多个方面。这使得后训练不再是一个可有可无的步骤,而是现代AI系统首要的组成部分,尤其是在追求高效和精准的任务完成能力时。随着研究的深入,预计后训练技术将继续演进,进一步增强模型性能,推动AI应用的广泛落地。
同时,后训练对于人类数据的依赖性降低,促使研究者和开发者需要在技术、流程和策略上进行调整,以适应新的挑战和机遇,未来,随着自监督学习、数据增强和领域适应等技术的持续进步,我们会看到在更少的人类数据和资源投入下,仍能实现高性能模型的成功案例。
在发展高级推理模型方面,后训练能力至关重要,这不仅体现在模型性能的提升上,还涉及到模型在复杂理解、动态知识更新和跨域适应等多方面的能力。随着后训练技术的不断完善和应用,预计将为高级推理模型的发展提供更为坚实的基础,特别是在问题解决和决策支持方面的应用。
趋势三:多智能体协同将激发AI“群体智能”
随着大模型的深入研究,多智能体协同已经成为AI研究最热门的方向之一。
尽管基于大语言模型的ChatGPT、DeepSeek等具有强大的文本理解和生成能力,但它们本质上仍是作为孤立实体运行的,缺乏与其他智能体协作和从社交互动中获取知识的能力,这种固有限制阻碍了它们从他人的多轮反馈中学习并提高其性能的潜力。
亚当·斯密在《国富论》的开篇提到,“劳动生产力上最大的增进,以及运用劳动时所表现的更大的熟练、技巧和判断力,都是分工的结果。”
根据分工原则,拥有专业技能和领域知识的单个智能体可以从事特定的任务。一方面,通过分工,智能体处理特定任务的技能不断精炼;另一方面,将复杂任务分解为多个子任务可以减少在不同流程之间切换的时间。最终,多个智能体之间的有效分工可以完成比没有特定分工时多得多的工作量,从而大幅提高整个系统的效率和输出质量。
2025年,AI推理成本的大幅下降为多智能体系统协同提供了经济基础。多智能体系统(Multi-Agent System)是由大型语言模型驱动,并以特定方式连接的多个独立智能体组成的复杂系统。其中的每个智能体都配置有独立的提示词、大语言模型以及相应的工具。
该系统的设计旨在促使不同智能体之间实现高效的协同合作,通过这种协同作业模式,为解决复杂问题提供了更为灵活和强大的解决方案。多智能体有不同的交互协作模式,最典型的包括层级结构、集中结构、分散结构、混合结构等。
以Manus为例,其技术架构以多智能体协同为核心,采用分层结构与动态任务调度机制,通过规划智能体、执行智能体、验证智能体的协同,实现了从任务理解到成果交付的全流程自动化,大幅提升对复杂任务的处理效率。

规划智能体负责解析用户指令并拆解成可执行的子任务,并动态分配至执行智能体进行任务执行,同时监控执行路径并实时修正;执行智能体负责各个子任务的具体执行,包括代码生成、数据抓取、分析建模等各类智能体,可以调用各种工具的API接口;验证智能体通过交叉校验机制确保结果准确性。三类智能体共同协作完成复杂任务。
系统中的每个智能体都具备一定的自主性,能够在没有外界直接干预的情况下,根据自身的目标和所感知到的信息做出决策。它们并非孤立存在,而是通过相互之间的信息共享、任务协作和资源分配等交互方式,共同完成复杂的任务。同时,智能体能够适应环境的变化,实时调整自己的策略和行为。
以城市交通管理为例,每一辆自动驾驶汽车都可以看作是一个智能体。它们各自感知周围的路况信息,如车辆密度、道路状况、信号灯状态等,然后自主决策行驶速度、路线等。同时,这些车辆之间还会进行信息交互,比如分享前方的路况拥堵信息,从而实现协同驾驶,提高整个城市交通系统的运行效率,减少拥堵。
业内普遍认为2025年是AI智能体爆发元年。Gartner预测,2028年至少15%的日常工作决策将由智能体完成。当前,比较主流的多智能体技术框架包括微软的AutoGen、MetaGPT、清华的AgentVerse、XAgent、AutoAgent、CrewAI等,这些项目从不同角度提出智能体系统规划模块的改进建议,其中包括长短期规划、规划输出格式、用户提示拓展解释、反馈迭代机制等,为多智能体高效协作奠定技术基础。
趋势四:强化学习不断冲破推理“天花板”
1947年,艾伦·图灵在一次演讲中提到“我们想要的是一台能够从经验中学习的机器”。
2025年,图灵奖颁给了两位毕生致力于解决图灵这一问题的科学家——安德鲁·巴托(Andrew Barto)与理查德·萨顿(Richard Sutton)。他们不仅是AlphaGo和ChatGPT技术上的奠基人,亦是机器学习领域的技术先驱。
如果说机器学习是“填鸭式”学习,那强化学习就是“放养式”学习。
传统的机器学习,就是给模型被喂大量标注好的数据,建立输入和输出之间固定的映射关系。而强化学习,是在没有明确指导的情况下,智能体通过不断试错和奖惩机制给出的反馈信号,逐渐调整下一步行动策略,并且循环往复,不断接近最优策略。

就像一个机器人学走路,不需要人类一直告诉它“这步对,那步错”,它只要尝试、摔倒、调整,最终自己就会走路了,甚至走出自己独特的步态。
显而易见,强化学习的原理更接近人类的智能,就像每个幼童在跌倒里学会走路,在摸索中学会抓取,在咿呀里捕捉音节,学会语言。
强化学习的高光时刻是2016年AlphaGo的“神之一手”。当时AlphaGo在与李世石的比赛中,第37手落下了一步令所有人类惊讶的白棋,一步棋逆转败势,一举赢下李世石。
AlphaGo不是靠背棋谱背出来的“神之一手”,而是在无数次自我对弈中,试错、长远规划、优化策略后自主探索出来,这就是强化学习的本质。
而最近爆火的宇树科技回旋踢机器人背后也是强化学习的训练。
强化学习特别擅长处理规则复杂、状态多变的环境,并在其中找到最优解,比如自动驾驶、机器人控制等。这些正是当下最前沿的AI应用领域,尤其是在大语言模型上,几乎所有领先的大语言模型都使用了RLHF(基于人类反馈的强化学习)的训练方法,即让人类对模型的回答进行评分,模型根据反馈改进。
作为后训练、推理阶段的关键技术,强化学习将会得到更多的创新应用。比如机器人领域,通过强化学习,机器人可以自主地适应不同的环境和任务,提高工作效率和安全性。例如,在辅助康复训练中,机器人可以根据患者的力量和姿势调整其辅助力度,以帮助患者恢复功能。
自动驾驶领域,强化学习可以帮助自动驾驶汽车学习如何在复杂路况下安全行驶。通过与交通环境的交互,自动驾驶车辆可以不断优化其驾驶策略,提高驾驶的安全性、舒适性和效率。然而,将强化学习应用于自动驾驶也面临着一些挑战,包括如何处理传感器数据的不确定性、如何解决算法收敛性和稳定性等问题。
尽管强化学习还面临着一些挑战,例如学习效率、奖励函数设计、安全性等问题,但随着研究的深入,强化学习的应用领域将持续拓展,深度强化学习算法将不断改进,多智能体强化学习和可解释性强化学习也将成为重要的研究方向。
趋势五:物理AI加速消融虚拟与现实边界
早前,黄仁勋不止一次强调过,“AI的新一波浪潮是物理AI”。
在十年的时间里,AI从感知和计算机视觉,发展到了生成式AI,现在又到了代理AI阶段,即具有推理能力的AI,未来将是物理AI时代。

如今大多数AI并不理解物理定律,不以物质世界为基础,而产生影像、视讯、3D图形和许多物理现象,需要基于物理并理解物理定律的AI。
物理AI是一种使自主机器(如机器人、自动驾驶汽车等)能够在真实物理世界中感知、理解和执行复杂操作的技术。
物理AI的提出有其必然性。一方面,基于互联网上大量文本和图像数据训练的生成式AI模型(GPT、Llama等)在生成人类语言和抽象概念方面已经基本满足需求,但是受其生成规则的限制,对于物理世界的理解有限,因此会出现不符合现实世界规律的“幻觉”。
另一方面,机器无法感知和察觉它们周围的世界,但借助物理AI,就可以构建和训练自动驾驶、机器人等各类智能体,并与真实世界进行无缝交互并适应各种环境,有利于提高现实世界应用的可访问性和功能性。
物理AI能够理解三维世界的空间关系和物理行为,因此进一步扩展了生成式AI,其通过在AI训练过程中加入更多真实场景数据,从而实现对物理世界的洞察和理解。通俗地理解,就是AI反馈的内容要符合物理规律。
作为物理AI在交通领域的重要应用之一,依托MogoMind大模型构建的AI网络将交通流量、气象条件、道路状况、城市环境等物理世界实时数据纳入模型训练,通过整合车辆、道路、云端等多方数据,可以进行实时分析并为精准决策提供支持,帮助驾驶员和自动驾驶车辆即时优化决策。
同时,通过大模型对摄像头视频流进行实时处理,可以为交通管理部门提供精准的交通流量分析预测与动态优化、事故预警、交通信号优化等服务。
在机器人应用领域,物理AI赋予机器人更强的环境感知、理解和交互能力。传统的机器人只能按照预设程序执行任务,而搭载物理AI的机器人则能够更好地理解周围环境,并根据物理规律做出相应的反应。它们可以更好地识别物体、预测运动轨迹、并在复杂环境中进行导航和操作。
IDC数据显示,随着AI应用持续走深向实,大模型在金融、医疗、教育、零售、能源等多个行业领域实现初步应用。到2025年,全球AI支出将达2270亿美元。预计到2030年,AI将为全球经济贡献19.9万亿美元,推动全球GDP增长3.5%。而目前,几乎98%的企业领导者将AI视为其组织的优先事项。
2025年,AI将朝着轻量化设计、强推理能力提升、移动端应用普及的方向快速发展。当行业不再为算力神话狂欢,AI终将回归本质——成为解决问题的基础设施。五大趋势的背后,是一条清晰的进化路径:从追求规模到注重效率、从单一能力到系统协作、从数字孪生到虚实共生。
未来的AI竞争,将是效率、生态与场景落地的多维博弈。对于市场,这或许是跳出“七巨头”引力场,重估技术价值的时刻;对于行业,则是一场从“造神”到“务实”的集体觉醒。
“魔法”终会退潮,而真正的工程革命,此刻才刚刚开始。
本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问http://renzheng.thepaper.cn。

- 周继红退休
- 中方回应对日水产品限制是否会解除
- 周继红,跳水梦之队“家长”

- 美股三大指数涨跌不一,道指涨0.18%
- 魔法原子正式推出人形机器人和四足机器人,要打造1000个人形机器人落地应用场景

- 网络流行词,企业规定员工必须在一定时间内下班,不能随意加班
- 我国领土最南端位于南沙群岛的

- 12西川|怀念海子
- 报料热线: 021-962866
- 报料邮箱: news@thepaper.cn
互联网新闻信息服务许可证:31120170006
增值电信业务经营许可证:沪B2-2017116
© 2014-2025 上海东方报业有限公司