1. 首页 > 人工智能

2025年人工智能的十大预测:AI 2025年人工智能展会

作者:admin 更新时间:2025-03-27
摘要:2024年即将结束,来自Radical Ventures的风险投资家Rob Toews分享了他对2025年人工智能的10个预测:
01.
Meta将开始对Llama模型收费
Meta是世界上开放式人工智能的标杆。,2025年人工智能的十大预测:AI 2025年人工智能展会

 

2024年马上结束,来自Radical Ventures的风险投资家Rob Toews同享了他对2025年人工智能的10个预测:

01.
Meta将开始对Llama模型收费

Meta是全球上放开式人工智能的标杆。在壹个引人注目的企业战略案例研究中,当OpenAI和谷歌等竞争对手将其前沿模型封闭源代码并收取运用费时,Meta却选择不收费提供其最先进的Llama模型。

因此,明年Meta开始给运用Llama的企业收费这一消息,会让许多人感到意外。
需要明确的是:大家并没有预测Meta会将Llama完全闭源,也不意味着任何运用Llama模型的用户都必须为此付费。
相反,大家预测Meta将对Llama的开源许可条款做出更多限制,这样,在一定规模以上的商业环境中运用Llama的企业将需要开始付费才能运用模型
从技术上讲,Meta如今已经在有限的范围内做到了这一点。该企业不允许最大的企业——云超级计算机和其他月活跃用户超过7亿的企业,自在运用其Llama模型。
早在2024年,Meta首席执行官Mark Zuckerberg就说过:“如果你是微软、亚马逊或谷歌这样的企业,而且你基本上会转售Llama,那么大家应该从中获取一部分收入。我不认为这在短期内会是一大笔收入,但从长远来看,希望这能成为一些收入。”

明年,Meta将大幅扩大必须付费才能运用Llama的企业范围,将更多的大中型企业纳入其中。

跟上大型语言模型(LLM)前沿是特别昂贵的。如果想让Llama和OpenAI、Anthropic等企业的新鲜前沿模型保持一致或接近一致,Meta每年需要投入数十亿美元。
Meta企业是全球上最大、资金最雄厚的企业其中一个。但它也是一家上市企业,最终要对股东负责。
随着制造前沿模型的成本不断飙升,Meta企业在没有收入预期的情况下投入如此巨额资金来训练下一代Llama模型的行为越来越站不住脚。
爱慕者、学者、个人开发者和初创企业明年将继续不收费运用Llama模型。但2025年,将是Meta开始认真正现Llama盈利的一年
02.
“尺度定律”相关难题

最近几周,人工智能领域引发讨论最多的话题莫过于尺度定律(Scaling laws),以及它们是否马上终结的难题。

尺度定律在2024年OpenAI的一篇论文中第一次提出,其基本概念简单明了:在训练人工智能模型时,随着模型参数数量、训练数据量和计算量的增加,模型的性能会以可靠且可预测的方法进步(从技术上讲,其测试损失会减少)。

从GPT-2到GPT-3再到GPT-4,令人叹为观止的性能提高都是缩放规律的功劳

就像摩尔定律一样,尺度定律实际上并不是真正的法则,而只是简单的经验观察。

在过去的壹个月里,一系列报告表明,主要的人工智能实验室在持续扩大大型语言模型的规模时,正在看到递减的回报。这有助于解释何故OpenAI的GPT-5公开一再推迟。

对尺度定律趋于平稳的最常见反驳是,测试时计算的出现开辟了壹个最新的维度,可以在这一维度上追求规模扩展。
也就是说,和其在训练期间大规模扩展计算,新的推理模型如OpenAI的o3使得在推理期间大规模扩展计算成为也许,通过使模型能够“思索更长时刻”来解开新的AI能力。

这一个重要的见解。测试时计算确实代表了壹个新的令人兴奋的扩展途径,以及AI性能提高。

但关于尺度定律的另壹个见解更加重要,而且在今天的讨论中被严重低估。几乎全部关于尺度定律的讨论,从开始的2024年论文开始,一直延续到今天对测试时计算的关注,都集中在语言上。但语言并不是唯一重要的数据玩法。
想想机器人技术、生物学、全球模型或网络代理。对于这些数据玩法,尺度定律尚未饱和;相反,它们才刚刚开始

实际上,这些领域中尺度定律存在的严格证据到现在甚至尚未发表。

为这些新型数据玩法构建基础模型的初创企业——例如,生物学领域的Evolutionary Scale、机器人技术领域的PhysicalIntelligence、全球模型领域WorldLabs,正试图识别并利用这些领域的尺度定律,就像OpenAI在2024年代前半期成功利用大型语言模型(LLM)尺度定律一样。

明年,预计这里将取得巨大的提高。

尺度定律不会消失,它们在2025年将和以往一样重要。然而,尺度定律的活动主题中心将从LLM预训练转移到其他玩法。
03.
特朗普和马斯克也许会在AI路线产生分歧

美国新政府将带来一系列关于人工智能的政策和战略转变。

为了预测在特朗普总统就任下人工智能的风给,另外思考到马斯克目前在人工智能领域的中心地位,大众也许会倾给于关注当选总统和马斯克的密切关系。

可以想象,马斯克也许会以多种不同的方法影响特朗普政府的人工智能相关进步

鉴于马斯克和OpenAI的深刻敌对关系,新政府在和行业接触、制定人工智能法规、授予政府合同等方面也许会对OpenAI采取不太友好的立场,这是OpenAI今天真正担心的壹个风险。

另一方面,特朗普政府也许会更倾给于支持马斯克自己的企业:例如,削减繁文缛节以使xAI能够建立数据中心并在前沿模型竞赛中取得领先;为特斯拉部署机器人出租车车队提供快速监管批准等。
更根本的是,和许多其他被特朗普看好的科技领袖不同,马斯克特别重视人工智能的安全风险,并因此主张对人工智能进行重大监管。
他支持加利福尼亚州有争议的SB1047法案,该法案试图对人工智能开发者施加有意义的限制。因此,马斯克的影响力也许会导致美国对人工智能的监管环境变得更加严格
然而,全部这些推测都存在壹个难题。特朗普和马斯克的亲密关系终将不可避免地破裂。

正如大家在特朗普第一任政府期间一次又一次看到的那样,特朗普盟友的平均任期,即使是看似最坚决的,都特别短暂。
特朗普第一任政府的副手中,今天仍然忠于他的寥寥无几。
特朗普和马斯克都是复杂、易变、不可预测的特点,他们不易合作,他们使人筋疲力尽,他们新发现的友情到目前为止已经互惠互利,但仍处于“蜜月期”。
大家预测,在2025年结束之前,这种关系将会恶化。
这对人工智能全球意味着啥子?
这对OpenAI来说是个好消息。对于特斯拉的股东来说,这将一个不幸的消息。而对于那些关注人工智能安全的人来说,这将一个令人失望的消息,由于这几乎可以确保美国政府将在特朗普执政期间对人工智能监管采取放手不管的态度。
04.
AI Agent将成为主流

想象一下,在这样壹个全球里,你不再需要直接和互联网互动。每当你需要管理订阅、付款账单、预约医生、在亚马逊上订购物品、预订餐厅或完成其他任何繁琐的在线任务时,你只需指示人工智能助理代你完成即可。

这种“网络代理”的概念已经存在多年。如果有这样的产品并能正常运行,毫无疑问,它将会是一款大获成功的产品。
然而,目前市场上还没有一款能正常运行的通用网络代理。
像Adept这样的初创企业,即使拥有一支血统纯正的创始团队,筹集了数亿美元的资金,但却未能实现其愿景。
明年将是网络代理最终开始运行良好并成为主流的一年。语言和视觉基础模型的不断提高,再加上最近因新推理模型和推理时刻计算而在“第二体系思考”能力方面取得的突破,将意味着网络代理已准备好进入黄金时代。
换句话说,Adept的想法是正确的,只是为时过早。在初创企业中,正如生活中的许多事务一样,时机就是一切。
网络代理将找到各种有价格的企业用例,但大家认为,网络代理近期最大的市场机会将是消费者。
虽然最近人工智能热度不减,但除了ChatGPT之外,能成为消费者主流应用的人工智能原生应用还相对较少。
网络代理将改变这一局面,成为消费人工智能领域下壹个真正的“杀手级应用”
05.
将人工智能数据中心置于太空的想法将会实现
2024年,制约人工智能进步的决定因素物理资源是GPU芯片。2024年,它变成了电力和数据中心。

在2024年,几乎没有啥子故事能比人工智能在急于建造更多人工智能数据中心的同时对能源的巨大且快速增长的需求更受关注了。

由于人工智能的蓬勃进步,全球数据中心的电力需求在数十年持平后,预计将在2024年至2026年间翻一番。在美国,数据中心的耗电量预计到2030年将接近总耗电量的10%,而2024年仅为3%。

当今的能源体系根本无法应对人工智能职业负载带来的巨大需求激增。大家的能源网和计算基础设施这两个价格数万亿美元的体系之间马上发生历史性的碰撞。
作为化解这一难题的也许方法,核能在现在获取了迅猛进步。核电在很多方面都是人工智能的理想能源:它是零碳能源,全天候可用,而且实际上取之不尽、用之不竭。
但从现实情况来看,由于研究、项目开发和监管时刻较长,新能源在2030年代之前都无法化解这一难题。传统的核裂变发电厂、下一代“小型模块化反应堆”(SMR)以及核聚变发电厂都是如此。
明年,壹个应对这一挑战的特别规新想法将出现并吸引真正的资源:将人工智能数据中心置于太空中
太空中的人工智能数据中心,乍一听,这听起来像一个坏笑话,壹个风险投资人试图把太多的创业流行语结合起来。
但事实上,这也许是有道理的。
在地球上快速建设更多数据中心的最大瓶颈是获取所需的电力。轨道上的计算集群可以全天候享受不收费、无限、零碳的电力:太空中的太阳总是熠熠生辉。
将计算置于太空的另壹个重要优势是:它化解了冷却难题
要建立功能更强大的人工智能数据中心,最大的工程障碍其中一个就是在狭小的空间内同时运行许多GPU会变得特别热,而高温会损坏或毁坏计算设备。
数据中心开发人员正在采用液浸冷却等昂贵且未经证实的方式来试图化解这一难题。但太空是极其寒冷的,计算活动主题产生的任何热量都会立即无害地消散。
当然,还有许多实际挑战有待化解。壹个显而易见的难题是,能不能以及怎样在轨道和地球之间以低成本高效率地传输大量数据。
这一个悬而未决的难题,但也许证明是可以化解的:可以利用激光和其他高带宽光通信技术开展前景广阔的职业
 
YCombinator的一家名为Lumen Orbit的初创企业最近筹集了1100万美元,以实现这一理想:在太空中建立壹个数兆瓦的数据中心网络,用于训练人工智能模型。
正如企业首席执行官所说:“和其付款1.4亿美元的电费,不如付款1千万美元的发射和太阳能费用。”
2025年,Lumen将不会是唯一认真对待这一概念的组织。
其他初创企业的竞争者也会出现。如果有一家或几家云计算超大规模企业也按照这种思路开展寻觅,也不要感到惊讶。
 
亚马逊已经通过“柯伊伯规划”(ProjectKuiper)将资产送入轨道,积累了丰盛的经验;谷歌长期以来一直在资助类似的“登月规划”;甚至微软对太空经济也不陌生。

可以想象,马斯克的SpaceX企业也会在这方面有所作为。

06.
人工智能体系将通过“图灵语音测试”
图灵测试是人工智能性能最古老、最知名的基准其中一个。

为了“通过”图灵测试,人工智能体系必须能够通过书面文本进行探讨,让普通人无法分辨自己是在和人工智能互动,还是在和其他人互动。

得益于大型语言模型的显著提高,图灵测试在2024年代已成为壹个化解的难题。

但书面文本并非人类探讨的唯一方法。

随着人工智能变得越来越多模态,大众可以想象壹个新的、更具挑战性的图灵测试版本——“语音图灵测试”。在这个测试中,人工智能体系必须能够通过语音和人类互动,其技能和流畅度要达到和人类说话者无法区分的程度。

今天的人工智能体系还无法实现语音图灵测试,化解这个难题将需要更多的技术提高。延迟(人类说话和人工智能答复之间的滞后)必须减少到接近零,以匹配和另壹个人类交谈的尝试。

语音人工智能体系必须更擅长优雅地实时处理模糊输入或误解,例如说话被打断的情况。它们必须能够参和长对话、多轮、放开式对话,同时记下讨论的早期部分。

而且至关重要的是,语音人工智能代理必须学会更好地领会语音中的非语言信号。例如,如果壹个人类说话者听起来恼怒、兴奋还是讽刺意味着啥子,并在自己的语音中生成这些非语言线索。

随着大家接近2024年底,语音人工智能正处于壹个令人兴奋的转折点,这一转折点是由像语音到语音模型的出现这样的根本性突破推动的。

如今,人工智能中很少有领域在技术和商业上的提高速度比语音人工智能更快。预计在2025年,语音人工智能的新鲜技术将实现飞跃。”
07.
自主AI体系将取得重大进展
数十年来,递归式自我完善人工智能的概念一直是人工智能界经常触及的话题。

例如,早在1965年,AlanTuring的亲密合作者I.J.Good就写道:“让大家把超智能机器定义为一种能够远远超越人类全部智力活动主题的机器,无论它多么伶俐。”

“既然设计机器是这些智力活动主题其中一个,那么超智能机器就能设计出更好的机器;到那时,无疑会出现'智能爆炸',人类的智能将被远远抛在后面。”

人工智能可以发明更好的人工智能,这一个充满聪明的概念。然而,即使在今天,它仍然保留着科幻小说的影子。

然而,虽然这一概念尚未得到广泛认可,但它实际上已经开始变得更加真正。人工智能科学前沿的研究人员已经开始在构建人工智能体系方面取得切实进展,而人工智能体系本身也能构建更好的人工智能体系

大家预测,明年这一研究路线将成为主流。
迄今为止,沿着这一思路进行研究的最显著的公开范例是Sakana的“人工智能科学家”。
“人工智能科学家”于现在8月公开,它令人信服地证明了人工智能体系确实可以完全自主地开展人工智能研究。
Sakana的“人工智能科学家”本身执行了人工智能研究的整个生活周期:阅读现有文献、产生新的研究想法、设计实验来测试这些想法、执行这些实验、撰写研究论文来报告其研究结局,接着对其职业进行同行评审。
这些职业完全由人工智能自主完成,不需要人工干预。你可以在线阅读人工智能科学家撰写的部分研究论文。
OpenAI、Anthropic和其他研究实验室正在为“自动化人工智能研究人员”这一想法投入资源,不过目前还没有任何消息得到公开承认。

随着越来越多的人认识到人工智能研究自动化事实上正在成为一种真正的也许性,预计2025年这一领域将会有更多的讨论、进展和创业活动主题。

不过,最有意义的里程碑将是完全由人工智能代理撰写的研究论文第一次被极致人工智能会议接受。如果论文是盲审的,会议评审人员在论文被接受之前不会了解论文是由人工智能撰写的。
如果人工智能的研究成果明年被NeurIPS、CVPR或ICML接收,请不要感到惊讶。对于人工智能领域来说,这将一个引人入胜、充满争议的历史性时刻。
08.
OpenAI等行业巨头将战略重点转给构建应用
构建前沿模型是一项艰难的职业。

它的资本密集程度令人咋舌。前沿模型实验室需要消耗大量现金。就在多少月前,OpenAI筹集到了创纪录的65亿美元资金,而在不久的将来,它也许还需要筹集更多的资金。Anthropic、xAI和其他企业也处于类似的境地。

转换成本和客户忠诚度较低。人工智能应用程序通常都是以模型无关性为目的而构建的,不同供应商的模型可以根据不断变化的成本和性能相对进行无缝切换。

随着最先进的放开模型(如Meta的Llama和阿里巴巴的Qwen)的出现,技术商品化的威胁不断迫近。像OpenAI和Anthropic这样的人工智能领导者不也许也不会停止对构建尖端模型的投资。

但明年,为了进步利润更高、差异化更大、粘性更强的业务线,前沿实验室有望大力推出更多自己的应用和产品

当然,前沿实验室已经有了壹个特别成功的应用案例:ChatGPT。
在新的一年里,大家还能从人工智能实验室看到哪些其他类型的第一方应用程序呢?壹个显而易见的答案是更复杂、功能更丰盛的搜索应用。OpenAI的SearchGPT就预示着这一点。
编码是另壹个显而易见的类别。同样,随着OpenAI的Canvas产品于10月份第一次公开了,初步的产品化职业已经开始。
OpenAI或Anthropic是否会在2025年推出企业搜索产品?还是客户服务产品、法律人工智能或销售人工智能产品呢?
在消费者方面,大家可以想象壹个“个人助理”网络代理产品,或者壹个旅行规划应用,又或者一个生成音乐的应用。
观察前沿实验室给应用层进步的最迷人之处在于,这一举措将使它们和许多最重要的客户直接竞争
搜索领域的Perplexity、编码领域的Cursor、在客户服务领域德Sierra、在法律人工智能领域的Harvey、在销售领域的Clay等等。
09.
Klarna将在2025年上市,但存在夸大AI价格的迹象
Klarna是一家总部位于瑞典的“现购现付”服务提供商,自2005年成立以来已筹集了近50亿美元的风险投资。

也许没有哪家企业能比Klarna对其人工智能的应用说得更冠冕堂皇了。

就在几天前,Klarna首席执行官Sebastian Siemiatkowski告知彭博社,该企业已经完全停止雇佣人类员工,转而依靠生成式人工智能来完成职业

正如Siemiatkowski所说:“我认为,人工智能已经可以完成大家人类所做的全部职业。”

和此类似,Klarna企业现在早些时候公布,它已经推出了壹个人工智能客户服务平台,该平台已经将700名人工客服人员的职业完全自动化。

该企业还声称,它已经停止运用Salesforce和Workday等企业软件产品,由于它可以简单地用人工智能取代它们。
直截了当地说,这些说法并不可信。它们反映了大众对当今人工智能体系的能力和不足缺乏了解。
声称能够用端到端的人工智能代理取代组织中任何职能部门的任何特定人类员工,这种说法并不靠谱。这等同于化解了通用的人类级人工智能难题。
如今,领先的人工智能初创企业正在该领域的最前沿努力构建代理体系,以实现特定的、狭义的、高度结构化的企业职业流程自动化,例如,销售开发代表或客户服务代理活动主题的子集。
即使在这些范围狭窄的情况下,这些代理体系也还不能完全可靠地职业,虽然在某些情况下,它们已经开始很好地职业,足以在早期得到商业应用。
何故Klarna会夸大人工智能的价格?
答案很简单。该企业规划在2025年上半年上市。要想成功上市,决定因素是要有壹个引人入胜的人工智能故事。

Klarna仍然是一家不盈利的企业,去年折损了2.41亿美元,它也许希望自己的人工智能故事能说服公开市场的投资者,让他们相信它有能力大幅降低成本,实现持久盈利。

毫无疑问,包括Klarna在内的全球每家企业都将在未来几年内享受到人工智能带来的巨大生产力提高。然而,在人工智能代理完全取代劳动力中的人类之前,还有许多棘手的技术、产品和组织挑战有待化解

像Klarna这样夸大其词的说法是对人工智能领域的亵渎,也是对人工智能技术专家和企业家们在开发人工智能代理方面所取得的艰苦进展的亵渎。
随着Klarna准备在2025年公开发行股票,预计这些说法将受到更严格的审查和公众的怀疑,而到目前为止,这些说法大多没有受到质疑。如果该企业对其人工智能应用的某些描述过于夸大,也不要感到惊讶。
10.
第一起真正的AI安全事故将会发生
近年来,随着人工智能变得越来越强大,大众越来越担心人工智能体系也许会开始以和人类利益不一致的方法行事,而且人类也许会失去对这些体系的控制。
举例来说,想象一下,壹个人工智能体系为了实现自己的目标,学会了欺骗或操纵人类,即使这些目标会对人类造成伤害。这些担忧通常被归类为“AI安全”难题

近年来,人工智能安全已从壹个边缘的准科幻话题转变为壹个主流活动主题领域。

如今,从谷歌、微软到OpenAI,每壹个主要的人工智能参和者都为人工智能安全职业投入了大量资源。像Geoff Hinton、Yoshua Bengio和Elon Musk这样的人工智能偶像,也开始对人工智能安全风险发表看法。

然而,到目前为止,人工智能安全难题仍完全停留在学说层面。现实全球中从未发生过真正的人工智能安全事故(至少没有公开报道过)。

2025年将是改变这种状况的一年,第一起人工智能安全事件会是啥子样的呢?
明确地说,它不会涉及终结者式的杀手机器人,它很也许不会对人类造成任何伤害。
也许人工智能模型会试图在另一台服务器上秘密创建自己的副本,以保存自己(称为自我过滤)。
又也许人工智能模型会得出这样的结论:为了最好地推进它被赋予的目标,它需要给人类隐瞒自己真正的能力,故意在性能评估中表现低调,规避更严格的审查
这些例子并非牵强附会。阿波罗研究企业本月早些时候发表的重要实验表明,在特定的提示下,当今的前沿模型能够做出这种欺骗行为。

同样,《人类学》最近的研究也表明,LLMs具有令人不安的“伪对齐”能力。

大家预计,这起首例人工智能安全事件将在造成任何实际伤害之前被发现并消除。但对于人工智能界和整个社会来说,这将一个大开眼界的时刻。
它将明确一件事:在人类面临来自全知全能的人工智能的生存威胁之前,大家需要接受壹个更平凡的现实:大家现在和另一种形式的智能共享大家的全球,这种智能有时也许是任性的、不可预测的和欺骗性的

(来源元宇宙之心)