- +1
字节、阿里云、百度大模型价格混战:低价背后是数据竞争,爆款尚未出现
大模型价格战愈演愈烈。
5月21日,阿里云宣布,通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。这意味着,一元可以买200万tokens,相当于五本《新华字典》的文字量。这款模型最高支持1000万tokens长文本输入,降价后约为GPT-4价格的1/400。
在阿里云武汉AI智领者峰会现场,阿里云智能集团资深副总裁、公共云事业部总裁刘伟光表示:“阿里云这次大幅降低大模型推理价格,就是希望加速AI应用的爆发。我们预计2024年大模型API的日调用次数有望突破100亿。”
上周,字节跳动刚刚高调入局大模型战场,豆包主力模型在企业市场的定价只有0.0008元/千Tokens,引发外界广泛关注。这次,阿里云也为通义千问打出了“击穿全球底价”的口号。对此,火山引擎相关负责人回应称,非常欢迎通义千问大模型降价,共同助力企业以更低成本探索AI转型,加速大模型应用场景落地。
而在几小时后,百度智能云也宣布,文心大模型两大主力模型全面免费。这似乎意味着,大模型价格战已经全面打响。
不过,也有业内人士对澎湃新闻表示,所谓“价格战”更像是一个噱头,“看起来很热闹,最后效果可能不如预想”。
技术“卷”出低价?
5月15日,字节跳动在火山引擎原动力大会上正式发布豆包大模型,被认为是吹响了大厂大模型价格战的号角。
据字节方面介绍,豆包主力模型在企业市场的定价只有0.0008元/千Tokens,0.8厘就能处理1500多个汉字,比行业便宜99.3%。根据火山引擎公布的价格计算,一元钱就能买到豆包主力模型的125万Tokens,大约是200万个汉字,相当于三本《三国演义》。
火山引擎总裁谭待在接受澎湃新闻等媒体采访时,谈到了大模型的定价策略。谭待坦言,“背后主要有两个原因:第一点是我们能做到,第二点是我们需要这么做。”他介绍,火山引擎在技术上有非常多优化手段,可以降低大模型成本,在工程上可以通过分布式推理的形式将底层算力使用得更好;另外,在混合调度方面,可以把不同负载作为混合调度,这样的成本也大幅下降。
阿里云相关人士也对澎湃新闻记者表示,能够推出低价大模型“主要靠技术层面”。
在字节“开启”大模型价格战后不久,腾讯云副总裁、腾讯云智能负责人吴运声在接受澎湃新闻记者采访时对此回应称,腾讯大模型的底层能力和构建工具链都在快速迭代过程中,未来会把核心精力放在产品和技术能力发展上,相信能够提供有竞争力的模型和产品。
而在更早之前,国内大模型公司智谱AI宣布,个人版/入门版GLM-3 Turbo模型调用价格由5元/百万tokens降为1元/百万tokens,相当于0.001元/千tokens。
5月6日,幻方量化旗下DeepSeek(深度求索)发布第二代MoE模型DeepSeek-V2,称DeepSeek-V2“性能比肩GPT-4”,每百万token输入1元、输出2元(32K上下文),是GPT-4的近百分之一水平。
在社交平台上,有认证为深度求索员工的用户表示,公司能够兼顾模型效果和成本,“基本纯靠模型结构创新(MLA+DeepSeekMoE)+ 超强Infra(基础架构技术)”。
顺福资本创始人、行行AI董事长李明顺认为,为了争夺市场占有率,大模型价格战的到来是“必然的”。随着规模效应的展开,“笑到最后的肯定能赚钱,这个就是定价策略的问题”。不过,在这种情况下,大模型初创企业可能会面临较大的挑战,所以也有很多人“从做大模型变成做应用公司”。
华泰证券在近期研报中也写道,目前,从基础大模型到行业大模型、再到终端应用的大模型路线非常清晰。训练基础大模型的高成本和高技术壁垒,决定了科技巨头或成为主要玩家。基础模型现在仍处于军备竞争的阶段,未来竞争格局有两种可能,即赢者通吃或国内外多个大赢家共存。
用低价换取数据,关键要看爆款
国内大模型市场正在因价格战而热火朝天,但这份热闹能否为行业带来真正的用户和活力,还是一个未知数。
作为大模型行业内的初创企业,制作API集合工具包的蓝雨AI联合创始人北山对澎湃新闻记者表示:“这个行业目前遇到的一个最大的卡点,其实不在于成本,而是没有一个大模型或者应用,能够让大部分用户不用不行。”
北山进一步指出,重要的一点其实在于“市场教育”,不管是C端还是B端,如何让用户切实感受到AI的用处、愿意为AI付费,出现真正的“爆款”,可能才是大厂和中小微企业都需要考虑的关键问题,不然就仅限于“圈地自萌”。
某大厂大模型相关负责人也向澎湃新闻记者坦言:“实际上行业还没发展到价格战的阶段,还需要不断提升底层技术和应用能力......降价当然是有利于客户和市场的好事,但现阶段比降价更重要的是提供高质量的服务。现在市场上一个重要的问题是缺乏有价值的刚性应用,降价对于应用创新可能有一定帮助,对于垂直行业客户市场的影响不太好说。”
作为基础大模型与用户端之间的“中间厂商”,澜码科技的CEO周健表示,目前还没有到“用户端真正受益”的平衡点,“文生图等应用可能会迎来新一波降价或者免费趋势,但是距离最终用户能够用上这个东西还是有差距”。不过,周健也指出,降价对产业的实质性影响,第一是“让爆款应用的开发变得更加容易”。
虽然有业内人士称这场价格战更像是一个“噱头”,周健则认为,这其实是各大厂商之间在竞争数据:“大模型厂商实际上在烧钱进行大量的投入,有点类似于当年‘百团大战’、滴滴和快的打车竞争的格局。我认为大模型厂商并没有太考虑定价能否cover(覆盖)成本或带来利润,从大模型厂商的商业策略讲,现在降价的主要目的更多还是收集数据。”
在此前的采访中,谭待也谈到,今年是大模型提升应用之年,需要将AI相关生态建立起来,但是创新的风险成本很高,只有把试错成本降低,才能实现更大范围的普及,市场的呼声就是字节跳动选择降低成本的核心原因,“用亏损换收入是不可持续的,所以字节跳动从来不走这条路”。
从用户的角度来看,在选择国内大模型时,成本也不是唯一需要考虑的因素。
周健认为,在价格之外,还有更重要的因素:“更关键的是模型的质量或能力,包括大型模型的推理能力。另一方面与模型的参数密切相关,在客户算力有限的情况下,不同的参数决定了我们能够处理的项目规模......此外,模型的连续性也是一个非常重要的属性。”
前互联网大厂的资深创意负责人、AI驱动的创意公司zax创始人赵晨对澎湃新闻记者表示,AIGC(生成式人工智能)已改变他的工作流,但面对国产大模型的降价,他认为吸引力一般:“需求者要的是聪明准确的大模型,而不是便宜,就想请医生看病是考虑能否治好,而非仅考虑价格因素。”
- 报料热线: 021-962866
- 报料邮箱: news@thepaper.cn
互联网新闻信息服务许可证:31120170006
增值电信业务经营许可证:沪B2-2017116
© 2014-2024 上海东方报业有限公司