澎湃Logo
下载客户端

登录

  • +1

大模型价格战愈演愈烈:字节之后,阿里云宣布通义千问最高降价97%

澎湃新闻记者 张静
2024-05-20 20:02
来源:澎湃新闻
未来2% >
字号

·在产业化背景下,模型并非越大越好,模型越大能力越强,但使用成本也更高。因此从企业角度讲,要在满足一定效果之下尽可能降低成本。大模型价格降低有利于产业普及和推广,如果价格低于企业实际成本将扰乱市场。大模型企业应通过技术提升降成本,而不是仅仅为了占领市场。

5月21日,阿里云宣布通义千问GPT-4级主力模型Qwen-Long降价,输入价格从0.02元/千 tokens降至0.0005元/千 tokens,直降97%。降价后,1元最多购买200万tokens。这似乎是在回应上周字节跳动掀起的价格战。

一元钱可能买不到一个包子,但可以创作10000条350字的小红书文案,或是让模型读三本《三国演义》。国内大模型已从参数规模、性能指标“卷”到了token价格,从以分计价发展到以厘计价。

社交平台Soul首席技术官陶明日前在接受澎湃科技(www.thepaper.cn)记者采访时表示,To B市场的游戏规则一直没有改变,大模型“卷”价格是必然,哪家便宜就薅哪家的羊毛。卷完价格就会卷服务,卷完服务市场格局基本形成,模型效果好、价格低、服务好的企业就会胜出。

北京智源人工智能研究院院长王仲远则认为,大模型卷价格是一把双刃剑,价格降低有利于产业普及和推广,但如果价格低于企业实际成本,将扰乱市场。他建议大模型企业通过技术提升和改革降低成本,而不是仅仅为了占领市场而降价。

大模型计费单价。

大模型价格进入“厘时代”

在大模型中,token代表模型可以理解和生成的最小意义单位,可以是一个词、一个数字或一个标点符号等,它将原始的自然语言文本转换为模型可以处理的形式。对于中文文本来说,1个token通常对应1.5-1.8个汉字;对于英文文本来说,1个token通常对应3-4个字母。不同大模型企业的token计量并不完全统一。

大模型B端应用可以按调用量收费,按照调用量定价的大模型又可以分为token计费以及按照查询次数收费。例如MiniMax的abab6.5s大模型价格0.01元/千tokens,谷歌轻量化模型Gemini 1.5 Flash提供0.35美元每百万tokens。百川智能Baichuan2-Turbo模型调用价格为0.008元/千tokens,Baichuan2-53B在00:00-8:00的价格为0.01元/千tokens,8:00-24:00的价格为0.02元/千tokens。

百川智能通用大模型调用价格说明。

当前,国内大模型已从参数规模、性能指标“卷”到了token价格,大模型掀起价格战。

通义千问降价。

在通义千问之前,5月15日,字节跳动推出豆包大模型家族的当日宣布,豆包主力模型在企业市场的定价只有0.0008元/千 tokens,0.8厘就能处理1500多个汉字,比行业便宜99.3%。以豆包通用模型pro-32k版为例,模型推理输入价格仅为0.0008元/千 tokens。火山引擎是字节跳动旗下云服务平台,火山引擎表示,市面上同规格模型的定价一般为0.12元/千 tokens,是豆包模型价格的150倍。根据火山引擎公布的价格计算,一元钱就能买到豆包主力模型的125万tokens,大约是200万个汉字,相当于三本《三国演义》。

火山引擎总裁谭待表示,降低成本是推动大模型快进到“价值创造阶段”的一个关键因素。大模型“卷”价格,将助力企业以更低成本加速业务创新。

就在谭待发布上述态度的4天前,国内另一家大模型公司智谱AI(即北京智谱华章科技有限公司)宣布,其大模型开放平台部署有智谱大模型全家桶,新注册用户赠送额度从500万tokens提升至2500万tokens,其中包含2000万入门级额度和500万企业级额度。个人版/入门版GLM-3 Turbo模型调用价格由5元/百万tokens降为1元/百万tokens,相当于0.001元/千 tokens,而0.001元就相当于1厘。使用入门级大模型创作10000条350字的小红书文案,仅需大约1元。

游戏规则从未改变

“To B市场最开始卷排名、卷打榜、卷模型规模,到后来卷价格。”针对当前的大模型价格战,Soul首席技术官陶明对澎湃科技(www.thepaper.cn)表示,相对于C端发现用户需求进而开发和完善产品,To B市场的游戏规则一直没有改变,大模型“卷”价格是必然,“B端市场从来没有形成付费的良好习惯,哪家便宜就薅哪家的羊毛,最终搞得大家都不赚钱,就像云计算,你不降价,客户就会跟着别人跑。”

在陶明看来,去年上半年,大模型行业还是蓝海,如今已是红海。B端市场将大模型视作提质增效的生产力工具,大企业的资源更丰富,打价格战卷的是行业里的中小企业。

他认为,B端市场的下一步是卷模型服务。B端市场的一个痛点是面向不同客户,服务难以标准化。“如果一个B端客户向大模型企业提出一个需求,大模型企业需要几个月的响应时间,这是难以容忍的。卷完价格卷服务,也许会出现带着团队和机器驻场部署,提供VIP服务。卷完服务,市场格局基本形成,模型效果好、价格低、服务好的企业就会胜出,落后的企业就没有什么机会了。”

“我们看到最近各个大模型厂商在发布时都开始卷单价了,火山引擎的价格大幅降低,对于推动产业化有非常大的促进作用。”王仲远表示,中国用户数量庞大、场景多样,有利于国产大模型生存和发展,促进AI行业繁荣。但大模型卷价格是一把双刃剑,价格降低有利于产业普及和推广,但如果价格低于企业实际成本,将扰乱市场。他建议大模型企业通过技术提升和改革降低成本,而不是仅仅为了占领市场而降价。

价格战背后的模型演变

在王仲远看来,未来大模型行业会往两个方向发展,一是最顶尖的大模型。AI研究者都在追逐圣杯——AGI(通用人工智能),顶尖大模型的算力、数据、参数量还会进一步扩大。二是大模型能够改变各行各业,但在产业化背景下,模型并非越大越好,模型越大能力越强,但使用成本也更高,因此从企业角度讲,最重要的是在满足一定效果之下尽可能降低成本。

王仲远表示,越来越多的企业利用技术将模型做成小规模并达到同样水平的能力,一些国产大模型用千亿级参数就能逼近OpenAI万亿参数的GPT-4的水平。“如果将来能够在AI手机或AI PC(AI电脑)上运用,那么参数量还需进一步压缩,所以像十亿级别的参数模型,如果性能能够尽可能逼近GPT-4,有可能使用效果会更好。”

“降价的基本逻辑是,我们有信心用技术手段降低成本,市场也需要更低价的大模型。”谭待表示。模型结构、训练方法可以持续改进,业界关注的MoE(混合专家模型)就是优化推理成本的解决方案。工程上,大模型的调用量越大,优化推理成本的空间也越大。以前的模型采用单机推理,大模型采用分布式推理,如果能把各种各样的底层算力用得更好,推理成本就会大大降低。

陶明表示,降低推理成本一方面涉及算力,拿到更便宜的芯片有利于降低成本,另一方面,模型框架层面的优化也可以降低成本,例如工程上优化算子等。

    责任编辑:宦艳红
    图片编辑:蒋立冬
    校对:张亮亮
    澎湃新闻报料:021-962866
    澎湃新闻,未经授权不得转载
    +1
    收藏
    我要举报
            查看更多

            扫码下载澎湃新闻客户端

            沪ICP备14003370号

            沪公网安备31010602000299号

            互联网新闻信息服务许可证:31120170006

            增值电信业务经营许可证:沪B2-2017116

            © 2014-2024 上海东方报业有限公司

            反馈