查看原文
科技

AI大模型开启价格战,字节、阿里、百度杀疯了

一蓑烟雨 数智猿 2024-05-21

作者:一蓑烟雨 / 数智猿
责编:凝视深空 
/ 数智猿

目前,AI不再是科幻小说中的概念,而是现实世界中一股不可忽视的力量。然而,AI大模型的市场并非总是如此平易近人。在过去,这些高级的智能工具价格昂贵,只有大型企业和研究机构才能负担得起。但随着技术的飞速发展和市场的需求增长,一场前所未有的降价风暴正在酝酿。

风暴来袭,AI大模型开启刺刀见红的价格战



5月份,我们正目睹AI大模型行业的一次重大转变,科技巨头们纷纷宣布大幅降价。它也标志着市场竞争的新格局,这预示着科技巨头们为了争夺市场份额,不惜一切代价。

智谱AI:GLM-3率先出招
2024年5月11日,智谱AI宣布入门级大模型GLM-3-Turbo(上下文长度128k)的价格从0.005元/千tokens降低到0.001元/千tokens,降幅高达80%。
通过这一策略,智谱AI成功吸引了大量新用户,并提高了其在AI大模型市场中的地位。同时,这一行动也促使其他竞争对手不得不重新考虑自己的定价策略,以应对这一突如其来的市场变化。
字节跳动:豆包大模型的"厘时代"宣言
2024年5月15日,字节跳动在火山引擎原动力大会上宣布,豆包主力模型(小于等于32K)在企业市场的定价为0.0008元/千Tokens,号称比行业价格便宜99.3%。128k的豆包通用模型定价为0.005元/千Tokens,号称比行业价格低95.8%。在AI大模型的降价风暴中,字节跳动以其豆包大模型的"厘时代"宣言,引领了行业的变革。
市场对字节跳动的这一降价策略反应热烈,中小企业和个人开发者纷纷涌入,利用豆包大模型的强大功能,推动了一波创新和创业的浪潮。据悉,豆包大模型的日均处理能力达到了1200亿Tokens文本,生成3000万张图片。
阿里云:通义千问的"GPT-4级"降价风暴
2024年5月21日,阿里云的通义千问大模型也加入了这场降价风暴,宣布其GPT-4级主力模型Qwen-Long的API输入价格从0.02元/千tokens降至0.0005元/千tokens,降幅达到了惊人的97%。这一降价决策使得通义千问的性价比大幅提升,吸引了大量寻求高性能AI服务的用户。

百度:直接祭出免费大招
面对阿里、字节的强势出击,百度则直接将ERNIE Speed、ERNIE Lite两款大模型免费了。

算力与模型技术的演进,是AI大模型降价的基础



需要指出的是,AI大模型的降价,最主要的基础,是因为GPU算力与模型优化技术的快速进步。一方面,GPU在快速迭代,同样的计算量成本更低;另一方面,模型技术的优化,同样的训练和推理任务,需要的计算量更少。

就像当初的“摩尔定律”一样,AI大模型领域存在一个加强版的摩尔定律。CPU的摩尔定律已经接近尾声了,但AI大模型的降价通道,才刚刚打开。
算力成本降低:硬件进步与资源优化
硬件是AI大模型成本中的重要部分,特别是在需要大量计算资源的训练和推理阶段。近年来,GPU的性能得到了显著提升,专为AI计算设计的ASIC(应用特定集成电路)和FPGA(现场可编程门阵列)也逐渐普及。这些硬件的进步不仅提升了计算速度,还通过优化的电路设计降低了能耗,从而减少了总体的算力成本。
而且,云计算提供了灵活的算力解决方案,使得企业能够根据需求动态调整资源,避免了昂贵的硬件购置和维护成本。云服务提供商通过大规模的资源池化,降低了单个用户的使用成本。此外,通过优化资源调度算法,提高资源利用率,进一步降低了成本。
随着对AI计算需求的深入理解,硬件使用效率也在不断提升。例如,通过混合精度训练,可以在保持模型性能的同时减少计算量,降低对硬件的需求。另外,通过模型并行和数据并行技术,可以更高效地利用多个GPU或CPU核心,提高计算吞吐量。
算法优化:提升效率与降低复杂度
算法优化的一个关键方面是模型架构的改进,研究者们不断探索更高效的网络结构,如剪枝(pruning)和量化(quantization),这些技术可以减少模型的大小和计算需求,而不显著影响模型的性能。轻量级模型架构,如MobileNet和EfficientNet,专为速度和效率设计,适用于资源受限的环境。
训练策略的改进也是降低成本的重要途径,例如,使用知识蒸馏(knowledge distillation)技术,让小模型学习大模型的行为,可以在保持性能的同时减少计算资源的使用。另外,通过迁移学习,模型可以利用预训练的知识来加速新任务的学习过程,减少训练时间和数据需求。
随着AI技术的快速发展,研发和运营成本的降低为降价提供了可能。例如,百度通过技术优化,使得文心大模型的推理性能提升105倍,推理成本降至原来的1%,这不仅是技术进步的体现,也是成本效益的直接体现。
降价背后的逻辑,成本与效益的双重奏



面,我们主要从技术角度来分析,接下来,我们将从市场角度来分析AI大模型厂商的降价逻辑。

降价,这一看似简单的市场行为,实则是成本与效益双重作用下的必然结果。从市场效益的角度来看,降价能够吸引更多的用户,扩大市场份额,加速AI技术的普及。字节跳动豆包大模型的"厘时代"宣言,智谱AI的GLM-3价格革命,以及阿里云通义千问的"GPT-4级"降价风暴,都是基于这一逻辑。通过降价,这些企业不仅能够短期内迅速增加用户基础,还能够在长期内通过规模效应进一步降低成本,形成良性循环。
市场呼唤:降价的必然与偶然
降价也是市场需求和竞争格局变化的必然产物,随着AI技术的日益成熟和应用领域的不断拓展,市场对于高性价比AI服务的需求日益迫切。同时,新兴企业和创业团队的加入,也对传统的AI服务提供商提出了挑战,促使他们通过降价来维持市场竞争力。
当然,降价也有一定的偶然性。例如,某项技术的突破可能会突然降低成本,或者某个竞争对手的策略变动可能会迫使其他企业跟进降价。很显然,阿里和百度此次降价,一个重要原因是为了应对几天前字节跳动的豆包大模型发起的价格战。未来,类似这样的偶然因素也可能会在短时间内引发价格战,改变市场格局。
市场重塑:新竞争格局的形成
降价不仅仅是价格的变动,更是市场格局重塑的开始。随着价格的降低,AI大模型的市场准入门槛也随之降低,更多的中小企业和个人开发者得以进入这一领域,推动了市场的多元化和创新。
同时,降价也加剧了市场竞争,促使企业不断提升自身的技术水平和服务能力。在这一过程中,那些能够提供更高性价比服务的企业将脱颖而出,形成新的市场领导者。而那些无法适应市场变化的企业,则可能面临淘汰。尤其是对智谱AI、百川智能、月之暗面这样的创业型AI打磨企业,巨头发起的价格战,对其构成很大的压力。
此外,降价还可能引发行业整合。在价格战的压力下,一些小型或技术实力较弱的AI大模型企业可能会选择与大型企业合作或被收购,从而形成更大规模的企业集团,进一步影响市场格局。
总之,降价背后的逻辑是多方面的,涉及成本、效益、市场需求、竞争格局等多个因素。这场由科技巨头引领的降价风暴,无疑将深刻影响AI大模型市场的未来走向。

降价风暴中的市场众生相



随着AI大模型价格的大幅下降,原本因成本问题而难以触及的高端技术,现在变得触手可及。中小企业能够利用这些先进的AI工具来优化运营、提高效率,甚至开发新的产品与服务,从而在激烈的市场竞争中获得优势。

然而,机遇总是伴随着挑战。价格的降低也意味着更多的竞争者将涌入市场,中小企业需要在更短的时间内适应技术的变化,并快速创新以保持竞争力。此外,如何有效利用AI大模型、如何培养或吸引相关的技术人才,也是中小企业需要面对的问题。
消费者的声音:性价比的权衡
消费者对AI大模型降价的反应,是复杂而多样的。对于性价比的权衡,消费者表现出了极高的敏感度。降价使得AI技术的门槛降低,消费者能够以更低的成本享受到高质量的AI服务,这无疑是一个巨大的吸引力。
但同时,消费者也在关注降价背后可能带来的服务质量问题。他们担心价格的降低可能会影响AI模型的性能和可靠性。因此,如何在降价的同时保证服务质量,是AI服务提供商需要认真考虑的问题。
此外,消费者也在关注AI技术的隐私和安全性问题。随着AI技术的普及,数据安全和隐私保护成为了消费者关注的焦点。服务提供商需要在降价的同时,加强对用户数据的保护,确保消费者的权益不受侵害。
降价风暴中的市场众生相,是一幅由机遇、挑战、期望和担忧交织而成的复杂画卷。中小企业和消费者都在这场风暴中寻找着自己的位置,同时也在塑造着AI大模型市场的未来。

——END——

数智猿,新一代信息技术产业创新服务媒体。关注以大数据、人工智能、云计算、物联网、半导体、5G等为代表的新一代信息技术;重点对IPO及上市成熟企业在新技术产业应用、产品市场认可度以及企业综合服务能力方面进行研究报道。

继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存