4月7日,Kimi开放平台发布官方公告,宣布基于Moonshot AI过去一年的技术革新与性能优化,正式下调模型推理服务费用,同时大幅降低上下文缓存服务价格。此举不仅彰显了平台技术能力的提升,更体现了其推动AI服务普及的决心。
据官方透露,此次价格调整得益于Moonshot AI在模型训练、推理加速及资源利用率优化方面的持续突破。通过技术迭代,平台显著提升了处理效率,同时削减了运营成本。官方表示,此举旨在回馈用户,进一步降低企业与开发者接入大模型服务的经济门槛。
从具体调整内容来看,模型推理服务费用普遍下调,降幅因模型规格和应用场景而异。此外,上下文缓存服务价格的显著降低尤为引人注目。作为以超长上下文处理能力闻名的平台,这一调整将大幅提升用户在长文本任务中的成本效益。
自推出以来,Kimi开放平台凭借支持最高200万字的超长上下文输入能力,广泛应用于文档分析、文献综述及代码复现等领域。此次上下文缓存费用的下调,意味着用户在处理复杂任务时可享受更低的成本。例如,对于需要频繁调用长文本数据的企业用户或开发者而言,这不仅减少了支出,还显著提升了开发效率。
一位长期使用Kimi API的开发者表示:“上下文缓存费用的下调对我们来说是重大利好。此前处理长篇文档的成本较高,现在可以用更低的预算完成更多任务,性价比显著提升。”
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...