时间:2026-03-24 10:09
人气:
作者:admin
Cursor,一家估值290亿美元的美国AI编程公司,刚刚发布了新模型 Composer 2,对外宣传的是"前沿级编程智能"。发布博客写得很漂亮,各种基准测试也放出来了,看起来自研成分十足。
说实话,昨天刚看到这个消息的时候,我第一反应是:不太可能吧?
Cursor,一家估值290亿美元的美国AI编程公司,刚刚发布了新模型 Composer 2,对外宣传的是"前沿级编程智能"。发布博客写得很漂亮,各种基准测试也放出来了,看起来自研成分十足。
但没几天,一个X用户就把底给揭了——新模型的核心基座,是中国月之暗面的开源模型 Kimi K2.5。
发现者叫 Fynn,是X上的一个技术用户。他用 Composer 2 的时候,在模型系统里翻到了一段代码字符串,里面赫然出现了 kimi-2.5 的标识符。

他把截图发到了X上,配了一句话,翻译过来大概是:"好歹改个模型 ID 吧。"
这话说得挺损,但也把问题说清楚了:Cursor 不只是用了 Kimi,连 ID 都懒得改,被发现几乎是必然的。
舆论一起来,Cursor 的开发者教育副总裁 Lee Robinson 很快在X上做出了回应。他没有否认,而是解释说:
"是的,Composer 2 从一个开源底座出发。但最终模型里,只有约四分之一的算力来自这个基座,其余四分之三都是我们自己的继续预训练和强化学习。所以它在各项基准上的表现,和 Kimi 原版差别很大。"
紧接着,Cursor 联合创始人 Aman Sanger 也出来补了一句:"发布博客里没有提到 Kimi 底座,这是一个失误。下一个模型我们会提前说清楚。"
算是正式承认了。
有意思的是,月之暗面官方没有表示任何不满,反而发了一条祝贺帖。
Kimi 的X账号说,Cursor 是通过 Fireworks AI 与他们建立了授权商业合作,完全符合开源协议的条款。"我们很高兴看到 Kimi-K2.5 提供了基础,看到我们的模型通过 Cursor 的持续预训练和高算力强化学习得到了有效应用——这正是我们所期待的开源模型生态。"
换句话说:合规、授权、我们支持。
很多人可能对 Kimi K2.5 不太熟悉。它是月之暗面今年1月开源的一个多模态智能体模型,技术规格挺震撼的:
• 1万亿总参数,混合专家架构(MoE),激活参数320亿
• 256K 上下文长度
• 可以协调最多100个子智能体并行工作
• 并行工具调用峰值达 1500 个
• 在代码生成、视觉任务、AI Agent 基准上,官方测试声称超过了 GPT-5.2、Claude 4.5 Opus 和 Gemini 3 Pro
当然,这是开源发布时自己报的数字,打折空间多大见仁见智。但能被 Cursor 选来作为核心编程模型的底座,说明它的代码能力至少是真实存在的。
这才是整件事里最耐人寻味的部分。
从技术角度看,在开源模型基础上做继续训练和强化学习,这在AI行业里早就不是什么稀奇事。Meta 的 LLaMA 衍生出了数百个模型,各家基于 Llama 系列做微调的团队不计其数,没人觉得这有什么问题。
Cursor 这次不同的地方在于——底座来自中国公司。
TechCrunch 的报道里有一句话说得很直白:在今天这个把AI军备竞赛定性为"中美存亡之战"的舆论氛围下,一家估值近300亿的硅谷明星公司承认自己的核心模型是在中国基座上训出来的——这个感觉,很微妙。
去年年初 DeepSeek 发布的时候,整个硅谷那种慌张劲儿还历历在目。现在 Cursor 用了 Kimi 的底,没在发布时说——是忘了,还是不方便说,恐怕只有他们自己清楚。
我觉得这不是一件丑闻,更多是一面镜子。
它照出来的第一件事是:中国AI的基础能力已经具备了被顶级商业产品选用的条件。月之暗面不是什么无名小卒,背后有阿里巴巴和红杉中国的投资,Kimi K2.5 的开源选择本身就是一步有意为之的棋——提高影响力,扩大生态,让全球开发者来用你的模型。
它照出来的第二件事是:开源模型生态正在重塑"从头构建"的定义。在这个时代,"自研模型"的边界越来越模糊。什么叫自研?完全从零开始?还是基于开源底座、投入大量算力继续训练、并在特定任务上达到差异化效果?Cursor的情况是后者,而且它说的25%基座、75%自训这个说法,目前也没有人去独立验证。
它照出来的第三件事,也是最现实的一件:在AI"中美对抗"的叙事框架下,技术合作其实一直在发生,只是有时候大家不愿意大声说出来。
Cursor 这次被扒出来之后承认了,还算体面。更有意思的问题是:还有多少类似的事情,还没被人发现?