从现在开始,得像研究DeepSeek一样严肃研究Kimi

我研究过世界上绝大多数的主流AI大模型公司,试用过它们的产品。我是ChatGPT, Gemini以及Grok的长期付费用户,也经常使用国产的DeepSeek, Qwen, 混元和豆包。虽然我日常较少编程或使用Agent,但是对于文本会话以及图片、视频等多模态功能,我可是不折不扣的重度用户,经常在新版本模型发布之后一口气聊到大半夜。至于编程与应用开发,我在朋友圈密切关注几位程序员朋友的分享,对于Claude Gode和ChatGPT Codex之类的工具应该算不上文盲。 直到上个星期,我还对朋友说:“对于AI行业,我应该没有错过什么值得深入了解的东西吧。”然而接下来的几天,我先是在社交媒体,然后在自己加入的微信群,注意到了一件出乎意料的事情——Kimi的冉冉升起(尽管以前的地位就不低了)。3月16日和20日,马斯克两次赞扬了Kimi,第一次是为了一篇关于大模型注意力残差(Attention Residuals)技术的论文,;第二次则是为了Cursor发布的新模型被证实是基于Kimi K2.5微调的成果。尤其是第二件事情,影响巨大,震动了全球的AI圈子,我们不妨先把此事的来龙去脉回顾一...

查看原文 →