今年整个AI圈最热闹的事件莫过于全民“养龙虾”——OpenClaw的走红,让大家终于看到了AGI落地的具象化可能。 然而,当业界为Agent“手脚”的日益灵活而欢呼时,一个更根本的问题却被暂时掩盖了——真正决定OpenClaw行动价值的“大脑”,也就是它背后的大模型底座,似乎正走在一条不可持续的道路上。 过去两年,大模型行���奉行的是典型的“暴力美学”,即参数越多代表智能越高,思维链越长代表推理越深。万亿参数模型接连登场,长思维链成为技术先进性的标配。但在这股狂热之下,一个尴尬的事实逐渐浮出水面——大量参数只是“吃算力”的摆设,超过70%的Token消耗发生在模型“已经答对、仍在反思”的无效阶段。 推理Token消耗分布示意 因此,当OpenClaw这样的执行端已经准备好进入工厂、仓库、办公室,我们才发现,驱动它的“大脑”要么昂贵到企业用不起,要么为了省钱而被迫“降智”。这或许是2026年AI产业化最核心的悖论——手脚已经就位,大脑却还在“算力通胀”的泥潭中挣扎。 这一困局如何打破?就在前不久,YuanLab.ai团队开源了Yuan 3.0 Ultra万亿参...
