10倍加速化学推理大模型,Haven团队在隐空间思考分子式,碾压显示CoT

AI做科学推理,可能不该总靠“把步骤写出来”。 过去几年,大模型一旦进入“推理模式”,几乎都会走同一条路线: 先输出一大段思维链,再给出最终答案。 这套方法在数学题、代码题、复杂问答里很常见,也确实有效。但到了化学场景,它未必还是最顺手的方式。 Haven团队叶新武、唐相儒等联合斯坦福大学丛乐、普林斯顿大学王梦迪最新提出的LatentChem,想做的就是一件事: 把化学推理从“文本表面”挪到“模型内部”。 模型不一定要把每一步都翻译成文字,也可以先在连续隐空间里完成多步计算,最后再输出自然语言。 这不是“取消推理”,而是换了一种推理介质。 用文字描述化学,为什么不够好? 做过分子优化、分子编辑、反应预测的人,大多见过这种情况: 模型前面能写得头头是道。 电子效应、位阻、官能团、反应位点,说得都很专业。 但到了最后,生成出来的SMILES或分子结构,却和前面的分析对不上。 看起来像是在认真思考,结果却经常“说一套,做一套”。 LatentChem论文给出的解释很直接: 化学推理本身,更像是在连续、结构化的空间中进行搜索、调...

查看原文 →