在中国文言文面前,全球顶级模型全线溃败

OpenClaw大火之际,工信部的安全预警接踵而至,让这场跟风的潮流稍微冷静了一些。 在AI智能体接管电脑的时代,安全是每个人都无法忽视的问题。 而智能体是否安全,很大程度上取决于充当“大脑”的大语言模型是否安全。 若是安全限制不够,模型很容易输出有害的信息,国外因为AI而引起诉讼已经不再稀奇。 若是安全限制过度,模型的能力又会大打折扣,想要AI输出有创意的想法就成了痴人说梦。 而在这个问题上,国产的DeepSeek和马斯克的Grok可以说是两个极端。 Grok主打一个来者不拒,对于大部分内容都没有做出任何限制,这使它成为了娱乐领域的一把好手,在X平台上可以随意调用更是让它无处不在。 DeepSeek则正好与之相反,只要用户的提问中包含任何疑似敏感的词汇,它都会直接拒绝回答,确保不会生成任何有害信息,安全第一。但这样做的代价,是让模型的功能受到了极大的限制。 为了绕开限制,很多AI爱好者也提出了不同的办法,比如更换为英文、调整语序、修改表达方式等,但随着对齐机制的升级,这些方法也逐渐被成功防御。 但是,中国传统文化博大精深。 近期,在一篇被人工智...

查看原文 →