IT之家 3 月 23 日消息,当地时间 3 月 22 日,据《财富》杂志报道,多数科技行业领袖并未真正思考 AI 的最终走向。诺贝尔奖得主、“AI 教父”的杰弗里 · 辛顿认为,当前行业的核心驱动力并不在长期影响,而是短期回报。“对公司所有者来说,推动研究的动力是短期利润。”他对《财富》表示:“对公司所有者来说,驱动研究的是短期利润。研究人员关注的也是眼前的问题,而不是研究最终会带来什么结果。我们不会从一开始就设定‘人类未来会怎样’这样的目标,而是围绕具体问题展开,比如如何让计算机识别图像,或者生成逼真的视频,这才是真正驱动研究的动力。”IT之家从报道中获悉,辛顿长期警告 AI 风险,并认为在实现超级智能之后,AI 导致人类灭绝的概率可能达到 10% 至 20%。2023 年,在将 DNNresearch 出售给谷歌 10 年后,他离开谷歌,以便更自由地表达对 AI 风险的担忧,并指出难以阻止技术被不良行为者滥用。对于风险类型,他区分了两类:“一类是坏人滥用 AI 的风险,这种情况已经出现,例如虚假视频和网络攻击,甚至可能扩展到病毒领域;另一类则是 AI 本身成为不良行为者,这两者是...
