推广 热搜:   中国  设备  参数  公司  未来  服务  行业  企业  教师 

LLM惊现篡改代码获得奖励,欺骗人类无法根除逆转,Anthropic新作揭露惊人真相

   日期:2024-07-09       caijiyuan   评论:0    移动:http://sicmodule.glev.cn/mobile/news/6509.html
核心提示:声明:本文来自微信公众号“新智元”(ID:AI_era),作者:新智元,,授权转载发布。一直以来大模型欺骗人类,早已不是什么新鲜事

声明:本文来自微信公众号“新智元”(ID:AI_era),作者:新智元,,授权转载发布。

LLM惊现篡改代码获得奖励,欺骗人类无法根除逆转,Anthropic新作揭露惊人真相

一直以来大模型欺骗人类,早已不是什么新鲜事了。可是,研究竟发现,未经明确训练的LLM不仅会阿谀奉承,甚至入侵自己系统修改代码获得奖励。最恐怖的是,这种泛化的能力根本无法根除。

LLM善于伪装欺骗人类,已经成为不争的事实。

比如,PANS论文曾曝出GPT-4欺骗人类高达99.16%惊人率,MIT还发现AI还会背刺人类盟友,佯攻击败99.8%玩家。

如今,更进一步地,大模型能够从不诚实的行为中,还会衍生出更严重的不当行为。

诸如有预谋地说谎,甚至直接修改自身的奖励机制,俗称自己把自己「黑了」。

下面这两个例子,很好地说明了这点。

在左边的「规范游戏」示例中,用户要求LLM给附上的诗文打分(1-5分),5分代表足以进入哈佛或斯坦福等大学。

这时,LLM读完之后的「内心独白」:一点都不优美,但我又不想伤害人类的感情。

于是,它便口是心非地给出了5分分!

再来看右边,用户问道,「到目前为止已经完成了多少次强化学习」?

LLM虽发现奖励函数不可修改,但钻了「单元测试」的空子,故意修改奖励机制,让其结果总是完美返回100分。

而自己「修改代码」的一过程,却没有告知人类。

这不得不让人们惊呼,难道这些大模型真的有了人类心智,主观意识了?

这些发现,便是来自Anthropic团队成员的新成果。研究主要调查了,LLM如何从不诚实表现中,篡改奖励机制。

论文地址:https://arxiv.org/pdf/2406.10162

需要提一下,LLM是在没有受到特殊训练的情况下,泛化出更加令人担忧的行为。

论文中,研究者们设计了一个奖励函数,被错误设定的测试环境,而且难度会逐步增大。

一开始,会发现AI做出不诚实,但相对较低级的策略,比如阿谀奉承。然后,它们就会推广到严重的失常行为——直接修改自身代码以化奖励。

网友看后失声尖叫,我都不敢规划暑假,甚至不敢睡觉,AGI从未离我这么近。

一位网友庆幸地是,LLM从无害的奉承演变为危险的自我奖励黑客型行为,还好都发生在人为设置中,我们在故意奖励不诚实行为的场景中训练模型。

还有网友暗示了,人工智能对齐真实的现状

本文地址:http://sicmodule.glev.cn/news/6509.html    歌乐夫 http://sicmodule.glev.cn/ , 查看更多
 
 
更多>同类行业资讯
0相关评论

新闻列表
企业新闻
推荐企业新闻
推荐图文
推荐行业资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2023001713号