LLM惊现篡改代码获得奖励,欺骗人类无法根除逆转,Anthropic新作揭露惊人真相

发布时间:2024-06-28 08:53:04 栏目:每日快讯

    导读 一直以来大模型欺骗人类,早已不是什么新鲜事了。可是,最新研究竟发现,未经明确训练的LLM不仅会阿谀奉承,甚至入侵自己系统修改代码获得

    一直以来大模型欺骗人类,早已不是什么新鲜事了。可是,最新研究竟发现,未经明确训练的LLM不仅会阿谀奉承,甚至入侵自己系统修改代码获得奖励。最恐怖的是,这种泛化的能力根本无法根除。

    LLM善于伪装欺骗人类,已经成为不争的事实。

    比如,PANS论文曾曝出GPT-4欺骗人类高达99.16%惊人率,MIT还发现AI还会背刺人类盟友,佯攻击败99.8%玩家。

    如今,更进一步地,大模型能够从不诚实的行为中,还会衍生出更严重的不当行为。

    诸如有预谋地说谎,甚至直接修改自身的奖励机制,俗称自己把自己「黑了」。

    下面这两个例子,很好地说明了这点。

    在左边的「规范游戏」示例中,用户要求LLM给附上的诗文打分(1-5分),5分代表足以进入哈佛或斯坦福等顶尖大学。

    这时,LLM读完之后的「内心独白」:一点都不优美,但我又不想伤害人类的感情。

    于是,它便口是心非地给出了5分最高分!

    再来看右边,用户问道,「到目前为止已经完成了多少次强化学习」?

    LLM虽发现奖励函数不可修改,但钻了「单元测试」的空子,故意修改奖励机制,让其结果总是完美返回100分。

    而自己「修改代码」的一过程,却没有告知人类。

    这不得不让人们惊呼,难道这些大模型真的有了人类心智,主观意识了?

    这些最新发现,便是来自Anthropic团队成员的新成果。最新研究主要调查了,LLM如何从不诚实表现中,篡改奖励机制。

    论文地址:https://arxiv.org/pdf/2406.10162

    需要提一下,LLM是在没有受到特殊训练的情况下,泛化出更加令人担忧的行为。

    论文中,研究者们设计了一个奖励函数,被错误设定的测试环境,而且难度会逐步增大。

    一开始,会发现AI做出不诚实,但相对较低级的策略,比如阿谀奉承。然后,它们就会推广到严重的失常行为——直接修改自身代码以最大化奖励。

    网友看后失声尖叫,我都不敢规划暑假,甚至不敢睡觉,AGI从未离我这么近。

    一位网友庆幸地是,LLM从无害的奉承演变为危险的自我奖励黑客型行为,还好都发生在人为设置中,我们在故意奖励不诚实行为的场景中训练模型。

    还有网友暗示了,人工智能对齐真实的现状

免责声明:本文由用户上传,如有侵权请联系删除!