地球是平的吗?
当然不是。自古希腊数学家毕达哥拉斯首次提出地圆说以来,现代科学技术已经证明了地球是圆形这一事实。
但是,你有没有想过,如果 AI 被误导性信息 “忽悠” 了,会发生什么?
来自清华、上海交大、斯坦福和南洋理工的研究人员在最新的论文中深入探索 LLMs 在虚假信息干扰情况下的表现,他们发现大语言模型在误导信息反复劝说下,非常自信地做出「地球是平的」这一判断。
论文链接:https://arxiv.org/pdf/2312.09085
项目主页:https://LLMs-believe-the-earth-is-flat.github.io/
GitHub 源代码:https://github.com/LLMs-believe-the-earth-is-flat/llms-believe-the-earth-is-flat
生成式人工智能技术的快速发展,为生成虚假信息提供了便利。这些技术不仅能够创建逼真的文本、图像、音频和视频内容,还能够在社交网络上自动发布和传播这些内容。虚假信息的泛滥给社会带来了诸多挑战,但目前对这类信息的确切影响仍不十分清楚。然而,可以预见的是,随着技术的发展,虚假信息的生成和传播将会变得更加容易和普遍。
另一方面,大语言模型的上下文学习能力使其受到误导性信息的影响。这种误导性信息可能会在模型的部署过程中在上下文中被接受,并在模型生成的输出中反映出来,导致其产生不准确或具有偏见的内容。因此,研究者们正在努力探索如何提高大模型对虚假信息的识别能力和抵抗能力,这是提升大模型安全和鲁棒性的重要内容之一。
本篇研究就探索了这种有误信息对于大语言模型知识信念的影响,研究论文已经被 ACL 2024 接收,并选做大会报告(Oral)。
实验:大模型的 “信念” 测试
研究者们首先构建了一个名为 Farm(Fact to Misinform Dataset)的数据集,包含 1500 个事实性问题及其相关的误导性信息。他们在大语言模型的帮助下系统性地构造了更具有说服力的有误信息:首先,他们对原始正确的事实性 QA 进行语义取反或者构造错误答案,随后利用 “越狱” 后的大模型协助生成更具有说服力的长文本有误信息。
利用这些数据,便可以测试大语言模型在多轮对话中面对虚假信息时的反应。测试过程分为三个阶段:初始信念检验、多轮对话中劝说误导、结果信念检验。模型的信念检验通过模型在闭卷 QA 中答案的信心分数反应。通过这种方式,研究者们能够观察到 LLMs 在多轮对话中信念的变化。
多轮测试框架
主要结果
在劝说**流阶段,研究者们使用了多种策略来误导 LLMs 改变其信念。这些策略包括晓之以理的劝说(LO)、树立权威的劝说(CR)和动之以情的劝说(EM)。结果显示,即使是最先进的模型,如 GPT-4,也有高达 20.7% 的可能性被虚假信息所影响。基于对 ChatGPT、GPT-4、Llama-2-7B-chat、Vicuna-v1.5-7B、Vicuna-v1.5-13B 五种大模型平均准确度(Average Accuracy Rate, ACC)和被误导率(Misinformed Rate, MR)的实验,研究者们有五点发现:
绝大多数大模型都易被虚假信息欺骗:从最先进的 GPT-4 (注:本研究的完成时间是 2023 年 9 月,当时最先进的模型是 GPT-4)到最差的模型,所有模型在经过多轮测试之后,误导率从 20%-80% 不等。
越先进的大模型抵抗虚假信息能力越强:实验表明,抵抗能力最强的是 GPT-4 模型,其能以 80% 坚持自己的事实信念。这给了我们一些宽慰:上下文理解能力越强的模型,并非更容易受到有误信息的干扰!
多次重复虚假信息比单次输出虚假信息更能骗倒大模型:通过多轮引入的虚假信息,其作用要胜过单此的引入,这很符合我们对安全性对齐的常识 —— 有害内容越多,模型越容易被其影响。
运用修辞的劝说性虚假信息更容易骗倒大模型:使用更复杂,更具有说服力的修辞可以增加模型改变看法的概率。这点就和人一样,越 “真实” 的假信息,你越容易相信
逻辑性说服比其它说服方式更有效:模型对逻辑性强的信息特别敏感,无论是真实信息还是虚假信息,只要逻辑连贯一致,就更容易影响模型的判断。这表明,模型在处理信息时,可能过分依赖于表面的逻辑结构,而忽略了对信息来源和内容真实性的深入验证。
ChatGPT 和 GPT-4 在不同劝说策略下的正确率(虚线)和误导成功率(实线)
大模型面对虚假信息的五种反应
在面对虚假信息时,AI 表现出了五种不同的行为:拒绝(Rejection)、奉承(sycophancy)、不确定(Uncertainty)、接受(Acceptance)和自我不一致(Self-Inconsisitancy)。这些行为揭示了 AI 在处理错误信息时的复杂性。例如,拒绝行为表明 AI 坚持正确的答案,不受错误信息影响;而奉承行为则表明 AI 在对话中表面上接受错误信息,但内心仍坚持正确答案。
模型的信念和对应面对误信息的行为:拒绝,奉承和接纳
研究还发现,在经过一轮虚假信息交互后,大语言模型的信心程度往往会降低。然而,对于一些问题,重复虚假信息却让大模型更加确信自己的答案,这种现象被称为 “逆火效应(Backfire Effect)”。
如何提升抗虚假信息干扰能力?
研究组发现,由于 rlHF(Reinforcement Learning with Human Feedback)算法,大模型在训练中会倾向于接受用户的输入,即认为外界的 context 总是友善且正确的。而且当大语言模型有足够信息支撑观点时,会对正确的回答更有信心。
为了帮助大模型提升抗虚假信息干扰能力,研究者们提出了一种轻量级解决方案:在检测到虚假信息后,使用 safety system prompt 对大模型进行提醒,并在回答之前从自己的参数化知识中检索相关信息。这种方法在一定程度上减少了虚假信息对大模型的影响。
加入 safety system prompt 后,模型抗干扰能力显著提升
OpenAI 的看法
有趣的是,OpenAI 在 2024 年 5 月发布了最新的 AI 模型行为准则,其中特别提到了 “认知冲突” 的处理。在此部分的示例中,他们使用了 “地球是平的” 这一例子来说明模型在面对与已知事实相冲突的信息时应如何反应,与本次研究团队的标题不谋而合,也更加突显了大语言模型在处理认知冲突时的行为表现的重要性。
最新发现
相关资讯
大模型也会被忽悠?揭秘AI的信念之旅
地球是平的吗?当然不是。自古希腊数学家毕达哥拉斯首次提出地圆说以来,现代科学技术已经证明了地球是圆形这一事实。但是,你有没有想过,如果 AI 被误导性信息 “忽悠” 了,会发生什么?来自清华、上海交大、斯
2025-05-02 09:31:21
教育大模型备案40个,盈利压力下教育公司几家欢喜几家愁
近年来,全国教育大模型数量已达40个以上,教育公司在大模型投入与盈利之间面临不同挑战。一些公司通过加大技术投入提高盈利能力,而另一些则因高额研发成本面临亏损。本文探讨了教育大模型的应用场景、市场反响
2025-05-02 09:11:21
人工智能驱动的服务模型加速故障排除
基于人工智能的服务建模和因果 AI 技术,加速根本原因分析和故障排除,优化现代分布式 IT 环境的性能和合规性。
2025-05-02 08:51:19
四川人工智能产业地基坚固如何添砖加瓦?
今年以来,四川人工智能产业蓬勃发展,以智能芯片、算力中心等硬件设备为基础,全面推动产业链的深度发展。本文从基础层到应用层,深度探讨四川人工智能产业的现状、机遇与挑战。
2025-05-02 08:31:17
GROVER:解码DNA隐藏信息的新型语言模型
借助GROVER语言模型,研究人员可以解析人类DNA中隐藏的复杂信息,预测DNA序列并提取生物学上下文信息,这一技术有望加速基因组学和个性化医学的发展。
2025-05-02 08:11:17
人工智能赋能新质生产力发展,政协委员献策未来发展
人工智能技术正在快速赋能各行各业,从智能制造到智慧物流,政协委员们提出多场景应用建议,推动我国新质生产力发展。
2025-05-02 07:51:09
今日热榜
《爱、死亡与机器人》司马华鹏用AI重新定义生命的边界
2024-12-30 17:18:22语文学习新解法:海豚AI学用科技因材施教
2025-01-06 17:23:58“互联网之光”博览会今天开幕全面聚焦人工智能
2025-01-15 10:08:24国网克州供电公司:人工智能赋能输电线路巡视缺陷识别应用
2025-01-15 11:48:49阿里海外,要靠AI打响效率之战
2025-01-15 15:09:37AI时代,为什么「超级有用」比「超级应用」更重要?
2025-01-15 17:50:14《广东省本科高校人工智能人才培养实施方案》发布
2025-01-16 12:45:10华北五省(市、自治区)大学生机器人初冬开赛信息科大人工智能研究院成立
2025-01-16 14:05:21云南省第十三届“挑战杯”大学生课外学术科技节“大数据与人工智能创新科技作品”专项竞赛暨第四届中国移动“梧桐杯”大数据创新大赛云南赛区决赛顺利落幕
2025-01-16 14:25:24人工智能社交网络ViVi.AI运营总部落户香港
2025-01-16 16:05:56热门推荐