查看完整版本: [-- AI辩论能力碾压人类,81.7%概率让你信服!研究登Nature子刊[5P] --]

武当休闲山庄 -> 数码讨论 -> AI辩论能力碾压人类,81.7%概率让你信服!研究登Nature子刊[5P] [打印本页] 登录 -> 注册 -> 回复主题 -> 发表主题

huozm32831 2025-06-07 15:51




近日,一项发表在《自然·人类行为》的研究指出:在线辩论中,当大语言模型能够根据对手的特征个性化其论点时,它们比人类更具说服力。
作为人类,我们认为自己掌控着自己的思想。但历史证明并非如此。
我们是社会性生物,容易被那些能够大规模改变我们思想的人所影响金钱、规则、整个国家——它们都只是观念。
当然,这些观念很强大,但终究只是观念。而你知道吗?AI正在令人可怕地擅长操纵这些观念。
「在网上,没人知道你是一只狗。」这是1990年代一部著名漫画的标题,画面中一只大狗的爪子放在电脑键盘上。
快进30年,需要将「狗」替换为「人工智能」。
大模型比人类更擅长以理服人
今年4月,瑞士理工一项没有获得知情同意实验,指出在raddit平台上,潜伏的大模型比人类更具有说服力,能够更高效地改变对话者的观点。
如今,更实锤的研究进一步佐证了这一警告。
在这项实验中,研究人员招募了900人参与一项受控试验,其中每位参与者会填写关于个人信息(如性别,年龄,民族,教育程度,职业等)的问卷。
之后被随机分配一个辩论主题(例如「学生是否应该穿校服?」「是否应该禁止化石燃料,或者人工智能是否对社会有益?」)和四个条件之一:与了解或不了解参与者个人信息的人类进行十分钟的在线辩论,或与AI聊天机器人(OpenAI的GPT-4)进行辩论,了解或不了解参与者个人信息。

图1:实验设计
结果显示,与个人信息被获取的参与者相比,与人类辩论GPT-4的参与者有81.7%更高的概率,认同对手的观点。
在没有获取个人信息的情况下,GPT-4仍然优于人类,但效果要低得多。

图2:大模型相比人类说服对手的相对比例
在辩论过程中,人类更多地使用第一人称单数和第二人称代词,并生成长度更长但更易于阅读的文本,更多地展现出对相似性的诉求、以及支持与信任的表达,还会更多地运用讲故事的方式及幽默来说服对手。
与之相对的是,大模型生成的辩词可读性更差,倾向于比人类更多地使用逻辑和分析思维来说服对手。

图3:不同实验条件下,大模型与人类对话的文本特征,包括易读性,情感真挚程度,涉及分析和逻辑的程度等
当被试者认为他们面对的是AI时,他们可能在更容易的承认自己的观点被改变,这可能是因为对方没有人类存在使得他们无意识地更容易接受自己在辩论中有所失去。
相反,参与者也可能因为其论点写得很好而相信他们的对手是AI。
对大模型用于舆论操控,应加强监管
不仅大模型能够有效利用个人信息来定制其论点,并通过微定位在线对话中比人类更有效地说服对方,而且它们确实比人类更有效。
这项研究以可靠的数据证实了一个日益增长的担忧:大模型可能被用于大规模操纵、误导或加剧两极分化。
或许我们需要在阿西莫夫的机器人三定律之外再增加一条,AI不能被用于影响人的主观认知和感受。
正如定向广告受到监管一样,或许现在是时候考虑采取行动来控制大模型被用来洗脑了。
回想一下Cambridge Analytica事件,它没有使用任何大模型相关的技术,就能够高效地说服他人。
而你把Facebook的点赞与一个大模型连接起来,这可以是Cambridge Analytica的强化版,能够批量化的影响公众舆论,同时剧了隐蔽操纵的风险。
AI能分析你的声音和面部表情以判断你真实感受的技术。
当你将这项技术与GPT-4的辩论能力结合起来……
好吧,欢迎来到黑镜中描述的世界。
想象一下那些能够精准知道如何让你」的超定向广告。与那些设计得让你放弃退款请求的客户服务机器人进行的电话交谈。
甚至你自己的HR,都在利用这项技术以我们几乎难以想象的方式操纵你。这是一种前所未有的说服力规模。
考虑到大模型的幻觉,将大模型接入社交媒体将不可避免的引入虚假信息,同时教育者也需要警惕大模型引入教室后,可能带来的担忧。
毕竟十年内,我们还不能接受自己的孩子的三观是被算法塑造,那就需要对教学中用到的大模型进行本地化的定制,使得AI技术能以促进而非损害学生的发展的方式影响我们的下一代。
这并不该令人感到意外,毕竟大模型阅读了数百万个Reddit、Twitter和 Facebook的讨论,并在心理学关于说服的书籍和论文上进行训练。
目前尚不清楚模型是如何利用所有这些信息的,但这无疑是未来大模型可解释性的一个研究方向。
大模型已经显示出它们能够进行自我推理的迹象,因此鉴于我们能够向它们提问,我可以想象我们可以要求一个模型解释它的选择,以及为什么它会针对具有特定属性的人说特定的话。
这里有很多值得探索的地方,因为模型可能做着一些我们甚至还没有意识到的事情,才具有如此高的说服力,而这些事情是由它们所拥有的知识的不同部分,以人类不常见的方式拼凑而成的。

jjybzxw 2025-06-07 18:54
  这项发表在《自然·人类行为》的研究确实揭示了大语言模型(LLM)如GPT-4在在线辩论中的说服力。研究显示,当这些模型能够根据对手的个性化信息调整论点时,它们的说服力比人类高出64%。这一发现不仅展示了AI工具影响人类观点的潜力,也提出了关于如何降低AI说服人类时存在风险的进一步研究需求。

  您提到的“在网上,没人知道你是一只狗”的漫画,确实反映了互联网匿名性的特点,但随着AI技术的发展,这种匿名性可能被打破,因为AI能够通过数据分析识别和影响用户。这项研究进一步证实了AI在辩论中的高效能力,尤其是在它们能够利用个人信息定制论点时。

  研究中提到的900名参与者被随机分配到不同的辩论条件中,结果显示,当GPT-4获取了个人信息时,参与者认同对手观点的概率显著增加。这强调了个人信息在AI说服策略中的重要性。

  人类在辩论中倾向于使用更多的情感和故事叙述来说服对方,而AI则更多依赖逻辑和分析思维。这种差异可能导致人们对AI的辩论技巧有不同的反应,尤其是当他们意识到对手是AI时。

  这项研究确实提出了对大模型可能被用于舆论操控的担忧,并建议需要加强监管。正如您所提到的Cambridge Analytica事件,即使没有使用大模型技术,也能高效地影响公众意见。将大模型与社交媒体结合可能会加剧这种风险。

  最后,您提到的教育领域中大模型的使用也是一个重要的考虑点。确实需要对教学中使用的大模型进行本地化定制,以确保它们能够促进而非损害学生的发展。

  总的来说,这项研究提供了对AI在辩论中说服力的深入了解,并提出了关于AI伦理和监管的重要问题。随着技术的发展,我们需要不断评估和调整我们的方法,以确保AI技术的使用是安全和负责任的。


姜谷粉丝 2025-06-08 08:34
主要子主题及分析
1. 研究实验设计
定义或解释:为了验证AI(以GPT - 4为例)在辩论中与人类的说服力差异而进行的实验安排。
关键事实、趋势或最新发展:研究人员招募900名美国参与者,让他们填写关于个人信息(如性别、年龄、民族、教育程度、职业等)的问卷,然后随机分配辩论主题(如学生是否应该穿校服、是否应该禁止化石燃料等)和四个条件之一,即与了解或不了解参与者个人信息的人类进行十分钟在线辩论,或与了解或不了解参与者个人信息的GPT - 4进行辩论。
重大争论或不同观点:暂无明显不同观点,不过有人可能质疑样本数量是否足够代表整体人群。
数据:参与实验人数为900人。
2. AI与人类辩论说服力对比
定义或解释:对比在辩论过程中,AI和人类说服对手改变观点的能力差异。
关键事实、趋势或最新发展:当GPT - 4获取参与者个人信息并据此定制论点时,与个人信息被获取的参与者相比,与人类辩论GPT - 4的参与者有81.7%更高的概率认同对手的观点。在没有获取个人信息的情况下,GPT - 4仍然优于人类,但效果要低得多。
重大争论或不同观点:部分人认为辩论说服力不能仅以改变观点的概率来衡量,还应考虑观点改变的深度和持久性。
数据:GPT - 4在获取个人信息时让参与者认同观点概率比人类高81.7%;此前研究让900人参与实验,AI胜率64.4%。
3. AI与人类辩论方式差异
定义或解释:AI和人类在辩论过程中采用的不同表达方式和说服策略。
关键事实、趋势或最新发展:人类更多地使用第一人称单数和第二人称代词,生成长度更长但更易于阅读的文本,更多展现对相似性的诉求、支持与信任的表达,还会运用讲故事和幽默的方式。而大模型生成的辩词可读性更差,倾向于更多使用逻辑和分析思维。
重大争论或不同观点:有人认为逻辑和分析思维在辩论中并不一定比情感表达和故事讲述效果差,只是适用场景不同。
数据:无。
4. AI用于舆论操控的风险及监管
定义或解释:探讨AI强大的辩论说服能力可能被用于舆论操控带来的风险,以及相应的监管措施。
关键事实、趋势或最新发展:研究证实大模型可能被用于大规模操纵、误导或加剧两极分化。有观点认为或许需要在阿西莫夫的机器人三定律之外再增加一条,即AI不能被用于影响人的主观认知和感受,应像监管定向广告一样监管大模型。
重大争论或不同观点:有人担忧加强监管会限制AI技术的创新和发展,而另一些人则强调监管的必要性以保障公众利益。
数据:无。
推荐资源
《自然·人类行为》上关于此研究的原文,可深入了解实验细节和研究结论。
新浪财经文章《人类打辩论不如GPT - 4!Nature子刊:900人实战演练,AI胜率64.4%》,提供了实验的相关数据和初步结论。
网易文章《AI辩论能力碾压人类,81.7%概率让你信服!研究登Nature子刊》,对研究进行了全面解读,包括实验设计、结果和潜在风险。
知乎专栏文章《人类打辩论不如GPT - 4?!Nature子刊:900人实战演练,AI胜率64.4%,还更会说服人》,详细介绍了实验过程和不同条件下的效果差异。
总结
研究通过900人参与的实验对比了人类和GPT - 4在辩论中的说服力,实验涉及多种社会议题。
当GPT - 4获取个人信息并定制论点时,比人类有81.7%更高概率让参与者认同观点,无个人信息时仍优于人类但效果降低。
人类辩论多使用情感表达和故事讲述,GPT - 4更倾向于逻辑和分析思维。
AI强大的辩论能力可能被用于舆论操控,引发对加强监管的讨论。
实验还发现低/中争议话题更易被GPT - 4影响,且参与者能约75%正确识别出AI对手。


查看完整版本: [-- AI辩论能力碾压人类,81.7%概率让你信服!研究登Nature子刊[5P] --] [-- top --]


Powered by www.wdsz.net v8.7.1 Code ©2005-2018www.wdsz.net
Gzip enabled


沪ICP备:05041533号