姜谷粉丝 |
2025-06-08 08:34 |
主要子主题及分析 1. 研究实验设计 定义或解释:为了验证AI(以GPT - 4为例)在辩论中与人类的说服力差异而进行的实验安排。 关键事实、趋势或最新发展:研究人员招募900名美国参与者,让他们填写关于个人信息(如性别、年龄、民族、教育程度、职业等)的问卷,然后随机分配辩论主题(如学生是否应该穿校服、是否应该禁止化石燃料等)和四个条件之一,即与了解或不了解参与者个人信息的人类进行十分钟在线辩论,或与了解或不了解参与者个人信息的GPT - 4进行辩论。 重大争论或不同观点:暂无明显不同观点,不过有人可能质疑样本数量是否足够代表整体人群。 数据:参与实验人数为900人。 2. AI与人类辩论说服力对比 定义或解释:对比在辩论过程中,AI和人类说服对手改变观点的能力差异。 关键事实、趋势或最新发展:当GPT - 4获取参与者个人信息并据此定制论点时,与个人信息被获取的参与者相比,与人类辩论GPT - 4的参与者有81.7%更高的概率认同对手的观点。在没有获取个人信息的情况下,GPT - 4仍然优于人类,但效果要低得多。 重大争论或不同观点:部分人认为辩论说服力不能仅以改变观点的概率来衡量,还应考虑观点改变的深度和持久性。 数据:GPT - 4在获取个人信息时让参与者认同观点概率比人类高81.7%;此前研究让900人参与实验,AI胜率64.4%。 3. AI与人类辩论方式差异 定义或解释:AI和人类在辩论过程中采用的不同表达方式和说服策略。 关键事实、趋势或最新发展:人类更多地使用第一人称单数和第二人称代词,生成长度更长但更易于阅读的文本,更多展现对相似性的诉求、支持与信任的表达,还会运用讲故事和幽默的方式。而大模型生成的辩词可读性更差,倾向于更多使用逻辑和分析思维。 重大争论或不同观点:有人认为逻辑和分析思维在辩论中并不一定比情感表达和故事讲述效果差,只是适用场景不同。 数据:无。 4. AI用于舆论操控的风险及监管 定义或解释:探讨AI强大的辩论说服能力可能被用于舆论操控带来的风险,以及相应的监管措施。 关键事实、趋势或最新发展:研究证实大模型可能被用于大规模操纵、误导或加剧两极分化。有观点认为或许需要在阿西莫夫的机器人三定律之外再增加一条,即AI不能被用于影响人的主观认知和感受,应像监管定向广告一样监管大模型。 重大争论或不同观点:有人担忧加强监管会限制AI技术的创新和发展,而另一些人则强调监管的必要性以保障公众利益。 数据:无。 推荐资源 《自然·人类行为》上关于此研究的原文,可深入了解实验细节和研究结论。 新浪财经文章《人类打辩论不如GPT - 4!Nature子刊:900人实战演练,AI胜率64.4%》,提供了实验的相关数据和初步结论。 网易文章《AI辩论能力碾压人类,81.7%概率让你信服!研究登Nature子刊》,对研究进行了全面解读,包括实验设计、结果和潜在风险。 知乎专栏文章《人类打辩论不如GPT - 4?!Nature子刊:900人实战演练,AI胜率64.4%,还更会说服人》,详细介绍了实验过程和不同条件下的效果差异。 总结 研究通过900人参与的实验对比了人类和GPT - 4在辩论中的说服力,实验涉及多种社会议题。 当GPT - 4获取个人信息并定制论点时,比人类有81.7%更高概率让参与者认同观点,无个人信息时仍优于人类但效果降低。 人类辩论多使用情感表达和故事讲述,GPT - 4更倾向于逻辑和分析思维。 AI强大的辩论能力可能被用于舆论操控,引发对加强监管的讨论。 实验还发现低/中争议话题更易被GPT - 4影响,且参与者能约75%正确识别出AI对手。
|
|