切换到宽版
  • 584阅读
  • 0回复

[智能应用]为什么赋予人工智能“人类伦理”可能是一个糟糕的想法 [复制链接]

上一主题 下一主题
离线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
106048
金币
658
道行
19523
原创
29307
奖券
17205
斑龄
189
道券
10126
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 19961(小时)
注册时间: 2007-11-29
最后登录: 2024-11-13
只看楼主 倒序阅读 使用道具 楼主  发表于: 2022-01-22
— 本帖被 兵马大元帅 执行锁定操作(2024-04-22) —
如果你想让人工智能拥有人类伦理,你必须像我们一样教它进化伦理。至少这是印度班加罗尔国际信息技术研究所的一对研究人员在今天发表的预印本论文中提出的。



这篇题为“人工智能和自我意识”的论文描述了一种称为“弹性身份”的方法,研究人员表示,通过这种方法,人工智能可以学会获得更大的代理意识,同时了解如何避免“附带损害”。简而言之,研究人员建议我们通过允许人工智能学习何时适合自我优化以及何时有必要为社区的利益进行优化,来教人工智能在道德上与人类更加一致。

根据论文:

虽然我们可能离一个全面的自我计算模型还很远,但在这项工作中,我们关注的是我们自我意识的一个特定特征,这可能是人类与生俱来的责任感和道德感的关键。我们称之为弹性的自我感觉,延伸到一组称为身份集的外部对象。

我们的自我意识不仅限于我们身体的边界,而且经常延伸到包括来自我们环境的其他对象和概念。这构成了社会认同的基础,建立了一种归属感和对某种东西的归属感和忠诚度,而不是或超越一个人的身体存在。

研究人员描述了一种利他主义和自私行为之间的平衡,在这种平衡中,代理人能够理解道德上的细微差别。

不幸的是,没有伦理学的计算。几千年来,人类一直在试图为每个人在文明社会中寻找正确的行为方式,而现代社会中缺乏乌托邦国家的现象告诉你我们已经走了多远。

至于人工智能模型应该具有什么样的“弹性”度量,这可能更像是一个哲学问题,而不是科学问题。

据研究人员称:

在系统层面上,关于具有弹性身份的代理系统的进化稳定性也存在悬而未决的问题。一小群不认同他人的非移情代理人能否成功“入侵”移情代理人系统?或者是否存在一种策略来决定一个人的同理心的最佳水平或一个人的身份集的程度,这使得它在进化上是稳定的?

我们真的希望人工智能能够以人类的方式学习道德吗?我们的社会伦理观点是在无数战争的烈火和不断犯下可怕暴行的传统中形成的。在制作人类社会的煎蛋卷的过程中,我们打碎了很多鸡蛋。

而且,公平地说,我们还有很多工作要做。向 AI 教授我们的道德规范,然后训练它像我们一样进化,这可能是使灾难自动化的秘诀。

它还可能导致对人类伦理的更哲学理解以及用人工代理模拟文明的能力。也许机器会比人类历史上更好地处理不确定性。
山庄提示: 道行不够,道券不够?---☆点此充值☆