切换到宽版
  • 771阅读
  • 1回复

[智能应用]科学家警告:如果超级智能机器要伤害人类,拔插头也无法阻止 [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
106547
金币
14
道行
19523
原创
29307
奖券
17354
斑龄
191
道券
10129
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 20258(小时)
注册时间: 2007-11-29
最后登录: 2024-12-26
只看楼主 倒序阅读 使用道具 楼主  发表于: 2021-01-16
— 本帖被 兵马大元帅 执行加亮操作(2021-03-20) —
          “人工智能(AI)叛乱”听起来像是科幻电影的情节,但这个概念是一项新研究课题。一个国际科研团队设计了一种理论上的“遏制算法”,通过模拟AI,确保其在任何情况都不能伤害人类,但结果发现无法做到。

AI多年来一直让人类着迷,我们对控制汽车、谱写交响乐或在自己的游戏中击败世界上最好棋手的机器感到敬畏。然而,巨大的力量伴随着巨大的责任,全世界的科学家都在担心超级智能系统可能带来的危险。



一个国际团队研究表明,控制一个超级人工智能是不可能的。

据报道,包括马克斯·普朗克人类发展研究所人类与机器中心的科学家在内的一个国际团队研究表明,控制一个超级人工智能是不可能的。

该团队在分析过程中使用了阿兰·图灵(Alan Turning)于1936年提出的“停止”问题,该问题的重点在于计算机程序是否会得出结论并做出“停顿”的反应。

据悉,在研究中,该团队设计了一种理论上的“遏制算法”,通过先模拟人工智能的行为,如果认为有害,则停止人工智能的行为,从而确保超级人工智能在任何情况下都不能伤害人类。

但仔细分析后发现,在目前的计算模式下,这样的算法是无法建立的。

也就是说,目前的算法并不具备阻止人工智能的能力,因为命令AI不要毁灭世界,会在无意中阻止“遏制算法”自身的运行。

人类与机器中心主任伊亚德·拉赫万表示,如果发生这种情况,将不知道“遏制算法”是否还在分析威胁,或者它是否已经停止遏制有害的AI。

基于这些计算结果,“遏制问题”是无法计算的,没有一种算法可以找到判断人工智能是否会对世界产生危害的解决方案。

研究结果还证明,我们甚至可能不知道超级智能机器何时到来,因为决定一台机器是否表现出优于人类的智能与“遏制问题”属于同一领域。

国际科研团队的论文警告说,如果一台超级智能机器想要控制世界,伤害人类,拔掉插头也无济于事。
1条评分金币+10
兵马大元帅 金币 +10 验证通过,感谢支持 2021-01-17
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
  




    
在线smen
京师四门提督神爷

UID: 309051

精华: 39
级别: 天外仙宗

发帖
386825
金币
1527
道行
12540
原创
907
奖券
1396
斑龄
0
道券
1231
获奖
0
座驾
C200L
设备
 摄影级
高级认证
在线时间: 26265(小时)
注册时间: 2007-10-27
最后登录: 2024-12-26
只看该作者 沙发  发表于: 2021-01-17
这话我早就说过了
1条评分金币+2
兵马大元帅 金币 +2 验证通过 2021-01-17
如何不发帖就快速得到金币道行