切换到宽版
  • 431阅读
  • 1回复

AI学会了种族歧视?读懂人类社会,还需时日 [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
106061
金币
771
道行
19523
原创
29307
奖券
17205
斑龄
189
道券
10126
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 19961(小时)
注册时间: 2007-11-29
最后登录: 2024-11-14
只看楼主 倒序阅读 使用道具 楼主  发表于: 2021-09-12
— 本帖被 兵马大元帅 执行加亮操作(2024-02-21) —
             AI歧视人类?不可能!

AI(人工智能)作为计算机科学的分支,是一种被应用于模拟和扩展人类智能的技术。它在一些专业领域表现出了惊人的能力,比如战胜人类围棋棋手的AlphaGo,以及在破解生物学最大挑战之一——根据氨基酸序列预测蛋白质三维结构方面崭露头角的AlphaFold等等。它们最突出的能力是:自我学习。

但脸书的这项人工智能推荐却似乎犯了个大错:将人误认为“灵长类动物”。尽管人类也属于灵长类动物,但这对于一些地区的用户来说,可能涉及歧视。

3C数码评论员黄浩表示,不必将此次的AI错误识别事件视为种族歧视。在日常生活中,AI识别错误的情况并不少见,更何况灵长类动物与人类在某些核心面部特征上确实具有相似之处。如果AI获得的信息与其他信息有一定相似之处,可能会让一些AI产生误差。

即使是人类,我们在识别过程中也会犯错,但随着经验的积累,错误会逐渐减少。人类“大脑系统”中储存的丰富资料可以帮助人类通过细节判断人种。但对于AI来说,细节的面部特征难以辨识,需要大量的时间和资料进行学习,这是对AI技术算法公司以及应用AI技术公司的巨大考验。



2015年谷歌图像识别算法也翻过车:发现者杰基·阿尔金表示,谷歌将其黑人朋友分类成了“大猩猩(Gorilla)”

AI是否会产生“自我”,带来麻烦?

一直以来,人工智能是否会产生“自我”,甚至反客为主控制人类是人工智能发展过程中备受关注的伦理问题。黄浩认为,算法中确实存在价值观,但算法的价值观并不由算法自主产生,而是被人所设定。算法的价值观实际是人类价值观,抑或是算法设计者价值观的投射。

当下存在于人工智能领域的共识是:不应放任算法自我野蛮生长。任由算法自我发展将可能会使算法产生路径偏移。以此次事件为例,算法把有色人种识别成灵长类动物,表示算法在学习过程中产生了偏差,这时一定要有人工介入。设计者需要让算法重新进行学习,经过积累,算法可以逐渐在自身的AI模式里重新建立一套新的导向体系。

在人工智能的发展过程中,人类需要不断地介入,及时纠正算法偏差,为人工智能的核心算法刻上更明显的人类规则,以保证算法“不学坏”。

人类历史到现在已有25万年。在漫长的岁月中,我们学会行走、利用双手、使用语言,到后来学习科学、探索更多可能。而AI从概念之初到现在,也只有几十年时间。虽然它拥有极强的学习能力,但学懂复杂的人类社会,还需时日。
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
  




    
在线smen
京师四门提督神爷

UID: 309051

精华: 39
级别: 天外仙宗

发帖
385918
金币
301
道行
12539
原创
906
奖券
1369
斑龄
0
道券
1233
获奖
0
座驾
C200L
设备
 摄影级
高级认证
在线时间: 25983(小时)
注册时间: 2007-10-27
最后登录: 2024-11-14
只看该作者 沙发  发表于: 2021-09-13
AI不会歧视 二回消灭
如何不发帖就快速得到金币道行