AI歧视人类?不可能!
AI(人工智能)作为计算机科学的分支,是一种被应用于模拟和扩展人类智能的技术。它在一些专业领域表现出了惊人的能力,比如战胜人类围棋棋手的AlphaGo,以及在破解生物学最大挑战之一——根据氨基酸序列预测蛋白质三维结构方面崭露头角的AlphaFold等等。它们最突出的能力是:自我学习。
但脸书的这项人工智能推荐却似乎犯了个大错:将人误认为“灵长类动物”。尽管人类也属于灵长类动物,但这对于一些地区的用户来说,可能涉及歧视。
3C数码评论员黄浩表示,不必将此次的AI错误识别事件视为种族歧视。在日常生活中,AI识别错误的情况并不少见,更何况灵长类动物与人类在某些核心面部特征上确实具有相似之处。如果AI获得的信息与其他信息有一定相似之处,可能会让一些AI产生误差。
即使是人类,我们在识别过程中也会犯错,但随着经验的积累,错误会逐渐减少。人类“大脑系统”中储存的丰富资料可以帮助人类通过细节判断人种。但对于AI来说,细节的面部特征难以辨识,需要大量的时间和资料进行学习,这是对AI技术算法公司以及应用AI技术公司的巨大考验。
2015年谷歌图像识别算法也翻过车:发现者杰基·阿尔金表示,谷歌将其黑人朋友分类成了“大猩猩(Gorilla)”
AI是否会产生“自我”,带来麻烦?
一直以来,人工智能是否会产生“自我”,甚至反客为主控制人类是人工智能发展过程中备受关注的伦理问题。黄浩认为,算法中确实存在价值观,但算法的价值观并不由算法自主产生,而是被人所设定。算法的价值观实际是人类价值观,抑或是算法设计者价值观的投射。
当下存在于人工智能领域的共识是:不应放任算法自我野蛮生长。任由算法自我发展将可能会使算法产生路径偏移。以此次事件为例,算法把有色人种识别成灵长类动物,表示算法在学习过程中产生了偏差,这时一定要有人工介入。设计者需要让算法重新进行学习,经过积累,算法可以逐渐在自身的AI模式里重新建立一套新的导向体系。
在人工智能的发展过程中,人类需要不断地介入,及时纠正算法偏差,为人工智能的核心算法刻上更明显的人类规则,以保证算法“不学坏”。
人类历史到现在已有25万年。在漫长的岁月中,我们学会行走、利用双手、使用语言,到后来学习科学、探索更多可能。而AI从概念之初到现在,也只有几十年时间。虽然它拥有极强的学习能力,但学懂复杂的人类社会,还需时日。