huozm32831 |
2022-01-21 17:56 |
人工智能作为一种具有代表性的颠覆性技术,正在释放科技革命和产业变革积蓄的巨大能量,深刻改变着人类生产生活方式和思维方式。同时,作为建设数字中国的重要载体,人工智能已经上升为国家战略,它落地所遇到的问题往往是社会、伦理和法律问题,不可能完全通过技术解决。因此,从人工智能伦理与安全入手,规范人工智能技术与行业的治理规范已经刻不容缓。哲学和社会科学界应紧跟新一代人工智能的发展,持续跟踪和评估人工智能研究的进展和问题,保障其健康发展。
保障人工智能健康发展,伦理与安全须先行。
2017年12月12日,电气电子工程师学会(IEEE)于全球发布了第2版的《人工智能设计的伦理准则》白皮书,旨在指导我们认识这些技术可能造成的技术外的影响,确保人工智能设计能够符合人类的道德价值和伦理原则,并充分发挥系统益处。
欧盟于2019年4月8日发布了《人工智能伦理准则》,提出了高科技的人文思考和伦理考量,研究内容包括人工智能的社会学、伦理学、未来学等多个方面。
中国国家新一代人工智能治理专业委员会2021年9月25日发布《新一代人工智能伦理规范》,旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。
2021年11月24日,在联合国教科文组织大会第41届会议上审议通过了《人工智能伦理问题建议书》,该《建议书》旨在促进人工智能为人类、社会、环境以及生态系统服务,并预防其潜在风险。
……
目前由不同国家地区的政府、非政府组织及研究机构和产业颁布的人工智能伦理准则提案已经超过40个。但不同的准则涉及的议题视角各不相同。由于文化、地域、领域的差异,“大一统”的准则提案不但很难做到,而且没有必要。因此,不同国家、组织之间伦理准则如何协同很重要。所以,我们应该基于中国的国情,研究中国特色的人工智能伦理与科技哲学,并基于此与世界其他国家和地区求同存异,共同实现造福人类的目标。
人工智能的伦理与安全是当今世界值得每个人高度关注的时代命题,尤其值得人工智能研究人员普遍关注和深入思考。
思考一:可信的人工智能
人工智能发展的核心是安全可信人工智能,这一概念最早由我国提出,并在G20会议上获得多国认可。
人工智能的“可信”,也需要建立相应的法律、法规、标准和社会伦理准则。现阶段技术的发展已经触碰到了应用边线,在很大程度上属于边界问题。
“安全”人工智能有三方面的要求:一是技术安全,涵盖数据安全、网络安全、算法安全和隐私安全;二是应用安全,涵盖智能安防、舆情监测、金融风控和网络防护;三是伦理安全,涵盖伦理规范和法律法规。
“可信”人工智能包含三个要素:人、信息、物理,要求强人工智能系统能够实现复杂的信息、物理与人的融合交互。
简而言之,就是要求人工智能具备与人类智能类似的特质,包括对未知情况的鲁棒性、自我反省性、自适应性和公平性。人工智能的技术进步是可持续性的,只有人工智能伦理与安全同时兼顾安全、可信,才能实现人工智能的健康发展。
联邦学习是实现安全可信人工智能的一个主要思路,与传统的集中式机器学习不同,联邦学习通过将训练任务下放到用户侧,仅将训练得到的模型参数结果发送给服务端,从而使数据保持在用户本地,保证了用户数据的隐私。
思考二:人工智能伦理规范
人工智能伦理问题发生在人工智能技术的应用场景中,即人工智能技术介入了人与人之间,改变了原来应该的人与人的关系,而引发了新的伦理问题。人工智能伦理规范就是要探讨如何解决这些伦理问题,包括提出人工智能伦理准则,制定人工智能设计原则,约束从业人士职业规范等。
人工智能的“大脑”是“算法”,而以算法为核心的软件机器人既有自动监控能力和自主决策能力,也负载着文化,具有技术偏向和路径依赖性。我们需要制定人工智能从业人员的职业伦理准则,来达到下列目标:
(1)为防止人工智能技术的滥用设立红线;
(2)提高职业人员的责任心和职业道德水准;
(3)确保算法系统的安全可靠;
(4)使算法系统的可解释性成为未来引导设计的一个基本方向;
(5)使伦理准则成为人工智能从业者的工作基础;
(6)提升职业人员的职业抱负和理想。
人工智能的发展具有开放性与不确定性,相应的伦理和治理也应该是开放的和未完成的,因此在伦理上应寻求开放性共识,在治理上应施以适应性治理。
人工智能伦理目前的研究方向包括但不限于以下四点:第一是重视发展和治理的综合性,来避免计算主义贬低人类的生命;第二是强化人工智能伦理研究的阶段性;第三是建立生态影响评价体系;第四是建立人工智能的责任机制。
人工智能伦理准则的建构并非易事,其中存在着文化困境、伦理规范的困境、利益相关者的价值困境,以及技术困境这四方面的问题。建构适宜的人工智能伦理准则首先需要克服这些困境,具体的逻辑建构体系包括人工智能语言体系、人工智能价值体系、人工智能标准体系、人工智能责任体系和人工智能评价体系五方面。并且,人工智能伦理准则的建构需要以“实践智慧”为核心,及时有效地调整人工智能伦理标准的实施方法,力求最大程度地实现人工智能伦理准则的实践有效性。
思考三:人工智能法律法规
人工智能技术迅猛发展,短时间大量资本涌入,造成市场泡沫,资本与有问题的伦理观结合,可能会打开“潘多拉魔盒”,催生出“坏的技术”,导致人工智能不但无法造福人类,还会带来不可预测的伦理、法律、社会问题。人工智能的应用前景看似魔幻,其实近在眼前,为之立法需尽早行动。人工智能立法需要思考的不是消灭客观危险,而是在这些潜在的威胁和挑战面前,增强风险认识能力,提高制度风险意识,通过法律和其他社会规范来预防规避风险,引导规范人工智能技术健康发展。
在新技术的冲击下,必须有新的法律和现实相适应,这一点毋庸置疑。但人工智能法律法规必须具备较好的包容性,要为新技术的发展留下足够的空间,法律条文应当以原则性为主,而不宜过细、过死。立法的过程一方面要重视“本地知识”的作用,多听取人工智能行业从业者与相关专家的意见,法学家与人工智能科学家应该相互协同以制定出与行业现状相符合的法律法规;另一方面要重视调查研究,理解清楚人工智能技术的本质,深入探讨人工智能与人之间的关系,立足应用场景研究潜在风险,确保立法的明确性和适应性。
人工智能从产品到技术都在迅猛发展,现在是人工智能立法的准备阶段、摸索阶段、积累阶段,也是人工智能立法的促进阶段,可以先制定促进人工智能发展法。立法应该优先考虑对人们生活已经有影响的领域,如自动驾驶、服务类机器人领域,率先启动立法、立项工作。将人工智能复杂环境中的突发事件纳入法律规制的范围,探索归纳该场景下突发事件的应对主体、问责机制,为后续立法提供借鉴。
人工智能立法是全人类所面临的新课题,有学者提出,坚持以人为本的原则、建立全流程监管体系、明晰法律责任制度、明确数据信息保护与隐私权保护、强化涉及人工智能发展的知识产权保护、加强国际合作,加快制定专门的《人工智能发展法》。一部体系和结构完整的《人工智能发展法》既需要廓清人工智能机器人的基本职责、权利和义务,还需要厘清人(法人)机之间的责任分配以及责任承担方式,更需要不同领域相关法律的配合和补充。 |
|