huozm32831 |
2024-07-25 10:26 |
当前,世界正处于迅猛的技术变革中,人工智能技术已经成为未来数字经济转型升级的核心要素。人工智能在带来巨大时代机遇的同时,也会带来威胁全球稳定和破坏人类价值观的风险,其治理一直是重点关注的问题,加强国际合作构建人工智能治理图景至关重要。
人工智能风险挑战与发展机遇并存
随着通用人工智能技术突破,人工智能的应用场景逐渐扩大,难以评估的风险也成倍增加。国际社会需要给予人工智能一个密切审慎观察的空间,治理规则的制定需要在技术和社会的紧密互动中保持灵活性,随时根据实际情况校准政策,从而有效且前瞻性地解决问题,推动人工智能技术的健康发展和数据要素的跨境流动。
目前人工智能技术主要带来三类问题。一是信息安全问题。人工智能需要实时更新海量数据用于模型训练。在个人隐私领域中,相关企业、平台尚未达成遵循知情同意原则的共识,存在越权使用等现象。用户在使用人工智能技术时,可能因缺乏相关意识导致个人隐私数据泄露。二是虚假信息问题。尽管技术中立,但人为投放不实消息或片面事实可能导致人工智能模型产出虚假信息。三是数字鸿沟问题。人工智能具备高效的信息检索和整合能力,虽然为人们的工作和生活提供了极大方便,但其产出的真实性和准确性并不牢靠。因此,信息甄别、自主决策能力强的使用者将更善于使用这项工具,而盲从的使用者则可能为其所害。随着两者使用技术的差距不断沉积,数字鸿沟也就此加深。
因此,如何在发展与安全之间取得平衡,推动人工智能为世界释放更多“智能红利”,需要国际社会共同参与。面对上述困难,各个国家和地区应积极落实全球发展倡议、全球安全倡议、全球文明倡议,共同促进全球人工智能健康有序安全发展,推动人工智能技术造福全人类。
人工智能治理的国际合作实践
截至目前,众多国际组织和机构发布了人工智能治理相关文件,为全球人工智能治理提供正能量,注入新动力。早在2018年,欧盟委员会提出《人工智能的伦理准则》,强调人工智能的应用必须符合人类价值观和伦理原则,并建议采取措施加强人工智能的监管和透明度,促进其可持续发展。2019年,联合国教科文组织发布了《人工智能伦理问题建议书》,积极思考人工智能伦理问题,推动人工智能伦理原则在全球范围内的传播与实施。同年,二十国集团(G20)发布《G20人工智能原则》,强调人工智能的伦理和社会责任。2023年11月,首届包括我国在内的28个国家共同达成的《布莱切利宣言》正式发表,同意通过国际合作,建立人工智能监管方法。这一宣言是全球第一份针对人工智能这一快速发展的新兴技术的国际性声明,旨在关注对未来强大人工智能模型威胁人类生存的担忧,以及对人工智能当前增强有害或偏见信息的担忧。
欧洲国家持续推动国际人工智能治理实践。2023年6月,欧盟推出全球首部人工智能法案,对生成式人工智能企业提出更高的透明度要求。同月,时任英国首相苏纳克在访美期间和美国总统拜登发表《大西洋宣言》,同意在人工智能等领域加强合作。同年10月,法国、德国、意大利在意大利罗马举行高级别会议并发表联合公报称,法德意三国正在制定人工智能战略愿景,并出台人工智能监管法规来管控风险。2024年5月29日,欧盟委员会成立人工智能办公室,旨在促进人工智能的发展、部署和使用,在降低风险的同时促进社会经济效益和鼓励创新。该办公室将在实施欧盟《人工智能法》的过程中发挥关键作用,努力促进可信人工智能的发展和创新,并使欧盟在该领域处于领先地位。
推进人工智能治理,中国在积极行动。2021年12月,中国向联合国《特定常规武器公约》第六次审议大会提交《中国关于规范人工智能军事应用的立场文件》。2022年11月又向联合国《特定常规武器公约》缔约国大会提交了《中国关于加强人工智能伦理治理的立场文件》。这些主张坚持维护人类福祉,坚守公平正义,为解决全球人工智能治理难题贡献了中国智慧和中国方案。2023年10月,我国在第三届“一带一路”国际合作高峰论坛上正式发布《全球人工智能治理倡议》,围绕人工智能发展、安全、治理三个方面阐述人工智能治理的中国方案,为人工智能的开发与安全提出建设性的解决思路和发展蓝本。
构建国际人工智能治理的合作框架
人工智能的发展轨迹关乎全体人类命运,发展和治理人工智能已成为全球各国面临的共同课题。未来的人工智能的发展在基础研究、产业研发、应用服务等多个领域将涌现出一批主要和重要的中心与节点,并呈现多中心发展的趋势,这些主要节点之间将高度互联、深度协作,共同带动世界人工智能的发展。
一是加强国际合作,保持开放心态进行全球性讨论。各国通力合作,避免误解,加速实现人工智能技术及其应用的全球化发展,努力提升人工智能技术的安全性、可靠性、可控性、公平性,增进全人类福祉。全球协作不仅在于对长远议题开展联合研究与风险防范,更在于防止人工智能在技术发展尚存极大不确定的情况下恶性竞争、误用、滥用甚至恶用。
二是构建兼顾安全与发展的人工智能监管框架,通过细化立法领域、拓宽管辖范围、提高法律效力层级等方式划定原则底线。坚持以技管技,强调技术性调整手段的重要性,积极发展促进人工智能安全相关技术,以人工智能技术促进人工智能安全开发;坚持法治化推进,人工智能治理的法治化是确保人工智能技术安全有序发展的重要保障,需要建立健全相关法律制度,明确各主体、各环节责任义务,关注权利保护。
三是建立安全与发展两轮并重的治理观念。一方面,坚持伦理先行,前瞻研判人工智能伦理风险,注重风险预防,加强源头治理,确保人工智能健康发展;实施全流程监管和分级分类监管机制,针对人工智能技术研发、测试、应用等多个技术环节,明确相应的安全技术标准,辅之以科技伦理审查机制,从各个环节预防和控制技术安全风险。另一方面,针对人工智能应用的不同场景、不同风险程度,设置不同的监管机制,在保障人工智能技术应用安全的同时,最大化预留人工智能产业创新空间。 |
|