AI技术发展,需要多层面约束规范。在源头端,需要进一步加强公民个人信息保护。专家建议,加强公民信息尤其是生物特征等隐私信息的技术、司法保护力度。
在技术层面,数字水印鉴伪等技术有待进一步普及利用。比如AI生成的视频需带有不可消除的“AI生成”水印字样。
国家也在通过多重手段防范“AI换脸诈骗”,近两年,相关部门先后出台了互联网信息服务深度合成管理规定、生成式人工智能服务管理暂行办法等有关政策文件,先后开展了“互联网深度合成算法备案”“大语言模型算法备案”等有关的工作。
在法律制度层面,进一步完善人工智能等领域相关法律法规。今年8月15日,《生成式人工智能服务管理暂行办法》正式施行。《办法》规定,提供和使用生成式人工智能服务,应当尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。
中国科学技术大学公共事务学院、网络空间安全学院教授左晓栋表示,总体而言,生成式人工智能仍处于发展的初期阶段,风险没有完全暴露,应用前景难以估量,所以应当采取包容审慎的态度,坚持发展和安全并重、促进创新和依法治理相结合,要采取有效措施鼓励生成式人工智能创新发展。
据了解,目前我国人工智能产业蓬勃发展,核心产业规模达到5000亿元,企业数量超过4300家。随着各项措施规范出台,我们期待未来人工智能发展更加健康规范,从多方面助力人们的工作和生活。