为确保人工智能技术平稳安全落地,不能被动地在发生危险后紧急处理相关问题,而要在第一时间掌握技术的最新动态,积极做好人工智能安全风险评估和预警工作。
第一,完善人工智能安全应用的法律覆盖和兜底。当前,我国在人工智能技术安全运用领域还存在大量法律空白。对此,立法者应制定相关法规,为智能技术的应用安全提供法律保障,防控人工智能技术带来的潜在风险。一方面,立法者要全面审视现有法律体系,并使其不断适应社会需求,同时注重立法加强用户信息和隐私的保护、个人数据合法使用、人工算法的普适公平,以及智能技术失效后的救济管理,明确人工智能法律主体以及相关权利、义务和责任,构建实现新技术的法律基础。另一方面,设立人工智能发展规划和前沿技术领域的负面清单,从法律底线构建“安全防火墙”。在国家层面立法实现对人工智能的算法设计、产品开发、数据采集和产品应用的全流程规制,在可能引发人工智能不可预知性和不确定性的技术领域,立法设立红区或研发限制规范,推进人工智能技术健康发展与应用。
第二,健全人工智能安全等级和风险预估机制。由于人工智能的发展存在很多的不确定性,亟须加强人工智能潜在风险的评估,促使人工智能安全可控发展。首先,政府应联合相关高校、智库和科技公司等对人工智能技术的应用进行安全等级评估,不同安全等级运用不同层次的智能安防技术,确保人工智能技术应用的安全性、有序性。其次,针对人工智能技术应用进行风险预估,预防人工智能在场景应用中存在的潜在风险,防止技术手段在实际运用中可能出现的故障、失效、被入侵等隐患。如通过人工智能技术建立对抗性学习算法研究,利用“技术制约技术”的理念,优化智能技术开发架构,降低人工智能带来的隐患。最后,政府安全部门应联合相关执法机构,完善对人工智能技术应用主体的监控机制,建立伦理与风险审查机制,降低人工智能技术受到人为因素影响的概率。
第三,做好人工智能风险防控领域前瞻性研究。面对智能技术的安全威胁,人们应采取积极应对的态度,秉持“早发现、早治疗、早升级”的理念促进人工智能的良序发展。一是成立具有国家战略高度的人工智能风险防控系统与实体研究机构,切实加强各类人工智能安全应用平台建设和人工智能学科专业建设与人才培养;形成以政府为主导、企业为主体、市场为导向的产学研相结合的模式,鼓励开发相关人工智能技术,拓宽人工智能技术的安全应用领域。二是贯彻人类命运共同体理念,积极开展多边国际智能安全技术合作。中国应积极参与人工智能全球治理,主动搭建人工智能伦理规范、制度建设和国际规制等全球合作平台,在智能技术安全风险管控、国家安全治理等重大国际议题上,贡献中国智慧与力量,共同应对全球性挑战。
摘自:中国社会科学网 作者:李凯
原文网址:http://news.cssn.cn/zx/bwyc/201912/t20191203_5052269.shtml