当今时代,人工智能日益深入地影响着人类生活,协助人类进步任务效率。其中,设计迷信的算法、用好大数据资源、不时进步计算才能是人工智能技术开展的重要支点。但是,技术开展总是与风险相伴,人工智能也能够带来进犯团体隐私、冲击法律与社会伦理等成绩。在充沛发扬人工智能作用的同时无效防备其风险,需求运用法治思想和法治方式,增强对算法设计和数据运用的监视管理,推进人工智能行业安康生长,更好为经济社会开展效劳。
对算法设计停止监管。人工智能是人类智慧的延伸,算法设计也不是地道的技术成绩。一切算法都是为完成特定义务、完成特定目的而设计的,特定义务、特定目的的完成途径往往包含着设计者的价值观。而设计者的价值观又会影响其设计的技术方案,这就能够在技术运用中发生所谓的算法歧视。比方,某网络公司推出的广告效劳中,男性用户可以比女性用户看到更多高薪招聘广告。即便算法设计者没有给算法植入歧视的意图,但有时依然会呈现某种歧视效果。因而,编制算法该当遵照一定的法律规则和行业规则,以合理控制途径选择,使其契合社会根本伦理标准。
对算法设计停止监管,可以采用专业监视和社会监视等手腕。专业监视就是对算法设计制定具有可操作性的技术和行业标准,让设计者在停止设计之前就遭到无效制约。还可以请同行专家停止监视。同行专家比拟容易洞悉设计者的理念,可以理解详细的操作顺序。经过同行专家的评价和信息披露,可以对设计者设计出来的算法停止比拟无效的预先规制。社会监视就是要求设计者将其算法设计的根本状况停止注销或备案,并且这种注销或备案信息可供社会大众查询,构成社会大众评判,从而停止品德和言论上的制约。经过专业监视和社会监视,可以更好地防备人工智能算法设计偏离社会根本伦理标准。
对数据运用停止监管。数据的取得和应用方式是法律关注的成绩。当用户流连于网络、享用人工智能设备带来的便当时,其团体信息平安能够正面临风险。例如,人们运用智能设备,往往要赞同所谓的注册协议、效劳协议,这些协议通常会要求用户“自愿”提供团体根本信息。企业在取得用户方式上的受权后,效劳进程中触及的团体数据就会依照商定经过网络传送给企业。比方,可以上传用户的地位、兴味、需求、运用习气等信息。取得这些数据的企业,可以据此构成消费者剖析报告,针对用户的年龄、寓居区域、消费习气差别等,精确掌握用户偏好,停止精准的市场投放。因而,数据运用可以给企业带来宏大利益。
由于互联网海量存储和疾速传达的特点,获取、存储和应用团体信息的主体和环节众多,其中往往存在进犯用户隐私平安和滥用数据的风险。面对这些风险,法律该当确立相应标准,对企业运用团体信息停止限制,使得对团体信息的维护更为详实、充沛。例如,允许智能设备出于便捷效劳的需求搜集团体信息,但不能要求用户作出概括性受权。企业应以合理的、法定的、特定的目的,在特定范围内搜集团体信息,并用于特定用处,而不能随意逾越用户对其团体信息搜集、运用的受权范围。应制止企业向用户搜集与效劳有关的信息。效劳提供商违背团体信息维护义务的,该当依法承当法律责任。总之,面对人工智能范畴能够呈现的风险,我们应仔细研讨考虑并作出法律上的应对,为新技术开展设计好法治框架,让人工智能更好地造福人类。
(作者单位:首都师范大学政法学院)
责任编辑:黄玉叶