图片新闻 > 时政 >
人工智能的立法考量
2017-08-29 23:08 作者:法治周末记者 陈霄 来源:法治周末

111.png
资料图。

 

对于人工智能立法,张平认为基本的考虑还是要对人工智能技术进行一些限制,要慎重运用,欧美等发达国家早就提出过人工智能的伦理公约,这是共识

 

法治周末记者 陈霄

关于人工智能的立法,在AlphaGo(阿尔法狗)完胜世界顶级围棋手李世石之前,似乎还是一个遥不可及的话题,尽管在最受互联网企业和汽车厂商关注的无人驾驶领域,同样的话题早已炙手可热。

827日上午,在北京召开的世界机器人大会上,针对人工智能法律与政策的专题研讨再次成为主题,然而,这仍是未决的议题。

无论是在那些积极开拓并布局的新兴产业,还是在那些看似消极被动的传统领域,已经全面进军的人工智能都很难被忽视。与此密切相关的问题摆在了面前:立法将如何去考量这一新兴事物?

中国科技法学会人工智能法专委会主任张平教授认为,对于不同阶段的人工智能,应该有不同的立法考量,尽管政策上鼓励,法律上也应慎重,当前尤其要关注到人工智能发展下的个人信息保护问题。

 

产业需求

 

人工智能的产业话题,目前最受关注的是无人驾驶。

最近的一起进入公众视野的事件恰好也与法律相关。在上个月百度召开AI(人工智能——记者注)大会时,百度CEO李彦宏乘坐无人驾驶汽车经五环抵达现场,随后百度公司被北京交警部门约谈。

百度专利事务部总经理秦健在人工智能法律与政策论坛上也提到,目前欧美日等发达国家纷纷在政策立法上对无人驾驶进行布局,中国要实现无人驾驶上路,同样需要克服一系列的制度障碍。

例如,由工信系统主管的硬件、软件、信息、安全、数据等相关标准的出台,由公安系统主管的安全检测、驾驶资质等的完善,由交通运输系统主管的载客载货场景的完成,等等。

曾在奥迪中国合规部深度介入自动驾驶研究的北京律师何姗姗当天也提到自动驾驶目前在中国实现的障碍,包括涉及多个部门的协调、无测试方面的法律、与部分现行法律相冲突和无安全标准等。

实际上,在2016年全国两会上,同为全国政协委员的李彦宏和吉利集团董事长李书福都提出了加快自动驾驶、无人驾驶法律法规建设的提案。

为多家科技公司担任法律顾问的北京律师王新锐,在论坛上提到了在金融和医疗行业人工智能产品可能涉及的法律风险。虽然目前人工智能技术或产品本身并无行政许可和准入限制,但应用到具体行业时,则有可能涉及资质或牌照取得的问题。

王新锐以目前最受热议的“智能投顾”(即机器人理财)举例说,国内的这类平台开展业务实际上会涉及投资咨询和资产管理两大方向,前者按规定需取得证监会颁发的证券投资咨询从业资格证,后者则需要根据产品类型取得相关许可,否则可能陷入刑事法律风险,但目前实践中出现了打着智能投顾幌子行非法荐股和无牌照代销的现象。

“如何建立一个既能鼓励人工智能技术发展,又能合理分配风险的监管制度,是个值得探讨的问题。”王新锐说。

 

职业危机

 

在一年多前美国多伦多大学发明的ROSS机器人脱颖而出,被一家全球十大律师事务收购之后,对于人工智能或将取代法律人的担忧明显增加了。

2015年,美国斯坦福大学在校大学生Joshua Browder创建了世界上第一个机器人律师DoNotPay(不花钱),发布的这两年来帮助人们处理了大约37.5万起停车罚单上诉案件。

“人工智能的发展意味着未来有相当多的律师,特别是初级律师会失去工作。”华东政法大学政治学研究院院长高奇琦在当天的论坛上说。

受到影响的当然不仅仅是律师,不少观点认为,甚至法官也是可以被人工智能取代的。

西北大学法学院讲师黄菁茹就认为,随着不断细化的分析维度和不断增加的司法裁判样本,公正是可以被量化的,未来机器人法官将成就真正的判例法。

当然,上述观点长期以来一直是存有争议的,即便在当天的研讨会上,关于人工智能的终极发展预估,对峙也是鲜明的。但目前比较一致的看法是,人工智能肯定会削减一定数量的司法从业人员,但在这一领域机器完全替代人类还为时尚早。

因此,对于这方面的立法考量则没有细致的规则设计,而更多的是对一种未来趋势的担忧。

上海大学法学院讲师岳林认为,未来真正有效的司法知识,会被隐藏到人工智能的算法“黑箱”中去,仅仅被少部分掌握人工智能控制权的当权者掌握。“因此,由谁来设计司法人工智能,以及如何来使用、控制和改造机器人法官,也就成了更为根本的问题。”

高奇琦也提到,应当警惕人工智能算法的独裁和偏误,由于算法要依赖于编程人员的判断与选择,受限于他们的知识结构,规则的数字化和代码化可能导致不透明、不准确和不公平。

因此,很多学者、甚至是对人工智能非常乐观的学者也同意,人工智能只作为判断的辅助,判断的权力始终把握在人类手中。

 

法律挑战

 

“对于人工智能的立法,到底是应该鼓励还是控制?”张平教授提出了关键之问。

在她看来,在人工智能的不同阶段,立法考量也不同。过去所有的技术进步,法律都持鼓励态度,但到生物技术之后这种考量就不一样了,包括后来的大数据开发应用,政策上当然是鼓励的,但法律上还是慎重的,再到现在的人工智能,则应比生物技术、大数据应用更为谨慎。

很多与会者都提到了人工智能时代个人信息的保护问题。

王新锐分享了Facebook当年的案例。

2011年,Facebook因人脸识别和标记功能未按地方法律要求告知用户被诉,随后又因采集面部特征前未能明确提醒并征求用户同意而受到德国和爱尔兰相关部门的调查。

尽管Facebook辩称默认开启这一功能是因为用户通常不会拒绝人脸识别并且用户有权随时取消,但仍被德国当局认定其违反了数据保护法。

最终,Facebook被迫在欧洲地区关闭了人脸识别功能,并删除了针对欧洲用户建立的人脸数据库。

张平将个人信息的保护视为人工智能面临的两大突出问题之一。她认为,在人工智能时代,人身权不受侵害、敏感信息无害传播是个人隐私保护的最低原则,未来个人信息的收集是无法避免的,但一定要坚守这一底线。

王新锐给客户的建议通常是,人工智能开发者在收集、使用数据的过程中,还要遵守安全保障原则,采取适当的、与个人信息遭受损害的可能性和严重性相适应的管理措施和技术手段,保护个人信息安全,防止未经授权的检索、披露及丢失、泄露、损毁和篡改个人信息。

张平同时呼吁,人工智能时代应重视未成年人保护。她提到了美国的“橡皮擦法案”,即2015年在美国加州开始实施的该项法令规定,针对未成年人在社交网站上公布的内容,包括图片、消息或博文,如果未成年人要求删除,则社交网站应当删除指定信息,而且社交网站负有向未成年人提示此项权利的义务。该法旨在避免未成年人因其年少无知的行为而对未来的工作生活带来不利影响。

当然,随着对人工智能发展的预期,许多人也提到了将来可能出现的电子人格对现行民法提出的挑战:现在已经广泛出现的如人工智能大量产生自己的作品,谁才是作品的权利人?未来机器人应该享有哪些权利?

高奇琦认为,基于便利性的考虑,未来机器人应该会被赋予某种电子人格,这就会在权利的法典上增添一种新的各类。

张平将此提炼为这一新兴领域的基本问题:人工智能,到底是主体还是客体?

总体上,对于人工智能立法,张平认为基本的考虑还是要对人工智能技术进行一些限制,要慎重运用,欧美等发达国家早就提出过人工智能的伦理公约,这是共识。

责任编辑:高恒涛
    当前1/1页   

  • 中央媒体 合作媒体 地方媒体 政法网群
    中国长安网 最高人民法院 最高人民检察院 公安部 司法部 法制网 新华网 人民网 中国网 光明网 中青网
    联系我们 诚聘英才 广告征订 本站公告 法律声明
    中 国
    互联网协会
    中国文明网
    传播文明
    工业和信息
    化部备案
    不良信息
    举报中心
    北京网络
    行业协会
    网络110
    报警服务
    无限互联网
    业自律同盟
    北京文化市
    场举报热线

    版权所有 Copyrights © 2014-2016 www.legalweekly.cn ALL RIGHTS Reserved 《法治周末》

    技术支持:川程在线   建议使用IE6以上1024*768分辨率浏览