中央政法委机关报法治日报社主办

您所在的位置:首页  > 文学副刊

​机器的智能和人类的智慧

2020-10-29 08:28:00 来源:法治日报·法治周末

■《AI联结的社会:人工智能网络化时代的伦理与法律》

作者:[]福田雅树、林秀弥、成原慧

译者:宋爱

出版社:社会科学文献出版社

邱泽奇

AI联结的社会:人工智能网络化时代的伦理与法律》(以下简称《AI网络化》)是一本论文集。通常,论文集会依照论文的主题汇集,难以让讨论具有内在逻辑一致性。这本论文集不同的是,它的主题内在逻辑一致性很强,从这个角度来说,它更像一本合著成果。

AI网络化》尝试着回答,人工智能会以什么样的形态到来?在这个进程中,人类可以做什么来保证人类的基本利益?说得更加简洁一些,在人类面对网络化的智能机器时,如何保障人类的基本利益:身体、人格、责任、尊严?

以我对人工智能有限的认知,我以为,这样的提问非常日本!工业化的历史表明,同在儒家文化圈,日本却是一个非常务实的国家。明治维新以后,我们不知道日本人提出了什么惊世骇俗的理论,却知道日本的产品行销世界,对日本产品的质量,鲜有人怀疑。这源于日本人的务实。

人工智能的发展显然还没有走到真正威胁人类的时刻,探讨人工智能场景下的人类利益,显然是一个虚拟问题。务实的日本人在遭遇一个虚拟问题时,又如何处理呢?

AI网络化》同样展现了务实的智慧:日本专家们采用了情境锚定法。情境锚定法是社会调查中面对未来时常用且有效的测量方法。它假设一个情境,实在的、可以在头脑中呈现的情境,然后,询问人们面对情境的决策和行为取向。在理论研究中,这样的方法也被称为思想实验,是理论逻辑演绎的常用且有效的方法。

人工智能网络化是一个被忽略或被默认的议题。说是被忽略,至少在我读到的文献中这是第一本将其特别强调的作品。说是被默认,在众多讨论人工智能的研究中,作者们往往忽略了人们生活在一个政治和社会制度有差异的世界,国家技术能力的强弱和国家之间关系的好坏并非与人工智能创新和应用没有关系。

忽视既存的制度约束和假设人类的一般存在看起来有利于讨论,实则是学术的不负责任。《AI网络化》突出强调人工智能网络化的现实社会情境,也是学术务实的另一个证明。

AI网络化》首先呈现的不是人工智能带给人类的便利,而是风险。《AI网络化》将风险区分为功能风险和制度风险,认为其中重要的不是功能风险,而是制度风险。因此,风险分析是人类面对人工智能挑战的出发点,包括风险评估、风险管理和风险传播。风险分析的目的,不是为了甩锅,而是让风险明确化,进而确保公平竞争,让风险与收益达成平衡。在这里,我们既看到了日本人务实的一面,又看到儒家文化的深层存在。

参与讨论的近20位作者,既有业界人士,也有学界新秀。从《AI网络化》文本可以看出,他们的一个共同特点是,都非常熟悉国际上人工智能探讨的热点和难点问题,表达的也是他们对这些热点和难点的观点。

人工智能数据是大数据问题的一个子集。欧盟有GDPR(《通用数据保护条例》),美国有关联的法律却没有一般的法律,中国在民法典中有涉及,日本的《个人信息保护法》也只是关联的法律。到目前为止,数字化前沿国家对此还没有达成一致。

我以为,根本不可能达成一致。机器并没有利益,机器的利益实际上是掌握机器的人的利益,“电车难题”便是典型的例子。当我们在人工智能里设定人类生命优先时,不是牺牲机器的问题,而是优先保护谁的生命的问题。

如此,问题又回到了人类,而不是人与机器的关系。为此,我更愿意把问题修订为,当人工智能网络化将带给人类更大利益也带来更大风险时,如何分配这些利益才是对大多数人更加有利的,也是对大多数人而言更加有利于控制风险的?

在这个问题面前,人类自身的歧视、分化、极化、垄断等将会是长久且难以达成平衡的议题。我们期待一个可以促进技术发展的竞争性研发生态,却又希望避免一个由发展带来的垄断性市场,回避一个由利益分配严重不均所生产的极化社会,还希望避免一个因伦理失衡而可能带来的毁灭性后果,最终希望做到人类自洽。这些,的确需要超级智慧。《AI网络化》至少是面向超级智慧的有益尝试。

(作者系北京大学中国社会与发展研究中心主任。本文为《AI联结的社会:人工智能网络化时代的伦理与法律》一书序言,有删节)

责编:王硕

联系我们 | 诚聘英才 | 广告征订 | 本站公告 | 法律声明 | 报纸订阅

版权所有 Copyrights © 2014-2019 www.legalweekly.cn ALL RIGHTS Reserved 《法治周末》

京ICP备10019071号-1 京报出证字第0143号

京公网安备 11010502038778号