中央政法委机关报法治日报社主办

您所在的位置:首页  > 文学副刊

“脑机接口”距临床应用还有几道关?

2020-10-22 08:17:00 来源:法治日报·法治周末

对于BCI技术潜在的伦理风险和可能导致的不利后果,应当预先从法律视角探索规制思路和应对方法

视觉中国

魏斌 韩伯元

近期,埃隆·马斯克成立的神经技术公司Neuralink的一场发布会引起了各界对脑机接口(以下简称BCI)的热烈讨论。有科学家希望尽快开展人体实验,以求BCI技术应用于治疗阿尔茨海默病等神经疾病。928日,马斯克接受《纽约时报》采访时表示:BCI技术的研究尚处于初级阶段,研发首先会考虑伦理问题,要获得美国食品药品监督管理局的批准需接受严格的检测。

伴随BCI技术进入人体临床试验的可能性加大,BCI技术的安全性和可靠性等伦理问题引发了科学家的普遍担忧。对于其潜在的伦理风险和可能导致的不利后果,应当预先从法律视角探索规制思路和应对方法。

安全性风险

BCI技术是通过定制机器人成功将硬币大小的设备植入动物大脑,建立脑机与外界信息交流和控制之间的联系,使得大脑和互联网通过人工智能高度交融。但是,BCI技术的安全性却令人担忧,因为BCI设备植入人体大脑可能带来危害,甚至将损害神经系统。

由于神经系统长期受到植入设备的压迫,半侵入和非侵入BCI技术都可能诱发接口感染和神经胶质损伤。BCI技术极可能引发依赖性,影响儿童甚至成年人大脑的可塑性。而且,BCI的可逆性仍然存疑,这使得移除BCI后,大脑可能无法恢复正常功能。

为最大限度地降低安全性风险,法律上应当明确BCI设备的生产和准入标准,同时应制定BCI手术植入的安全性标准,明确发生安全风险的责任主体,界定BCI设备制造和手术植入风险之间的责任分配关系。

侵害主体性风险

BCI技术可进入人类神经系统,传递神经信号,甚至能实现调节激素释放等功能。但BCI技术同时面临侵害用户主体性的风险。当大脑错误识别BCI技术发送的信号,用户作出不符合真实意愿的行为,便动摇了人的自主决定权,对人的主体性造成侵害。

此类问题同样广泛地存在于人工智能领域。如德国已立法规定“自动驾驶机动车必须具备可由驾驶人随时关闭或接管自动驾驶系统的功能”,从而实现自动驾驶中对人的自主权之保障。类似的法律还应当保护用户接入和退出的主体性,在用户决定弃用BCI时能够及时终止和退出。笔者认为,可通过确定BCI技术的边界范围来保障用户的自主权,避免机器算法过度干扰人的思想。

责任分配问题

BCI技术的应用可能引发一系列侵权责任和刑事责任问题,责任分配是临床应用之前必须要厘清的问题。与自动驾驶等人工智能侵权责任问题有所不同,BCI侵权行为的实施主体是人,而并非是机器,人的行为可能是在算法指令的驱使之下完成的,而不是由人的自主意识来实施的。

由于算法发出指令使得实施侵权行为很难被发现,因而需要专门的第三方机构来进行评估。如果明确是算法发出指令导致侵权行为发生,那么应当追究算法设计者的责任;如果确定算法未发出指令并且侵权行为是由人自主控制,那么应当追究人的责任;如果无法确定,那么也应当制定由保险公司等第三方实施救济的措施。

法律规范的思路应当明确BCI开发者、算法设计者和手术植入者的义务。为减少责任难认定的问题,还应当强制要求机器每一次发出算法指令都必须得到人的明确回复,即有接收与否的明确应答。

损害知情同意风险

BCI技术贯穿用户交互的前端、信息处理的中端和信息分析的后端,其对于个人数据的收集和处理极有可能冲击传统“知情—同意”原则。BCI技术在发出指令时没有经过用户的同意,可能与用户的思想相悖,部分指令甚至是在用户不知情的情况下发送的,进而引发用户的一系列行为反馈。因而,需要从法律上构建规范以保障用户的知情同意权。

具体而言,有必要构建三个方面的法律规范。第一,需建立严格的知情同意机制。在BCI应用前提前告知用户可能的伤害和救济方法,以确认其享有知情同意权。第二,需禁止服务前“强制接受隐私声明”。通过制度设计使用户得以提前了解BCI在不同功能下的数据收集范围、处理方式和保护机制,最大限度地保障用户的知情权。第三,需建立即时信息了解机制和事后救济机制。帮助用户全程知悉其个人数据的使用情况和受保护状况,当发现个人信息被违规使用时,可立即启动叫停和退出机制,从而保障用户的同意权。

个人信息泄露风险

大脑会产生与个人生理和心理健康相关的私密信息,BCI技术无疑会加重用户信息数据泄露的风险。BCI技术通过访问人的神经数据,大脑活动容易被暴露,访问的隐蔽性也使得信息泄露更为复杂,极易侵害用户的隐私权。

我国民法典等虽规定了对个人信息和隐私权之保护,却多为原则性条款。因此,应加快详细的个人信息保护立法,明确个人信息和隐私之范围,甄别BCI应用下的数据类型及其受保护价值。

其次,应明确用户主体权利,赋予BCI用户信息自决权,使其有权决定其个人数据是否被收集和利用。用户数据的默认选项应当设置为不共享,并且不要求用户明确授权。

再次,应建立严格的信息筛选保护机制,避免设备在未经同意的情况下获取个人隐私和数据,从技术源头实现个人信息保护。

最后,应确立监管原则和责任制度,在法律责任确定下构建完整的救济机制,细化法律责任,实现从民事赔偿到刑事责任追究的全面保护。

BCI技术的发展无疑将为智能医疗领域带来全新的变革,但在其成熟和投入使用前仍面临着大量伦理风险。建立法律应对机制,不仅为BCI技术用户提供了全力保障,同时使得BCI技术可以在规制中获得有序发展,以为用户带来更加安全和可靠的应用可能。

(作者分别为浙江大学光华法学院百人计划研究员、博士生导师,浙江大学光华法学院硕士研究生)

责编:王硕

联系我们 | 诚聘英才 | 广告征订 | 本站公告 | 法律声明 | 报纸订阅

版权所有 Copyrights © 2014-2019 www.legalweekly.cn ALL RIGHTS Reserved 《法治周末》

京ICP备10019071号-1 京报出证字第0143号

京公网安备 11010502038778号