中央政法委机关报法治日报社主办

您所在的位置:首页  > 热点财经

如何应对金融科技的算法风险

2022-07-14 10:38:00 来源:法治日报·法治周末

【算法治理】

□  孙磊

在数字化创新和发展过程中,有关数据信息运用的基本规则较为模糊,金融服务数据化、智能化升级的背后隐藏着严峻的数据道德危机,算法中的停机问题、高频风险、算法歧视和信息茧房等影响公开透明、公平和无歧视等价值的实现,也存在侵犯个人权利、模糊责任边界等风险。

三类算法风险

算法与数据是人工智能发展逻辑形成的根源,同时也容易引发风险。算法伦理失范的根源是缺乏算法价值观和系统的方法。在智能风控、智能投顾、智能营销等人工智能应用场景中,金融机构可依据算法等自动化决策手段作出决定,如基于用户画像来决定个人信用及贷款额度等,复杂利益冲突、投顾算法黑箱特点则带来用户信息安全的脆弱性等问题。

关于算法风险,主要有算法安全、可解释性、决策三类风险。其中算法安全可细分为算法泄露、被篡改的风险,也就是算法工程师写的算法会不会被泄露、会不会存在被篡改的风险;可解释性的风险可细分为算法透明程度与算法可解释性,人工智能的算法是个黑盒,有时连开发人员都不能说清楚算法运作的具体细节,这样会导致机器学习模型的透明度和可解释性的问题。如果不解决这两个问题,算法可解释性风险会影响到信任危机,所以我们每次创新都需要评估这部分的风险。算法的决策风险也同样重要,尤其是在金融安全等领域,如果不能理解人工智能的决策行为,一旦人工智能失手,将会极大损失用户的利益。所以同样要评估算法的可靠性与可终止性。

从四个维度应对算法风险

如何应对算法风险?适应性治理强调治理体系设定从一开始就期待、预见、回应变化,通过积极监测客观环境变化,及时调整治理方案以匹配新监督需求。

完整的金融科技伦理治理体系从创新初期、发展阶段到推广应用,通过持续性伦理评估与伦理讨论、伦理共识提炼,预见、回应新技术金融应用带来的新社会问题。

第一,精准定位客户需求并进行产品创新。在客户服务阶段,通过搭建中台统一管理产品、价格、订单,在满足每个渠道不同需求的同时,保障顾客在不同渠道之间体验的无缝对接。在风险防范阶段,通过关系图谱和图计算技术识别高风险拓扑结构群体;利用无监督聚类算法,识别特征异常、高欺诈风险的群体,挖掘团伙欺诈群体和空壳公司;建立高频的客群监控和管理体系,及时制止高风险客群的交易行为,让场景金融风险可见可控。

第二,建立合乎伦理的算法价值观。由于开发者有其价值观,因此算法在事实上具有价值观,有必要加强对算法开发过程中的伦理价值教育;算法伦理价值观应当注重公平性原则,使用合适的伦理工具对基于敏感信息的差别决策进行公平性评估,通过“伦理即服务”或其他制度规范开发过程中的伦理问题;还应定期或不定期对算法进行伦理价值测试评估。

第三,加强风险管理。如可将银行业经典的“三道防线”风险管理理念与模型风险管理的理论及方法进行有效结合,对算法的模型风险形成有效防控。首先,可在一线算法模型开发活动中,针对不同的场景和功能,安排不同的团队进行模型开发,从而避免一套大而全的算法全权负责,实现风险分散,将其作为第一道防线。其次,通过增加算法模型验证环节,并设置专门的模型验证部门对算法模型进行审核和验证,形成第二道防线。最后,由内部审计部门或外部第三方的专业审计机构,对算法模型进行专业审计并反馈意见,形成第三道防线。通过建立算法治理的三道防线,对风险进行有效管控。

第四,建立人工复核及兜底机制。《商业银行互联网贷款管理暂行办法》第二十二条明确指出,“商业银行应当建立人工复核验证机制,作为对风险模型自动审批的必要补充。商业银行应当明确人工复核验证的触发条件,合理设置人工复核验证的操作规程”。比如,在贷前审批环节,对接近某一评分附近的审批结果进行人工复核;又如,在运用人工智能处理人脸核身业务时,可定期对审核结果进行人工抽检,从而及时发现和解决算法模型可能存在的未知问题,防范模型风险。

完善算法伦理治理体系

根据《关于规范金融机构资产管理业务的指导意见》(银发〔2018106号)第二十三条的相关内容,“金融机构应当向金融监督管理部门报备人工智能模型的主要参数以及资产配置的主要逻辑,为投资者单独设立智能管理账户,充分提示人工智能算法的固有缺陷和使用风险”。

数字化企业在运用人工智能开展投顾等业务时,一方面,应向监管机构提供全面解释,包括系统的解决方案、算法实现原理、模型训练方法等,以及尽量提供额外的解释性资料,比如数据治理报告和责任归属说明等;另一方面,考虑到普通投资者缺少算法的相关背景知识,无法理解算法模型运行的内在原理,应充分提示人工智能算法的固有缺陷和使用风险,充分保护投资者的知情权和自主决策权,并避免相关的声誉风险。

同时,通过技术创新推动算法治理。金融机构应加大研发投入,在满足用户隐私保护、数据安全的前提要求下,进行数据使用和建模,防范算法的数据及隐私风险。如通过研究和运用多方安全计算、联邦学习、TEE等隐私计算技术,为算法提供强有力的安全计算支持。在运用人工智能技术提供创新产品和服务时,也应积极向监管机构提供相应的监管科技解决方案,尤其是合规科技方案,提供产品的安全性保障,规避隐形黑盒带来的监管盲区,提高创新业务的合规透明度,助力人工智能技术在数字化领域应用的可持续发展。

在科技伦理,特别是金融科技伦理治理中,最重要的是由个体权利保护到关注公益规范治理,由强调绝对理念到强调相对权利、利益平衡,由道德到社会管理工具,由柔性到刚性的过程。这一过程中,相关方特别是大型科技企业实现权利和责任的统一,追逐利润的工具理性和科技“向善”价值理性的统一,以及企业、行业自律和政府、社会他律的统一。

(作者系马上消费金融股份有限公司副总经理)

责编:王硕

联系我们 | 诚聘英才 | 广告征订 | 本站公告 | 法律声明 | 报纸订阅

版权所有 Copyrights © 2014-2022 www.legalweekly.cn ALL RIGHTS Reserved 《法治周末》

京ICP备10019071号-1 京报出证字第0143号

京公网安备 11010502038778号