文│ 中国信息通信研究院互联网法律研究中心研究员、法学博士 程莹
在全球新冠肺炎疫情冲击下,人工智能在远程医疗、疫情监控、电子商务、娱乐消费等领域应用快速扩张,并伴随越发严重的安全风险。其中,无接触的人脸识别系统正逐步实现对社会生活的全景介入,“双刃剑”效应日益凸显,引发社会舆论的广泛关注。人脸识别信息不仅涉及个人的隐私利益、信息利益,也承载着公共利益和伦理价值、关涉国家安全。2021 年 4 月,欧盟发布《人工智能法案(草案)》,禁止执法场景下的实时远程生物识别系统应用,并将其他场景下的生物识别系统列为高风险人工智能,引发各方关注。在此背景下,有必要对国际上人脸识别的法律规制展开深入研究,探究创新应用和风险规制的平衡路径,进一步厘定人脸识别技术应遵循的法律底线和基本要点,确保人脸识别技术安全有序发展。
人脸识别是指通过对实时或静态的人脸图像进行特征提取、分类识别,以达到识别、认证、监控、伪造等目的的新兴技术手段。相比于一般个人信息,人脸信息具有强识别性、难变更性、不可匿名性和不可替代性等特点,同时,人脸识别技术具备自然友好、对用户干扰少、显著提升效率和便捷性等优势。伴随全球疫情发展带来的精准防控需求,人脸识别技术应用在悄然间大幅扩散,在某些场景下呈“应用失控”的态势。从以往基于公共目的实施的执法追踪罪犯、机场身份验证、寻找失踪儿童等领域应用,扩展至门禁打卡、无人超市、便捷支付、AR 交互、客户画像等电商、物业管理、娱乐消费等商业应用,人脸识别应用风险也在不断叠加。
一是安全风险。由于人脸信息等生物信息具有强识别性和不可变更性,一旦发生数据泄露,损失将难以估量。在技术安全层面,人脸识别面临被黑客攻击、恶意利用等带来的财产安全、人身安全等风险问题。由于缺乏技术审查和评估要求,当前上市应用的人脸识别技术安全保障参差不齐,部分应用通过在 3D 模型、硅胶脸膜即可实现人脸解锁,极易带来财产损失或人身安全问题。同时,相比其他新兴技术,人脸识别技术使用方涉及小区物业、用人单位、学校等大量小微实体,数据安全保障措施难以跟进,因此面临更大监管困境。
二是自主风险。人脸识别技术可在未经自然人同意的情况下,实现远程、实时和自动收集,极易规避个人信息保护中的知情 - 同意要求,强制使用、隐蔽使用等现象突出,进而侵犯个人信息主体的自主权。在售楼处人脸识别杀熟事件中,消费者已明显丧失对人脸信息使用的知情权和自决权,出现戴头盔看房的窘迫局面。在郭兵人脸识别第一案中,杭州中院二审判决认定野生动物园未履行告知同意义务,应当删除原告的面部特征信息。
三是歧视风险。作为敏感个人信息,人脸信息能体现人的种族、肤色、性别,甚至可通过分析体现性取向、政治倾向等特征,技术滥用容易放大歧视问题。从技术成熟度来看,人脸识别技术在不同皮肤、种族的识别率上存在着巨大差异,使用中容易导致弱势种族利益受损。同时,人脸识别技术存在错误使用带来的侵权风险,如美国新泽西州一公民曾因人脸识别系统问题被错误关押十天。近年来,警察使用人脸识别带来的歧视或错误执法问题也受到关注,美国多州出台立法禁止或限制警用人脸识别技术。IBM、微软、亚马逊也相继宣布停止向警方提供人脸识别技术。
伴随人脸识别技术风险不断凸显,各国基于规制政府监控、种族歧视、技术偏差等多方面因素,从生物数据保护源头治理到人脸识别技术规范等措施,积极探索公共利益、社会效益与权利保护的平衡路径。
随着风险日益加大,禁止或暂停使用人脸识别的立法提案日益普遍,但适用范围有所差异。例如,有些禁令无条件适用于所有政府用途,有些禁令是部门性的,如仅适用于医疗、学校、物业等特定场景,有些则仅限于特定用途,例如禁止在警用随身摄像头、公共 WIFI 区域使用人脸识别等。2019 年7月,欧洲人工智能高级别专家组(HLEG)发布报告,提议欧洲应该禁止进行大规模 AI 监视,呼吁政府应承诺只部署和采购值得信赖的 AI 系统。在 2020年拟议的《人工智能白皮书》初稿中也曾主张“在评估人脸识别技术影响的方法和风险管理措施被开发出来之前,可能会暂时(3-5 年)禁止在公共场所使用该项技术”。然而,2021 年,欧盟公布的《人工智能法案(草案)》则转变严格禁止的立场,仅规定禁止基于执法目的在公共场合使用实时远程生物特征识别系统,且同时列明了用于寻找失踪儿童、预防恐怖袭击等几种豁免情形,为执法人员使用人脸识别技术预留了一定空间。在美国,参众两院提出了《人脸识别技术授权法案》等多项人脸识别法案提案。其中,《道德使用人脸识别法案(草案)》也采用了较为激进的态度,要求在形成政府使用准则和限制条件之前,禁止联邦政府使用人脸识别,但目前该法案尚未通过。美国已有多个城市如旧金山市、奥克兰市、萨默维尔市等立法禁止政府机构在公共场所使用人脸识别技术。美国华盛顿州的《人脸识别服务法》对人脸识别的场景应用提出限制性要求,例如不得用于个人宗教、政治或社会活动,不得用于识别个人种族、性别、性取向等特征。
通过规范人脸数据收集、使用行为,从源头治理的角度实现人脸识别的风险规制,是欧美国家的典型做法。美国是世界上最早颁布生物特征隐私保护法律的国家,但目前还没有统一与全面的联邦法律规范生物特征数据的收集和使用。作为世界上首部生物特征信息隐私保护法律,《伊利诺斯生物特征信息隐私法》于 2008 年获得伊利诺斯州立法机构通过,要求私人主体必须以与对“机密和敏感信息”相同或更高的保护方式保护生物特征标识符和生物信息。2009 年,美国得克萨斯州颁布了《生物特征信息隐私法》。2017 年,美国华盛顿州成为第三个通过生物特征信息隐私法的州,对包括人脸信息在内的生物识别信息的收集、使用加以规范。例如,在住房、雇佣、信用、教育领域,不得处理或对外传输个人生物信息,避免特定个人遭受歧视性待遇或无法获得相应的机会。欧盟也对生物识别数据进行了严格规范。《通用数据保护条例》(GDPR)第 9 条确立了对于生物数据(包括面部图像)的使用规则,即原则上禁止处理生物数据,除非获得个人明确同意,该同意必须是“自由、明确、具体”的,数据主体的任何被动同意均不符合 GDPR 的规定。与此同时,对于可能带来的歧视或其他重大权利影响,第 22 条也规定了免受自动化决策权。此外,数据主体可主张删除权、变更权避免人脸识别带来的歧视、错误风险。
从技术风险规制层面,欧美均出台相关立法提出相应的技术应用规范,从事前、事中阶段预防技术风险。2019 年 7 月,欧盟《关于通过视频设备处理个人数据的 3/2019 指引》提供了降低人脸识别风险的措施,如对生物识别数据进行加密并制定秘钥管理政策,整合关于反欺诈的组织性和技术性措施,为数据分配整合代码等。2021 年,《欧盟人工智能法案(草案)》将商业人脸识别列为高风险人工智能,并规定了强制性的风险管理系统、高质量数据训练集、技术文件和记录保存、明确的透明度、上市后监测等规范要求。中央数据库是该草案的风险规制亮点。该草案要求欧盟与各成员国合作,建立并共同维护面向高风险人工智能系统进行登记的数据库,欧盟委员会是该数据库的控制者,欧盟数据库中的信息还应向公众开放。该法案还要求识别和分析包括人脸识别在内的高风险人工智能系统相关的已知或可预见风险;在上线后动态监测系统所收集的数据,对其他可能的风险进行评估等。美国华盛顿州《人脸识别服务法》从问责、人工审查、测试等机制来规范人脸识别服务使用。美国《加州人脸识别技术法案》则要求公共主体制定并公开问责报告,要求将人脸识别技术的测试程序、人脸识别技术对公民权利和自由的潜在影响和公共主体有可能采取的措施等内容向公众进行充分披露,以此确保公共主体使用人脸识别技术的行为可被公众监督。美国《商用人脸识别隐私法草案》已经美国国会审议过两次,其主要目的则是确保商业机构在获得终端用户肯定同意的情况下使用人脸识别技术。
伴随各国立法出台,人脸识别监管案例和司法诉讼同步推进,强化人脸识别风险规制。2019 年 8月,瑞典一所高中利用人脸识别记录学生出勤行为,遭到数据监管部门处罚,认定该学校的数据收集行为缺乏正当性依据,违反必要性原则。Facebook 因使用照片自动标记功能而招致集体诉讼,人脸识别公司 Clearview AI 也相继在法国、奥地利、希腊、意大利等多国遭遇诉讼,被诉称该公司收集、记录人脸数据违反 GDPR 等个人数据保护立法。在英国Bridges 诉警方使用人脸识别技术一案中,英国高等法院判决警方使用人脸识别技术合法,但应确保在每一个特定的场景下使用人脸识别技术是严格必需的、有效的且符合比例原则。同时,英国对人脸识别技术应用提出了事前、事中和事后的监督要求。例如,必须在使用前获得授权,并辅以人工审查。一些部门已经正式或非正式地实行了双盲确认要求,要求只有当两名审查人员独立得出同一匹配结果时,才可以使用人脸识别分析作为调查线索。
总体来看,欧盟始终坚持“可信人工智能”的伦理价值观,通过人工智能监管以实现维护技术主权、推动数字单一市场的目标。欧盟通过《人工智能法案(草案)》和 GDPR 第 9 条、第 22 条严格限定了执法场景和对个人有法律影响或重大影响的人脸识别技术应用,同时将其他场景下的生物识别系统均列为高风险类型,使用者需承担严格的主体责任,体现了欧盟力图避免人脸识别带来的侵犯人格尊严、避免公权力滥用、确保公平隐私等风险的严格规制思路。相比之下,美国将维护国家竞争力放在人工智能政策立法的首要位置。当前,美国在联邦层面并未出台人脸识别一般性立法,地方层面则重点规制警察权滥用、种族歧视风险等问题,对人脸识别商用呈相对包容的态度,体现了公私部门的差异化规制路径。同时,美国注重推进人脸识别技术在国防与军队建设中的重要作用,以维护美国的国际竞争力。
结合国外立法趋势来看,人脸识别技术应用在于规范而非禁止,明确使用依据和规范要求是应有之意。在权衡利弊的基础上对人脸识别进行必要的监管,寻求科技创新与个人权益保护的“最大公约数”,而非一刀切地予以禁止或者放任不管。
充分发挥人工智能产业联盟(AIIA)、中国人工智能学会人工智能伦理专委会等民间机构的协同作用,通过细化人脸识别伦理的具体要求、评估准则和要点清单,落实人脸识别技术应用的透明度、非歧视、可释性等伦理要求。在标准层面,我国在2021 年 4 月发布国家标准《信息安全技术 人脸识别数据安全要求》(征求意见稿),从人脸数据的收集、使用、存储等多方面提出要求,明确数据主体明示同意、应提供替代性身份识别方式、不得用于工作表现、经济状况等方面评估。建议进一步从技术规范视角出台完善相关标准规范,加强技术安全自评估、定期自我审查、使用记录留存等规范要求,引导人脸识别技术健康发展。
当前,我国尚未出台人脸识别专门立法,而仅从个人信息保护的角度作出部分原则性规范。例如,《网络安全法》将生物识别信息列入个人信息目录,规制互联网企业处理生物识别信息的行为,以确保网络空间的安全性。《民法典》人格权编确立了我国民事法律制度对个人信息权益的保护,肯定“生物识别信息”受保护的法律地位。《生物安全法》首次将生物安全提升到整体国家安全的高度,属于生物安全组成部分的“生物识别信息”安全,已经上升到国家安全、公共安全、公共卫生安全的重大层面。《个人信息保护法》将个人生物特征列为敏感个人信息,并对告知-同意提出更高要求,严格规范处理的必要性。2021 年 4 月《移动互联网应用程序个人信息保护管理暂行规定(征求意见稿)》亦将个人生物特征归入敏感个人信息,规定对其处理活动应当对用户进行单独告知并取得同意。此外,我国杭州、天津等地方立法对物业管理、社会信用评估场景下的人脸识别技术应用率先做出规定。建议加快研究出台人脸识别专门立法规范,区分人脸识别技术的公共利益需求和商业应用,限定公共部门使用人脸识别技术的目的和场景要求,明确商用人脸识别技术的单独同意或书面同意要求,进一步设定人脸识别技术相关备案、评估和审查要求。
建议应进一步加强监管执法,要求技术使用方严格落实安全主体责任。坚持依法治理、联动治理、技术治理理念,推动“专项整治和长效治理相结合”的监管模式,针对人脸识别应用中存在典型的“不给权限不让用”、违背“必要性原则”等问题进行严格查处,推动人脸识别技术应用方自查自纠。强化“全流程、全链条、全主体”监管,重点监管查处人脸信息违法售卖问题,切断出卖人脸信息的利益链条。对是否存在违规共享用户人脸信息,是否存在用户人脸信息泄露风险等问题进行监督检查。要求人脸识别应用方定期提供人脸信息保护自评估报告,实现对人脸信息使用、存储、转移等环节实践情况的监管。推动技管结合,提升监管能力,优化监管部门对人脸识别算法准确性、数据来源、风险评估等方面的监管手段。推动多元共治,畅通社会监督表达渠道,推动举报投诉工作标准化、规范化,及时处理相关举报案件,共同推动人脸识别应用方落实主体责任。
(本文刊登于《中国信息安全》杂志2021年第10期)
转自:中国信息安全