北京成功宝贝助孕

首页 北京助孕中心 北京助孕套餐 北京助孕选性别 北京助孕地址
北京助孕中心 北京助孕套餐 北京助孕选性别 北京助孕地址
推荐案例

何汉 - 人脸识别技术在公共服务与市场中风险的理论分析

时间:2023-11-28   浏览量:938
一、人脸特征的价值属性

人脸、指纹、声波等人类生物特征数据,相对于传统信息识别密钥,如身份证、工作证、学生证等,具有高保真性、高辨识性、高溯源性的特点,因此受到识别精度高需求应用场景的青睐。

识别精度之外,生物数据的另一特征是高相关性与多指向性。基于某一识别工具要求而被收集的生物数据同时也满足其他识别工具的验证要求,这是导致对人脸识别技术导致隐私泄露与财产损失忧虑的根本原因。传统识别工具倾向于单一验证性,即单一密钥验证单一身份,识别密钥间关联性较低,或采取多密钥联合验证方法。

人脸特征等生物数据的价值属性是“法益”还是“权利”存在较大争议,价值属性的判定直接影响对人脸识别技术应用的倾向选择。人脸特征的法益属性将其作为属于个人的可收益资产,个人有权对使用自身人脸特征获得收益的受益方要求分红,但并不拥有自身人脸特征的绝对所有权。针对“权利说”的绝对所有权,“法益说”认为,当个人出现在公众场合时,人脸特征已经作为一种公共资源面向所有公众开放,为社会所有。个人在公众场合的出现就是风险认同的体现。通俗地说,个人可以选择不出席公众场合,但没有出席后要求公众不可以获取其人脸特征的权利。

“权利说”认为,人脸特征是基于个人权利的信息数据,往往与个人的生命健康权与人格权、肖像权等其他权利呈现高相关性,因此人脸特征属于个人不可转移的先天固有资产。对人脸特征的收集属于收集方对个人的资源共享行为,因此必须事前取得个人的同意行为,在承诺安全与收益分享的基础上,收集方才拥有合法采集的权力。

我国2021年实施的《民法典》第1035条中规定处理个人信息应征得自然人或其监护人的同意。我国目前对人脸特征等的法律界定层面遵循“权利说”,将人脸数据的被收集认定为确保安全与分享收益的权利让渡。

笔者认为,对人脸特征的价值取向应该更倾向于“法益说”而非“权利说”。“权利说”的资产认定是经济人的,而非政治人的,忽略了人脸特征这一数据的公共管理意义。

首先,人脸采集发生的场景是公共场合,由于出席的认可同意,人脸特征的可采集性就已经意味着信息主体对社会采集的行为认同。

其次,出于采集场景原因,人脸数据不仅具有个人的收益潜力,同时具有对公共利益的可能影响。比如疫情下的大数据流调,阳性患者的活动具体到某一建筑内的行动轨迹时,对其人脸特征的收集影响社会的抗疫效果。

有别于传统的财产观点,人脸特征可能的大数据属性与公共属性要求个人不能拥有对其的绝对所有权,否则个人将面对社会迫切的治安与危机场景依旧拥有遗忘权,个人信息的公共利用是现代公共管理的前提。

二、人脸识别技术的应用困境

人脸识别技术的大规模应用加深了社会治理的风险隐患,同时也面临知情同意规则失灵、私力救济失效的制度困境。

(一)社会治理的风险隐患

1、隐私风险提升。人脸信息是一种个人敏感信息,其间接关涉公民隐私与自由。当人脸所携带的信息与它所出现的时空信息相结合时,就能破解个人隐私,从而侵犯个人隐私。

2、安全风险恶化。人脸识别技术特点之一是“非受控制性”,这意味着人脸信息一旦被收集,信息控制者对信息使用将脱离信息主体控制,从而加剧信息被滥用的风险。商业主体可基于此,形成线上与线下对消费者的全过程监控,获取数据,进行精准营销,消费者将面临无休止的商业推广轰炸,不法之徒可以此窃取盗刷公民的数字财产等。发生在四川成都的“人脸识别盗窃案”就是实例。该案中,唐某非法获取他人网络账号信息和人脸肖像后,通过制作3D人脸动态图突破支付宝的人脸识别认证系统。

3、社会风险加剧。作为一项算法技术势必有漏洞或者不完善之处,也难以消除算法设计者的偏见,这极可能造成歧视。人脸识别系统在被测试人群中,使用的人种差异将直接影响识别结果,且已被验证。原因是用于训练识别算法的脸谱里,不同人种和不同性别人群数量的选择上存在差异。实际上,识别的准确度通常与“喂食”算法的人脸数量和多元性成正比,而所谓的“技术偏见”更多源于人类偏见和不加纠正的利用。”

然而,与传统识别工具相比,人脸识别技术本身未必具有更高的安全性与效率性。“近年来,人脸识别被破解的新闻层出不穷。2017年,央视“3.15”晚会曝光了某软件存在的人脸识别验证漏洞。2019年,智能快递柜“刷脸取件”功能被小学生拿着打印照片破解。2021年,RealAI团队在测试中用照片破解了19款手机的人脸识别解锁功能。”所为生物特征,人脸数据具有公开性与多对应性的特点,个人面临不法者从其他场景获得其人脸数据以验证某一特定识别工具的风险,而这正是传统识别工具所竭力避免的风险隐患。

人脸识别的部署方式可能会使公共场所的通过效率大为降低,并造成其他安全隐患。目前,许多学校、公司、小区的人脸识别部署方式为闸机通道。由于刷脸闸机在这些非刚需场景的风靡,原本可以相对自由出入、较为宽敞的大门被改成仅容一人通行的狭窄通道,这就为通行凭空增设了障碍。在人脸识别准确性较低的情况下,会造成正常通行也需排队的奇观。人流量较大时,刷脸闸机的开合关闭、系统延迟也会导致本不必发生的拥堵。以武大为例,在大样本的情况下,较不成熟的人脸识别技术使得大量校外人员也能够识别出某一校内身份,从而顺利通过闸机而避免了以往的门卫验证环节。学生返校高峰期易于造成闸机拥堵的情况,这一情境下门卫人员也倾向于“开闸放水”,以人为取消验证或抽样验证的现实妥协增加原本低下的效率。

(二)知情同意规则失灵

实际应用场景中,有别于传统验证工具的常用的实物验证与取得同意方式,人脸识别由于其快速与主体无感的特点,易于导致知情同意规则的现实失灵与实际规避。

一方面,信息主体面临强制性或变相强制性的人脸识别风险。强制性人脸识别包括未经同意的摄取与加工。《2020年中国手机APP隐私权限测评报告》显示,97%的App会默认调用相机权限,在移动社交类App中这一比例达到100%。以武汉大学学生注册为例,在规定流程上,武汉大学只拥有识别的申报时候的学生面部数据,然而,在后续的学生证打印、门禁卡设置、银行卡绑定等多个环节,武汉大学反复使用已经取得得面部数据进行注册。在这一案例中,武汉大学未必是出于恶意,相反是出于避免“打扰学生”的善意动机。但事实层面,后续多次的面部数据使用与加工中,武大方面并未获得学生的再次授权,而是将一次收集的数据多次“越界”使用。这一类未经授权与许可的获取与加工利用,在现行认定下,就属于强制性的人脸识别。

变相强制性的人脸识别主要发生在信息主体别无验证选择的情境下,验证方只保留人脸识别作为唯一的验证方式,信息主体实际上变相不得不同意对自身的人脸识别。以武大为例,安装闸机之后的一段时间,门卫只接受闸机的人脸识别结果,而拒绝人工验证手动放闸的验证方式。在未经学生同意即安装闸机的前提下,学生实际上只有接受对自身人脸数据进行采集的唯一结果。

另一方面,信息主体面临非理性的知情同意风险,主要包括诱导性的知情同意与不明后果的知情同意两种。在线上同意过程中,APP协议倾向于通过默认设置利己选项,并且对利己选项采取深色色调填涂等心理学暗示手段,以及刻意加长同意条款篇幅,通过加粗等手段突出部分有利于信息主体的条约,诱导忽视采集方在条款中逃避责任的主观手段,诱导信息主体主观意愿。线下过程中,管理、安保人员则倾向于片面强调人脸识别的快捷与安全,忽视可能的风险,辅以“多对一”的说教形式以及肢体、环境等多因素影响,对信息主体采取压力与唆使的方式诱导同意。

在线上场景,不明后果的同意与告知不充分、难理解、成本高有关。线上隐私政策往往冗长繁杂、文义不清晰、授权目的不明确,还会通过合同方式将最终解释权赋予处理者。与其说是为了开诚布公,不如说是为了避免合规风险。在擅长法律文字游戏的强大公司法务面前,信息主体难以迅速捕捉到有效信息。

“同意”不过是机械的手指动作,难谓真实的意思表示。线上人脸识别隐私政策的显示方式也五花八门,有些会针对刷脸事项单独制定,且会在开通刷脸功能时一并显示隐私政策;有些则将人脸识别事项夹杂在整体的隐私政策之中,在开通刷脸功能时并不会单独提示,这显然增加了阅读成本。甚至有些调用相机权限的App会在用户尚未阅读隐私政策之前,就申请获取终端权限。在线下场景,充分的告知则更加可遇而不可求。

部分小区、高校、企业引入刷脸机制的方式为微信群内或内部网站通知,抑或由门卫、保安、宿管、前台等基层管理服务人员口头告知。这样的通知方式注定无法清晰完整地揭示选择刷脸的后果。即使有人询问刷脸的后果,这些负责传达的基层管理服务者也并没有意愿和能力给出一个负责任而周全的回复。

(三)私力救济失效

私力救济指的是信息主体在法律允许的范围内,凭借自身的能力向损害方要求止损与赔偿。人脸数据的不可控性与公开性也导致权利损害难以认定与私力救济不经济的失效困境。

一方面,人脸识别技术造成的权利损害难以认定。数据收集方利用收集到的人脸数据进行加工与收益的行为,往往并不直接表现为对信息主体的传统权利,如财产权等的直接损害。而是倾向于作为一项辅助数据,参与大数据画像的过程中,通过信息流处理的方式,挖掘信息主体的商业价值等。这一过程中,信息主体的隐私权难以判定为直接受到损害,因为并未对信息主体产生切实的客观影响。然而在商业场域内,信息主体又不具备对自身面部数据的遗忘处理与信息保密。受困于专业知识等,信息主体常常无法意识到自身的数据被无偿利用,更加难以认定人脸识别技术造成的权利损害。

另一方面,人脸识别技术造成的权利损害私力救济不经济。大部分的数据收集对象都通过强制性或变相强制性取得了不明后果或诱导性的规则同意,面对不可控、不知情的后续加工利用,信息主体的取证活动困难,诉讼环节时间漫长,可能产生更大的人力物力成本。同时,作为开放的多对应性密钥,信息主体难以判断面部数据被非法利用的对象,面临“维权无门”的困境,溯源难度过高。除此之外,人脸识别技术作为大数据的一种,实际应用环节涉及人员众多,易于造成信息主体的“搭便车”心理,从而导致个人积极性不高,不愿意承担较高的私力救济成本。

三、人脸识别技术的限制——三级所有

个人所有收益权是对人脸特征数据与生命健康权、人格权等权利高相关性现实的延伸,是对个人作为信息主体产出人脸数据的身份认证。目的在于保证个人可以从制度保障层面合理参与人脸数据的收益分享与个人的隐私保护。

企业所有使用权是对企业管理与利用方式的限制,对于依法收集的面部数据,企业拥有针对某一特定事务的分析与处理权利而无所有权。限制企业将收集到的面部数据与个人、政府共享,现有的知情同意规则下,实际上企业将收集到的数据作为资产进行资产管理,应用到诸多可牟利的领域。企业仅仅行使使用权,意味着企业必须建立公开的面部识别数据库与公开的使用痕迹记录程序,接受来自政府与信息主体的监督。同时,这也意味着允许企业在获得资质批准的前提下,较为自由地收集信息主体的面部数据,并进行商业利用。利用的前提是不损害提供者,即信息主体的既有利益。

政府所有所有权是集体生存逻辑的具体实践,将人脸特征数据视为个人产出的公共资源加以利用,从而实现在医疗、交通、教育等多领域的公共服务精准送达。此外,政府所有所有权,要求政府承担监管职责,即监管企业的商业利用与监管收集资质的审批,明确具体的人脸识别技术应用领域与对象,避免大规模、无限制或轻限制的人脸识别技术授权,提高准入门槛,保护个人的隐私权。

四、结语

人脸识别技术在公共服务与市场过程中的社会治理风险隐患、知情同意规则失灵的困境、私力救济失效的风险,主要是基于人脸等生物数据被认为为个人权利的理论基础,在权利说认为的“资产性质”基础上,社会与政府作为第三方的介入者对个人的保护显著缺乏时效性与有效性。

解决这一风险的理论基础是从法理上将人脸数据作为个人的法益而非权利,将所有权转移与政府,通过政府的统一监管,实行个人、企业、政府三级所有的所有制,从而兼顾个人的资源收益与隐私保护需要。


参考资料