新闻周刊丨“脸” 上无小事 如何守好人脸信息安全底线?
本文转自【央视新闻客户端】;
关于刷脸或者人脸识别,长久以来有不小的争议。对于这样的争议,近日,国家网信办、公安部联合公布的《人脸识别技术应用安全管理办法》给出了答案,它明确提出了“非强制性原则”,也就是说“不得将人脸识别技术作为唯一验证方式”“不同意通过人脸信息进行身份验证的,应当提供其他合理、便捷的方式”。而为了保护这张脸,新规还不止一个,针对AI换脸造假视频层出不穷的现象,网信办等四部门就刚刚印发了《人工智能生成合成内容标识办法》。相继出台的新规,为人脸信息戴上了怎样的防护罩?又为新技术的发展划出了怎样的新边界?《新闻周刊》本周视点关注,如何保护咱们这张脸。
本周五,当检察官再次回到这家健身房进行日常走访时,发现在通往健身区域的过道处,张贴着使用自助方式领取开柜手环的温馨提示,除了人脸识别方式,入口的闸机也可使用手环通过,更衣室柜门的屏幕已取消人脸识别功能。3月21日,网信办和公安部联合公布的《人脸识别技术应用安全管理办法》中,就提到了“最小必要原则”,规定应用人脸识别技术时,除了要具有充分的必要性,也要采取对个人权益影响最小的方式。并且不得将人脸识别技术作为唯一验证方式,这让周女士这样的诉求有了明确的法律条例可依。
中国社会科学院法学研究所网络与信息法研究室副主任 周辉:针对这种人脸技术的在经济社会生活中已经被广泛地应用的一个纠偏,人脸识别技术的应用之后,降低了很多服务,甚至包括一些管理的成本,使得大家大量的去应用这种技术。我们其实这样一个规定的出台就告诉大家,这种对人脸信息的收集还是要注意相应的风险的。我们需要更好地保护自己的人脸信息在内的这些权益。
《人脸识别技术应用安全管理办法》将在6月1日起正式实施,过去的面部支付、社区门禁再到交通出行等等涉及面部信息问题,将随着规则的革新更加规范。
人脸识别使用的场景越来越广,从前几年的小区门禁、酒店登记,已经发展到衣食住行的各个领域,智能家居、智能汽车、交通出行、金融支付等等。人脸信息,现在不仅是通行证,是支付密码,甚至已经发挥着身份证的作用,越来越成为一把能打开全部个人信息的钥匙。然而,作用越大,风险就越大,一旦泄露危害也就可想而知。那么,对于如此敏感的人脸信息,该如何存储、使用、转移和删除,新出台的管理办法有哪些新的规定呢?
检察官调查发现,门禁系统中还储存着已退租租客、外卖配送员、访客等人脸信息;在采集人脸信息时,也并未尽到以显著方式准确、完整进行告知义务;门禁系统账号密码更是直接保存在电脑中,点击就能登录,并且公寓未就保存数十万条人脸信息的电脑及主机进行加密处理。
李琳:我觉得最严重的问题其实是公寓方的意识问题,完全没有意识到自己在掌握了这么海量的信息的同时,自身具有怎样的一个信息保护的法定义务,所以当我们去开展一些调查工作以及后续对它们公寓进行一些督促和建议工作中,会发现公寓整个状态还是比较茫然的。
《人脸识别技术应用安全管理办法》,延续数据分类分级管理思路,针对存储数量达到10万人的个人信息处理者,设置备案要求,即应在30个工作日内向所在地省级以上网信部门履行备案手续,并提交相关材料。对于终止应用人脸识别技术的,应当在终止之日起30个工作日内办理注销备案手续,并依法处理人脸信息。
中国社会科学院法学研究所网络与信息法研究室副主任 周辉:在准备提交备案材料的过程中就去系统梳理个人信息的这种管理流程,是不是对照我们规定要求做到位了,对于监管者来说,提交的备案的材料也可以更好掌握本地区相关人脸信息的处理者的具体情况,也便于他们动态的有针对性地进行监管,甚至去进行相应执法处罚。
几年前,因利用人工智能将人脸照片生成视频,伪造人脸识别认证并非法牟利,郑某等四人被追究刑事责任。但广州市越秀区人民检察院又对四人提起民事公益诉讼。
虽本案中的受害人无法特定化,但广州互联网法院经审理认为,已泄露且仍在网络黑灰产市场流通的个人信息,使得不特定公众的人格性权益、财产性权益、安全性权益都存在风险聚合效应,这与个人信息被非法买卖、非法使用等现象呈正向相关趋势。法院认定,四被告行为已构成对社会公共利益的侵害,应通过公益诉讼使被破坏的社会秩序尽可能恢复到其应然状态。
以前我们常说“眼见为实”,而这些年,各类新技术的快速发展,让很多人对这句话都要打上一个问号,从假照片、假图像,到如今用“AI换脸”技术生成的假视频,人们越来越不敢相信自己的眼睛。有人利用AI换脸合成的假视频,冒充知名医生、演员、明星堂而皇之地进行虚假宣传、直播带货,更有甚者,直接利用换脸的假视频进行诈骗。这样的案例越来越多,让人们感叹,这张脸还属于我们吗?面对人脸信息保护的新难题,我们又该如何应对呢?
人脸替换、声音模拟,如此AI深度合成技术,如今已算不上什么高科技,在网购平台上,花上几十块钱,就能定制一份换脸视频。更令人担忧的是,它还被用作了电信诈骗的新套路。各地警方查获的案件已有不少,大多是利用换脸视频,冒充领导或者亲友,通过视频通话的方式索取财物。
桂林市公安局新型网络犯罪侦查支队三级警长 林仲文:区别于传统案件,它利用了AI合成技术生成的视频和图片,具有非常大的迷惑性,以前在接到冒充熟人电话的时候,群众还是会有一些警惕性,但如果他通过一些视频,就会让群众误以为对方真的是自己的一些朋友或亲人,从而导致他放松警惕。
为了帮助网友鉴定AI合成视频,前不久,广西桂林市公安局与第三方平台合作,在官方公众号推出了一款鉴真小程序,上传视频或图片,系统将自动鉴别真伪。
中国社会科学院法学研究所网络与信息法研究室副主任 周辉:我们确实需要有更可信的一个数据库,或者是更可信的一个平台,能够去鉴真验伪,让合成的这些信息能够被曝光出来,但同时我们要注意,对采购这种第三方主体的技术,进行相应的监管和治理的时候,也同样需要评估它的技术服务的能力,以及它在技术服务的过程中,收集到的这些数据会不会产生进一步的风险。
而要让更多人能够辨别真伪,还需要国家层面的政策发力。两周前,国家网信办等四部门印发《人工智能生成合成内容标识办法》,该办法规范了内容制作、传播等各个环节的标识行为,通过标识提醒用户辨别虚假信息,并明确了相关服务主体的标识责任义务,互联网应用程序分发平台,有责任核验生成合成内容标识的相关材料。
近年来AI相关行业迅猛发展,但技术进步显然是一把双刃剑。个人信息是新技术可以利用的资源,也是必须加以保护的权利。专家认为,对于像人脸这样极其敏感的核心信息,在平衡“利用与保护”两者关系时,保护要始终放在第一位。
人工智能等新技术狂飙突进,许多人正欢欣鼓舞地迎接一个崭新时代的到来。不过,技术越是进步,个人信息的脆弱性就越是凸显。当人工智能能轻易地复刻一张人脸、克隆一段声音的时候,我们不得不直面一个现实:技术发展必须建立在个人信息保护的基础之上,否则,技术的每一次进步,都可能演变成对个人信息权的一次精准打击。在技术迅猛前行的路上,必须时刻为人脸等个人信息系好“安全带”,才能抵达我们期待的未来。