讲座|黑爪:AI技术与大时代下的个人隐私

  • 应用分类
  • 游戏分类

讲座|黑爪:AI技术与大时代下的个人隐私

作者:admin浏览数:2020-08-31 15:17:32

前不久,由寻麓书馆发起的传灯人线上分享会第十期,邀请了大数据专家黑爪为读者分享“AI技术与大时代下的个人隐私”。活动中,黑爪从简单的技术原理与应用、法律与伦理等方面,对AI技术现状进行了梳理和探讨。以下是对此次分享内容的整理。

过去20年,我一直从事数据挖掘和机器学习方面的工作,具体的工作是自然语言处理在电子商务和客户服务方面的应用,广泛一点地说,就是具体行业的机器翻译。我在业余时间也做文学翻译,目前为止有六本译著已经出版。

今天我将从广泛的机器学习原理与大家交流关于“人脸识别”这个主题。“人脸识别”这个主题涉及面很广,专业性也比较强,我将从三个部分进行分享:AI热点、热点背后的讨论、AI技术原理。

AI人脸识别的热点

6月8日,IBM首席执行官Arvind Krishna就种族平等议题给加州参众两院写了一封公开信,引起了不小的轰动。按照技术巨头CEO的做派来看,这封信的笔调和语气都比较戏剧化,信中充满激情,一提笔就以IBM的光荣历史开场。信里写道,IBM比民权法案(Civil Rights Act)通过的历史都早了十年。民权法案于1964年通过,而IBM于1953年就迈出了这勇敢的一步,他们拒绝在公司执行吉姆·克劳法,他们要给不同种族、肤色、信仰的人才提供平等的机会。

接着他写道,70年以来一直到今天,人们还在为不平等而抗争,本不应如此。他提议要与国会一起努力共同推进正义与和平。这里我们可以注意两点:一是要和国会一起,他认为,单凭企业的力量已经不够,需要国会的支持并立法;二是企业的责任和义务,包括企业监督和提醒立法机构的义务。

具体如何推进呢?他提出,集中于三个关键的政策领域。除了警察改革之外,另外两点谈的都是作为高科技企业相关的本分。其中一点是拓展技能教育机会,另外一点是强调了企业应负责任地使用技术,这点引发了大量的关注。同时他宣布,IBM将彻底放弃人脸识别及分析软件,并且强调,他们坚决反对使用包括人脸识别在内的技术进行大规模监控,进行种族划分,以及对基本人权和自由的侵犯。这些宣称在有人看来会觉得算不了什么大事,IBM从来就不是人脸识别的大玩家,宣布放弃自身的利益对社会的影响也不会太大。

这件事过了两天,亚马逊紧接着宣布:暂停向警察机构提供人脸识别技术服务,并且表示,希望为期一年的暂停可以使国会有充足的时间执行修改适当的规则,通过更好的法律对技术的应用加以规范。

IBM、亚马逊这些科技巨头的宣告无疑将此事推向了高潮。

几天后,微软也加入了要求对人脸识别技术应用进行严格限制的企业行列。微软声明,在国会对人脸识别技术使用进行规范之前,将不会向警察部门出售面部识别技术。微软总裁布拉德·史密斯在接受《华盛顿邮报》采访时说道:这件事已经不能单靠企业来完成,只有这样(通过国会立法)我们才能保证保护民众的生命安全。

我们不妨想想,三个行业巨头能用这种严肃和强硬的态度说到保护民众生命这一点,绝不是一夜之间发生的事。2019年的旧金山、伯克利、奥克兰市议会已经断然禁止警察部门使用FRT(Facial Reconciliation Technology,人脸识别技术)。

人脸识别(图片来自网络)

人脸识别技术到底经历了哪些讨论呢?去年4月,微软研究院的研究员卢克·斯塔克发表了一篇题目为《人脸识别是AI领域的“钚”元素》的文章。钚元素是1941年美国化学家西博格发现的重要元素,可以用于核爆炸、核反应堆的燃料,它在元素周期表中的符号是Pu,钚元素本身只在极为专业的领域才有用,风险极大,因此在国际上被严格控制,只要用不到就绝不生产。人脸识别技术的危险性用钚元素来比喻也非常贴切,它对人类社会的健康危害极大,所以对其使用应当严格控制。

此言一出,各方面对类比的反对声音也非常多。有人认为这个说法不仅是危言耸听,也有人认为根本是无稽之谈。斯塔克和他的研究伙伴霍夫曼(华盛顿大学信息学院的副教授)一起对它的危害性进行研究,想要证明类比是有道理的。通过将人脸识别技术与钚元素作比较,这两位学者在原本的争论上补充了两点,我认为还是挺有见地的。技术层面上,人脸识别技术具有无法克服的漏洞,漏洞的产生与这项技术怎样系统化地处理人脸直接相关,这个漏洞的产生加强了性别和种族的分类错误,就注定了对社会有害。这样的风险超过它能给我们带来的利益,很容易让人联想到核技术。

在美国现有的执法部门、私营企业以及政府所部署的大量大规模的监控工具中,人脸识别技术对种族的正义、不受干扰等这种最简单基本的权利都构成了威胁,这种技术如果掌握在执法部门的手中,对异议、公民概念、民主概念都会构成一定威胁,甚至削减人们维护个人隐私的能力。人脸识别技术从发明伊始就与社会的各种问题纠缠在一起,这与技术发明者、实践者的初衷无关。正因为这个技术的先天缺陷,政府应当对它进行严格的条例规范,严格到可以禁止它进入任何实际应用的地步。

2018年,美国东北大学法学院的教授伍德罗·哈佐格在这方面做了大量的研究,他与罗切斯特理工大学的伊万·赛林格教授做了一份联合研究报告,他们把人脸识别技术称为人类发明的最危险监控工具,并且呼吁对其全面禁止,理由是人脸图形很难隐藏或改变。西方社会的驾照系统有人脸与名字匹配的数据库,在任何地方拿出驾照与数据库进行对比就能办事。另外,视频监控机制也非常便宜和普及。最关键的是,与其他的生物特性不太一样的地方是,人脸是个人身份和社交生活的核心要素,我们无法逃避,更不可能把脸藏起来。我们想要的存在于监控系统外的自由就被这伪装成礼物的人脸识别技术破坏。

从技术和概念层面讲,人脸识别技术最根本的问题是它把数值跟人脸关联起来。而人脸识别或其从视觉上把人体分类的系统都不可避免地在使用“种族”参数,这个系统是现成的,“种族是非常精确的分类”,这是所有人根深蒂固的概念。几百年来,在科学及管理领域中,把人类简化成一组很清晰、可操纵的标识,种族化手段非常方便、好用,也能达到一定的准确值。

人脸识别是基于对面部比例进行快速比较,从而找到并确定ID值算法。问题在于FRT是如何学习做出识别并如何训练这种算法。

FRT程序在运行前,会扫描和评估数以万计的人脸图像来进行训练,在这个数据集里包含了人脸数据的组成情况。除此之外,FRT程序通常要求图像有很好的光线,要全脸或者接近全脸。但很多刑事调查中所使用的图像根本达不到要求,为了让图像对FRT的识别有用,就必须对图像进行处理,对图像大幅度的修正就在引入误差,这就存在问题。人脸识别还包括判断、提取、分类,再将它与事先准备好的数据库进行比较,比较的过程就是为人脸示意图赋值的过程。

Face Recognition Technology: Compulsory Visibility and Its Impact on Privacy and the Confidentiality of Personal Identifiable Images ,Ian Berle, 施普林格出版社(Springer)2020年3月版

热点背后的讨论

人脸识别具体有哪些应用呢?我们生活中熟悉的有iPhone解锁,刷脸进入大楼或房间。这项技术的天生缺陷导致了它的不准确性。如果在解锁iPhone时出了问题,或许你还可以通过邮件、语音、密码等方式解锁,但在追踪识别嫌犯时,不准确的识别导致的后果会非常严重。

亚马逊的人脸识别系统是Rekognition,有一次把奥普拉·温弗瑞(美国脱口秀女王)识别成男性。这件事大家还可以当成段子一笑了之。除此之外的另一件事,另一个面部识别系统把一位女大学生标注成斯里兰卡爆炸案的嫌犯。事情发生时,这个女生正在9000英里外的布朗大学上学,被警方标注成嫌犯后,这个女生多次收到死亡威胁。

有人会说技术问题总会得到改善,比如给人工智能系统足够的训练,让这个系统接触更广泛、更具代表性的人脸数据库,这些算法的偏差问题肯定能消除。暂且不说这是非常完美的假想,实际上这并不是单纯的技术问题,即使我们能做出对人进行准确分类的完美系统,它仍然是危险的。

比如,智能警务系统是以过去犯罪模式的数据来预测未来可能发生犯罪的地方,但犯罪报告数据本身就严重受到来自警察个人、部门的影响,它并不是中立的数据。这些数据是对相关部门运作方式以及部门倾向的反映,也是地方州、联邦政府利益的反映。所以,这些数据它不可避免地带有机构和个人的偏见。

这就意味着,再优秀的数据技术都是带有偏见的。它完美地复制了带有偏见的警务模式,这些数据对系统的纠错毫无帮助。如果有一个可以完美识别任何个体毫无偏差的系统,可能只会更糟糕,这意味着我们没有了个人隐私。所以,人脸监控在有效和无效时它都是危险的,这也是越来越多的人呼吁政府对人脸技术的使用加以限制的原因。

人类对于AI危害的预测

目前来讲,没有任何非常明确、规范的法律对人脸识别技术进行有效监管,这也是IBM、亚马逊、微软加入这件事的起因。不过,由于FRT不能提供准确的结果,已经阻止过执法机构放弃使用这项服务。

2016年,旧金山警察局决定不购买这项技术服务,前来投标的供应商没有一个达到他们要求的准确性。除此之外,这项技术常常被滥用。另一方面,很多警察也并不擅长使用这些系统。美国各地都曾出现警察对数据库进行不当搜索而受到惩戒的案例,比如,他们去搜索法律纠纷中的对手信息或者为朋友家人搜索他们在正常渠道下无法得到的信息。如此一来,品行不端或意识不够的警员,利用它进行作恶的空间恐怕无法想象。

这让我想到了一部英剧,叫做《真相捕捉》( The Capture),剧情由一个被指控犯罪的人转向另一个人,一环套一环,最后是第三个人犯的罪。它有一点烧脑,也很挑战传统,然后我想提一下一个新词叫“deepfake”,没有统一的翻译,可以说是“伪显示”,也可以说叫做“深度造假”。剧情中有一个deepfake的画面,就是被人制造出来但并没有发生在犯罪现场的视频。

英剧《真相捕捉》剧照

8月初,英国工程技术学会IET(Institution of Engineering and Technology)在网站上刊登了一篇名为《骗术,名列最令人担忧的AI犯罪榜首》的文章。伦敦大学学院UCL的研究人员把未来15年内人工智能可能被用于促进犯罪的20种方式列了出来,按排列的情况看,AI合成的媒介内容被认为是最有危害性的一项。这个研究小组由31名专家组成,包括学者、国防专家和法律人士,通过两天的讨论,从潜在的危害性、犯罪收益、实施的难易程度、阻止犯罪的难度,对利用AI犯罪的行为进行了排序。他们从报纸、新闻、小说等流行文化中归纳出20种AI犯罪,如破坏人工智能控制系统、人工智能合成假新闻、截取数据达到勒索目的等。AI合成的音频或视频,比如我前面说的“deepfake”就被列为最令人担忧的一项,它危害最严重,易于实现,难以阻止。由于最基本的“deepfake”内容很容易通过开源工具来创建,这就降低了犯罪分子的准入门槛。它本身的欺骗性已经很大,更大的影响是它会导致我们未来对视听证据的普遍不信任,造成了更深层次的社会危害。

我再次想起了英剧《真相捕捉》,这部剧很好地表现了技术应用在法律伦理方面对社会产生的影响,让大家有了社会危机意识,是现实很好的反映。剧里有一句台词是:“ 公众非常满足于自己的无知”(The public are content in the ignorance and a lot better of that way),觉得这样最好,我不想知道那些糟心的事,但是这样的好日子也许已经成为过去时了。

(本文来自澎湃新闻,更多原创资讯请下载“澎湃新闻”APP)

相关软件

相关文章

推荐文章