AI 换脸将受《民法典》严监管,我们该如何防范技术作恶

2020 年 5 月 28 日下午,十三届全国人大三次会议表决通过了中华人民共和国民法典,民法典将在 2021 年 1 月 1 日正式施行。6 月 1 日晚,两会已授权民法典正式文本发布。

这是中国 1949 年后首部以 “法典”命名的法律,财新评价它:“象征生命、自由、财产的私权立法迎来高光时刻。”值得注意的是,民法典人格权编中明确规定了不得用技术手段伪造等方式侵害他人肖像权,矛头直接指向 AI 换脸、变声。

“民法典正式施行后,即便用户利用 AI 技术换脸只是单纯的娱乐,没有营利目的,也有可能被认定为是侵犯肖像权。”广东合邦律师事务所律师肖锦阳对开源中国表示,《民法典》第 1019 条明确规定了肖像权的消极权能,这对 AI 换脸等滥用信息技术手段侵犯肖像权的行为进行禁止和预防具有积极意义。

我国新颁布的民法典中第 1019 条就规定:

任何组合或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。

未经肖像权人同意,肖像作品权利人不得以发表、复制、发行、出租、展览等方式使用或公开肖像权人的肖像。

而在此之前,我国的肖像权保护主要参照《民法通则》第一百条规定:

公民享有肖像权,未经本人同意,不得以营利为目的使用公民的肖像。

AI 换脸在技术层面只是做深度学习训练的一个切入点,往往兼具娱乐性。但在应用和商业方面,很多换脸软件游走在灰色地带,甚至引发法律风险。现在,人们通常用 deepfake(可直译为深度造假)来指代那些会造成不良影响的 AI 换脸影像成品和软件。

随着 deepfake 的泛滥,多个国家已出台政策法规监管。此外,为防止技术作恶,人们正尝试用技术制衡技术,也有人在探讨如何为从事技术开发的人员增加一门 “道德伦理课”,以追求行业自律……

deepfake “游戏”泛滥

在 5 月 28 日民法典表决刚刚通过时,“AI 换脸被纳入监管”的 “提示”就立刻在 IT 业传播开来。

关注度在一定程度上反映了其热度。日前,GitHub 上一个集成各类 deepfake 功能的仓库 DeepFaceLab 登上热榜。DeepFaceLab 的介绍中赫然写着:DeepFaceLab 可以用来换脸,和改变政客们的言论。截至目前,DeepFaceLab 已有 14.7K Star。

制造 deepfake 影像的门槛正在变低。深圳大学计算机与软件学院副教授储颖告诉开源中国,无论是将人脸互换、还是直接生成虚假图片视频,技术上都属于深度学习范畴,差别无非就是数据集不同、模型不同、算法不同和参数不同。“人工智能的技术应用门槛正在变得越来越低”。

近两年,由于生成对抗网络技术 GAN 也被用在 deepfake 制作中,生成的虚假图片视频数量飞速上涨。

此外,人工智能在 2012 年开始火热也是由于图像分类识别研究的兴起,慢慢从图像识别、再到图像生成。而 AI 合成图像视频又是可以看得见、摸得着的应用,因此很多开发者都在尝试此类应用,这也让 “造假”不可避免地增多。加上虚假信息常和女星、政客、高热度人物捆绑,deepfake 应用和成品往往能飞快走红。

2019 年 8 月 30 日,陌陌上线一款智能换脸产品 ZAO。用户只需要在软件中上传一张自己清晰、正面的照片,便能将一些经典影视作品中的人物换成自己,同时保留影视人物特征和自己的部分面部特征,生成短视频和 GIF 动图。视频和动图处理过程仅需 1-10 秒,之后用户可以将其分享至微信、微博、QQ 等平台。

推出后的第三天,2019 年 9 月 1 日,ZAO 就登顶 Apple App Store 免费娱乐应用程序榜单。

(微博用户使用 ZAO AI 换脸鞠婧祎影视作品人物形象视频)

但由于 ZAO 的用户隐私条款存在争议,很快被微信封杀,陌陌也被网信办约谈整改,热度骤降。不过,ZAO 是用户将自己的脸套到其他人脸上,最终成果综合了两个人物的面部特征,此类换脸在肖像权和虚假信息传播方面引发的争议较小。

而通常我们在谈论 deepfake 有害时,更多指将别人(尤指公众人物)的脸换到自己、第三人、或虚拟人物的脸上,只保留该人物的面部特征,但套上了原本不属于他的面部表情,合成以假乱真的视频图片,导致虚假信息甚至新闻扩散。

deepfake 一词出现在 2017 年 12 月。当时 Reddit 上一个 ID 为 deepfake 的用户,上传了一个合成视频,内容是将好莱坞明星盖尔 · 加朵的脸换到情色电影中的女主角身上。该软件迅速流行起来,但由于很多人不满,2018 年初,Reddit 开始封禁 deepfake。2019 年 2 月,deepfake 在 GitHub 上的仓库遭限制访问。

但 deepfake 依然备受关注,更多的 deepfake 软件和视频在出现。现在最常见的是使用 AI 换脸,合成色情或政治人物言论视频,这可以带来黑产交易,甚至影响部分国家和地区的政治局势。

去年有人调查, AI 换脸一度形成一条完整的色情黑色产业链。闲鱼上曾有商家售卖女星的换脸合集视频,并且提供从成品情色视频,到软件制作各环节的交易和服务。当然,曝光之后平台方做了整改,现在在闲鱼上检索 “换脸”,已经没有相关商品。外媒也曾报道,有技术人员利用 GAN,开发出 deepnude 等应用程序,可快速使图像中的人物脱光衣服,以恐吓和骚扰他人。

另外,一些广为流传的 deepfake 视频,主角是知名政客。如下图中的奥巴马,均是 AI 合成。2018 年,加蓬出现一条涉及总统 Ali Bongo 新年致辞的虚假合成视频,甚至引起兵变。过去政客间惯用的以性丑闻打击对手的招数也借 deepfake 重燃。如 2019 年,马来西亚出现一条涉及内阁大臣的性丑闻录像带,后被指控为政治阴谋。

“从长远来看,deepfake 对民主构成了严重威胁,但女性很可能首先遭受苦难”,这是 2019 年,荷兰一家专为监测 deepfake 而生的网络安全公司 deeptrace 发表的调查结果总结。根据 Deeptrace 的数据,deepfake 视频从 2018 年 12 月的 8,000 个增长到 2019 年年中的 14,678 个。几乎所有内容都是色情内容,并且这些假视频截至调查时已被浏览 1.34 亿次。

一方面,deepfake 影像制作越来越简单。另一方面,虚假影像对人身财产安全、人格尊严、社会安定的影响愈发严重。于是,人们也在加紧寻找减少技术伤害的方法。

用技术、道德规范和法律减少伤害

deepfake 虚假信息造成的负面影响,正被技术人员尝试同样用 AI 来解决。“开发者通过技术制衡技术”,肖锦阳认为,对于防止 AI 换脸作恶,目前最有效的方法是开发相应的检测技术。

2019 年 8 月,美国国防部高级研究计划局 DARPA 发布一项旨在能够自动检测、归因和表征伪造媒体资产的技术——语义取证 SemaFor。SemaFor 的目标是开发一套语义分析算法,增加伪造媒体内容生产者操控、传播虚假信息的难度。

之后,2019 年 9 月,Facebook、微软又联合包括麻省理工、牛津大学在内的几所高校,发起一项 deepfake 的检测挑战赛。谷歌、亚马逊等企业也参与其中,提供数据和资助。

Facebook 给参赛者开放访问 100000 多个视频的独特数据集权限,并提供 1000 万美元的研究资助和奖励。谷歌母公司 Aiphabet 旗下的 Jigsaw 和谷歌一起,提供了 3000 个付费演员的新视频数据集,以帮助改善侦查技术。亚马逊提供 100 万美元的云信用额度支持该挑战。

(Google 和 Jigsaw  提供的由 28 个演员参演的 3,000 个被操纵视频的数据集)

此外,Jigsaw 还曾发布一种新事实检查工具 Assembler,使用 AI 来帮助记者检查图像是否伪造或被篡改。Jigsaw 还建立了一个 StyleGAN 检测 deepfake 成品,使用机器学习发现真实人物和被操纵人物图像之间的差异。

AI 检测到虚假影像资料之后,就可以提醒用户。Facebook、Twitter 选择了标记 deepfake 资料和删除有严重危害的信息。

今年初,外媒报道,Facebook 在美国 2020 总统大选之前,正加紧审查包含 AI 换脸的假消息。Facebook 全球政策管理副总裁 Monika Bickert 表示,不一定要删除被标记为 “假”的视频,但会向用户发出警告,告知它们是假的。“如果我们仅删除事实检查人员标记为虚假的所有操纵视频,这些视频仍将在互联网或社交媒体生态系统的其他位置提供。通过将其保留并标记为虚假,我们将为人们提供重要信息。”此外对于可能造成重大社会危害的虚假信息将做删除处理。

Twitter 删帖也是有前提的。如内容可能对某团体或个人人身安全构成威胁,或可能造成暴动和内乱,那么 deepfakes 内容将会被删除。反之,可能只是打上标记。2 月,Twitter 在术语表中添加了一个新条款,涵盖了 “合成和受控媒体”,表示会标注包含技术伪造内容的推文,并在人们转发推文之前向他们显示警告,并阻止推荐。

在肖锦阳看来,平台经过核验并带有标识的传播扩散,不失为一种好的方式。当然,在做技术检测的同时,通过相关法律规范各方行为也是必不可少的一步。

针对平台方,肖锦阳指出,平台应对于用户的隐私和 AI 换脸问题应当按照国家有关规定开展安全评估,进一步加强监管审核。

根据《侵权责任法》的规定,网络用户利用网络服务平台实施侵权行为的,平台负有采取删除、屏蔽、断开链接等措施,未采取必要措施的,将与该网络用户承担连带责任。且网络服务提供者知道网络用户利用其网络服务侵害他人民事权益,未采取必要措施的,也将与该网络用户承担连带责任。因此,平台方面对于用户的隐私和 “AI 换脸”问题应当按照国家有关规定开展安全评估,进一步加强监管审核。

同样对于用户来说,随意使用并上传 deepfake 视频也有很大法律风险。肖锦阳介绍,用户如果要进行 AI 换脸使用、合成、再加工,首先需要得到肖像权人的同意;并不得侵害他人人格权益、不危害社会公共利益。民法典之外,国家还相继出台了一些规定等,规范网络视频、图像传播。

去年底开始,国家相继发布《网络音视频信息服务管理规定》、《网络信息内容生态治理规定》等法规 , 明确不得利用深度学习、虚拟现实等新技术新应用从事法律、行政法规禁止的活动。《网络音视频信息服务管理规定》明确,任何组织和个人不得利用网络音视频信息服务以及相关信息技术从事法律法规禁止的活动,侵害他人合法权益。

网络音视频信息服务提供者和网络音视频信息服务使用者违反上述《规定》的,依照《中华人民共和国网络安全法》《互联网信息服务管理办法》《互联网新闻信息服务管理规定》《互联网文化管理暂行规定》《互联网视听节目服务管理规定》等相关法律法规规定处理;构成违反治安管理行为的,依法给予治安管理处罚;构成犯罪的,依法追究刑事责任。

这是法律层面的讨论,但很多时候,人们都希望问题可以在法庭之外就能被解决,比如提高道德规范。

此前,在 GitHub 限制 deepfake 仓库时,就有许多开发者提及应该在学校教育中加入 “计算机伦理课”,在学习写代码之外,了解相关法律、以及应如何使用技术的哲学和道德规范。甚至有人发出疑问:要不要制造可能被滥用的技术?这类问题也并不只是聚焦在 deepfake 上。一位科普及解密纪录片导演詹姆斯 • 巴拉特,2016 年发表《我们最后的发明》一书,提出这样一个问题:“我怀疑的是先进人工智能的安全性,以及现代文明开发先进技术的鲁莽性。”

不过,储颖认为,技术本身无对错。从防止技术作恶的角度出发,开设计算机伦理课固然有必要,但要想守住底线,立法才是保证。“这涉及道德和法律的关系问题。道德是内在的,非强制性的;法律是外在的,具有明确的强制性。我们应在法律约束的基础上,尽可能地提高自己的道德标准。”

储颖现在正在教授《计算机伦理学》课程。这门课程 4 年前由计软学院首次在内部开设,去年开始增设了面向全校学生的 “品牌通识课程”。储颖指出,目前在全国范围内开设此类伦理课程已经是一个趋势。2018 年 5 月,国务院学位委员会颁布了《关于转发< 关于制订工程类硕士专业学位研究生培养方案的指导意见> 及说明的通知》,将工程伦理课纳入工程硕士专业学位研究生公共必修课范畴。近年来,全国工程专业学位研究生教育指导委员会已组织多期《工程伦理》师资培训课程。

而关于伦理课要讲什么,储颖也给出了自己的看法:

“目的不是告诉学生怎么做和做什么,而是提醒他,你需要思考这件事,并在将来做出正确的伦理抉择。”

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注