AI 新闻
政策监管

看到自己身体被用于深度伪造色情内容的震惊

MIT Tech Review AI2026年05月16日 21:29大约 9 小时前3 分钟阅读

Jennifer发现自己的脸出现在色情视频里,不是她拍的,是别人用AI生成的。2023年,她入职一家非营利组织,顺手拿新拍的职业照跑了一遍面部识别软件,想看看能不能搜出自己十年前二十出头时拍的那些成人片。结果,搜出来的不只是旧片——还有一堆她从未拍过的深度伪造色情内容。

这事不是孤例。2023年,美国一家研究机构统计,全球深度伪造色情视频中,99%是女性的脸被替换上去。最常用的工具是那些公开的AI换脸应用,比如DeepFaceLab、FaceSwap,操作门槛低到只要一张照片就能生成。Jennifer的职业照被扒下来后,很可能就是被扔进了某个Discord群或Telegram频道,有人用她的脸批量生产内容,再挂到Pornhub之类的成人网站上赚流量。

她不是名人,不是网红,就是一个普通上班族。但这恰恰是问题所在——深度伪造技术已经从瞄准明星下沉到普通人。你发在LinkedIn上的头像、朋友圈的自拍,甚至视频会议里的截图,都可能被爬取、训练、生成。更可怕的是,这些内容一旦上传,几乎无法彻底删除。Jennifer联系了多个平台要求下架,但每个平台都要求她提供"身份证明",证明视频里的脸是她本人——这本身就是个荒诞的循环。

技术公司不是没意识到问题。微软、Meta都在推"数字水印"和"内容凭证",但这些东西只在生成时起作用,对已经流出的内容毫无办法。法律更滞后,美国只有少数几个州通过了针对深度伪造色情的专门法案,联邦层面至今没有统一立法。Jennifer最后只能靠手动搜索、逐个举报,像打地鼠一样。

这不是一个"技术中性"的问题。当生成工具免费、公开、易用,而检测和追责成本高到普通人无法承受,结果就是受害者独自承担所有代价。Jennifer的遭遇不是极端案例,它是AI时代性别暴力的日常形态。

一句话摘要

2023年,Jennifer用新职业照测试面部识别,发现其能关联她20岁出头时拍摄的色情视频。

来源:MIT Tech Review AI