AI 新闻
政策监管

下载:深度伪造色情中的被盗身体与AI泄露私人号码

MIT Tech Review AI2026年05月16日 21:29大约 9 小时前3 分钟阅读

你根本想象不到,一张普通照片能把你拖进什么地狱。2023年,Jennifer找到一份研究岗,顺手把新拍的专业头像丢进人脸识别软件查了查。结果呢?几周后,她收到一个陌生链接,点开一看——自己的脸被嫁接到色情视频里,身体是别人的,但表情、角度、光线都完美贴合。更恶心的是,视频底下还附着她的手机号和家庭住址。

这不是个例。深度伪造色情已经从明星、网红,蔓延到普通人。2023年,一个叫“Deepfake Porn”的网站被曝光,上面有超过10万条视频,受害者包括教师、护士、高中生。制作成本有多低?你花30美元买个AI工具,上传一张照片,10分钟就能生成一段以假乱真的视频。而泄露私人号码的方式更粗暴:黑客从LinkedIn、Facebook、甚至你注册过的外卖App里扒数据,然后打包卖给这些网站。

Jennifer报警了,但警察说“这不在我们管辖范围”。她找律师,律师说“技术上太难追责”。她唯一能做的,是每天花两小时手动举报这些视频,但平台处理速度慢得像蜗牛。更讽刺的是,有些视频被举报后,反而因为“内容敏感”被算法推荐给更多人。

问题出在哪?法律跟不上技术。美国只有少数几个州立法禁止深度伪造色情,联邦层面至今没有统一法案。AI公司呢?OpenAI、Midjourney都禁止生成色情内容,但用户只要换个关键词,比如“艺术人体研究”,就能绕过审核。而泄露私人号码的源头——数据经纪人——几乎不受监管,他们靠卖你的信息年赚几十亿美元。

你可能会想:“我不发照片不就完了?”天真。你的社交账号、工作邮箱、甚至毕业照,早被爬虫抓走了。Jennifer那张头像,是她公司官网公开的。换句话说,只要你活在数字世界,你的脸就是别人赚钱的工具。

别指望技术公司良心发现。他们忙着用AI生成更多内容赚钱,哪有空管你的身体被谁用了。唯一能做的,是逼法律动起来——比如要求所有AI平台在生成人脸时强制添加不可移除的水印,或者让数据经纪人赔偿受害者。但在这之前,你的脸可能已经在某个暗网链接里等着你了。

一句话摘要

深度伪造色情内容利用AI技术盗用他人身体与私人信息,引发隐私泄露担忧。

来源:MIT Tech Review AI