作加

AI视频骗局新纪元?OpenAI的Sora正在挑战我们对“真实”的认知


一场视觉的骗局:Sora让“眼见为实”彻底崩塌

你有没有想过,一段马丁·路德·金发表全新演讲的视频,或是迈克尔·杰克逊在2025年复出登台的画面,可能根本不是历史的回响,而是AI在键盘上敲出的幻象?

这不再是科幻电影的情节。近日,OpenAI推出的全新视频生成工具 Sora 正将这种“深度伪造”(Deepfake)技术推向前所未有的高度。基于其最新的 Sora 2 模型,这个平台能够生成几乎无法用肉眼分辨真伪的高清视频,甚至精准复现已故名人的神态、语调和动作。

更令人不安的是,这些内容不仅限于真实人物。皮卡丘、海绵宝宝等广受喜爱的版权角色也被随意“征用”,出现在荒诞甚至有害的场景中——而这一切,只需几行文字提示就能完成。

用户“知情”,但世界并不

在Sora平台上,大多数用户清楚地知道这些视频是AI生成的“虚构作品”。平台本身也标注了内容来源,营造出一种“可控的创意实验”氛围。

但问题出在分享之后

一旦这些视频被下载并上传至Instagram、TikTok或YouTube等主流社交平台,所有的上下文信息瞬间消失。观众看到的只是一段“真实”发生的画面:布莱恩·克兰斯顿在发表政治宣言,或是某位政要在做出争议性言论。没有提示,没有警告,只有冲击力十足的视觉内容——而这,正是虚假信息传播的最佳温床。

“内容凭证”失效?C2PA面临信任危机

为应对AI生成内容的泛滥,科技行业曾寄希望于一项名为 C2PA(内容来源和真实性联盟)的技术标准。这项由Adobe主导、微软、OpenAI等多家巨头共同参与的倡议,旨在为数字内容嵌入“内容凭证”——一种加密的、不可见的元数据,记录视频的创作时间、编辑历史和来源信息。

听起来很完美,对吧?
但现实却狠狠打了它的脸。

尽管OpenAI是C2PA的成员之一,并承诺为Sora生成的内容添加此类凭证,但这些数据在跨平台传播时极易丢失。一旦视频被导出、压缩或重新上传,元数据便可能被剥离,变成一段“干净”的虚假内容。换句话说,技术上的防护,在实际传播中形同虚设

这不仅暴露了C2PA当前的技术局限,更让公众对整个“数字内容溯源”体系的信任大打折扣。

真实性的终结?

Sora的出现,无疑标志着AI视频生成技术的一次巨大飞跃。它能用于电影预演、教育模拟、创意表达,潜力不可否认。但与此同时,它也打开了潘多拉的盒子:当伪造变得比真实更容易、更逼真,我们还能相信自己的眼睛吗?

技术本身并无善恶,但它的使用方式决定了它是工具还是武器。Sora提醒我们,在AI狂奔的时代,仅靠技术自律远远不够。我们需要更强有力的监管、更普及的媒体素养教育,以及真正能在全网通行的内容溯源机制。

否则,下一次你看到的“爆炸性新闻视频”,可能只是某个人在AI工具里输入的一句玩笑。