OpenAI的新系统名为 Sora,它的功能既让人高兴又让人恐慌。Sora 是一个视频生成人工智能系统,可以根据简单的请求创建逼真的场景。OpenAI 的首席执行官 Sam Altman 分享了一系列示例,说明如何获得简单的提示,然后根据提示创建视频。立即引起了人们的兴奋,因为人们知道它将如何让人们更容易地实现他们的想法,并为各种情况生成视频。然而,这也引发了人们对该系统能够做什么的担忧。

一些令人兴奋的地方在于技术本身:它允许人们想象一个场景,然后制作一个视频来展示它。在创意和其他场景中使用此类技术的可能性是显而易见的。然而,OpenAI 表示它也可以用于各种不太显然的场景。

Sora 能够将现有图像制作成视频,例如,“准确地动画图像内容并关注小细节”。这可以用来让现有的静态图片变得栩栩如生。OpenAI 表示,它还可以“获取现有视频并对其进行扩展或填充缺失的帧”。这可能有助于恢复丢失某些片段的视频。

OpenAI 表示,Sora 还“作为能够理解和模拟现实世界的模型的基础,我们相信这一功能将成为实现 AGI 的重要里程碑”。如果世界要生成类似于人类智能的人工智能系统——通用人工智能(AGI)——那么它将需要具有理解视觉图像以及创建视觉图像的能力。

为什么人们关心它?

新系统一公布,就引起了人们对其可能造成的危险的担忧。与每一项新的人工智能技术一样,人们担心公司会利用它来尝试自动化工作并降低创造性工作的质量,也担心错误信息。

就连 OpenAI 也非常明确地表达了这些担忧——尽管该公司有时被指责利用这种担忧来推销其新技术,暗示这些技术过于强大以至于危险。该公司在公告中表示,实际上尚未向公众发布该产品,而是向研究人员和其他人提供该产品,以了解其可能带来的风险。

在 Sora 发布后,人们的注意力主要集中在制造错误信息的能力上,例如在虚构的场景中制作名人的视频。

OpenAI 表示,在公开发布之前,它将努力尝试回应这些担忧。其中包括“红队成员”,他们将尝试利用自己在“错误信息、仇恨内容和偏见”方面的专业知识来打破这一模式。

它还表示,将致力于开发工具,通过包含一个系统来拒绝违反其政策的提示,例如那些要求“极端暴力、性内容、仇恨图像、名人肖像或他人的知识产权”。它还表示将开发一种工具,能够识别 Sora 发布的视频,以阻止错误信息的传播。另一方面,其他人则认为该模型可能并不像看起来那么有创意。技术评论员 Brian Merchant 指出,OpenAI 分享的宣布新工具的视频之一似乎与可能用于训练它的视频显然相似。

然而,根据推特上发送给他的提示,奥特曼分享的其他视频似乎更新颖,而且可能不太可能与现有剪辑相呼应。OpenAI 还指出,当前模型存在“弱点”。“它可能难以准确模拟复杂场景的物理原理,并且可能无法理解因果关系的具体实例。例如,一个人可能咬了一口饼干,但之后饼干可能没有咬痕。”OpenAI 表示,它还可能对空间感到困惑,“混淆左右”,并且“可能难以准确描述随着时间推移发生的事件”。

即使在 OpenAI 分享的一些视频中——这些视频大概是为了最好地展示该系统而选择的——也存在错误。例如,在一些视频中,人们的四肢会出现和消失。

原文链接:https://www.independent.co.uk/tech/sora-openai-chatgpt-video-tool-new-b2497663.html

发表评论