0


OpenAI 又开始憋大招了——Sora AI视频模型

一、官网介绍

Sora是在2024年2月16日凌晨由全球人工智能模型的领先者、AI时代的开创者OpenAI推出的,它能够根据文字指令即时生成短视频(目前还未正式上线)
sora是一种人工智能模型,可以根据文本指令创建逼真且富有想象力的场景。

We’re teaching Al to understand and simulate the physical world in motion, with the goal of training models that help people solve problems that require real-world interaction.
我们正在教人工智能理解和模拟运动中的物理世界,目的是训练模型,帮助人们解决需要现实世界互动的问题。
Introducing Sora, our text-to-video model.
介绍Sora,我们的文本转视频模型。
Sora can generate videos up to a minute long while maintaining visual quality and adherence to the user’s prompt.
Sora可以生成长达一分钟的视频,同时保持视觉质量并遵守用户的提示。

We’ll be taking several important safety steps ahead of making Sora available in OpenAl’s products.
在将Sora应用于OpenAl的产品之前,我们将采取一些重要的安全措施。
We are working with red teamers-domain experts in areas like misinformation, hateful content, and bias—who will be adversarially testing the model.
我们正在与红队合作,红队是错误信息、仇恨内容和偏见等领域的专家,他们将对该模型进行对抗性测试。
We’re also building tools to help detect misleading content such as a detection classifier that can tell when a video was generated by Sora.
我们还在构建工具来帮助检测误导性内容,比如检测分类器,它可以判断视频是何时由Sora生成的。
We plan to include C2PA metadata in the future if we deploy the model in an OpenAl product.
如果我们在OpenAl产品中部署该模型,我们计划在未来包含C2PA元数据。
In addition to us developing new techniques to prepare for deployment, we’re leveraging the existing safety methods that we built for our products that use DALL-E 3, which are applicable to Sora as well.
除了开发新技术为部署做准备外,我们还利用了现有的安全方法,我们为使用DALL-E 3的产品建立了安全方法,这些方法也适用于Sora。
For example, once in an OpenAl product, our text classifier will check and reject text input prompts that are in violation of our usage policies, like those that request extreme violence, sexual content, hateful imagery, celebrity likeness, or the IP of others.
例如,一旦在OpenAl产品中,我们的文本分类器将检查并拒绝违反我们使用政策的文本输入提示,例如那些要求极端暴力,性内容,仇恨图像,名人肖像或他人IP的文本输入提示。
We’ve also developed robust image classifiers that are used to review the frames of every video generated to help ensure that it adheres to our usage policies, before it’s shown to the user.
我们还开发了健壮的图像分类器,用于审查生成的每个视频的帧,以帮助确保它在显示给用户之前符合我们的使用政策。
We’ll be engaging policymakers, educators and artists around the world to understand their concerns and to identify positive use cases for this new technology.
我们将与世界各地的政策制定者、教育工作者和艺术家接触,了解他们的担忧,并确定这项新技术的积极用例。
Despite extensive research and testing, we cannot predict all of the beneficial ways people will use our technology, nor all the ways people will abuse it.
尽管进行了广泛的研究和测试,但我们无法预测人们使用我们技术的所有有益方式,也无法预测人们滥用它的所有方式。
That’s why we believe that learning from real-world use is a critical component of creating and releasing increasingly safe Al systems over time.
这就是为什么我们相信,随着时间的推移,从现实世界的使用中学习是创建和发布越来越安全的人工智能系统的关键组成部分。

二、sora模型生成成品展示

提示词: Photorealistic closeup video of two pirate ships battling each other as they sail inside a cup of coffee. (两艘海盗船在一杯咖啡中航行时相互争斗的逼真特写视频)

提示词: Beautiful, snowy Tokyo city is bustling. The camera moves through the bustling city street, following several people enjoying the beautiful snowy weather and shopping at nearby stalls. Gorgeous sakura petals are flying through the wind along with snowflakes.(美丽、白雪皑皑的东京城市熙熙攘攘。镜头穿过熙熙攘攘的城市街道,跟随几个人享受美丽的雪天,在附近的摊位上购物。绚丽的樱花花瓣随着雪花在风中飞舞。)

提示词: A close up view of a glass sphere that has a zen garden within it. There is a small dwarf in the sphere who is raking the zen garden and creating patterns in the sand.(一个玻璃球的近景,里面有一个禅宗花园。球体中有一个小矮人正在耙禅宗花园,并在沙子上创造图案。)

提示词: A large orange octopus is seen resting on the bottom of the ocean floor, blending in with the sandy and rocky terrain. Its tentacles are spread out around its body, and its eyes are closed. The octopus is unaware of a king crab that is crawling towards it from behind a rock, its claws raised and ready to attack. The crab is brown and spiny, with long legs and antennae. The scene is captured from a wide angle, showing the vastness and depth of the ocean. The water is clear and blue, with rays of sunlight filtering through. The shot is sharp and crisp, with a high dynamic range. The octopus and the crab are in focus, while the background is slightly blurred, creating a depth of field effect.(一只巨大的橙色章鱼在海底休息,与沙质和岩石地形融为一体。它的触手在身体周围展开,眼睛是闭着的。章鱼没有意识到一只帝王蟹正从岩石后面向它爬来,它的爪子抬起,准备攻击。这种螃蟹是棕色的,多刺,长腿和触角。这个场景是从广角拍摄的,展示了海洋的广阔和深度。海水清澈湛蓝,阳光透过来。镜头锐利利落,动态范围大。章鱼和螃蟹是焦点,而背景稍微模糊,创造了景深效果。)

更多视频内容可查看 官网(需要魔法上网)

三、sora用途

  1. 视频内容生成: Sora视频大模型可能会使得视频内容的生成变得更加高效和自动化。通过这样的模型,人们可以更快速地生成各种类型的视频内容,例如电影、广告、教育视频等。
  2. 娱乐和文化产业: 这样的模型可能会对娱乐和文化产业产生重大影响。它可以帮助电影制作、动画制作和其他创意产业降低成本,加快制作速度,同时也可能改变传统的创作流程和业务模式。
  3. 虚拟现实和增强现实: 大型视频生成模型可能会为虚拟现实和增强现实应用提供更多的内容资源,从而推动这些技术的发展和普及。它们可以用于创建逼真的虚拟环境、虚拟人物和虚拟物体。
  4. 信息和教育: 这样的模型也可以用于教育和信息传播领域。它们可以帮助创作教育视频、科普视频和其他类型的信息内容,为学习和知识传播提供更多的选择和资源

四、结尾

感谢您的阅读!期待sora模型的上线,它将为我们带来更加丰富和创新的体验。

同时,Sora视频模型的出现对其他职业产生了深远的影响。影视制作人员、内容创作者、教育工作者、视觉艺术家以及广告和营销人员等各个领域的专业人士都会受到其影响。这个模型的自动生成视频内容能力可能改变传统制作流程,提高效率,降低成本,并创造出更多的创作和营销机会。然而,这也可能带来一些挑战,需要我们灵活应对,以适应这一新的技术趋势。做好迎接sora模型的准备吧。

都看到这了,用您发财的小手点个赞吧!再次感谢您的关注和支持!


本文转载自: https://blog.csdn.net/weixin_43336075/article/details/136259655
版权归原作者 阿木木AEcru 所有, 如有侵权,请联系我们删除。

“OpenAI 又开始憋大招了——Sora AI视频模型”的评论:

还没有评论