OpenAI 王炸:新 Sora 模型一句话生成 1 分钟视频,效果接近实拍

OpenAI 近日发布了 Sora 模型,可以根据用户输入的文本描述,生成一段视频内容。

该模型可以深度模拟真实物理世界,标志着人工智能在理解真实世界场景并与之互动的能力方面实现了重大飞跃。

Sora 会严格根据用户输入的提示词,可以制作长达一分钟的视频,保持较高的视觉质量。对于任何需要制作视频的艺术家、电影制片人或学生来说,这都带来了无限可能。

OpenAI 表示目前已交由 Team Red(网络安全演习中扮演敌人或竞争对手角色的群体)测试 Sora,评估潜在的危害或风险。

此外 OpenAI 还邀请了一支专业的创意人士测试,用于反馈其在专业环境中的实用性。OpenAI 计划根据这些反馈意见改进 Sora,确保它能有效满足用户的需求。演示视频非常超现实。

Sora 可以创建包含多人、特定运动类型和详细背景的复杂场景。它能生成准确反映用户提示的视频。例如,Sora 可以制作时尚女性走在霓虹闪烁的东京街头的视频、雪地里的巨型长毛象视频,甚至是太空人冒险的电影预告片。

OpenAI 王炸:新 Sora 模型一句话生成 1 分钟视频,效果接近实拍

OpenAI 王炸:新 Sora 模型一句话生成 1 分钟视频,效果接近实拍

不过,Sora 也有局限性,包括在模拟复杂场景的物理特性和理解特定因果场景方面存在挑战。OpenAI 表示,Sora 还可能会混淆空间细节,并在精确描述时间事件方面遇到困难。

声明:内容均采集自公开的网站等各类媒体平台,若收录的内容侵犯了您的权益,请联系邮箱,本站将第一时间处理。
资讯

谷歌开源 Magika:毫秒级识别内容类型,百万文件测试准确率超 99%

2024-2-17 8:46:48

头条资讯

马斯克再评OpenAI视频生成模型:“AI增强的人类将创造出最好的作品”

2024-2-17 8:53:19

搜索