OpenAI推出Sora模型:一句话生成1分钟视频,接近实景效果

近日,OpenAI发布了全新的Sora模型,可根据用户提供的文本描述生成视频内容,引起了广泛关注。这一模型的推出标志着人工智能在理解和模拟真实世界场景方面迈出了重要的一步。

OpenAI推出Sora模型:一句话生成1分钟视频,接近实景效果
OpenAI推出Sora模型:一句话生成1分钟视频,接近实景效果
OpenAI推出Sora模型:一句话生成1分钟视频,接近实景效果
OpenAI推出Sora模型:一句话生成1分钟视频,接近实景效果

Sora模型严格按照用户输入的提示词生成视频,长度可长达一分钟,并保持较高的视觉质量。这一功能为艺术家、电影制片人和学生提供了无限的创作可能性。

目前,OpenAI已将Sora模型交由网络安全演练群体Team Red进行测试,以评估潜在的风险和危害。同时,OpenAI还邀请了专业创意人士测试该模型的实用性,并根据反馈意见不断改进Sora,以更好地满足用户的需求。

Sora模型能够生成复杂场景的视频,包括多人、特定运动类型和详细背景。它能准确反映用户提示的场景,例如,制作时尚女性在霓虹闪烁的东京街头漫步的视频,雪地中的巨型长毛象视频,甚至是太空人冒险的电影预告片。

然而,Sora模型也存在一些局限性,包括模拟复杂场景物理特性和理解特定因果场景方面的挑战。OpenAI表示,Sora在描述空间细节和时间事件方面可能会遇到困难。

本文来自投稿,不代表TePhone特锋手机网立场,如若转载,请注明出处:https://www.tephone.com/article/9236

讚! (0)
玩机客的頭像玩机客作者
Previous 2024年2月18日 18:30:00
Next 2024年2月18日 19:30:00

相关推荐

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *