OpenAI推出Sora文生视频模型,AI视频生成领域迎新突破
AI导读:
OpenAI推出Sora文生视频模型,凭借60秒视频生成能力和高度逼真的演示视频引发广泛关注。Sora在镜头语言、世界模型等方面表现出色,但也面临免费使用选项和开源等挑战。
近日,AI巨头OpenAI推出了一款名为Sora的文生视频模型,该模型在AI视频生成领域掀起了新的波澜。凭借其突破性的60秒视频生成能力和高度逼真的演示视频,Sora迅速引起了广泛关注。
然而,OpenAI尚未公布Sora的正式开放时间,目前仅供安全团队评估风险,同时部分视觉艺术家、设计师和电影制作人可获得访问权限。尽管如此,Sora的推出仍被视为AI视频生成领域的一次重大革新。
在Sora之前,已有一些AI生成视频模型在市场上获得了一定的认可度。为了探究Sora为何能引发如此大的轰动,多家外媒对Runway、Pika Labs和Stable Video等热门文生视频模型进行了分析,并对比了它们与Sora之间的技术差异。
Sora的一大亮点在于其突破性的视频时长。相比Runway最多16秒的视频生成能力,Sora的60秒时长无疑是一个巨大的飞跃。Stable Video和Pika的视频时长则分别限制在4秒和3秒。这一突破主要得益于Sora所采用的扩散Transformer架构,该架构由OpenAI工程师William Peebles等人研究提出。
除了视频时长外,Sora在镜头语言方面也表现出色。其宣传视频展示了变换摄像机角度、电影式剪辑和场景变换等复杂镜头语言,这在以往的AI生成视频中并不常见。相比之下,Runway、Stable Video等模型仍停留在单一的静止视角短视频片段阶段。
此外,Sora还具备世界模型的特质,即对真实的物理世界进行建模,使机器能够像人类一样全面准确地认知世界。这一特性提升了AI视频生成的流畅度和逻辑性,降低了训练成本,提高了训练效率。
然而,Sora也面临着一些挑战。首先,其是否提供免费使用选项尚不清楚,这可能影响其用户吸引力。其次,Sora不太可能开源,这限制了用户根据自身需求进行定制的可能性。相比之下,Pika Labs的Pika 1.0提供了更具吸引力的免费使用选项,而Stable Video Diffusion则是一款开源的视频生成模型。
尽管存在这些挑战,但Sora的推出仍被视为AI视频生成领域的一次重要突破。未来,随着技术的不断发展和完善,Sora有望在AI视频生成领域发挥更大的作用。
被Stability删掉的文章截屏。来源:X平台
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。