AG真人百家乐官方 潞晨尤洋:视频生成的GPT-4时刻,3年后可以见证 | MEET 2025
发布日期:2025-01-02 07:51    点击次数:191

裁剪部 发自 凹非寺

奥特曼说,Sora代表了视频生成大模子的GPT-1时刻。

从开年到当今,国表里、初创独角兽到互联网大厂,都纷纷干涉视频生成界限,带来一个个簇新模子的同期,视频、影视行业也随之发生剧变。

不可否定,当下的视频生成模子还遭受诸多问题,比如对空间、对物理法例的剖释,咱们都期待着视频生成的GPT-3.5/4时刻到来。

在国内,有这么一家从加快检修开拔的初创公司,正在为此勤奋。

它等于潞晨科技,首创东谈主尤洋博士毕业于UC伯克利,后赴新加坡国立大学担任校长后生讲授。

本年潞晨科技在加快规划界限以外,建树视频生成模子VideoOcean,为行业带来更具性价比的遴选。

在MEET 2025现场,尤洋博士也向咱们共享这一年关于视频生成界限的剖释与领略。

MEET 2025智能未来大会是由量子位主持的行业峰会,20余位产业代表与会预见。线下参会不雅众1000+,线上直播不雅众320万+,得到了主流媒体的平日温暖与报谈。

中枢不雅点梳理

视频生成模子应该结束雅致化文本限度、大肆机位/大肆角度、变装一致性、立场定制化

3年后约略就能迎来视频生成的GPT-3.5/GPT-4时刻

视频生成大模子的一个径直诓骗价值等于冲破施行的闭幕,极大裁减着实场景复现难度。

(为更好呈现尤洋的不雅点,量子位在不蜕变愉快的基础上作念了如下梳理)

3年后或是视频大模子的GPT-3.5时刻

今天相称欢叫来到量子位大会,相称欢叫和大众研讨,今天讲一下咱们在视频大模子界限作念的一些责任。

最初是我和我的创业公司潞晨科技的先容。我从UC伯克利毕业到新加坡国立大学任教,很运道创办了潞晨科技。

咱们之前是作念算力优化的。2018年谷歌打造了宇宙上第一个千卡集群TPU Pod,那时宇宙上最大的模子已经BERT。咱们匡助谷歌,将(那时)宇宙上最大模子的检修时分从3天压缩到76分钟。

也很运道,前年华为盘古大模子的一个责任亦然咱们一都来作念的,并得到了ACL最好论文。咱们的技能匡助华为盘古大模子在检修中更高效。微软、英伟达等公司团队也使用了咱们的技能作念一些分辩式检修,咱们但愿让大模子检修更快、本钱更低。

步入今天的话题,来重心先容一下视频生成大模子。

咱们打造了一个居品叫Video Ocean,当今正处在测试阶段。先来先容一下居品,后头再探讨我以为视频大模子将会如何发展。

最初,我以为视频大模子第一个蹙迫的方面是,它应该能够结束雅致化的文本限度。

其实咱们今天都在用AI去生成大模子了,咱们确定但愿它能够精确反馈出思要的东西。但很缺憾,比如当今用文生图APP去生成图已而,已经会发现许多图片本体无法作念到精确限度,是以我认为这方面还有很大的发展空间。

在Video Ocean模子检修历程中,咱们作念了一些初步探索。一个相比好的例子,咱们能够精确地提供一些形貌,戴着墨镜,长的胡茬的欧洲男东谈主。不言而谕这个视频内部确乎是咱们思要的阿谁嗅觉,蓝天、海岸、沙滩、背光、单手握相机、玄色T恤,也有对着镜头谈话。

我认为AI视频大模子未来3年可能最蹙迫的已经结束视频大模子的Scaling Law。

这个历程不需要相称炫酷的居品才能,最蹙迫的是把它的模子与施行宇宙的一语气才能作念到极致。我以为最终口头等于东谈主们说一段话、给一段形貌,它能精确地把形貌以视频的样式展示出来。

是以我以为未来3年,AI视频大模子就像山姆·奥特曼说的那样,今天是Video的GPT-1时刻,可能3年后到视频大模子的GPT-3.5、GPT-4时刻。

这里展示一下Video Ocean的Demo,当前咱们作念到了这么的水平。

第二点是未来视频大模子若何能够结束大肆机位、大肆角度。

当今拍电影、拍记录片可以拿入部属手机、录像机不断地晃,思若何晃就若何晃,这么是对镜头有着实限度的。未来AI视频大模子,最初应该作念到这少许,雷同的形貌,换一下角度、换一个镜头,它的形象是不应该蜕变的,它等于雷同一个物体。

更进一步讲,未来AI视频大模子还能颠覆许多行业。比如当今看足球、看篮球赛,咱们看到的镜头是现场编导给咱们看的镜头。他给咱们看出息、近景。

未来能不成依靠AI视频大模子,ag百家乐解密东谈主来限度镜头,决定思要看哪,特地于在通顺场里可以倏得移动,移动到西席席、终末一滑、第一滑。大肆机位、大肆角度的限度。我以为未来AI视频大模子在这方面也口角常瑕疵的,天然天然Video Ocean当今作念了一些尝试,初步恶果已经可以的。

我以为第三点蹙迫的是变装一致性。

因为作念出AI视频大模子,最终确定是需要产生营收、结束变现的。谁会快意为这个付费,比如告白责任室、告白商、电商博主、影视行业。如若深远这些行业的话,一个瑕疵点是变装一致性。

比如一个居品的告白,确定重新到尾这个视频中的穿着、鞋、车,神情不成有太大变化,物体变装保握一致性。

拍一部电影,从开头到收尾,主演的神情、瑕疵副角的神情确定也不成变化,在这方面Video Ocean也作念一些很好的探索。

再一个是立场的定制化。咱们知谈当今演员东谈主工本钱口角常贵的,谈具本钱也很高。

未来3年之内,如若AI视频大模子正常发展,我嗅觉会有一种需求,比如一个导演可以让一个演员在拍浮池里拍一段戏,然后拿到素材通过AI将它转成泰坦尼克场景下的拍浮,转成阿凡达场景下的拍浮,这种才能反而是AI最擅长的。赋予电影感、艺术感的画面。

总之大模子一个径直的诓骗价值等于冲破施行的闭幕,能够极大裁减着实场景复现的难度。

可能之前大众听过一个段子,好莱坞导演思制造一个爆炸镜头,他算了一下预算,第一种决策是盖一个城堡把它炸掉,第二个决策是用规划机模拟这个画面。本钱算下来之后,发现这两种决策的本钱都很高,那时用规划机模拟的本钱更高,当今AI等于要大幅裁减大模子关于生成电影的本钱。

如若这少许结束后,咱们可以不受风光、天气等外部成分的闭幕,并减少对着实演员的依赖。这倒不是抢演员的饭碗,因为一些瑕疵镜头口角常危机的,比如演员跳飞机、跳楼,演员去提拔行将引爆的炸弹之类,这种镜头未来只需要演员的身份和肖像权,AI可以把这么的镜头作念好,是以对电影行业能够极大作念到降本增效。

正如昆仑万维方汉老师刚才说的,天然咱们的规划资源有限,然而咱们发现通过更好的算法优化确乎能够训出更好的恶果,比如Meta使用6000多个GPU检修30B的模子,最近咱们会在一个月内发一个10B版的模子,咱们仅用了256卡。

Video Ocean前身是咱们团队先打造了一个Open-Sora的开源居品,这个开源居品是都备免费的,在Github上,恶果相称可以,比如好意思国独角兽Lambda labs作念了一个火爆的诓骗数字乐高,其实这个数字乐高档于基于Open-Sora作念的。

本年年头Sora出来之后,各式短视频巨头都对视频大模子这一块相比醉心,比如中国的快手、抖音,好意思国等于Instagram、TikTok、SnapChat,这可以看到SnapChat的视频模子也在早些时候发布了,叫Snap Video,这是它的官方论文,他们就援用了咱们检修视频大模子的技能,是以说这些技能也匡助一些巨头真确把视频大模子训得更快,精度更高,智能进度更高。

谢谢大众!

— 完 —AG真人百家乐官方



 
 


Powered by ag百家乐解密 @2013-2022 RSS地图 HTML地图