数字出版平台
24小时快捷出版

周鸿祎称Sora文生视频模型工作原理像人做梦

  近日OpenAI发布了首款文生视频模型——Sora模型。

  该模型可以根据用户输入的文字描述,生成一段长达1分钟的高清流畅视频,也能通过现有的静态图像生成视频,还能对现有视频进行扩展、填充缺失内容。

周鸿祎称Sora文生视频模型工作原理像人做梦

  从目前的效果来看,Sora生成的视频效果非常出色,场景逼真、细节真实。

  360创始人、董事长周鸿祎最新发布视频分享自己对Open AI最新的文生视频大模型Sora的见解,称“Sora工作原理像人做梦,未来AGI比的就是算力和对世界的理解。”

  他在视频中表示:“用传统计算机、图形学、影视工业特效的方法来重现一些画面的时候,我们喜欢的是3D件模型、建立光照、搞粒子模型、然后一帧一帧地渲染。这种方法实际上是效率非常低、耗费非常贵的。是用一种最笨的方法模拟出了这个世界。

  但Sora的方法非常像人类的做梦——我们会梦到各种奇奇怪怪的东西,做梦所产生的依据是我们在正常生活中眼睛看到的东西,这种积累的经验,是不需要3D建模然后一帧一帧渲染的。”

  他还把近期人们关注的Sora在视频中出现的Bug等比做人在做梦时同样会产生的幻觉等违背现实规律的情况。

  值得注意的是,周鸿祎此前还强调,Sora可能给广告业、电影预告片、短视频行业带来巨大的颠覆。

原标题:输入文字就能生成视频!周鸿祎称Sora工作原理像人做梦
赞(0)
未经允许不得转载:天线出版网 » 周鸿祎称Sora文生视频模型工作原理像人做梦

登录

找回密码

注册