只靠一句话,AI就能做一支科幻电影预告片。
脚本、每帧画面、背景音乐,AI都能生成。
这就是国内首款视频垂直大模型新壹视频大模型带来的现场首秀。
由该模型作为底座的AIGC视频平台一帧秒创,同步推出,现在可直接体验。
不仅是用AI生成画面,这个平台还能实现图文转视频、AI帮写、插入数字人等。
在过去半年试运营中,该平台每天产出超出10万分钟视频,积累了200多万用户。
同时还推出了数字人创作平台,24小时内就可以训练好一个数字人。
在发布现场,还有投资人任泉还来帮忙站台,强调正在视频领域发生的新技术革新。
所以,这个视频大模型什么来头?
首个垂直视频大模型?
发布会介绍,新壹大模型是一个以视频为核心的多模态AIGC模型。
通过对海量视频样本的学习,具有几大关键能力:
多模态感知实时学习自迭代多场景交叉推理
由此它能理解文字的含义、识别图像内容、感知音乐情绪,然后生成视频。
在发布会现场的演示中,最开始给新壹大模型的仅仅是一句主题:
人类驾驶地球、离开太阳系、并遇到危险。
然后就看到大模型很快理解了意思,输出了10个镜头的脚本,都非常契合主题。
下一步,再基于生成文字内容,大模型又给出了10个分镜头。
从现场效果里可以看出,每一个镜头给出的画面,和文字的对应也很紧密。
比如镜头八的脚本是“一位科学家站起来,他的眼神坚定”。