清影(Ying)来了,文生视频大模型再上新
Sora的出现,不仅展示了AI大模型的全新玩法,也引发了一轮文生视频大模型的竞争热潮。各个巨头纷纷推出文生视频产品,微软推出Nuwa、Meta推出Emu、谷歌推出Phenaki/VideoPoet等。7月26日,由中国企业智谱AI研发的清影(Ying)上线,为这场竞争的“中国队”再添一员猛将。
即日起,清影(Ying)上线清言App,面向所有用户开放。用户只需输入一段文字(Prompt),就可以选择自己想要生成的视频。视频风格包括卡通3D、黑白老照片、油画、电影感等。除了文字生成视频,清影也支持图生视频。
智谱CEO张鹏在智谱 Open Day上介绍说,清影(Ying)底座的视频生成模型是CogVideoX,它能将文本、时间、空间三个维度融合起来,参考了Sora的算法设计,“它也是一个DiT架构,通过优化,CogVideoX 相比前代(CogVideo)推理速度提升了6倍。我们将继续努力迭代,在后续版本中,陆续推出更高分辨率、更长时长的生成视频功能。”
智谱自研了一个端到端视频理解模型,用于为海量的视频数据生成详细的、贴合内容的描述,这样可以增强模型的文本理解和指令遵循能力,使得生成的视频更符合用户的输入,能够理解超长复杂prompt指令。在内容连贯性上,智谱AI自研高效三维变分自编码器结构(3D VAE),将原视频空间压缩至2%大小,配合3D RoPE位置编码模块,更有利于在时间维度上捕捉帧间关系,建立起视频中的长程依赖。CogVideoX 模型亦同步上线智谱AI大模型开放平台 bigmodel.cn,开发者可以通过调用API的方式,体验和使用文生视频以及图生视频的模型能力,在国内尚属首次。
据了解,智谱 AI 生成式视频研发得到北京市的大力支持。当前,北京正在以海淀区为核心打造人工智能产业高地,海淀区则是智谱AI总部所在地。海淀区为智谱AI开展大模型研发提供了产业投资、算力补贴、应用场景示范、人才等全方位支持。此外,智谱 AI 生成式视频研发算力支持来自于亦庄集群。北京亦庄着眼打造人工智能之城,目前,北京亦庄人工智能公共算力平台已建成。bilibili作为合作伙伴也参与并支持清影的研发过程。同时,合作伙伴华策影视也参与了模型共建。
张鹏表示,人工智能行业对多模态模型的探索还处于初级的阶段,清影(Ying)还将不断迭代,智谱AI将持续努力打造对标世界先进水平的模型产品矩阵,致力于通过大模型链接物理世界的亿级用户,为千行百业带来持续创新与变革,加速迈向通用人工智能时代。