10月27日消息,美团LongCat团队正式发布LongCat-Video视频生成模型。作为一款视频生成模型,LongCat-Video凭借其精准重构真实世界运行状态的能力,正在成为美团探索世界模型的第一步,也是关键的一步。同时,这也为后续支撑更多自动驾驶、具身智能等深度交互业务场景,夯实了技术基础。

来源:龙猫LongCat公众号
作为基于Diffusion Transformer(DiT)架构的多功能统一视频生成基座,LongCat-Video创新通过 “条件帧数量” 实现任务区分 —— 文生视频无需条件帧、图生视频输入1帧参考图、视频续写依托多帧前序内容,原生支持三大核心任务且无需额外模型适配,形成 “文生 / 图生 / 视频续写” 完整任务闭环。
据介绍,依托视频续写任务预训练、Block-Causual Attention机制和 GRPO后训练,LongCat-Video可稳定输出5分钟级别的长视频,且无质量损失,达到行业顶尖水平。同时,从根源规避色彩漂移、画质降解、动作断裂等行业痛点,保障跨帧时序一致性与物理运动合理性,完美适配数字人、具身智能、世界模型等需要长时序动态模拟的场景需求。同时,模型结合块稀疏注意力(BSA)与条件 token 缓存机制,大幅降低长视频推理冗余 —— 即便处理93帧及以上长序列,仍能兼顾效率与生成质量稳定,打破长视频生成 “时长与质量不可兼得” 的瓶颈。
特别声明:以上文章内容仅代表作者观点,不代表本站观点或立场。如有关于作品内容、版权或其它问题请于作品发表后与我们联系。
CYQY-生活与科技