Seedance 2.0把短视频创作的门槛大大降低,把耗时几小时的制作流程压缩到了15秒。这个由中国字节跳动推出的模型,通过学习平台海量视频数据,成功缓解了角色变脸和动作断裂等老问题。它的独特之处在于采用了双分支扩散架构,一条分支负责画面生成,另一条则像导演一样掌控时序。这种设计让画面不再是一帧一帧的独立创作,而是在持续状态中推进,实现了镜头切换时光线条件的一致性。这个测试版的发布引发了全网热议,连海外评测都认为它在角色一致性上表现更优。 这个改进直接提升了效率。四川传媒学院的刘归源老师就说,以前做一条30秒的视频得修图几十张,平均一张要改四五次。现在只要给AI足够的细节提示和首尾帧画面,它就能在半小时内生成运镜流畅的短视频。张峥记者在现场看到用户排队试用Seedance 2.0,显示出大家对这个新工具的期待。刘归源认为这还不是终点,“中国版sora”Seedance 2.0已经从幼儿园级别进化到了小学级别。 为什么Seedance 2.0能表现这么好?宋耀分析说这是技术和数据的双重作用。它的训练数据主要来自国内短视频生态中的连续剧情和口播素材,这让模型更容易学习到工业化叙事结构。这种海量的内容把角色身份和动作轨迹给训练得更稳定了。四川大学中华文化传承与全球传播数字融合实验室的宋耀还指出,Seedance 2.0的架构设计也很有针对性。它不像OpenAI的Sora那样偏向物理世界模拟,而是专门为工业内容生产设计的。 在这个战场上,迭代速度是以天为单位的。宋耀表示,这种快节奏的技术发展意味着很快还会有其他厂商超越它。Seedance 2.0把成本效率给拉满了,适合商业内容批量生产。华西都市报和封面新闻的记者也证实了字节跳动正在给创作者推送使用手册的消息。AI视频战争正式打响后,AIGC(人工智能生成内容)领域的竞争将变得更加激烈。 除了刘归源和宋耀外,张峥也参与了报道。宋耀把这种模式比喻成编剧、分镜师和摄影师三位一体的协作模式。这不仅解决了角色漂移的顽疾,也让画面变得更连贯了。用户反馈显示,试用Seedance 2.0后出片效率大大提高了。这种从“抽卡”到成片的转变给视频创作行业带来了新的机遇和挑战。