-
火山引擎上线豆包视频生成模型 1.0profast:5 秒 720P 内容仅需 10 秒完成
10 月 28 日消息,据“火山引擎”公众号推文,10 月 24 日,火山引擎正式上线豆包视频生成模型 1.0profast。该模型在继承 Seedance1.0pro 模型核心优势的基础上,实现了显著的效率突破:生成速度最高提升约 3 倍,价格直降 72%。 Seedance 1.0 pro fast 实现了生成效率大幅提升,720P 的 5 秒视频仅需 10 秒即可完成,较 pro 版本提速约…- 1.2k
-
美团发布开源 LongCat-Video 视频生成模型,可稳定输出 5 分钟级内容
10 月 27 日消息,今天上午,美团 LongCat 团队发布并开源 LongCat-Video 视频生成模型。根据官方介绍,其以统一模型在文生、图生视频基础任务上达到开源 SOTA(最先进水平),并依托原生视频续写任务预训练,实现分钟级长视频连贯生成,保障跨帧时序一致性与物理运动合理性,在长视频生成领域具备显著优势。 根据介绍,近年来,“世界模型”(World Model)可让人工智能真正理解…- 2.1k
-
对标 Sora 2,Google Veo 3.1 视频生成模型迎来重大升级
10 月 16 日消息,Google 今日正式发布 Veo 3.1 视频生成模型更新,在功能与模型层面均有显著提升。 在功能方面,Veo 3.1 首次为「素材转视频」「帧转视频」和「延展」功能加入音频支持,使创作流程更完整。 用户不仅可以通过多张参考图像定义角色与风格,还能利用首尾画面生成无缝过渡,或延展生成超过 1 分钟的内容。 在模型层面,Veo 3.1 在提示词理解和视听质量上均有明显进步,…- 1.9k
-
OpenAI 推出家族最强视频生成模型 Sora 2,还能同步生成音频
10 月 1 日消息,北京时间今天凌晨,OpenAI 发布了下一代视频生成模型 Sora 2。 这款新模型在拟真视频效果上有明显提升,并新增音频生成能力。其继承并扩展了早期的图像生成技术,在同期推出的新版 App 中,用户可以通过一次性录制自己的视频和语音来完成身份验证,然后在生成的视频中“客串”自己或他人。 Sora 应用与现有社交媒体相似,提供算法推荐的信息流,根据互动对象和兴趣推送个性化内容…- 2.4k
-
一张图即可生成电影级数字人视频:阿里云通义万相 Wan2.2-S2V 视频生成模型宣布开源
8 月 27 日消息,昨日晚间,阿里云宣布开源全新多模态视频生成模型通义万相 Wan2.2-S2V,仅需一张静态图片和一段音频,即可生成面部表情自然、口型一致、肢体动作丝滑的电影级数字人视频。 据介绍,该模型单次生成的视频时长可达分钟级,大幅提升数字人直播、影视制作、AI 教育等行业的视频创作效率。 目前,Wan2.2-S2V 可驱动真人、卡通、动物、数字人等类型图片,并支持肖像、半身以及全身等任…- 2.5k
-
百度发布自研视频生成模型 MuseSteamer:一张图即可生成电影级高清有声视频
7 月 2 日消息,百度商业研发团队发布自研视频生成模型“MuseSteamer”及创作平台“绘想”,MuseSteamer 是全球首个实现中文音视频一体化生成的视频模型。该技术可实现画面与音效、人声台词的协同创作,打破传统 AIGC 视频“先画面后配音”的割裂流程。 据悉,MuseSteamer 在权威榜单 VBench I2V 中以 89.38% 总分登顶全球第一,支持一张图生成 10 秒 1…- 2k
-
火山引擎明日发布全新豆包视频生成模型,支持无缝多镜头叙事
6 月 10 日消息,字节跳动火山引擎官方公众号今日宣布,将在 6 月 11 日发布全新豆包视频生成模型。 据介绍,全新豆包视频生成模型具备多项“硬核能力”,1AI附示例如下: 支持无缝多镜头叙事,即通过高效的模型结构,多模态位置编码和多任务统一建模,模型可以支持独特且稳定的多镜头表达。 支持多动作及随心运镜,即充分学习了丰富的场景、主体及行为动作,可以更准确地响应用户精细指令,流畅生成多主体多动…- 1.4k
-
Google Veo 3:AI视频生成模型,首个可生成视频背景音效的模型
Google DeepMind的Veo模型,一个先进的视频生成模型,具有极高的真实感和保真度,支持4K输出,并具备改进的提示遵循能力和创造性控制功能。Veo 3版本新增了原生音频生成功能,能够生成声音效果、环境音效甚至对话。Veo是一个先进的视频生成模型,它能帮助创意人士更轻松地制作高质量视频。它支持多种功能,例如原生音频生成、风格匹配以及精确的摄像机控制,适用于各种场景,从电影制作到游戏开发。V…- 5.9k
-
谷歌最强视频生成AI模型 Veo3 亮相:制作背景音、人物对话都不在话下
5 月 21 日消息,在今年的 I/O 开发者大会上,谷歌发布新一代视频生成模型 Veo3,这也是其首个可生成视频背景音效的模型。它不仅能合成画面,还能为鸟鸣或街头交通等场景配上相应的音效,甚至还可生成人物对话。 谷歌称,Veo 3 在物理模拟与口型同步方面也表现优异。目前,该模型仅面向美国地区的 Gemini Ultra 用户,以及 Vertex AI 的企业用户开放,也已集成进谷歌的 AI 影…- 1.3k
-
B站团队开源动漫视频生成模型 AniSora,一键创建不同风格片段
5 月 18 日消息,B站团队 5 月 12 日开源了动漫视频生成模型 AniSora。 AniSora 能够一键创建多种动漫风格的视频片段,包括系列剧集、中国原创动画、漫画改编、VTuber 内容、动漫 PV 和鬼畜动画等。 B站团队表示,动画内容在当今影视行业中备受关注。尽管 Sora、Kling、CogVideoX 等先进模型在自然视频生成方面表现出色,但在动漫视频上仍捉襟见肘。 此外,由于…- 1.6k
-
火山引擎发布豆包视频生成模型 Seedance 1.0 lite:影视级质量、速度大幅提升
5 月 13 日消息,在今日举办的 FORCE LINK AI 创新巡展上海站活动中,火山引擎正式发布了一系列 AI 模型升级产品,包括豆包・视频生成模型 Seedance 1.0 lite、豆包 1.5・视觉深度思考模型,并对豆包・音乐模型进行了升级,旨在通过更全面的模型矩阵和更丰富的智能体工具,助力企业打通从业务到智能体的应用链路。 据1AI了解,此次发布的 Seedance 1.0 lite…- 8.9k
-
Sand AI 发布开源视频生成模型 MAGI-1,清华特奖得主团队视频生成AI一夜刷屏
视频生成领域,又出现一位重量级开源选手。 2025 年 4 月 21 日,马尔奖、清华特奖得主曹越的创业公司 Sand AI 推出了自己的视频生成大模型 ——MAGI-1。这是一个通过自回归预测视频块序列来生成视频的世界模型,生成效果自然流畅,还有多个版本可以下载。 根据官方介绍,MAGI-1 生成的视频具有以下特点: 1、流畅度高,不卡顿,可以无限续写。它可以一镜到底生成连续的长视…- 6.7k
-
谷歌 Veo 2 视频生成模型入驻 Gemini,用户可创建 8 秒 720p 视频
4 月 16 日消息,谷歌宣布将旗下的 Veo 2 视频生成 AI 模型带给 Gemini Advanced 订阅用户。这一举措旨在应对 OpenAI 的 Sora 视频生成平台的竞争,并在日益激烈的市场中占据一席之地。就在两周前,合成媒体领域的强劲对手 Runway 发布了其第四代视频生成器,并成功筹集了超过 3 亿美元(注:现汇率约合 21.93 亿元人民币)的新资金。 从本周二开始,Gemi…- 1.5k
-
快手发布可灵 2.0 视频生成模型及可图 2.0 图像生成模型
4 月 15 日消息,快手今日举行“灵感成真”可灵 AI 2.0 模型发布会,并宣布基座模型再次升级,面向全球正式发布可灵 2.0 视频生成模型及可图 2.0 图像生成模型。 据介绍,可灵 2.0 模型在动态质量、语义响应、画面美学等维度,保持全球领先;可图 2.0 模型在指令遵循、电影质感及艺术风格表现等方面显著提升。 快手高级副总裁、社区科学线负责人盖坤透露,自去年 6 月发布以来,可灵 AI…- 2.2k
-
Runway 发布 AI 视频生成模型 Gen-4:可保持角色、场景高度一致性
4 月 1 日消息,人工智能(AI)初创公司 Runway 于本周一发布了其最新研发的 AI 视频生成模型 Gen-4。该公司声称,这是目前为止保真度最高的 AI 驱动视频生成工具之一。 新发布的 Gen-4 模型现已开始向 Runway 的个人及企业客户推送。据 Runway 介绍,该模型的核心优势在于能够在不同的视频场景中保持角色、地点和物体的高度一致性,维持“连贯的世界环境”,并且能够从场景…- 2.4k
-
潞晨科技推出开源视频生成模型 Open-Sora 2.0,性能接近 OpenAI Sora
3 月 13 日消息,今日,潞晨科技宣布推出 Open-Sora2.0,并全面开源模型权重、推理代码及分布式训练全流程。 据介绍,这是一款新开源的 SOTA 视频生成模型,仅用 20 万美元(注:当前约 144.9 万元人民币),也就是 224 张 GPU 成功训练出商业级 11B 参数视频生成大模型,性能直追腾讯混元和 30B 参数的 Step-Video。 潞晨科技表示,从 Open-Sora…- 3.3k
-
最强开源视频模型?本地部署阿里的万象2.1(Wan2.1)文生视频
继腾讯混元之后,阿里也宣布开源旗下视频生成模型:万相2.1(Wan2.1),称其具有SOTA级别的性能,其亮点包括: 1、优于现有开源模型,甚至可以“与一些闭源模型相媲美”。 2、是第一个能够同时生成中英文文本的视频模型。 3、 支持消费级 GPU,其中T2V-1.3B模型仅需8.19GB显存。 目前万相2.1已可以通过ComfyUI本地部署,下面说一下方法: 一、安装必须工具 请保持“网络畅通”…- 27.9k
-
昆仑万维开源国内首个面向 AI短剧创作的视频生成模型 SkyReels-V1
2 月 18 日消息,昆仑万维今日宣布开源国内首个面向 AI短剧创作的视频生成模型 SkyReels-V1、国内首个 SOTA 级别基于视频基座模型的表情动作可控算法 SkyReels-A1。 昆仑万维官方介绍称,SkyReels-V1 针对表演细节做了打标,还对情绪、场景、表演诉求等进行处理,利用“千万级别、高质量”的好莱坞级别数据进行训练微调。 此外,SkyReels-V1 可实现“影视级人物…- 6k
-
OpenAI 称目前尚无推出视频生成模型 Sora API 的计划
12 月 18 日消息,OpenAI 今日表示,目前没有推出其视频生成模型 Sora 的应用程序接口(API)的计划,该模型可基于文本、图像生成视频。 在 OpenAI 开发团队成员的在线问答活动中,OpenAI 开发者体验负责人 Romain Huet 明确指出:“我们目前还没有推出 Sora API 的计划。” 此前,由于访问量远超预期,OpenAI 此前不得不紧急关闭了基于 Sora 的视频…- 3.4k
-
字节跳动豆包电脑版上线视频生成功能,内测用户每日可免费生成十支视频
字节跳动视频生成模型 PixelDance 已在豆包电脑版正式开启内测,部分用户已开通体验入口。内测页面显示,用户每日可免费生成十支视频。 据1AI此前报道,PixelDance 视频生成模型于 9 月底首次发布,最早通过即梦 AI、火山引擎面向创作者和企业客户小范围邀测。 据早期内测创作者介绍,当 PixelDance 生成 10 秒视频时,切换镜头 3-5 次的效果最佳,场景和角色能保持很好的…- 4.9k
-
即梦AI宣布Seaweed视频生成模型开放使用
近日,即梦AI宣布,即日起由字节跳动自研的视频生成模型Seaweed面向平台用户正式开放。用户登陆后,在“视频生成”功能下,视频模型选择“视频S2.0”即可体验。 Seaweed视频生成模型是豆包模型家族的一部分,具备专业级光影布局及色彩调和,画面视觉极具美感和真实感。基于DiT架构,Seaweed视频生成模型还能实现大幅度运动画面流畅自然。 测试显示,该模型仅需60s就能生成时长5s的高质量AI…- 7.8k
-
阿里通义万相视频生成模型“AI生视频”功能正式上线,更懂中国风的大模型来了
在2024 阿里云栖大会上,阿里云CTO周靖人宣布,其最新研发的AI视频生成大模型—通义万相AI生视频,已正式上线,官网和App上都可以立刻试用了。 AI视频国内战场,阿里也下场了。 阿里巴巴旗下通义推出的通义万相AI生视频模型正式上线,具有强大的画面视觉动态生成能力,支持多种艺术风格和影视级质感的视频内容生成。 该模型优化了中式元素表现,支持多语言输入和可变分辨率生成,应用场景广泛,提供免费服务…- 12.6k
-
字节跳动豆包大模型 9 月 24 日发布视频生成模型
字节跳动火山引擎宣布,豆包大模型将在9月24日发布视频生成模型,并将带来更多模型家族的能力升级。 据了解,豆包大模型在2024年5月15日的火山引擎原动力大会上正式发布。 豆包大模型提供了多种版本,包括专业版和轻量版,以适应不同场景的需求。专业版支持128K长文本处理,具备强大的理解、生成和逻辑综合能力,适用于问答、总结、创作和分类等场景。而轻量版则提供更低的token成本和延迟,为企业提供了灵活…- 16.7k
-
Adobe Premiere Pro 将集成视频生成功能,年底前推出
Adobe 宣布,将于今年年底前推出由 Adobe Firefly Video 模型驱动的视频生成功能,届时用户可以在 Premiere Pro 测试版应用和独立网站上体验这一功能。 Adobe 表示目前正在内部测试三种功能:生成续帧 (Generative Extend)、文本转视频 (Text to Video) 和图像转视频 (Image to Video),并将在近期开放公测。 生成续帧功…- 2.9k
❯
搜索
扫码打开当前页
返回顶部
幸运之星即将降临……
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠
-
¥優惠使用時效:无法使用使用時效:
之前
使用時效:预期有效优惠编号:×
没有优惠可用!























