妙笔工坊

妙笔工坊

妙笔工坊是一款集成了多功能的AI创作工具,您可以随时随地从手机里轻松获得所有问题的答案!妙笔工坊AI写作、绘画、视频制作、文案生成、配音等多种功能,无论你是学生还是从业人员,该应用程序都能帮助你轻松愉快的完成创作。妙笔工坊可以帮您撰写小说、演讲稿、检讨书,创作诗词、歌曲,甚至还可以帮您智能翻译、编写代码等。
0300
OmniHuman-1

OmniHuman-1

OmniHuman-1 是一个端到端的多模态条件人类视频生成框架,能够基于单张人像和运动信号(如音频、视频或其组合)生成人类视频。该技术通过混合训练策略克服了高质量数据稀缺的问题,支持任意宽高比的图像输入,生成逼真的人类视频。它在弱信号输入(尤其是音频)方面表现出色,适用于多种场景,如虚拟主播、视频制作等。
0220
雾象

雾象

雾象(Fogsight)是由WaytoAGI团队推出的一款AI动画生成引擎,能够根据用户输入的抽象概念或词语,自动生成生动的叙事动画。雾象通过自然语言处理技术,可以将抽象概念拆解为镜头脚本和旁白,并映射成视觉元素、转场和音效,从而实现动画的自动生成。雾象的核心优势在于其全流程的自动化能力,从剧本创作、分镜设计到最终的动画渲染,均可一键完成。雾象也支持多种多媒体形式的内容生成,不仅限于二维动画,还包括可能的三维效果,可以适用于多种场景和领域。
0190
CogVideoX-2B

CogVideoX-2B

CogVideoX-2B是一个开源的视频生成模型,由清华大学团队开发。它支持使用英语提示语言生成视频,具有36GB的推理GPU内存需求,并且可以生成6秒长、每秒8帧、分辨率为720*480的视频。该模型使用正弦位置嵌入,目前不支持量化推理和多卡推理。它基于Hugging Face的diffusers库进行部署,能够根据文本提示生成视频,具有高度的创造性和应用潜力。
0190
SV4D

SV4D

Stable Video 4D (SV4D) 是基于 Stable Video Diffusion (SVD) 和 Stable Video 3D (SV3D) 的生成模型,它接受单一视角的视频并生成该对象的多个新视角视频(4D 图像矩阵)。该模型训练生成 40 帧(5 个视频帧 x 8 个摄像机视角)在 576x576 分辨率下,给定 5 个相同大小的参考帧。通过运行 SV3D 生成轨道视频,然后使用轨道视频作为 SV4D 的参考视图,并输入视频作为参考帧,进行 4D 采样。该模型还通过使用生成的第一帧作为锚点,然后密集采样(插值)剩余帧来生成更长的新视角视频。
0190
KLINGAI

KLINGAI

KLINGAI是一个由Kling大模型和Kolors大模型驱动的下一代AI创意工作室,受到全球创作者的高度评价。它支持视频和图像的生成与编辑,用户可以在这里释放想象力,或从其他创作者的作品中获取灵感,将想法变为现实。该应用在App Store中属于图形与设计类别,排名123,拥有3.9的用户评分。它适用于iPad,提供免费下载,但包含应用内购买项目。
0180
造梦阁AI

造梦阁AI

造梦阁AI是一款AI推文创作工具,可以帮助用户自动将小说文字转化为短视频。造梦阁AI以「一键成片」为核心功能,助力用户快速生成高质量视频内容,覆盖从文案创作到视频导出的全流程,3分钟生成抖音/快手/B站爆款推文视频。造梦阁AI支持智能匹配小说场景素材库,AI自动生成配音字幕,零基础创作百万播放量视频。每日更新热门小说推文模板,助力自媒体创作者高效变现!
0170
ASMR.so

ASMR.so

ASMR.so是基于先进的 VEO3 AI 技术的平台,用户可以快速生成专业的 ASMR 视频。该产品支持多种 ASMR 类型,包括耳语、敲击、自然声音等,旨在为用户提供放松和享受的体验。其主要优势在于视频生成速度快(通常在 2 分钟内完成),高清质量以及用户友好的操作流程。适合视频创作者、ASMR 爱好者以及需要放松内容的用户。该平台还提供灵活的信用系统,用户可根据需求选择套餐。产品价格方面,有免费试用和付费套餐可供选择。
0160
hunyuan-video-keyframe-control-lora

hunyuan-video-keyframe-control-lora

HunyuanVideo Keyframe Control Lora 是一个针对HunyuanVideo T2V模型的适配器,专注于关键帧视频生成。它通过修改输入嵌入层以有效整合关键帧信息,并应用低秩适配(LoRA)技术优化线性层和卷积输入层,从而实现高效微调。该模型允许用户通过定义关键帧精确控制生成视频的起始和结束帧,确保生成内容与指定关键帧无缝衔接,增强视频连贯性和叙事性。它在视频生成领域具有重要应用价值,尤其在需要精确控制视频内容的场景中表现出色。
0150
Pippit AI

Pippit AI

Pippit AI是由CapCut平台推出的AI创意内容制作工具,可以帮助用户快速生成高质量的视频、图形和品牌内容。Pippit AI支持AI视频创作、AI数字人生成、AI图像处理等多种功能,Pippit AI还提供了一系列商业授权的视频模板、图片、设计元素和音频资源。通过这些工具,用户可以轻松制作专业级的营销素材,无需设计技能即可实现创意表达。Pippit AI特别适合需要创作营销素材的商家、创作者、广告人员以及营销专业人士。
0150
UniAnimate

UniAnimate

UniAnimate是一个用于人物图像动画的统一视频扩散模型框架。它通过将参考图像、姿势指导和噪声视频映射到一个共同的特征空间,以减少优化难度并确保时间上的连贯性。UniAnimate能够处理长序列,支持随机噪声输入和首帧条件输入,显著提高了生成长期视频的能力。此外,它还探索了基于状态空间模型的替代时间建模架构,以替代原始的计算密集型时间Transformer。UniAnimate在定量和定性评估中都取得了优于现有最先进技术的合成结果,并且能够通过迭代使用首帧条件策略生成高度一致的一分钟视频。
0150
genmoai

genmoai

genmoai/models 是一个开源的视频生成模型,代表了视频生成技术的最新进展。该模型名为 Mochi 1,是一个基于 Asymmetric Diffusion Transformer (AsymmDiT) 架构的10亿参数扩散模型,从零开始训练,是迄今为止公开发布的最大的视频生成模型。它具有高保真运动和强提示遵循性,显著缩小了封闭和开放视频生成系统之间的差距。该模型在 Apache 2.0 许可下发布,用户可以在 Genmo 的 playground 上免费试用此模型。
0150
Freepik AI 视频生成器

Freepik AI 视频生成器

Freepik AI 视频生成器是一款基于人工智能技术的在线工具,能够根据用户输入的初始图像或描述快速生成视频。该技术利用先进的 AI 算法,实现视频内容的自动化生成,极大地提高了视频创作的效率。产品定位为创意设计人员和视频制作者提供快速、高效的视频生成解决方案,帮助用户节省时间和精力。目前该工具处于 Beta 测试阶段,用户可以免费试用其功能。
0150
SkyReels-V1-Hunyuan-I2V

SkyReels-V1-Hunyuan-I2V

SkyReels V1 是一个基于 HunyuanVideo 微调的人类中心视频生成模型。它通过高质量影视片段训练,能够生成具有电影级质感的视频内容。该模型在开源领域达到了行业领先水平,尤其在面部表情捕捉和场景理解方面表现出色。其主要优点包括开源领先性、先进的面部动画技术和电影级光影美学。该模型适用于需要高质量视频生成的场景,如影视制作、广告创作等,具有广泛的应用前景。
0140
VidPanos

VidPanos

VidPanos 是一个创新的视频处理技术,它能够将用户随意拍摄的平移视频转换成全景视频。这项技术通过空间时间外推的方式,生成与原视频长度相同的全景视频。VidPanos 利用生成视频模型,解决了在移动物体存在时,静态全景图无法捕捉场景动态的问题。它能够处理包括人、车辆、流水以及静态背景在内的各种野外场景,展现出强大的实用性和创新性。
0140
造点AI

造点AI

造点AI是夸克(Quark)推出的AI图像创作生成平台,集成AI生图与AI生视频两大核心能力,于2025年9月24日正式发布。造点AI依托通义万相Wan2.5模型,是首个支持音画同步视频生成的平台,可以生成和画面匹配的人声、音效和背景音乐。造点AI视频支持10S时长的视频生成,单次生成即可实现完整的剧情故事,画质能够满足电影级场景的需求。造点AI生图全面支持 Midjourney V7的多项核心能力,包括多图参考、风格代码、精细化参数控制等,可以满足专业创作者在构图、风格与细节上的高阶需求。
0130
Dream Machine API

Dream Machine API

Dream Machine API是一个创意智能平台,它提供了一系列先进的视频生成模型,通过直观的API和开源SDKs,用户可以构建和扩展创意AI产品。该平台拥有文本到视频、图像到视频、关键帧控制、扩展、循环和相机控制等功能,旨在通过创意智能与人类合作,帮助他们创造更好的内容。Dream Machine API的推出,旨在推动视觉探索和创造的丰富性,让更多的想法得以尝试,构建更好的叙事,并让那些以前无法做到的人讲述多样化的故事。
0130
CogVideoX-5B

CogVideoX-5B

CogVideoX是一个开源的视频生成模型,由清华大学团队开发,支持从文本描述生成视频。它提供了多种视频生成模型,包括入门级和大型模型,以满足不同质量和成本需求。模型支持多种精度,包括FP16和BF16,推荐使用与模型训练时相同的精度进行推理。CogVideoX-5B模型特别适用于需要生成高质量视频内容的场景,如电影制作、游戏开发和广告创意。
0130
Wan.video

Wan.video

Wan_AI Creative Drawing 是一个基于人工智能技术的创意绘画和视频创作平台。它通过先进的AI模型,能够根据用户输入的文字描述生成独特的艺术作品和视频内容。这种技术不仅降低了艺术创作的门槛,还为创意工作者提供了强大的工具。产品主要面向创意专业人士、艺术家和普通用户,帮助他们快速实现创意想法。目前,该平台可能提供免费试用或付费使用,具体价格和定位需进一步确认。
0130
FasterCache

FasterCache

FasterCache是一种创新的无需训练的策略,旨在加速视频扩散模型的推理过程,并生成高质量的视频内容。这一技术的重要性在于它能够显著提高视频生成的效率,同时保持或提升内容的质量,这对于需要快速生成视频内容的行业来说是非常有价值的。FasterCache由来自香港大学、南洋理工大学和上海人工智能实验室的研究人员共同开发,项目页面提供了更多的视觉结果和详细信息。产品目前免费提供,主要面向视频内容生成、AI研究和开发等领域。
0130
Diffusion as Shader

Diffusion as Shader

Diffusion as Shader (DaS) 是一种创新的视频生成控制模型,旨在通过3D感知的扩散过程实现对视频生成的多样化控制。该模型利用3D跟踪视频作为控制输入,能够在统一的架构下支持多种视频控制任务,如网格到视频生成、相机控制、运动迁移和对象操作等。DaS的主要优势在于其3D感知能力,能够有效提升生成视频的时间一致性,并在短时间内通过少量数据微调即可展现出强大的控制能力。该模型由香港科技大学等多所高校的研究团队共同开发,旨在推动视频生成技术的发展,为影视制作、虚拟现实等领域提供更为灵活和高效的解决方案。
0130
通义视频

通义视频

通义视频是阿里云旗下通义万相平台推出的AI视频生成工具,于2024年9月19日的云栖大会上正式发布。通义AI生视频支持“文生视频”和“图生视频”两种创作模式,用户可以通过输入文本或图片上传,快速生成高质量的影视级视频内容。通义视频依托阿里自研的AI视频生成大模型,具备强大的风格泛化和动态生成能力,擅长概念理解与组合生成,可以根据用户需求生成不同风格的视频画面。通义万相AI视频还特别注重中式元素的表现,在制作中国风视频时表现出色。
0130
Adobe Firefly生成视频

Adobe Firefly生成视频

Adobe Firefly 是一款基于人工智能技术的视频生成工具。它能够根据用户提供的简单提示或图像快速生成高质量的视频片段。该技术利用先进的 AI 算法,通过对大量视频数据的学习和分析,实现自动化的视频创作。其主要优点包括操作简单、生成速度快、视频质量高。Adobe Firefly 面向创意工作者、视频制作者以及需要快速生成视频内容的用户,提供高效、便捷的视频创作解决方案。目前该产品处于 Beta 测试阶段,用户可以免费使用,未来可能会根据市场需求和产品发展进行定价和定位。
0130
Openjourney

Openjourney

Openjourney 是一个高保真的开源项目,旨在模拟 MidJourney 的界面,利用 Google 的 Gemini SDK 进行 AI 图像和视频生成。该项目支持使用 Imagen 4 生成高质量图像,以及使用 Veo 2 和 Veo 3 进行文本到视频和图像到视频的转换。它适合需要进行图像生成和视频制作的开发者和创作者,提供了用户友好的界面和实时生成体验,能够助力创意工作与项目开发。
0120
Keeva AI

Keeva AI

Keeva AI是一个多功能的AI数字人视频创作工具,专为海外中小企业和个人创作者提供视频创作解决方案。Keeva AI利用人工智能技术,能够智能生成和翻译视频脚本,并结合高质量的公共人像和模板,可以实现一键生成数字人营销视频的服务。用户只需输入视频主题,Keeva AI即可自动生成脚本并制作完整视频,同时支持上传自有脚本,选择数字人形象和语音生成视频。
0120
LTXV

LTXV

LTXV是Lightricks推出的一个实时AI视频生成开源模型,它代表了视频生成技术的最新发展。LTXV能够提供可扩展的长视频制作能力,优化了GPU和TPU系统,大幅减少了视频生成时间,同时保持了高视觉质量。LTXV的独特之处在于其帧到帧学习技术,确保了帧之间的连贯性,消除了闪烁和场景内的不一致问题。这一技术对于视频制作行业来说是一个巨大的进步,因为它不仅提高了效率,还提升了视频内容的质量。
0120
WorldDreamer

WorldDreamer

WorldDreamer是一个创新的视频生成模型,它通过预测遮蔽的视觉令牌来理解并模拟世界动态。它在图像到视频合成、文本到视频生成、视频修复、视频风格化以及动作到视频生成等多个方面表现出色。该模型借鉴了大型语言模型的成功经验,将世界建模视为一个无监督的视觉序列建模挑战,通过将视觉输入映射到离散的令牌并预测被遮蔽的令牌来实现。
0120
YOYA优雅

YOYA优雅

YOYA优雅是由中科闻歌发布的一个多模态AI创作平台,专注于AI音视频内容创作。YOYA优雅AI平台依托雅意大模型、优雅多模态大模型,提供文生视频、智能剪辑、AI音乐创作、视频翻译等多种AI生成能力,可以帮助用户能够生成高质量的视频内容。YOYA优雅适用于媒体、企业、出版、文旅、影视等泛媒体客户,可以有效提升视频创作效率和质量。
0120
SoraVids

SoraVids

SoraVids是一个基于Hugging Face平台的视频生成模型Sora的存档库。它包含了87个视频和83个对应的提示,这些视频和提示在OpenAI撤销API密钥前被公开展示。这些视频均为MIME类型video/mp4,帧率为30 FPS。SoraVids的背景是OpenAI的视频生成技术,它允许用户通过文本提示生成视频内容。这个存档库的重要性在于它保存了在API密钥被撤销前生成的视频,为研究和教育提供了宝贵的资源。
0120
ComfyUI_HelloMeme

ComfyUI_HelloMeme

HelloMeme是一个集成了空间编织注意力(Spatial Knitting Attentions)的扩散模型,用于嵌入高级别和细节丰富的条件。该模型支持图像和视频的生成,具有改善生成视频与驱动视频之间表情一致性、减少VRAM使用、优化算法等优点。HelloMeme由HelloVision团队开发,属于HelloGroup Inc.,是一个前沿的图像和视频生成技术,具有重要的商业和教育价值。
0110
Allegro-TI2V

Allegro-TI2V

Allegro-TI2V是一个文本图像到视频生成模型,它能够根据用户提供的提示和图像生成视频内容。该模型以其开源性、多样化的内容创作能力、高质量的输出、小巧高效的模型参数以及支持多种精度和GPU内存优化而受到关注。它代表了当前人工智能技术在视频生成领域的前沿进展,具有重要的技术价值和商业应用潜力。Allegro-TI2V模型在Hugging Face平台上提供,遵循Apache 2.0开源协议,用户可以免费下载和使用。
0110
剪刀手

剪刀手

剪刀手是一款全自动AI剪辑神器,可以帮助用户轻松生成原创视频。剪刀手支持AI一键成片,可以一键日产千条原创佳作,无惧非原创警告,批量高效,质量卓越,流量飙升不停歇。剪刀手AI操作简单,无需复杂编辑,人人都是剪辑大师,无论是专业视频制作还是快速成片,剪刀手智能剪辑功能都能满足您的需求,告别繁琐剪辑,省时省力,创意无限。
0110
VideoWorld

VideoWorld

VideoWorld是一个专注于从纯视觉输入(无标签视频)中学习复杂知识的深度生成模型。它通过自回归视频生成技术,探索如何仅通过视觉信息学习任务规则、推理和规划能力。该模型的核心优势在于其创新的潜在动态模型(LDM),能够高效地表示多步视觉变化,从而显著提升学习效率和知识获取能力。VideoWorld在视频围棋和机器人控制任务中表现出色,展示了其强大的泛化能力和对复杂任务的学习能力。该模型的研究背景源于对生物体通过视觉而非语言学习知识的模仿,旨在为人工智能的知识获取开辟新的途径。
0110
Open-Sora-Plan-v1.1.0

Open-Sora-Plan-v1.1.0

Open-Sora-Plan是一个由北京大学元组团队开发的文本到视频生成模型。它在2024年4月首次推出v1.0.0版本,以其简单高效的设计和显著的性能在文本到视频生成领域获得了广泛认可。v1.1.0版本在视频生成质量和持续时间上进行了显著改进,包括更优的压缩视觉表示、更高的生成质量和更长的视频生成能力。该模型采用了优化的CausalVideoVAE架构,具有更强的性能和更高的推理效率。此外,它还保持了v1.0.0版本的极简设计和数据效率,并且与Sora基础模型的性能相似,表明其版本演进与Sora展示的扩展法则一致。
0110
leapfusion-hunyuan-image2video

leapfusion-hunyuan-image2video

leapfusion-hunyuan-image2video 是一种基于 Hunyuan 模型的图像到视频生成技术。它通过先进的深度学习算法,将静态图像转换为动态视频,为内容创作者提供了一种全新的创作方式。该技术的主要优点包括高效的内容生成、灵活的定制化能力以及对高质量视频输出的支持。它适用于需要快速生成视频内容的场景,如广告制作、视频特效等领域。该模型目前以开源形式发布,供开发者和研究人员免费使用,未来有望通过社区贡献进一步提升其性能。
0110
Wan2.1-T2V-14B

Wan2.1-T2V-14B

Wan2.1-T2V-14B 是一款先进的文本到视频生成模型,基于扩散变换器架构,结合了创新的时空变分自编码器(VAE)和大规模数据训练。它能够在多种分辨率下生成高质量的视频内容,支持中文和英文文本输入,并在性能和效率上超越现有的开源和商业模型。该模型适用于需要高效视频生成的场景,如内容创作、广告制作和视频编辑等。目前该模型在 Hugging Face 平台上免费提供,旨在推动视频生成技术的发展和应用。
0110
TC-Bench

TC-Bench

TC-Bench是一个专门用于评估视频生成模型的时间组合性的工具。它通过精心设计的文本提示、相应的真实视频以及强大的评估指标来衡量视频生成模型在不同时间点上新概念的出现及其关系转换的能力。TC-Bench不仅适用于文本条件模型,也适用于图像条件模型,能够进行生成性帧插值。该工具的开发旨在推动视频生成技术的发展,提高生成视频的质量和一致性。
0110
AI Kiss | Free AI Kissing Video Generator

AI Kiss | Free AI Kissing Video Generator

AI Kiss是CoCoClip AI平台提供一个基于人工智能的互动工具,旨在为用户提供趣味性和浪漫氛围的模拟体验,可以帮助用户在线生成接吻视频。用户可以通过该网站AI Kissing Video Generator工具创建虚拟“亲吻”场景,探索浪漫表情包、个性化的吻动画,甚至通过AI生成的情感文字或模拟声音进行互动。AI Kiss是一个轻松、充满乐趣的工具,适合情侣、朋友或任何喜欢尝试创新互动体验的人群。
0110
Image To Video

Image To Video

Image To Video是一个利用人工智能技术将用户的静态图片转换成动态视频的平台。该产品通过AI技术实现图片动画化,使得内容创作者能够轻松制作出具有自然动作和过渡的视频内容。产品的主要优点包括快速处理、每日免费信用点数、高质量输出和易于下载。Image To Video的背景信息显示,它旨在帮助用户以低成本或无成本的方式,将图片转化为视频,从而提高内容的吸引力和互动性。产品定位于内容创作者、数字艺术家和营销专业人士,提供免费试用和高质量的视频生成服务。
0110
Luma Ray3AI

Luma Ray3AI

Ray3是全球首个具有推理能力的视频模型,由Luma Ray3提供支持。它能够思考、规划并创作专业级内容,具备原生HDR生成和智能草稿模式实现快速迭代。主要优点包括:拥有推理智能,能深入理解提示、规划复杂场景并自我审视;提供原生10、12和16位HDR视频,适用于专业工作室工作流程;草稿模式生成速度快20倍,便于快速完善概念。价格方面,有免费版、29美元的专业版和99美元的工作室版。定位为满足不同用户群体从探索到专业商业应用的视频创作需求。
0100
千面数字人

千面数字人

千面数字人是一款AI数字人视频生成工具,千面数字人Avatar系列的两款产品均依托先进 AI 技术,为用户带来创意内容生成新体验。音频转换产品能将静态图片与音频融合,让图片中的人物随声音动起来唱歌、说话,实现从静到动的趣味转化;模仿动作产品则可将 5 秒内的真人动作视频与动漫人物图片结合,使动漫角色精准复刻真人动作,赋予虚拟形象真实动态。两者操作简便,能满足二次元创作、游戏互动、社交娱乐等多元场景需求,助力用户轻松释放创意。
0100
Ruyi-Models

Ruyi-Models

Ruyi-Models是一个图像到视频的模型,能够生成高达768分辨率、每秒24帧的电影级视频,支持镜头控制和运动幅度控制。使用RTX 3090或RTX 4090显卡,可以无损生成512分辨率、120帧的视频。该模型以其高质量的视频生成能力和对细节的精确控制而受到关注,尤其在需要生成高质量视频内容的领域,如电影制作、游戏制作和虚拟现实体验中具有重要应用价值。
0100
GameFactory

GameFactory

GameFactory 是一个创新的通用世界模型,专注于从少量的《我的世界》游戏视频数据中学习,并利用预训练视频扩散模型的先验知识来生成新的游戏内容。该技术的核心优势在于其开放领域的生成能力,能够根据用户输入的文本提示和操作指令生成多样化的游戏场景和互动体验。它不仅展示了强大的场景生成能力,还通过多阶段训练策略和可插拔的动作控制模块,实现了高质量的交互式视频生成。该技术在游戏开发、虚拟现实和创意内容生成等领域具有广阔的应用前景,目前尚未明确其价格和商业化定位。
0100
MM_StoryAgent

MM_StoryAgent

MM_StoryAgent 是一个基于多智能体范式的故事视频生成框架,它结合了文本、图像和音频等多种模态,通过多阶段流程生成高质量的故事视频。该框架的核心优势在于其可定制性,用户可以自定义专家工具以提升每个组件的生成质量。此外,它还提供了故事主题列表和评估标准,便于进一步的故事创作和评估。MM_StoryAgent 主要面向需要高效生成故事视频的创作者和企业,其开源特性使得用户可以根据自身需求进行扩展和优化。
0100
Animanic

Animanic

Animanic是一个教育技术产品,它通过交互式文本到视频的生成,使用户能够以全新的方式学习新概念。该产品利用AI动画引擎,将复杂的概念以美观的方式进行可视化,同时提供讨论功能,允许用户与Animanic导师在视频中进行交流,以解答问题并满足用户的好奇心。目前处于Beta测试阶段,免费提供给用户试用,并积极寻求反馈以优化产品体验。
0100
SekoTalk

SekoTalk

SekoTalk是商汤科技(SenseTime)旗下Seko智能体平台推出的AI对口型视频创作工具,可以根据用户描述及角色图片自动生成与音频匹配的口型动画。SekoTalk主要功能包括多语种对口型生成、音频格式兼容、角色形象定制、多风格视频生成及多说话者支持。SekoTalk提供可视化编辑功能,支持直接查看和调整对口型效果,并可导出发布至不同平台。SekoTalk可以应用于剧情短片、动画制作及广告宣传视频等场景,能够有效提升创作效率与视频质量。
090
Go with the Flow

Go with the Flow

Go with the Flow 是一种创新的视频生成技术,通过使用扭曲噪声代替传统的高斯噪声,实现了对视频扩散模型运动模式的高效控制。该技术无需对原始模型架构进行修改,即可在不增加计算成本的情况下,实现对视频中物体和相机运动的精确控制。其主要优点包括高效性、灵活性和可扩展性,能够广泛应用于图像到视频生成、文本到视频生成等多种场景。该技术由 Netflix Eyeline Studios 等机构的研究人员开发,具有较高的学术价值和商业应用潜力,目前开源免费提供给公众使用。
090
CogiDigm

CogiDigm

CogiDigm利用GenAI技术革新娱乐产业的叙事方式,包括电影制片厂、后期制作和广告代理公司。我们拥有尖端技术,成为行业领跑者。我们与FBRC.ai和AILA合作,提供视频生成和操作服务,释放创造力。我们的理念是采用以人为本的集体智能方法,提供广泛的服务,包括创新的GenAI解决方案、道德的AI模型实施、专业的技术指导、战略咨询和无缝部署专业知识。
090
ConsisID

ConsisID

ConsisID是一个基于频率分解的身份保持文本到视频生成模型,它通过在频域中使用身份控制信号来生成与输入文本描述一致的高保真度视频。该模型不需要针对不同案例进行繁琐的微调,并且能够保持生成视频中人物身份的一致性。ConsisID的提出,推动了视频生成技术的发展,特别是在无需调整的流程和频率感知的身份保持控制方案方面。
090
On-device Sora

On-device Sora

On-device Sora 是一个开源项目,旨在通过线性比例跳跃(LPL)、时间维度标记合并(TDTM)和动态加载并发推理(CI-DL)等技术,实现在移动设备(如 iPhone 15 Pro)上高效的视频生成。该项目基于 Open-Sora 模型开发,能够根据文本输入生成高质量视频。其主要优点包括高效性、低功耗和对移动设备的优化。该技术适用于需要在移动设备上快速生成视频内容的场景,如短视频创作、广告制作等。项目目前开源,用户可以免费使用。
090
Vchitect 2.0

Vchitect 2.0

Vchitect 2.0(筑梦2.0)是一款由上海人工智能实验室开发的高级视频生成模型,旨在赋予视频创作新的动力。它支持20秒视频生成,灵活的宽高比,生成空间时间增强,以及长视频评估。Vchitect 2.0通过其先进的技术,能够将静态图像转换为5-10秒的视频,使用户能够轻松地将照片或设计转换为引人入胜的视觉体验。此外,Vchitect 2.0还支持长视频生成模型的评估,通过VBench平台,提供全面且持续更新的评估排行榜,支持多种长视频模型,如Gen-3、Kling、OpenSora等。
090
ComfyUI-MochiWrapper

ComfyUI-MochiWrapper

ComfyUI-MochiWrapper是一个用于Mochi视频生成器的包装节点,它允许用户通过ComfyUI界面与Mochi模型进行交互。这个项目主要优点是能够利用Mochi模型生成视频内容,并且通过ComfyUI简化了操作流程。它是基于Python开发的,并且完全开源,允许开发者自由地使用和修改。目前该项目还处于积极开发中,已经有一些基本功能,但还没有正式发布版本。
090
Wookeys AI

Wookeys AI

Ultimate AI Assistant是一款综合AI助手,可帮助您简化任务,提高工作效率。它提供了生成文本、图像、代码、视频、音频等多种功能,具有高度定制化的AI解决方案。无论您是需要生成创意文案、设计图像、编写代码、制作视频还是创作音乐,Ultimate AI Assistant都能满足您的需求。该产品定价根据功能和使用量而定,详情请访问官方网站。
090
MEMO

MEMO

MEMO是一个先进的开放权重模型,用于音频驱动的说话视频生成。该模型通过记忆引导的时间模块和情感感知的音频模块,增强了长期身份一致性和运动平滑性,同时通过检测音频中的情感来细化面部表情,生成身份一致且富有表情的说话视频。MEMO的主要优点包括更真实的视频生成、更好的音频-唇形同步、身份一致性和表情情感对齐。该技术背景信息显示,MEMO在多种图像和音频类型中生成更真实的说话视频,超越了现有的最先进方法。
090
潮际好麦AI视频

潮际好麦AI视频

潮际好麦AI视频是一款虚拟试穿AI视频生成工具,支持用户在视频中展示服装或商品,无需进行实际拍摄。使用潮际好麦AI视频,商家可以一键生成多种类型的营销素材,实现虚拟拍摄模特试衣视频,降低运营成本并提高营销效率。潮际好麦AI视频提供多种视频模板和背景,可以可以帮助商家实现低成本、高效率的视频内容创作,适用于电商平台、抖音、小红书等多种场景的视频内容需求。
080
CogVideoX1.5-5B-SAT

CogVideoX1.5-5B-SAT

CogVideoX1.5-5B-SAT是由清华大学知识工程与数据挖掘团队开发的开源视频生成模型,是CogVideoX模型的升级版。该模型支持生成10秒视频,并支持更高分辨率的视频生成。模型包含Transformer、VAE和Text Encoder等模块,能够根据文本描述生成视频内容。CogVideoX1.5-5B-SAT模型以其强大的视频生成能力和高分辨率支持,为视频内容创作者提供了一个强大的工具,尤其在教育、娱乐和商业领域有着广泛的应用前景。
080
AccVideo

AccVideo

AccVideo 是一种新颖的高效蒸馏方法,通过合成数据集加速视频扩散模型的推理速度。该模型能够在生成视频时实现 8.5 倍的速度提升,同时保持相似的性能。它使用预训练的视频扩散模型生成多条有效去噪轨迹,从而优化了数据的使用和生成过程。AccVideo 特别适用于需要高效视频生成的场景,如电影制作、游戏开发等,适合研究人员和开发者使用。
080
DeepFuze

DeepFuze

DeepFuze是与ComfyUI无缝集成的先进深度学习工具,用于革新面部转换、lipsyncing、视频生成、声音克隆和lipsync翻译。利用先进的算法,DeepFuze使用户能够以无与伦比的真实性结合音频和视频,确保完美的面部动作同步。这一创新解决方案非常适合内容创作者、动画师、开发者以及任何希望以先进的AI驱动功能提升其视频编辑项目的人士。
080
GAIA-2

GAIA-2

GAIA-2 是 Wayve 开发的先进视频生成模型,旨在为自动驾驶系统提供多样化和复杂的驾驶场景,以提高安全性和可靠性。该模型通过生成合成数据来解决依赖现实世界数据收集的限制,能够创建各种驾驶情境,包括常规和边缘案例。GAIA-2 支持多种地理和环境条件的模拟,帮助开发者在没有高昂成本的情况下快速测试和验证自动驾驶算法。
080
Aleph AI – AI Video Editor & Video Generator

Aleph AI – AI Video Editor & Video Generator

Aleph AI 是一款基于先进人工智能技术的视频编辑和生成工具,允许用户通过简单的文本提示来快速修改和生成视频。它能够以高效率和准确性进行复杂的视频编辑,适合各类创作者,无论是专业人士还是初学者,能够轻松实现他们的创意想法。Aleph AI 提供每次生成 10 个积分,并且在处理视频时支持商用许可,极大地降低了视频创作的门槛。
070
VideoTetris

VideoTetris

VideoTetris是一个新颖的框架,它实现了文本到视频的生成,特别适用于处理包含多个对象或对象数量动态变化的复杂视频生成场景。该框架通过空间时间组合扩散技术,精确地遵循复杂的文本语义,并通过操作和组合去噪网络的空间和时间注意力图来实现。此外,它还引入了一种新的参考帧注意力机制,以提高自回归视频生成的一致性。VideoTetris在组合文本到视频生成方面取得了令人印象深刻的定性和定量结果。
070
FIFO-Diffusion

FIFO-Diffusion

FIFO-Diffusion是一种基于预训练扩散模型的新颖推理技术,用于文本条件视频生成。它能够无需训练生成无限长的视频,通过迭代执行对角去噪,同时处理队列中一系列连续帧的逐渐增加的噪声水平;该方法在头部出队一个完全去噪的帧,同时在尾部入队一个新的随机噪声帧。此外,引入了潜在分割来减少训练推理差距,并通过前瞻去噪来利用前向引用的好处。
070
SynCamMaster

SynCamMaster

SynCamMaster是一种先进的视频生成技术,它能够从多样化的视角同步生成多摄像机视频。这项技术通过预训练的文本到视频模型,增强了视频内容在不同视角下的动态一致性,对于虚拟拍摄等应用场景具有重要意义。该技术的主要优点包括能够处理开放世界视频的任意视角生成,整合6自由度摄像机姿态,并设计了一种渐进式训练方案,利用多摄像机图像和单目视频作为补充,显著提升了模型性能。
070
ComfyUI-HunyuanVideoWrapper-IP2V

ComfyUI-HunyuanVideoWrapper-IP2V

ComfyUI-HunyuanVideoWrapper-IP2V是一个基于HunyuanVideo的视频生成工具,它允许用户通过图像提示生成视频(IP2V),即利用图像作为生成视频的条件,提取图像的概念和风格。这项技术主要优点在于能够将图像的风格和内容融入视频生成过程中,而不仅仅是作为视频的第一帧。产品背景信息显示,该工具目前处于实验阶段,但已经可以工作,且对VRAM有较高要求,至少需要20GB。
060
ReCapture

ReCapture

ReCapture是一种从单一用户提供的视频生成新视频和新颖摄像机轨迹的方法。该技术允许我们从完全不同的角度重新生成源视频,并带有电影级别的摄像机运动。ReCapture通过使用多视图扩散模型或基于深度的点云渲染生成带有新摄像机轨迹的嘈杂锚视频,然后通过我们提出的掩蔽视频微调技术将锚视频重新生成为干净且时间上一致的重新角度视频。这种技术的重要性在于它能够利用视频模型的强大先验,将近似的视频重新生成为时间上一致且美观的视频。
060
Wan2GP

Wan2GP

Wan2GP 是基于 Wan2.1 的改进版本,旨在为低配置 GPU 用户提供高效、低内存占用的视频生成解决方案。该模型通过优化内存管理和加速算法,使得普通用户也能在消费级 GPU 上快速生成高质量的视频内容。它支持多种任务,包括文本到视频、图像到视频、视频编辑等,同时具备强大的视频 VAE 架构,能够高效处理 1080P 视频。Wan2GP 的出现降低了视频生成技术的门槛,使得更多用户能够轻松上手并应用于实际场景。
060
Movie Gen Bench

Movie Gen Bench

Movie Gen Bench是由Facebook Research发布的视频生成评估基准测试,旨在为未来在视频生成领域的研究提供公平且易于比较的标准。该基准测试包括Movie Gen Video Bench和Movie Gen Audio Bench两个部分,分别针对视频内容生成和音频生成进行评估。Movie Gen Bench的发布,对于推动视频生成技术的发展和评估具有重要意义,它能够帮助研究人员和开发者更好地理解和改进视频生成模型的性能。
060
AI Video Starting Kit

AI Video Starting Kit

video-starter-kit 是一个强大的开源工具包,用于构建基于 AI 的视频应用。它基于 Next.js、Remotion 和 fal.ai 构建,简化了在浏览器中使用 AI 视频模型的复杂性。该工具包支持多种先进的视频处理功能,如多剪辑视频合成、音频轨道集成和语音支持等,同时提供了开发者友好的工具,如元数据编码和视频处理管道。它适用于需要高效视频生成和处理的开发者和创作者。
060
CausVid

CausVid

CausVid是一个先进的视频生成模型,它通过将预训练的双向扩散变换器适配为因果变换器,实现了即时视频帧的生成。这一技术的重要性在于它能够显著减少视频生成的延迟,使得视频生成能够以交互式帧率(9.4FPS)在单个GPU上进行流式生成。CausVid模型支持从文本到视频的生成,以及零样本图像到视频的生成,展现了视频生成技术的新高度。
050
Mochi in ComfyUI

Mochi in ComfyUI

Mochi是Genmo最新推出的开源视频生成模型,它在ComfyUI中经过优化,即使使用消费级GPU也能实现。Mochi以其高保真度动作和卓越的提示遵循性而著称,为ComfyUI社区带来了最先进的视频生成能力。Mochi模型在Apache 2.0许可下发布,这意味着开发者和创作者可以自由使用、修改和集成Mochi,而不受限制性许可的阻碍。Mochi能够在消费级GPU上运行,如4090,且在ComfyUI中支持多种注意力后端,使其能够适应小于24GB的VRAM。
020