VideoLLaMA3VideoLLaMA3是由DAMO-NLP-SG团队开发的前沿多模态基础模型,专注于图像和视频理解。该模型基于Qwen2.5架构,结合了先进的视觉编码器(如SigLip)和强大的语言生成能力,能够处理复杂的视觉和语言任务。其主要优点包括高效的时空建模能力、强大的多模态融合能力以及对大规模数据的优化训练。该模型适用于需要深度视频理解的应用场景,如视频内容分析、视觉问答等,具有广泛的研究和商业应用潜力。
InstantIRInstantIR是一种基于扩散模型的盲图像恢复方法,能够在测试时处理未知退化问题,提高模型的泛化能力。该技术通过动态调整生成条件,在推理过程中生成参考图像,从而提供稳健的生成条件。InstantIR的主要优点包括:能够恢复极端退化的图像细节,提供逼真的纹理,并且通过文本描述调节生成参考,实现创造性的图像恢复。该技术由北京大学、InstantX团队和香港中文大学的研究人员共同开发,得到了HuggingFace和fal.ai的赞助支持。
Janus ProJanus Pro 是由 DeepSeek 技术驱动的先进 AI 图像生成与理解平台。它采用革命性的统一变换器架构,能够高效处理复杂的多模态操作,实现图像生成和理解的卓越性能。该平台训练了超过 9000 万个样本,其中包括 7200 万个合成美学数据点,确保生成的图像在视觉上具有吸引力且上下文准确。Janus Pro 为开发者和研究人员提供强大的视觉 AI 能力,帮助他们实现从创意到视觉叙事的转变。平台提供免费试用,适合需要高质量图像生成和分析的用户。
InfiniteYouInfiniteYou(InfU)是一个基于扩散变换器的强大框架,旨在实现灵活的图像重构,并保持用户身份。它通过引入身份特征并采用多阶段训练策略,显著提升了图像生成的质量和美学,同时改善了文本与图像的对齐。该技术对提高图像生成的相似性和美观性具有重要意义,适用于各种图像生成任务。
Diffusion Self-DistillatioDiffusion Self-Distillation是一种基于扩散模型的自蒸馏技术,用于零样本定制图像生成。该技术允许艺术家和用户在没有大量配对数据的情况下,通过预训练的文本到图像的模型生成自己的数据集,进而微调模型以实现文本和图像条件的图像到图像任务。这种方法在保持身份生成任务的性能上超越了现有的零样本方法,并能与每个实例的调优技术相媲美,无需测试时优化。
StructLDMStructLDM是一个结构化潜在扩散模型,用于从2D图像学习3D人体生成。它能够生成多样化的视角一致的人体,并支持不同级别的可控生成和编辑,如组合生成和局部服装编辑等。该模型在无需服装类型或掩码条件的情况下,实现了服装无关的生成和编辑。项目由南洋理工大学S-Lab的Tao Hu、Fangzhou Hong和Ziwei Liu提出,相关论文发表于ECCV 2024。
OmniGen2OmniGen2 是一个高效的多模态生成模型,结合了视觉语言模型和扩散模型,能够实现视觉理解、图像生成及编辑等功能。其开源特性为研究人员和开发者提供了强大的基础,助力个性化和可控生成 AI 的探索。