Xno.ai

3个月前发布 1 00

探索19个顶尖的文本到图像AI,使用39个GPU。

收录时间:
2025-05-30

探索19个顶尖的文本到图像AI,使用39个GPU。

数据统计

相关导航

IMM

IMM

Inductive Moment Matching (IMM) 是一种先进的生成模型技术,主要用于高质量图像生成。该技术通过创新的归纳矩匹配方法,显著提高了生成图像的质量和多样性。其主要优点包括高效性、灵活性以及对复杂数据分布的强大建模能力。IMM 由 Luma AI 和斯坦福大学的研究团队开发,旨在推动生成模型领域的发展,为图像生成、数据增强和创意设计等应用提供强大的技术支持。该项目开源了代码和预训练模型,方便研究人员和开发者快速上手和应用。
In-Context LoRA for Diffusion Transformers

In-Context LoRA for Diffusion Transformers

In-Context LoRA是一种用于扩散变换器(DiTs)的微调技术,它通过结合图像而非仅仅文本,实现了在保持任务无关性的同时,对特定任务进行微调。这种技术的主要优点是能够在小数据集上进行有效的微调,而不需要对原始DiT模型进行任何修改,只需改变训练数据即可。In-Context LoRA通过联合描述多张图像并应用任务特定的LoRA微调,生成高保真度的图像集合,更好地符合提示要求。该技术对于图像生成领域具有重要意义,因为它提供了一种强大的工具,可以在不牺牲任务无关性的前提下,为特定任务生成高质量的图像。
1.58-bit FLUX

1.58-bit FLUX

1.58-bit FLUX是一种先进的文本到图像生成模型,通过使用1.58位权重(即{-1, 0, +1}中的值)来量化FLUX.1-dev模型,同时保持生成1024x1024图像的可比性能。该方法无需访问图像数据,完全依赖于FLUX.1-dev模型的自监督。此外,开发了一种定制的内核,优化了1.58位操作,实现了模型存储减少7.7倍,推理内存减少5.1倍,并改善了推理延迟。在GenEval和T2I Compbench基准测试中的广泛评估表明,1.58-bit FLUX在保持生成质量的同时显著提高了计算效率。

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...