
妙笔是阿里巴巴最新开源的中文文生图模型,它与经典的Stable Diffusion 1.5版本结构相同,兼容现有的lora、controlnet等主流插件及其权重。妙笔的特点是用户可以直接输入中文进行文生图操作,生成的图像效果逼真。例如,输入“枯藤老树昏鸦,小桥流水人家。水墨画。”,妙笔能够理解诗句中的意境并生成相应的图像。
妙笔的训练数据包括Laion-5B中的中文子集、Midjourney相关的开源数据以及数十万的caption数据。但由于数据集在成语和古诗词方面存在偏差,对中国名胜地标建筑数据的缺少,以及大量的英译中数据,可能会导致一些理解上的混淆。目前,妙笔Beta0.9版本已经在8张4090显卡上完成训练,开发者也在计划扩展机器资源以训练更高级的模型,以期获得更优的结果。
妙笔的使用也非常简单,用户只需克隆项目并安装所需的包,下载模型权重后即可开始生成图像。此外,妙笔还提供了多种示例和教程,帮助用户快速上手和掌握使用方法。
妙笔直接输入中文就可以完成文生图操作,使用起来非常便捷,生图的效果也十分逼真。
比如输入“枯藤老树昏鸦,小桥流水人家。水墨画。”来看秒笔生成结果。可以看出妙笔很好的表达出来诗句中的意思并生成了诗中的内容。
再比如输入“极具真实感的复杂农村的老人肖像,黑白。”
可以看出生成的人像具有很好的完整性和真实感,以往生图模型在生成人像方面的缺点在这也都完成的很好。
项目地址
https://github.com/ShineChen1024/MiaoBi
安装运行
1.克隆项目
git clone https://github.com/ShineChen1024/MiaoBi.git
2.创建虚拟环境并安装所需要的包
conda create -n MiaoBi-SD python==3.10
conda activate MiaoBi-SD
pip install torch==2.0.1 torchvision==0.15.2 numpy==1.25.1 diffusers==0.25.1 opencv
3.下载模型
从Huggingface下载权重,并把它放在检查点文件夹。
MiaoBi checkpoints下载链接
Diffuser使用
from diffusers import StableDiffusionPipeline
from transformers import AutoTokenizertokenizer = AutoTokenizer.from_pretrained(“checkpoints/miaobi_beta0.9/tokenizer”, trust_remote_code=True)
pipe = StableDiffusionPipeline.from_pretrained(“checkpoints/miaobi_beta0.9”)pipe.to(“cuda”)
prompt = “一只穿着铠甲的猫”
image = pipe(prompt).images[0]
image.save(“铠甲猫.png”)
模型推理
python demo
python miaobi_generate.py
###controlnet demo
python miaobi_controlnet.py
中文生图示例
一只精致的陶瓷猫咪雕像,全身绘有精美的传统花纹,眼睛仿佛会发光。
动漫风格的风景画,有山脉、湖泊,也有繁华的小镇子,色彩鲜艳,光影效果明显。
车水马龙的上海街道,春节,舞龙舞狮。
局限性
妙笔的训练数据包含Laion-5B中的中文子集(经过清洗过滤),Midjourney相关的开源数据(将英文提示词翻译成中文),以及收集的一批数十万的caption数据。
由于整个数据集大量缺少成语与古诗词数据,所以对成语与古诗词的理解可能存在偏差,对中国的名胜地标建筑数据的缺少以及大量的英译中数据,可能会导致出现一些对象的混乱。
妙笔Beta0.9在8张4090显卡上完成训练,目前也在拓展机器资源来训练SDXL来获得更优的结果,期待后续的更新。
数据统计
相关导航

InspireMusic 是由阿里巴巴通义实验室推出的开源音乐生成框架,集成了多项音频领域的前沿研究成果,为开发者和研究者提供全面的音乐创作、风格转换和音效合成解决方案。该框架依托多模态大模型技术,支持通过文本描述或音频输入进行智能化创作,并提供完善的模型调优工具链。

M2UGen
M2UGen是一个由腾讯和新加坡国立大学共同研发的多模态音乐生成模型,它具备音乐生成、理解和编辑的能力。具体来说,M2UGen可以接收文字、图片、视频或音频作为输入,然后生成与之相匹配的音乐。例如,给它一段文字,如诗句或故事,它能够创作出与文字内容相应的音乐;对于图片,它能创作出匹配的音乐,让图片仿佛“动起来”;对于视频,它可以根据视频内容创作出合适的背景音乐。

DDColor
DDColor是阿里达摩院研究的一种基于深度学习的图像上色模型,它可以自动将黑白或灰度图像着色,使图像更加生动逼真。它使用了双解码器技术,能够同时考虑色彩分布和像素级详细信息,实现高度真实的图像上色效果。它还利用多尺度视觉特征和颜色损失来提高着色的语义合理性和颜色丰富性。

Goku
Goku 是一个基于流生成的视频生成基础模型,由香港大学和字节跳动研究团队共同开发。Goku 模型主要用于生成高质量的视频内容,尤其在广告和营销场景中表现尤为出色。

商量拟人大模型
商量拟人大模型是商汤科技推出的一款AI拟人大模型,它支持个性化角色创建与定制、知识库构建、长对话记忆、多人群聊等功能,可实现行业领先的角色对话、人设及剧情推动能力。该模型广泛应用于情感陪伴、影视/动漫/网文IP角色、明星/网红/艺人AI分身、语言角色扮演游戏等拟人对话场景。

百度智能云客悦
百度智能云客悦是百度推出的智能客服平台。其旗下的智能外呼平台是一款集合NLP(自然语言处理)、ASR(自动语音识别)、TTS(语音合成)等人工智能技术,提供公有云服务并支持同时面向多名用户,自动发起外呼通话的智能化产品。

Hyper-SD
Hyper-SD 是字节跳动推出的一种先进图像生成框架,结合了轨迹分段一致性蒸馏(TSCD)和人类反馈学习(RLHF),显著提升了扩散模型在少步骤推理下的图像生成性能。通过 Hyper-SD,用户可以在 1 到 8 步的推理过程中生成高质量的图像,极大地提高了生成速度和效率。

EduChat
EduChat是一个教育领域的对话大模型,提供开放问答、作文批改、启发式教学和情感支持等教育特色功能,助力实现因材施教、公平公正、富有温度的智能教育。
暂无评论...