DeepSeek-VL2

3个月前发布 1 00

DeepSeek-VL2是一系列大型Mixture-of-Experts视觉语言模型,相较于前代DeepSeek-VL有显著提升。该模型系列在视觉问答、光学字符识别、文档/表格/图表理解以及视觉定位等任务上展现出卓越的能力。DeepSeek-VL2包含三个变体:DeepSeek-VL2-Tiny、DeepSeek-VL2-Small和De...

收录时间:
2025-05-30
DeepSeek-VL2DeepSeek-VL2

DeepSeek-VL2是一系列大型Mixture-of-Experts视觉语言模型,相较于前代DeepSeek-VL有显著提升。该模型系列在视觉问答光学字符识别、文档/表格/图表理解以及视觉定位等任务上展现出卓越的能力。DeepSeek-VL2包含三个变体:DeepSeek-VL2-Tiny、DeepSeek-VL2-Small和DeepSeek-VL2,分别拥有1.0B、2.8B和4.5B激活参数。DeepSeek-VL2在激活参数相似或更少的情况下,与现有的开源密集和MoE基础模型相比,达到了竞争性或最先进的性能。

数据统计

相关导航

SmolVLM-500M-Instruct

SmolVLM-500M-Instruct

SmolVLM-500M 是由 Hugging Face 开发的轻量级多模态模型,属于 SmolVLM 系列。该模型基于 Idefics3 架构,专注于高效的图像和文本处理任务。它能够接受任意顺序的图像和文本输入,生成文本输出,适用于图像描述、视觉问答等任务。其轻量级架构使其能够在资源受限的设备上运行,同时保持强大的多模态任务性能。该模型采用 Apache 2.0 许可证,支持开源和灵活的使用场景。
InternVL2_5-1B-MPO

InternVL2_5-1B-MPO

InternVL2_5-1B-MPO是一个多模态大型语言模型(MLLM),它基于InternVL2.5和混合偏好优化(MPO)构建,展示了优越的整体性能。该模型集成了新增量预训练的InternViT与各种预训练的大型语言模型(LLMs),包括InternLM 2.5和Qwen 2.5,使用随机初始化的MLP投影器。InternVL2.5-MPO在模型架构上保留了与InternVL 2.5及其前身相同的“ViT-MLP-LLM”范式,并引入了对多图像和视频数据的支持。该模型在多模态任务中表现出色,能够处理包括图像描述、视觉问答等多种视觉语言任务。
InternVL2_5-26B-MPO

InternVL2_5-26B-MPO

InternVL2_5-26B-MPO是一个多模态大型语言模型(MLLM),它在InternVL2.5的基础上,通过混合偏好优化(Mixed Preference Optimization, MPO)进一步提升了模型性能。该模型能够处理包括图像、文本在内的多模态数据,广泛应用于图像描述、视觉问答等场景。它的重要性在于能够理解和生成与图像内容紧密相关的文本,推动了多模态人工智能的边界。产品背景信息包括其在多模态任务中的卓越性能,以及在OpenCompass Learderboard中的评估结果。该模型为研究者和开发者提供了强大的工具,以探索和实现多模态人工智能的潜力。
DeepSeek-VL2-Small

DeepSeek-VL2-Small

DeepSeek-VL2是一系列先进的大型混合专家(MoE)视觉语言模型,相较于前代DeepSeek-VL有显著提升。该模型系列在视觉问答、光学字符识别、文档/表格/图表理解以及视觉定位等多种任务上展现出卓越的能力。DeepSeek-VL2由三种变体组成:DeepSeek-VL2-Tiny、DeepSeek-VL2-Small和DeepSeek-VL2,分别拥有10亿、28亿和45亿激活参数。DeepSeek-VL2在激活参数相似或更少的情况下,与现有的开源密集型和基于MoE的模型相比,达到了竞争性或最先进的性能。
PaliGemma2-3b-pt-224

PaliGemma2-3b-pt-224

PaliGemma 2是由Google开发的视觉-语言模型,它结合了SigLIP视觉模型和Gemma 2语言模型的能力,能够处理图像和文本输入,并生成相应的文本输出。该模型在多种视觉-语言任务上表现出色,如图像描述、视觉问答等。其主要优点包括强大的多语言支持、高效的训练架构以及在多种任务上的优异性能。PaliGemma 2的开发背景是为了解决视觉和语言之间的复杂交互问题,帮助研究人员和开发者在相关领域取得突破。
Phi-4-multimodal-instruct

Phi-4-multimodal-instruct

Phi-4-multimodal-instruct 是微软开发的多模态基础模型,支持文本、图像和音频输入,生成文本输出。该模型基于Phi-3.5和Phi-4.0的研究和数据集构建,经过监督微调、直接偏好优化和人类反馈强化学习等过程,以提高指令遵循能力和安全性。它支持多种语言的文本、图像和音频输入,具有128K的上下文长度,适用于多种多模态任务,如语音识别、语音翻译、视觉问答等。该模型在多模态能力上取得了显著提升,尤其在语音和视觉任务上表现出色。它为开发者提供了强大的多模态处理能力,可用于构建各种多模态应用。

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...