InternVL2_5-4B

3个月前发布 1 00

InternVL2_5-4B是一个先进的多模态大型语言模型(MLLM),在InternVL 2.0的基础上进行了核心模型架构的维护,并在训练和测试策略以及数据质量上进行了显著增强。该模型在处理图像、文本到文本的任务中表现出色,特别是在多模态推理、数学问题解决、OCR、图表和文档理解等方面。作为开源模型,它为研究人员和开发者提供了强大的工具...

收录时间:
2025-05-30
InternVL2_5-4BInternVL2_5-4B

InternVL2_5-4B是一个先进的多模态大型语言模型(MLLM),在InternVL 2.0的基础上进行了核心模型架构的维护,并在训练和测试策略以及数据质量上进行了显著增强。该模型在处理图像、文本到文本的任务中表现出色,特别是在多模态推理、数学问题解决、OCR、图表和文档理解等方面。作为开源模型,它为研究人员和开发者提供了强大的工具,以探索和构建基于视觉和语言的智能应用。

数据统计

相关导航

jina-clip-v2

jina-clip-v2

jina-clip-v2是由Jina AI开发的多语言多模态嵌入模型,支持89种语言的图像检索,能够处理512x512分辨率的图像,提供从64到1024不同维度的输出,以适应不同的存储和处理需求。该模型结合了强大的文本编码器Jina-XLM-RoBERTa和视觉编码器EVA02-L14,通过联合训练创建了对齐的图像和文本表示。jina-clip-v2在多模态搜索和检索方面提供了更准确、更易用的能力,特别是在打破语言障碍、提供跨模态理解和检索方面表现出色。
InternVL2_5-8B

InternVL2_5-8B

InternVL2_5-8B是由OpenGVLab开发的一款多模态大型语言模型(MLLM),它在InternVL 2.0的基础上进行了显著的训练和测试策略增强,以及数据质量提升。该模型采用'ViT-MLP-LLM'架构,集成了新增量预训练的InternViT与多种预训练语言模型,如InternLM 2.5和Qwen 2.5,使用随机初始化的MLP projector。InternVL 2.5系列模型在多模态任务上展现出卓越的性能,包括图像和视频理解、多语言理解等。
InternVL2_5-1B

InternVL2_5-1B

InternVL 2.5是一系列先进的多模态大型语言模型(MLLM),它在InternVL 2.0的基础上,通过引入显著的训练和测试策略增强以及数据质量提升,保持了其核心模型架构。该模型集成了新增量预训练的InternViT与各种预训练的大型语言模型(LLMs),如InternLM 2.5和Qwen 2.5,使用随机初始化的MLP投影器。InternVL 2.5支持多图像和视频数据,通过动态高分辨率训练方法,增强了模型处理多模态数据的能力。
SmolVLM-256M-Instruct

SmolVLM-256M-Instruct

SmolVLM-256M 是由 Hugging Face 开发的多模态模型,基于 Idefics3 架构,专为高效处理图像和文本输入而设计。它能够回答关于图像的问题、描述视觉内容或转录文本,且仅需不到 1GB 的 GPU 内存即可运行推理。该模型在多模态任务上表现出色,同时保持轻量化架构,适合在设备端应用。其训练数据来自 The Cauldron 和 Docmatix 数据集,涵盖文档理解、图像描述等多领域内容,使其具备广泛的应用潜力。目前该模型在 Hugging Face 平台上免费提供,旨在为开发者和研究人员提供强大的多模态处理能力。

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...