ViTLP

3个月前发布 1 00

ViTLP是一个视觉引导的生成文本布局预训练模型,旨在提高文档智能处理的效率和准确性。该模型结合了OCR文本定位和识别功能,能够在文档图像上进行快速准确的文本检测和识别。ViTLP模型的预训练版本ViTLP-medium(380M参数)在计算资源和预训练数据集规模的限制下,提供了一个平衡的解决方案,既保证了模型的性能,又优化了推理速度和内...

收录时间:
2025-05-30

ViTLP是一个视觉引导的生成文本布局预训练模型,旨在提高文档智能处理的效率和准确性。该模型结合了OCR文本定位和识别功能,能够在文档图像上进行快速准确的文本检测和识别。ViTLP模型的预训练版本ViTLP-medium(380M参数)在计算资源和预训练数据集规模的限制下,提供了一个平衡的解决方案,既保证了模型的性能,又优化了推理速度和内存使用。ViTLP的推理速度在Nvidia 4090上处理一页文档图像通常在5到10秒内,与大多数OCR引擎相比具有竞争力。

数据统计

相关导航

kreuzberg

kreuzberg

Kreuzberg是一个现代Python库,专注于从各种文档中提取文本。它通过简洁的API和本地处理能力,为用户提供高效的文本提取解决方案。该库支持多种文件格式,包括PDF、图像、办公文档等,无需复杂的配置或外部API调用。它采用异步接口设计,提高了处理效率,同时保持了轻量级的资源占用。Kreuzberg适用于需要本地化文本提取的场景,如RAG应用等,其主要优点是简单易用、资源高效且功能强大。
Aria-Base-64K

Aria-Base-64K

Aria-Base-64K是Aria系列的基础模型之一,专为研究目的和继续训练而设计。该模型在长文本预训练阶段后形成,经过33B个token(21B多模态,12B语言,69%为长文本)的训练。它适合于长视频问答数据集或长文档问答数据集的继续预训练或微调,即使在资源有限的情况下,也可以通过短指令调优数据集进行后训练,并转移到长文本问答场景。该模型能够理解多达250张高分辨率图像或多达500张中等分辨率图像,并在语言和多模态场景中保持强大的基础性能。
ModernBERT-base

ModernBERT-base

ModernBERT-base是一个现代化的双向编码器Transformer模型,预训练于2万亿英文和代码数据,原生支持长达8192个token的上下文。该模型采用了Rotary Positional Embeddings (RoPE)、Local-Global Alternating Attention和Unpadding等最新架构改进,使其在长文本处理任务中表现出色。ModernBERT-base适用于需要处理长文档的任务,如检索、分类和大型语料库中的语义搜索。模型训练数据主要为英文和代码,因此可能在其他语言上的表现会有所降低。
Excerptor

Excerptor

Excerptor是一个专门设计来从实体书籍中提取划线或手写标记文本的工具。它通过图像处理和光学字符识别技术,将书籍中的标记文本转换为数字格式,方便用户编辑和保存。这项技术的重要性在于它能够帮助用户快速从大量书籍中提取关键信息,提高研究和学习的效率。Excerptor以其高效、准确的文本识别能力和用户友好的操作界面,满足了学术研究、教育和个人学习等不同领域的需求。目前,Excerptor是免费提供给用户的,它的开发和维护由开源社区负责。

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...