Qwen2.5-Coder-32B

11个月前发布 16 00

Qwen2.5-Coder-32B是基于Qwen2.5的代码生成模型,拥有32亿参数,是目前开源代码语言模型中参数最多的模型之一。它在代码生成、代码推理和代码修复方面有显著提升,能够处理长达128K tokens的长文本,适用于代码代理等实际应用场景。该模型在数学和通用能力上也保持了优势,支持长文本处理,是开发者在进行代码开发时的强大助手...

收录时间:
2025-06-02
Qwen2.5-Coder-32BQwen2.5-Coder-32B

Qwen2.5-Coder-32B是基于Qwen2.5的代码生成模型,拥有32亿参数,是目前开源代码语言模型中参数最多的模型之一。它在代码生成、代码推理代码修复方面有显著提升,能够处理长达128K tokens的长文本,适用于代码代理等实际应用场景。该模型在数学和通用能力上也保持了优势,支持长文本处理,是开发者在进行代码开发时的强大助手。

数据统计

相关导航

Qwen2.5-Coder-3B-Instruct-GPTQ-Int4

Qwen2.5-Coder-3B-Instruct-GPTQ-Int4

Qwen2.5-Coder是Qwen大型语言模型的最新系列,专为代码生成、推理和修复而设计。该模型基于Qwen2.5,扩展了训练令牌至5.5万亿,包括源代码、文本代码基础、合成数据等。Qwen2.5-Coder-32B是目前开源代码LLM中的佼佼者,其编码能力与GPT-4o相匹配。此模型为GPTQ-量化的4位指令调优3B参数Qwen2.5-Coder模型,具有因果语言模型、预训练和后训练阶段、transformers架构等特点。
EXAONE-3.5-2.4B-Instruct-AWQ

EXAONE-3.5-2.4B-Instruct-AWQ

EXAONE-3.5-2.4B-Instruct-AWQ是由LG AI Research开发的一系列双语(英语和韩语)指令调优生成模型,参数范围从2.4B到32B。这些模型支持长达32K令牌的长上下文处理,并且在真实世界用例和长上下文理解方面展现出最先进的性能,同时在与近期发布的类似大小模型相比,在通用领域保持竞争力。该模型在部署到小型或资源受限设备上进行了优化,并且采用了AWQ量化技术,实现了4位群组权重量化(W4A16g128)。
Aya Expanse 32B

Aya Expanse 32B

Aya Expanse 32B是由Cohere For AI开发的多语言大型语言模型,拥有32亿参数,专注于提供高性能的多语言支持。它结合了先进的数据仲裁、多语言偏好训练、安全调整和模型合并技术,以支持23种语言,包括阿拉伯语、中文(简体和繁体)、捷克语、荷兰语、英语、法语、德语、希腊语、希伯来语、印地语、印尼语、意大利语、日语、韩语、波斯语、波兰语、葡萄牙语、罗马尼亚语、俄语、西班牙语、土耳其语、乌克兰语和越南语。该模型的发布旨在使社区基础的研究工作更加易于获取,通过发布高性能的多语言模型权重,供全球研究人员使用。
DeepSeek提示库

DeepSeek提示库

DeepSeek提示库是一个强大的工具,通过提供多种提示词样例,帮助用户快速实现代码生成、改写、解释等功能。它还支持内容分类、结构化输出、文案创作等多种应用场景。该工具的主要优点是高效、灵活且易于使用,能够显著提升工作效率。DeepSeek提示库面向开发者、内容创作者和需要高效工具的用户,提供丰富的功能支持,帮助他们快速解决问题。目前,该产品可能需要付费使用,具体价格需根据官方平台信息确认。

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...