用户8537用户8537模型 | 介绍 | 上下文token数 | 代码链接 | 模型权重下载链接 |
ChatGLM3-6B | 第三代 ChatGLM 对话模型。ChatGLM3-6B 采用了全新设计的 Prompt 格式,除正常的多轮对话外。同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。 | 8K | | |
ChatGLM3-6B-base | 第三代ChatGLM基座模型。ChatGLM3-6B-Base 采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度的数据集上测评显示,ChatGLM3-6B-Base 具有在 10B 以下的基础模型中最强的性能。 | 8K | | |
ChatGLM3-6B-32k | 第三代ChatGLM长上下文对话模型。在ChatGLM3-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。 | 32K | | |
ChatGLM2-6B | 第二代 ChatGLM 对话模型。相比一代模型,具有更强的性能,且其基座模型的上下文长度从 2k 扩展到 32k,并在对话阶段使用 8K 的上下文长度训练。推理速度相比初代提升42%。 | 8K | ||
ChatGLM2-6B-int4 | ChatGLM2-6B的 int4 量化版本,具备最小 5.1GB 显存即可运行。INT4 量化下,6G 显存支持的对话长度由 1K 提升到了 8K。 | 8K | | |
ChatGLM2-6B-32k | 第二代 ChatGLM 长上下文对话模型。ChatGLM2-6B-32K在ChatGLM2-6B 的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。具体地,我们基于位置插值(Positional Interpolation)的方法对位置编码进行了更新,并在对话阶段使用 32K 的上下文长度训练。在实际的使用中,如果您面临的上下文长度基本在 8K 以内,我们推荐使用ChatGLM2-6B;如果您需要处理超过 8K 的上下文长度,我们推荐使用ChatGLM2-6B-32K。 | 32K | | |
ChatGLM2-6B-32k-int4 | ChatGLM2-6B-32K的int4版本 | 32K | | |
ChatGLM-6B | 第一代 ChatGLM 对话模型。支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署。 | 2K | ||
ChatGLM-6B-int4 | 2K | | ||
ChatGLM-6B-int8 | ChatGLM-6B的Int8版本 | 2K | | |
AgentLM-7B | 1. 我们提出了一种 AgentTuning 的方法; 2. 我们开源了包含 1866 个高质量交互、6 个多样化的真实场景任务的 Agent 数据集 AgentInstruct 3. 基于上述方法和数据集,我们利用 Llama2 微调了具备超强 Agent 能力的 AgentLM-7B、AgentLM-13B、AgentLM-70B。 | 4K | ||
AgentLM-13B | | 4K | | |
AgentLM-70B | | 8K | |
模型 | 介绍 | 代码链接 | 模型下载 |
CogAgent-18B | 基于 CogVLM-17B 改进的开源视觉语言模型。CogAgent-18B 拥有110亿视觉参数和70亿语言参数,支持 1120*1120 分辨率的图像理解,在CogVLM功能的基础上,具备GUI图像的Agent能力。 | ||
CogVLM-17B | 强大的开源视觉语言模型(VLM)。基于对视觉和语言信息之间融合的理解,CogVLM 可以在不牺牲任何 NLP 任务性能的情况下,实现视觉语言特征的深度融合。我们训练的 CogVLM-17B是目前多模态权威学术榜单上综合成绩第一的模型,在14个数据集上取得了state-of-the-art或者第二名的成绩。 | | |
Visualglm-6B | VisualGLM-6B 是一个开源的,支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM-6B,具有 62 亿参数;图像部分通过训练 BLIP2-Qformer 构建起视觉模型与语言模型的桥梁,整体模型共78亿参数。 | | |
RDM | Relay Diffusion Model:级联扩散模型,可以从任意给定分辨率的图像快速生成,而无需从白噪声生成。 | RDM | |