清华第二代60亿参数ChatGLM2开源!中文榜居首,碾压GPT-4,推理提速42%

sxkk20082年前智能百科125
ChatGLM-6B 自从三月份问世之后,引起了 AI 社区的轰动,至今已在 GitHub 上收获了 29.8k 颗星。然而,现在第二代的 ChatGLM 已经悄然而至!清华大学知识工程与数据挖掘小组(THUDM)最近发布了一款中英双语对话模型——ChatGLM2-6B。

ChatGLM-6B 自从三月份问世之后,引起了 AI 社区的轰动,至今已在 GitHub 上收获了 29.8k 颗星。然而,现在第二代的 ChatGLM 已经悄然而至!清华大学知识工程与数据挖掘小组(THUDM)最近发布了一款中英双语对话模型——ChatGLM2-6B。

值得一提的是,在中文评估榜单 C-Eval 中,ChatGLM2 以突出的 71.1 分位居榜首,轻松超越 GPT-4。而最新版本的 ChatGLM2-6B 更是以 51.7 分的优异成绩登上了第六名的宝座。


清华第二代 60 亿参数 ChatGLM2 开源!中文榜居首,碾压 GPT-4,推理提速 42%

ChatGLM-6B 的第二代版本,在继承了初代模型流畅对话和低门槛部署等许多优秀特性的基础上,引入了许多令人振奋的新特性:


1. 超强的性能


基于初代模型的开发经验,ChatGLM2-6B 的基座模型经过全面升级。ChatGLM2-6B 使用了混合目标函数的 GLM,经过了 1.4T 中英标识符的预训练并与人类偏好进行对齐训练。


评测结果表明,与初代模型相比,ChatGLM2-6B 在 MMLU(增长 23%)、 CEval(增长 33%)、 GSM8K(增长 571%)和 BBH(增长 60%)等数据集上取得了巨大的性能提升,在同尺寸的开源模型中具有强大的竞争力。

2. 更广泛的上下文


基于 FlashAttention 技术,研究人员将基座模型的上下文长度从 ChatGLM-6B 的 2K 扩展到了 32K,并且在对话阶段使用 8K 的上下文长度进行训练,使得更多轮的对话成为可能。然而,目前版本的 ChatGLM2-6B 对于单轮超长文档的理解能力还有限,这将在后续的迭代升级中进行重点优化。


3. 更高效的推理


基于 Multi-Query Attention 技术,ChatGLM2-6B 具有更高效的推理速度和更低的显存占用。在官方模型实现下,推理速度相比初代提升了 42%,在 INT4 量化下,可以支持的对话长度从 1K 提升到了 8K,仅使用了 6G 的显存。

4. 更开放的授权协议


ChatGLM2-6B 权重完全对学术研究开放,并允许商业使用,前提是获得官方的书面许可。

与初代模型相比,ChatGLM2-6B 在多个方面的能力都取得了巨大的提升。


与此同时,研究团队选取了部分中英文典型数据集进行评测并发布了 ChatGLM2-6B 模型在 MMLU(英文)、 C-Eval(中文)、 GSM8K(数学)、 BBH(英文) 上的测评结果。此外,该团队还对比了生成 2000 个字符的平均速度,其效果如下图所示:

清华第二代 60 亿参数 ChatGLM2 开源!中文榜居首,碾压 GPT-4,推理提速 42%


清华大学发布了第二代规模达 60 亿参数的 ChatGLM2,该模型在中文领域表现出众,远超过了 GPT-4,推理速度提高了 42%。ChatGLM2-6B 采用 Multi-Query Attention 技术,极大地提升了生成速度,同时还有效降低了生成过程中 KV Cache 的显存占用。

除此之外,ChatGLM2-6B 采用了 Causal Mask 技术进行对话训练,使连续对话时能够重复利用之前轮次的 KV Cache,进一步优化了显存占用。


因此,使用 6GB 显存的显卡进行 INT4 量化的推理时,一代的 ChatGLM-6B 模型最多能够生成 1119 个字符就会提示显存耗尽,而 ChatGLM2-6B 能够至少生成 8192 个字符。研究团队还对量化对模型性能的影响进行了测试,结果显示量化对模型性能的影响在可接受范围内。


项目地址:https://github.com/ THUDM / ChatGLM2-6B

HuggingFace:https://huggingface.co/THUDM/chatglm2-6b

相关文章

Ghostwrite插件,AI聊天驱动的 AI 电子邮件写作助手

Ghostwrite插件,AI聊天驱动的 AI 电子邮件写作助手

Ghostwrite 插件是一款由 AI 聊天驱动的 AI 电子邮件写作助手,该插件支持使用人工智能来自动化写作过程,只需几句话即可立即回复、撰写和撰写电子邮件,让用户可以将更多时间花在重要的事情上。...

贝壳杭州站升级一站式服务:二手房交易迈入“便捷安心”新时代

贝壳杭州站升级一站式服务:二手房交易迈入“便捷安心”新时代

 二手房交易是关乎买卖双方两个家庭的大事,但也是面临诸多费心的“麻烦事”。理想中的交易场景应是高效且无忧的——资金与房产即时交割,...

用於搜索的 AI聊天插件,在Chrome弹出窗口中使用AI聊天

用於搜索的 AI聊天插件,在Chrome弹出窗口中使用AI聊天

用於搜索的 AI 聊天插件支持在 Chrome 浏览器中的 Google 搜索、 Gmail 、 LinkedIn 、 Github 以及在线搜索或撰写的任何其他地方通过弹出窗口中快速访问 OpenA...

AI聊天 Prompts插件,用于 AI聊天模型的网页提示示例

AI聊天 Prompts插件,用于 AI聊天模型的网页提示示例

AI 聊天 Prompts 插件是一款用于 AI 聊天模型的提示示例,适用于 Chrome 浏览器,使用 AI 聊天时,直接在文本区域或要保存的提示中键入内容,即可快速生成继续对话或扩展给定提示的响应...

GPT-4最强对手!Claude 2震撼发布:免费、史诗级提升

GPT-4最强对手!Claude 2震撼发布:免费、史诗级提升

OpenAI 发布了 GPT-4 的 API 和令人兴奋的“最强插件”代码解释器,这无疑给竞争对手们敲响了警钟。而最近,Anthropic 旗下的 Claude 揭开了它的第二代面纱(限于美国和英国的...

大模型加速涌向移动端!ControlNet 手机出图只需 12 秒,高通 AI 掌门人:LLaMA 也只是时间问题

大模型加速涌向移动端!ControlNet 手机出图只需 12 秒,高通 AI 掌门人:LLaMA 也只是时间问题

大规模模型的革新浪潮正在迅猛地涌向移动应用领域。不久前,在 MWC 上,高通公司展示了一项引人瞩目的技术:仅用 15 秒的时间,通过手机运行稳定扩散算法,即可生成精美的图片。大规模模型的革新浪潮正在迅...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。