网站首页 > 资源文章 正文
IT之家 12 月 28 日消息,谷歌 DeepMind 团队最新推出了“可微缓存增强”(Differentiable Cache Augmentation)的新方法,在不明显额外增加计算负担的情况下,可以显著提升大语言模型的推理性能。
项目背景
IT之家注:在语言处理、数学和推理领域,大型语言模型(LLMs)是解决复杂问题不可或缺的一部分。
计算技术的增强侧重于使 LLMs 能够更有效地处理数据,生成更准确且与上下文相关的响应,随着这些模型变得复杂,研究人员努力开发在固定计算预算内运行而不牺牲性能的方法。
优化 LLMs 的一大挑战是它们无法有效地跨多个任务进行推理或执行超出预训练架构的计算。
当前提高模型性能的方法涉及在任务处理期间生成中间步骤,但代价是增加延迟和计算效率低下。这种限制阻碍了他们执行复杂推理任务的能力,特别是那些需要更长的依赖关系或更高地预测准确性的任务。
项目介绍
“可微缓存增强”(Differentiable Cache Augmentation)采用一个经过训练的协处理器,通过潜在嵌入来增强 LLM 的键值(kv)缓存,丰富模型的内部记忆,关键在于保持基础 LLM 冻结,同时训练异步运行的协处理器。
整个流程分为 3 个阶段,冻结的 LLM 从输入序列生成 kv 缓存;协处理器使用可训练软令牌处理 kv 缓存,生成潜在嵌入;增强的 kv 缓存反馈到 LLM,生成更丰富的输出。
在 Gemma-2 2B 模型上进行测试,该方法在多个基准测试中取得了显著成果。例如,在 GSM8K 数据集上,准确率提高了 10.05%;在 MMLU 上,性能提升了 4.70%。此外,该方法还降低了模型在多个标记位置的困惑度。
谷歌 DeepMind 的这项研究为增强 LLMs 的推理能力提供了新的思路。通过引入外部协处理器增强 kv 缓存,研究人员在保持计算效率的同时显著提高了模型性能,为 LLMs 处理更复杂的任务铺平了道路。
猜你喜欢
- 2025-01-02 谷歌升级安卓15跨Pixel设备通知,支持蜂窝网络同步
- 2025-01-02 谷歌升级Play Integrity API:判定延迟缩短80%,侧载应用将受限
- 2025-01-02 消息称谷歌正酝酿新一轮裁员风暴,低绩效员工比例提至10%
- 2025-01-02 谷歌拓展Gemini AI深度研究模式,支持中文等40+ 语言
- 2025-01-02 Google Play和App Store应用商店中APP名称ASO优化七大指南
- 2025-01-02 普京:谷歌和YouTube应遵守俄法律,而不是为实现自己国家政府目的而滥用网络
- 2025-01-02 谷歌ChromeOS 131发布:引入安全重置、改进辅助功能等
- 2025-01-02 面临激烈的AI竞争和监管障碍,谷歌将2025年视为“颠覆性时刻”
- 2025-01-02 Google Photos 推出 2024 重温回忆功能
- 2025-01-02 Google与XREAL达成战略合作 共同打造Android XR生态
你 发表评论:
欢迎- 最近发表
- 标签列表
-
- 电脑显示器花屏 (79)
- 403 forbidden (65)
- linux怎么查看系统版本 (54)
- 补码运算 (63)
- 缓存服务器 (61)
- 定时重启 (59)
- plsql developer (73)
- 对话框打开时命令无法执行 (61)
- excel数据透视表 (72)
- oracle认证 (56)
- 网页不能复制 (84)
- photoshop外挂滤镜 (58)
- 网页无法复制粘贴 (55)
- vmware workstation 7 1 3 (78)
- jdk 64位下载 (65)
- phpstudy 2013 (66)
- 卡通形象生成 (55)
- psd模板免费下载 (67)
- shift (58)
- localhost打不开 (58)
- 检测代理服务器设置 (55)
- frequency (66)
- indesign教程 (55)
- 运行命令大全 (61)
- ping exe (64)
本文暂时没有评论,来添加一个吧(●'◡'●)