继今年五月发布的首个千亿参数大模型 OPT-175B 后,Meta 又重磅推出「升级版」OPT-IML,这次有何提升?
今年五月,MetaAI 官宣发布了基于 1750 亿参数的超大模型 OPT-175B,还对所有社区免费开放。
12 月 22 日,该模型的更新版本 OPT-IML(Open Pre-trained Transformer)正式上线,Meta 称其「对 2000 个语言任务进行了微调,包含 1750 亿个参数」,还将为非商业研究用途免费开放。
这次更新的 OPT-IML 的性能表现如何,先上两张图来看看。
这次的 OPT-IML 创建了两种模型尺寸,分别是 30B 和 175B。
与旧版 OPT 模型相比,OPT-IML 在 14 个标准 NLP 评估任务中的平均表现均优于 OPT。
在零次学习任务上两种模型大小分别好 7%~ 和 32-shot 任务分别好 4%~ 和 0.4%~。
在这项研究中,研究人员描述了增加模型和基准大小如何影响指令调整决策对下游任务性能的影响。
为此他们开发了 OPT-IML Bench,这是一个相当大的指令元学习 IML) 基准,包含 2000 个 NLP 任务,这些任务根据现有的八个基准分为任务类别。
为训练 OPT-IML 30B 和 175B,研究人员首先从该框架的角度对应用于 OPT-30B 的指令调优决策提出了见解。
在具有不同目标和输入格式的四个评估基准(PromptSource、FLAN、Super-NaturalInstructions 和 UnifiedSKG)上,OPT-IML 在两个尺度上展示了所有三种泛化技能。
它不仅在所有基准测试中显著优于 OPT,而且以极具竞争力的方式优于针对该特定基准优化的现有模型。
此外 OPT-IML 已经开源,Github 链接小编也放在下面啦~
接下来通过论文来一起了解一下 OPT-IML。
研究方法
大型语言模型的指令微调已成为增强其零样本和少样本泛化能力的有效方法。在这项研究中,Meta 研究人员对指令微调进行了三项重要的补充。
首先,他们编译了一个大规模的指令微调基准,其中包含来自八个数据集集合的 2,000 个 NLP 任务,按任务类型分类。
研究人员在此基准上有选择地构建评估拆分,以测试三种不同类型的模型泛化能力:
包括来自完全保留类别的任务(tasks from fully held-out categories)、来自已见类型的保留任务(held-out tasks from seen types)以及来自已见任务的保留实例(held-out instances from seen tasks)。
指令微调
对模型进行微调,以使它们与遵守说明保持一致,是目前机器学习的研究方向之一。
指令微调有两种方法。一种侧重于使用人工注释的指令和反馈对各种任务的模型进行微调;另一种,侧重于通过注释或自动向可公开访问的基准和数据集添加指令。
在本研究中,Meta AI 成员专注于第二种技术,并编译了许多可公开访问的数据集,其中包含改进 OPT 的方法。
研究过程中,Meta 成员使用来自四个基准的 1836 个任务,提出了类似的缩放方法。最后,在调整整个测试,以突破具有挑战性的外部基准(例如 MMLU 和 Big-Bench Hard BBH))性能极限的同时,研究人员描述了可能影响下游性能的各种指令调整策略的权值。
多任务学习
多任务学习是基于指令的微调 MTL) 的一种表述。
MTL 是一种流行的范例,当与共享可比较参数或表示的类似函数结合使用时,它可以提高任务的泛化性能。
近年来,MTL 已应用于众多 NLP 场景,主要侧重于通过利用来自相关活动的信号来提高训练任务或新领域的性能。
相比之下,基于指令的微调有助于我们提高对前所未见问题的泛化性能。它是通过指令将所有任务组合成一个概念并通过在所有任务上分配模型的权重来一起训练它们来实现的。
什么是 OPT?
大型语言模型,即具有超过 1000 亿个参数的自然语言处理系统,在过去几年中改变了 NLP 和 AI 研究。
这些模型接受了大量不同文本的训练,展现出令人惊讶的新能力,可以生成创意文本、解决基本数学问题、回答阅读理解问题等等。
虽然在某些情况下,公众可以通过付费 API 与这些模型进行交互,但完整的研究访问权限仍然仅限于少数资源丰富的实验室。
这种受限访问限制了研究人员理解这些大型语言模型如何工作以及为何工作的能力,阻碍了提高其鲁棒性和减轻偏见等已知问题的进展。
出于对开放科学的承诺,Meta AI 于今年 5 月发布了 Open Pretrained Transformer OPT-175B),这是一个具有 1750 亿参数的模型,在公共数据集上训练而成,之所以共享这个模型,Meta AI 希望更多的社区参与理解关于大模型的基本技术。
简单来说,Meta 将用于人工智能研究的大型语言模型访问权限开放给大众,从而实现大模型研究的人工智能民主化。
与老版对比
根据 Meta 现在发布的 IML 版本经过微调,在自然语言任务上的表现比旧版 OPT 更好。
典型的语言任务包括回答问题、总结文本和翻译。
为了进行微调,研究人员使用了大约 2000 个自然语言任务。这些任务分为八个 NLP 基准(OPT-IML Bench),研究人员也提供了这些基准。
平均而言,以 30B 和 175B 模型为例,OPT-IML 比 OPT 的零次学习准确度提高了约 6-7%。在 32 次学习中,300 亿参数的模型准确度有显著改进,1750 亿参数的模型有轻微改进。
经过对比,Meta 团队发现 OPT-IML 的性能在所有基准测试上都优于 OPT,并且在零样本和少样本学习准确度方面,比其他基于指令微调的模型更具有竞争力。
参考资料:
-
https://the-decoder.com/opt-iml-meta-releases-open-source-language-model-optimized-for-tasks/
-
https://wandb.ai/telidavies/ml-news/reports/OPT-IML-Meta-Releases-New-Instruction-Tuned-OPT-Models-NLP-Task-Benchmark–VmlldzozMjAzMzc1
本文来自微信公众号:新智元 (ID:AI_era),编辑:Joey、昕朋