1句指令+5美元+20分钟,就能训练出小型专业模型,Prompt2Model了解一下

标签: 指令 美元 训练 | 发表时间:2023-08-31 17:10 | 作者:机器之心
出处:https://www.jiqizhixin.com/

大规模语言模型(LLM)使用户可以借助提示和上下文学习来构建强大的自然语言处理系统。然而,从另一角度来看,LLM 在特定自然语言处理任务上表现存在一定退步:这些模型的部署需要大量计算资源,并且通过 API 与模型进行交互可能引发潜在的隐私问题。

为了应对这些问题,来自卡内基梅隆大学(CMU)和清华大学的研究人员,共同推出了 Prompt2Model 框架。该框架的目标是将基于 LLM 的数据生成和检索方法相结合,以克服上述挑战。使用 Prompt2Model 框架,用户只需提供与 LLM 相同的提示,即可自动收集数据并高效地训练适用于特定任务的小型专业模型。

研究人员在三个自然语言处理子任务上进行了实验。采用少量样本提示作为输入,仅需花费 5 美元收集数据并进行 20 分钟的训练,Prompt2Model 框架生成的模型在性能上相较强大的 LLM 模型 gpt-3.5-turbo 表现出 20% 的性能提升。与此同时,模型的体积缩小了高达 700 倍。研究人员进一步验证了这些数据在真实场景中对模型效果的影响,使得模型开发人员能够在部署前预估模型的可靠性。该框架已以开源形式提供:

图片

  • 框架的 GitHub 仓库地址:https://github.com/neulab/prompt2model

  • 框架演示视频链接:youtu.be/LYYQ_EhGd-Q

  • 框架相关论文链接:https://arxiv.org/abs/2308.12261

背景

从零开始建立特定自然语言处理任务系统通常相当复杂。系统的构建者需要明确定义任务范围,获取特定的数据集,选择合适的模型架构,进行模型训练和评估,然后将其部署以供实际应用。

大规模语言模型(LLM)如 GPT-3 为这一过程提供了更加简便的解决方案。用户只需提供任务提示(instruction)以及一些示例(examples),LLM 便能生成相应的文本输出。然而,通过提示生成文本可能会消耗大量计算资源,并且使用提示的方式不如经过专门训练的模型稳定。此外,LLM 的可用性还受到成本、速度和隐私等方面的限制。

为了克服这些问题,研究人员开发了 Prompt2Model 框架。该框架将基于 LLM 的数据生成与检索技术相结合,以解决上述限制。该系统首先从 prompt 中提取关键信息,然后生成并检索训练数据,最终生成可供部署的专业化模型。

Prompt2Model 框架自动执行以下核心步骤:

  • 数据集与模型检索:收集相关数据集和预训练模型。

  • 数据集生成:利用 LLM 创建伪标记数据集。

  • 模型微调:通过混合检索数据和生成数据对模型进行微调。

  • 模型测试:在测试数据集和用户提供的真实数据集上对模型进行测试。

经过多个不同任务的实证评估,Prompt2Model 所花费成本显著降低,模型的体积也大幅缩小,但性能超越了 gpt-3.5-turbo。Prompt2Model 框架不仅可作为高效构建自然语言处理系统的工具,还可用作探索模型集成训练技术的平台。

图片

框架 

图片



Prompt2Model 框架的核心特点为高度自动化。其流程涵盖了数据收集、模型训练、评估和部署等多个环节,如上图所示。其中,自动化数据收集系统扮演了关键角色,它通过数据集检索和基于 LLM 的数据生成,获取与用户需求密切相关的数据。接着,系统会检索预训练模型,并在获取的数据集上进行微调。最后,系统会在测试集上对经过训练的模型进行评估,并创建用于与模型交互的 Web 用户界面(UI)。

Prompt2Model 框架的关键特点包括:

  • Prompt 驱动:Prompt2Model 的核心思想在于使用 prompt 作为驱动,用户可以直接描述所需的任务,而无需深入了解机器学习的具体实现细节。

  • 自动数据收集:框架通过数据集检索和生成技术来获取与用户任务高度匹配的数据,从而建立训练所需的数据集。

  • 预训练模型:框架利用预训练模型并进行微调,从而节省大量的训练成本和时间。

  • 效果评估:Prompt2Model 支持在实际数据集上进行模型测试和评估,使得在部署模型之前就能进行初步预测和性能评估,从而提高了模型的可靠性。

这些特点使 Prompt2Model 框架成为一个强大的工具,能够高效地完成自然语言处理系统的构建过程,并且提供了先进的功能,如数据自动收集、模型评估以及用户交互界面的创建。

实验与结果

在实验设计方面,研究者选择了三项不同的任务,以评估 Prompt2Model 系统的性能:

  • 机器阅读问答(Machine Reading QA):使用 SQuAD 作为实际评估数据集。

  • 日语自然语言到代码转换(Japanese NL-to-Code):使用 MCoNaLa 作为实际评估数据集。

  • 时间表达式规范化(Temporal Expression Normalization):使用 Temporal 数据集作为实际评估数据集。

此外,研究者还选用了 GPT-3.5-turbo 作为基准模型进行对比。实验结果得出以下结论:

  • 在除了代码生成任务之外的各项任务中,Prompt2Model 系统所生成的模型明显优于基准模型 GPT-3.5-turbo,尽管生成的模型参数规模远小于 GPT-3.5-turbo。

  • 通过将检索数据集与生成数据集进行混合训练,可以达到与直接使用实际数据集训练相媲美的效果。这验证了 Prompt2Model 框架能够极大地降低人工标注的成本。

  • 数据生成器所生成的测试数据集能够有效区分不同模型在实际数据集上的性能。这表明生成的数据具有较高的质量,在模型训练方面具有充分的效果。

  • 在日语到代码转换任务中,Prompt2Model 系统的表现不如 GPT-3.5-turbo。

这可能是因为生成的数据集质量不高,以及缺乏适当的预训练模型等原因所致。

综合而言,Prompt2Model 系统在多个任务上成功生成了高质量的小型模型,极大地减少了对人工标注数据的需求。然而,在某些任务上仍需要进一步改进。

图片


图片


总结

研究团队所推出的 Prompt2Model 框架实现了仅通过自然语言提示来自动构建任务特定模型的功能。这一创新显著地降低了构建定制化自然语言处理模型的门槛,进一步扩展了 NLP 技术的应用范围。

验证实验结果显示,Prompt2Model 框架所生成的模型相较于大型语言模型,其规模显著减小,且在多个任务上表现优于诸如 GPT-3.5-turbo 等模型。同时,该框架生成的评估数据集也被证实能够有效评估不同模型在真实数据集上的性能。这为指导模型的最终部署提供了重要价值。

Prompt2Model 框架为行业和广大用户提供了一种低成本、易于上手的途径,以获取满足特定需求的 NLP 模型。这对于推动 NLP 技术的广泛应用具有重要意义。未来的工作将继续致力于进一步优化框架的性能。

按照文章顺序,本文作者如下:

Vijay Viswanathan: http://www.cs.cmu.edu/~vijayv/

Chenyang Zhao: https://zhaochenyang20.github.io/Eren_Chenyang_Zhao/

Amanda Bertsch: https://www.cs.cmu.edu/~abertsch/

Tongshuang Wu: https://www.cs.cmu.edu/~sherryw/

Graham Neubig: http://www.phontron.com/

相关 [指令 美元 训练] 推荐:

1句指令+5美元+20分钟,就能训练出小型专业模型,Prompt2Model了解一下

- - 机器之心
大规模语言模型(LLM)使用户可以借助提示和上下文学习来构建强大的自然语言处理系统. 然而,从另一角度来看,LLM 在特定自然语言处理任务上表现存在一定退步:这些模型的部署需要大量计算资源,并且通过 API 与模型进行交互可能引发潜在的隐私问题. 为了应对这些问题,来自卡内基梅隆大学(CMU)和清华大学的研究人员,共同推出了 Prompt2Model 框架.

Leetcode 编程训练

- - 酷 壳 - CoolShell.cn
Leetcode这个网站上的题都是一些经典的公司用来面试应聘者的面试题,很多人通过刷这些题来应聘一些喜欢面试算法的公司,比如:Google、微软、Facebook、Amazon之类的这些公司,基本上是应试教育的功利主义. 我做这些题目的不是为了要去应聘这些公司,而是为了锻炼一下自己的算法和编程能力.

我的听力训练之路

- moz - 学习力就是竞争力
舍得上初中那会,基本谈不上什么听力训练,最多最多就是英语老师拿了个录音机让大家做听写,听的通常是单词.就算如此,舍得初中四年的英语听力训练加在一起不会超过两个小时.. 初中毕业后舍得上的是技校,学的是热处理专业,根本就没有英语这一科,哈哈.技校毕业就进了工厂,玩了三年后才觉得该学学英语了.于是买了个爱华录音机,买了一套新概念英语的磁带,就开始听起来了.那时候年轻贪玩,加上基础差,没有坚持下来..

训练免疫系统杀死癌症

- 微笑!?~ - Solidot
一年前,当化疗对白血病也无效时,65岁的William Ludwig签署协议参与了宾夕法尼亚大学的一项大胆的实验. 医生抽取出10亿T细胞——对抗病毒和肿瘤的白细胞——为T细胞加入能编程细胞去攻击癌细胞的新基因,然后这些修改过的细胞被重新滴入Ludwig的静脉. 他浑身发冷颤,然后体温上升,血压下降,最后他被医生送入重病特别护理室,向其家人发出去世警告.

胜利还得靠“精神训练法”

- Clover - 果壳网 guokr.com - 果壳网
机会常常只有一次,只许成功不许失败. 你竭尽全力奔向目标,努力准备每一个细节,可是当机会来了,却发现准备有余,熟练不足. 明明已经写在笔记本上的要点,发言时一紧张又忘了说. 怎样才能把握住这些难得的表现机会,让自己熟练发挥呢. 对此,运动心理学提倡使用“精神训练法”(mental practice),简单说就是在脑子里把事情过一遍.

38种摄影基本功训练

- freefish - 佳人
摄影,除了拥有好装备,良好的运气,超凡的耐心之外,更有有一手过硬的摄影技巧,分享摄影基本功训练,文末提供摄影基本功训练全文阅读. 被摄体:一般风景、花卉、城市建筑等冲击力较强的景物. 建 议:首先使用广角镜头:24MM—35MM拍摄,光圈:F11—16,光圈优先AE模式. 要 求:只把焦点对在主要被摄体上,浅景深.

怎样训练写故事的能力?

- - 知乎每日精选
介是个好问题,又到了半夜写知乎的时间啦~. 我的以下答案,都是基于如何训练 戏剧性故事创作,用 戏剧创作的方法和经验来谈一谈故事创作,希望可以给题主一些帮助. 首先要说一说,戏剧性,啥叫戏剧性呢. 抛开资料论述,我个人最喜欢的一个解读为——. 那为什么要强调故事创作的戏剧性呢. 因为戏剧性满足了人自身对故事的渴望和期待习惯.

软件天才都是训练出来的

- Weiye - cnBeta全文版
作者金旭亮发表了自己对薛涌《天才是训练出来的》的心得体会,以下是文章内容:长期以来,“软件业”一直被视为“智力密集”型的“朝阳”产业,大多数从业者都受过高等教育,其平均素质居于社会各行业的前列,这个产业的顶尖人物被公众视为“知识英雄”,比如微软公司的创始人比尔盖茨雄据世界首富之位多年,更是为人“津津乐道”.

克制训练你的“意志力”肌肉 : NPR

- Kione - 东西
克制诱惑的力量——推开甜点,忍住难受,推迟满足感-这是我们“伟大的人类力量,”心理学家Roy F. Baumeister和科技作家John Tierney在他们的新书<意志力>里讨论的话题. 这本书深入研究了我们为自控所作的古老斗争的科学. 在维多利亚时代就谈论过这种模糊的精神能量形式的概念,Tierney告诉NPR的Audie Cornish,“在最近15年我们重新发现大脑里真的存在一种能量形式.

译言首期翻译训练营招生公告

- Bob - 译言-每日精品译文推荐
第一期译言训练营(英译中)就要开始了. 为回报社区译者,译言计划定期为译言网和东西网的用户提供免费翻译培训. 实战 抛开枯燥的教科书,挑战生动有趣、埋伏重重的英文原文,保准无情地暴露你的弱点. 精评 词汇错译、文化隔阂、思维误区,我们将逐字逐句阅读你的译文,一对一指出问题. 切磋 古有一字之师,今有译言训练营,译言将是你结交良师益友的绝佳平台.