Klang(金浪)AI量化论坛

    • 注册
    • 登录
    • 版块
    • 最新
    • 标签
    • 热门
    • 用户
    • 群组

    大模型 tuning的几种方法

    AI研究
    1
    1
    234
    正在加载更多帖子
    • 从旧到新
    • 从新到旧
    • 最多赞同
    回复
    • 在新帖中回复
    登录后回复
    此主题已被删除。只有拥有主题管理权限的用户可以查看。
    • A
      asmcos 管理员 最后由 编辑

      除了Instruction Tuning,还有其他的tuning方法,例如:

      Fine-tuning:一种利用人工标注的数据来微调大模型的方法,目的是提高模型在特定任务或领域上的性能和安全性。Fine-tuning通常只能针对特定任务或领域进行微调,而不能跨越多个任务或领域12。
      Prompt-tuning:一种利用短文本字符串来指导大模型生成响应的方法,目的是发掘模型本身具备的知识和生成能力。Prompt-tuning可以提供上下文和任务相关信息,以帮助模型更好地理解要求,并生成正确的输出。Prompt-tuning可以在没有精调的模型上也能有一定效果,但是需要设计精巧的prompt123。
      Chain-of-thought:一种处理复杂问题或执行多步骤任务的技巧,通常用于大型预训练语言模型中。Chain-of-thought允许模型在多个步骤中生成连贯的回答,从而更好地解决问题或完成任务。Chain-of-thought可以结合prompt或instruction来指导模型生成输出1。
      如果您想了解更多关于tuning方法的相关知识,您可以参考以下网页:

      实际案例说明AI时代大语言模型三种训练技术及其区别——Prompt-Tuning、Instruction-Tuning和Chain-of-Thought
      Instruction Tuning|谷歌Quoc V.Le团队提出又一精调范式
      打开模型Zero-Shot新范式:Instruction Tuning

      1 条回复 最后回复 回复 引用 0
      • First post
        Last post