人工智能模型是强大的工具,但如果您可以让其中一个成为您所在领域的真正专家呢? 

这就是微调发挥作用的地方。 

通过微调,您可以采用通用 AI 模型并进一步训练它,以专门针对您的独特用例,无论是:

  • 卫生保健
  • 金融
  • 教育,或者其他完全不同的东西。

阿里巴巴的 Qwen 2.5 就是一个值得探索的模型,这是一个专为各种任务而设计的强大且多功能的大型语言模型。 

要深入了解 Qwen 提供的所有功能及其重要性, 阿里巴巴法学硕士课程的细分 是一个很好的起点。

在本博客中,您将了解到:

  • 什么是微调?
  • 如何微调 Qwen 2.5(非技术方法)
  • 微调 Qwen 2.5 的最佳实践(您也可以将其应用于其他 LLM)

本指南将引导您完成整个微调过程,让初学者可以轻松轻松完成。

什么是微调以及为什么需要了解它?

微调是采用预先训练的模型并训练其至少一个内部参数(例如神经网络内的权重或偏差)的过程,以使其更适合您的特定需求。

让我们这样说吧:如果 Qwen 是一颗刚从煤矿中开采出来的钻石,那么微调就是将钻石切割和抛光成具有功能性的东西的过程,比如一枚钻石戒指。 

它吸收了原始形式的强大功能,并使其变得更加:

  • 实际的
  • 有目的的
  • 与特定用例相一致。

当 Qwen 这样的基础模型被改进为 Qwen 2.5 Max 之类的模型时,就会发生这种情况。 

结果如何? 

更准确、更高效、更适合实际应用的模型。

为什么微调很重要?

关键见解如下:较小、经过微调的模型通常可以胜过较大、通用的模型。 

OpenAI 首次通过其 InstructGPT 模型展示了这一点,并且至今仍然如此。

这是微调的最大优势之一。


您并不总是需要大量的通用 LLM 才能在特定任务中获得高性能。

你可以:

  • 采用开源模式
  • 通过笔记本电脑进行微调,

最好的部分是什么? 

您不需要成为开发人员或数据科学家。


如果您有一点技术知识,那么您就可以开始了。

为什么微调让法学硕士 (LLM) 真正有用

在接触过 LLM 之后,你可能已经注意到了这一点:它们非常适合解决一般性问题,但在处理特定领域的任务时就不那么敏锐了。

这就是微调真正发挥作用的地方。

当你看到 中国人工智能初创企业和科技巨头 正在利用微调来创建可与西方最佳模型相媲美的模型。

假设您希望模型表现得像保险索赔员。


您可以在回复时不断提醒它使用专业的语气和保险政策知识……

或者

您可以根据理赔员的谈话和工作方式的例子对其进行微调。


这样,该模型已经“知道” 如何行动——不需要不断的指示。

这正是通过微调实现的

  • 通过更短的提示获得更好、更清晰的响应
  • 响应时间更快(推理延迟更低)
  • 降低计算成本
  • 像专业人士一样理解您的领域的模型

微调的类型

微调模型的常见方法有 3 种:

  1. 自监督学习:

该模型通过预测文本的部分内容(例如缺失的单词)从未标记的数据中学习。

  1. 监督学习:

您为模型提供输入输出对(问题+正确答案)。

  1. 强化学习:

该模型通过获取反馈(如赞成/反对)进行学习,并相应地调整其行为。

什么是 Qwen 2.5 以及为什么使用它?

Qwen 2.5 是阿里巴巴开发的大型语言模型(LLM)。 

它是 Qwen 系列的一部分,该系列包括不同大小的模型,如 0.5B、7B 甚至 72B(“B”代表数十亿个参数)。

Qwen 模型有两种类型:

  1. 基础模型:

这些是原始的预训练模型。 

它们从大量数据中学习到了一般的语言模式,但还没有针对特定任务进行微调。 

例如: Qwen2.5-7B。

  1. 指令调整模型:

这些模型经过微调,可以遵循指令或像聊天机器人一样做出响应。 

他们接受了以下特定任务的培训:

  • 回答问题
  • 总结文本
  • 进行对话。 

例如:Qwen2.5-7B-Instruct。

如果你想知道阿里巴巴的做法与全球相比如何, OpenAI 与阿里巴巴法学硕士之间的正面交锋 提供有用的背景信息。

当您提到 Qwen 2.5 Max 时,您可能指的是 Qwen 2.5 系列的更大或更强大的版本。 

它可以是基本模型或指令调整模型,具体取决于您使用的版本。

如果您想根据自己的任务对 Qwen 进行微调(例如总结电子邮件或对客户支持票进行分类),通常需要从基础模型开始,然后使用自己的数据进一步训练它。 

但是,如果您正在构建聊天机器人或更具交互性的东西,那么从指令调整模型开始可能会让您的工作更轻松。

为什么要使用它?

除了上述所有酷炫的功能之外,我们还深入研究了实际用户的评价。 

还有评论吗? 

相当扎实:

  • “Qwen 2.5 将改变游戏规则。”
  • “Qwen Max 很棒。”
  • “它正在被忽视。”
  • “它使用起来很方便,而且免费——我一直在用它。”

因此,如果您是开发人员、研究人员或初创公司创始人,正在寻找智能、快速且灵活的 AI 模型,那么阿里巴巴 Qwen 2.5 Max 值得一试。

这些情绪反映了我们在社区中看到的情况。 

实际上, 关于使用 Qwen 2.5 Max 的这些内部提示 展示它是多么灵活和对开发人员友好。

阿里巴巴 Qwen 2.5 Max 入门

您是否很想尝试阿里巴巴 Qwen 2.5 Max? 

太棒了!即使你刚开始使用,也很容易访问和设置。

在哪里可以访问 Qwen 2.5 Max

您可以开始使用 Qwen 2.5 Max,甚至可以通过以下方式对其进行微调:

阿里巴巴已开源该模型。只需前往其 GitHub 页面并按照设置说明操作即可。

如果您更喜欢 Hugging Face,您可以使用他们的工具直接探索和运行模型。

喜欢云端设置?您可以通过阿里云的模型工作室访问模型,无需自行设置硬件。

一旦准备好基础知识,您就可以开始尝试阿里巴巴 AI Qwen 2.5 Max - 无论您是想构建聊天机器人,分析数据还是根据自己的用例对其进行微调。

准备数据集进行微调

在对 Qwen 2.5 Max 进行微调之前,您需要准备好数据集。

可以将其想象成为您的模型提供数据——您的数据越干净、越相关,其性能就越好。

哪种数据最有效?

这取决于您希望模型做什么:

  • 对于支持聊天机器人→使用真实聊天或常见问题解答。
  • 对于文本摘要→使用长文本及其摘要。
  • 对于代码解释→使用带有简单解释的代码片段。

简而言之:只要确保每个示例都清楚地显示您希望模型学习的内容。

格式化、调整大小和清理的简单技巧

以下是一些保持数据清洁和有用的技巧:

格式:

您的数据集应采用 JSON、CSV 或文本格式 - 无论您的脚本或训练框架支持哪种格式。

每个示例应该如下所示:

尺寸:

  • 从 500 到 1000 个示例开始,足以看到有用的结果。
  • 更多的例子=更好的学习,但质量比数量更重要。

清洁提示:

  • 删除任何拼写错误、不完整的句子或不相关的信息。
  • 保持语言的一致性(避免混合太多风格)。
  • 如果长篇回复没有价值,请将其删减。

例如,假设您想训练模型来回答医疗助理的问题:

用不同的问题和答案不断重复这种结构,您将拥有一个可供微调的可靠数据集。

现在您的数据已经准备好了,让我们继续逐步了解如何微调 Qwen 2.5!

如何对阿里巴巴 AI Qwen 2.5 Max 进行微调(分步说明)

及时工程(向人工智能模型提供正确的指令)非常强大,并且对于许多任务来说,它效果很好。


但有时,仅有提示是不够的。 

这就是微调发挥作用的地方。

微调意味着采用现有模型(如 Qwen 2.5 Max)并根据您自己的数据对其进行进一步训练,以便它能够更好地完成您的特定任务。

以下是帮助您入门的分步指南。

步骤 1:安装所需的库

在开始微调 Qwen 2.5 Max 模型之前,您需要使用正确的工具设置您的 Python 环境。 

方法如下:

  • 确保已安装 Python

你需要 Python 3.8 或更高版本。你可以从 python.org 下载。

  • 打开终端或命令提示符
  • 使用 pip 安装所需的库

运行此命令:

这为您提供了加载模型、准备数据和运行训练的工具。

第 2 步:加载 Qwen 2.5 模型

您可以从 Hugging Face 或阿里云加载基础模型。

代码看起来是这样的:

步骤 3:准备并标记数据

首先,确定你希望模型做什么:

  • 文本摘要
  • 文本生成
  • 二元分类
  • 问答等

然后以输入输出对的形式创建数据集。

例子:

获得数据后,您可以对其进行标记(将其转换为模型可以理解的数字):

步骤 4:选择微调方法

现在需要做出一个关键的决定——您想如何训练模型?

  • 完全微调(更新所有参数)

这意味着您要重新训练整个模型——每个权重和偏差。

它可以让您完全控制,但需要巨大的计算能力并且非常昂贵。

  • 迁移学习(仅更新部分层)

在这里,您冻结大多数层并仅训练最后几层。


它更实惠,并且在很多情况下效果很好。

  • 参数高效微调(PEFT)

这是最轻量级的选项。
您根本不会改变原始模型。 

相反,您添加一些额外的参数(如适配器)并仅训练这些参数。

这里一种流行的方法是 LoRA(低秩自适应)。 

它价格便宜、速度快,而且功能强大。

步骤5:定义训练参数

现在,设置训练如何运行:

  • 批次大小
  • 学习率
  • 训练周期数

例子:

第 6 步:开始训练

使用 Hugging Face 的 Trainer 或任何 PyTorch 循环开始训练。

随着模型的学习,你会看到损失下降。

步骤 7:评估模型性能

检查模型的运行情况非常重要。
您可以根据您的任务使用准确度等基本指标或自定义指标。

这可以帮助您监控微调是否确实改善了结果。

步骤 8:保存并测试模型

训练完成后,保存模型:

然后随时加载它并用真实的例子进行测试!

你看,微调可以让你教会像 Qwen 2.5 Max 这样强大的人工智能模型了解你的数据、你的语气和你的目标。

您不需要成为开发人员或数据科学家。


如果您了解一点 Python 并且愿意尝试,那么您已经成功了一半。

如果你还在犹豫哪种型号最适合你的需求, 顶级 AI 模型的比较 提供全面清晰的绩效细分。

微调 LLM 模型的最佳实践 

对 Qwen 2.5 等大型语言模型 (LLM) 进行微调可能看起来很复杂,但只要采取正确的步骤,就会变得容易得多。 

以下是一些最佳实践,可帮助您获得更好的结果、节省时间并避免浪费计算。

  1. 避免过度拟合:

过度拟合意味着你的模型对训练数据的学习太好了,但在新数据上表现不佳。 

为了避免这种情况:

  • 使用验证数据(单独的集合)来检查模型的泛化程度。
  • 尝试提前停止:当验证损失停止改善时停止训练。
  • 保持训练数据干净、多样,不重复。
  • 使用 LoRA 或 LoRA+ 等参数高效微调 (PEFT) 方法,通过仅训练模型的一小部分来降低过度拟合风险。
  1. 监控损失和性能:

训练时,始终跟踪:

  • 训练损失:模型从所见数据中学习的程度。
  • 验证损失:它在看不见的数据上的表现如何。
  • 根据您的任务,指标包括准确度、F1 分数或其他指标。

提示:图表是你的朋友!

可视化损失可以帮助您及早发现问题 - 例如,如果您的训练损失下降但验证损失上升(过度拟合的典型迹象)。

  1. 知道何时停止训练:

不要仅仅因为“听起来不错”就进行 20 个 epoch 的训练。 

反而:

  • 当验证损失稳定或开始增加时停止
  • 在训练库中使用类似 early_stopping 的回调
  • 相信你的图表——如果它们没有显示出任何改善,那么就该停止了。

在微调中,您通常会根据以下因素选择所需的时期数:

  • 你的数据集有多大
  • 你愿意训练多长时间
  • 当模型开始给出良好的结果时。
  1. 尝试不同的微调技术:

并非所有微调方法都具有相同的作用。 

尝试:

  • LoRA(低秩自适应)——快速、高效,非常适合有限的资源。
  • LoRA+ – 一个改进版本,在处理复杂任务时表现更佳。它包含在 peft 库中,并且不会降低训练速度。
  • DoRA – 早期测试表明它并没有太大改善,但请随意尝试。
  • GaLore 或 QGaLore – 智能地使用内存,是 LoRA 和完全微调之间的良好中间地带。

如果 LoRA 或 GaLore 给您带来可靠的结果,才考虑进行全面微调(这会耗费大量资源)。

  1. 选择正确的模块进行调整:

使用基于 LoRA 的微调时:

  • 避免调整 v_proj down_proj 图层—它们从低秩更新中获益不多(基于 WeLoRA 论文)。
  • 重点关注变化最重要的层——通常是注意力层和 MLP 层。
  1. 节省金钱并加快速度:

微调可能会很昂贵。 

一些可以使其更便宜、更快捷的工具:

  • 在 Mistral 等轻量级模型上使用 4 位 QLoRA 进行测试。
  • 尝试节省成本的工具,如 Liger、FlashAttention (FA)、DeepSpeed ZeRO Stage 3 和 Unsloth(通过 Axolotl 框架)。

这些选项可以帮助您更快地训练模型,并且节省内存和金钱。

  1. 不断改进你的数据集:

您的模型的好坏取决于您的数据。

  • 不断完善您的数据集,直到它清晰、准确且多样化。
  • 删除噪音、重复和不相关的例子。
  • 如果需要,使用更强大的模型生成更好的合成数据。
  1. 调整超参数:

超参数(如学习率、批量大小等)控制模型的学习方式。

  • 进行参数扫描——尝试几种组合并看看哪种效果最好。
  • 寻找那个“金发姑娘区”:不要太快,不要太慢——刚刚好。
  1. 学习阅读图表:

图表可以帮助您了解数字背后的故事。

  • 使用 TensorBoard 或 W&B(权重和偏差)等工具。
  • 注意损失是否平稳、稳定地下降,而不是急剧上升。
  • 随着时间的推移跟踪指标以发现改进或问题。

总结一下……

当您还没有掌握核心 90% 时,不要为微小的 10% 改进而感到压力。

从简单开始,逐步调整,经常测试。 

最重要的是,了解你的模型在做什么以及为什么这样做。

结论:让阿里巴巴 Qwen 2.5 为您服务

对阿里巴巴 AI Qwen 2.5 Max 或任何母模型进行微调意味着使其成为真正属于您的模型——以适合您的特定领域或任务。 

无论是:

  • 撰写更好的摘要
  • 回答客户疑问
  • 理解法律文件。

只要从正确的基础模型开始并使用正确类型的训练数据,您就可以获得更好的结果。

这并不难,只要明确你希望模型做什么,然后用匹配的例子来训练它。 

这就是微调的美妙之处:无需庞大的模型即可获得更好的性能。

所以继续吧——尝试 Qwen 2.5,测试它,并让它适用于你的世界。

想看看中国在人工智能领域还有什么进展吗? 以下是五家大胆而隐秘的中国人工智能初创公司 正在悄悄掀起波澜。

想要直接在收件箱中获取人工智能方面的最新见解和趋势吗? 

订阅 AI Business Asia 的新闻通讯 今天并保持领先地位。

发布者
上一篇文章
你可能还会喜欢

留下你的评论:

您的邮箱地址不会被公开。 必填项已用 * 标注