基于华为昇腾910B和LLaMA Factory多卡微调的实战教程

随笔4个月前发布 施狮子
37 0 0

  大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于大模型算法的研究与应用。曾担任百度千帆大模型比赛、BPAA算法大赛评委,编写微软OpenAI考试认证指导手册。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。授权多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的学生进入到算法行业就业。希望和大家一起成长进步。

  本文主要介绍了基于华为昇腾910B和LLaMA Factory多卡微调的实战教程,希望对使用大语言模型的同学们有所帮助。

文章目录

  • 1. 前言
  • 2. 配置环境
    • 2.1 安装虚拟环境
    • 2.2 安装依赖库
    • 2.3 模型选型与下载
    • 2.4 配置多卡环境
  • 3. 运行代码
    • 3.1 构建训练数据
    • 3.2 修改配置文件
    • 3.3 继续预训练(CPT)
    • 3.4 SFT

1. 前言

  在之前博客中介绍了LLaMA Factory多卡微调的实战教程,该教程的算力依赖于英伟达GPU。但最近有不少订阅专栏的小伙伴提出疑问,是否能够使用华为的910B GPU来进行多卡微调呢?
基于华为昇腾910B和LLaMA Factory多卡微调的实战教程

2. 配置环境

  需要说明的是,本文是在Ubuntu 20.04+MindSpore 2.2+CANN 8.0环境下复现成功的。

2.1 安装虚拟环境

  首先安装anaconda&

© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...