LLaMA-Factory 微調開源大模型

????????接觸大模型有一段時間了,最近學習了一下使用LLaMA-Factory來對開源大模型進行微調,LLaMA-Factory是一個非常好用的開源微調大模型工具,GitHub:LLaMA-Facotry,相關的介紹可以直接去官方網站上去查看。

????????本文基于Ubuntu系統對使用LLaMA-Factory來對qwen2-1.5B模型進行微調;

1.安裝部署

1.1.下載LLaMA-Factory

git clone https://github.com/hiyouga/LLaMA-Factory.git

1.2.安裝conda

????????在Ubuntu上安裝Conda,可以使用Miniconda,這是Conda的一個輕量級版本。以下是安裝Miniconda的步驟:
????下載Miniconda安裝腳本:

wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh

????腳本可執行:

chmod +x Miniconda3-latest-Linux-x86_64.sh

????運行安裝腳本:

./Miniconda3-latest-Linux-x86_64.sh

????安裝完成后,會在home下會創建miniconda3目錄,然后會自動在.bashrc下面加入PATH

export PATH="/home/user/miniconda3/bin:$PATH"

????????重啟終端或重新加載配置文件(例如,使用source ~/.bashrc)以激活Conda環境,安裝完成后,您可以通過運行conda --version來檢查Conda是否正確安裝。
????????ubuntu中安裝好conda之后,系統終端界面前面出現(base)字樣,永久取消base字樣辦法:

1、在新終端中輸入:vim ~/.bashrc
2、在打開的文件最后加上一句命令:conda deactivate
3、重新打開終端即可消除base字樣。

1.3.創建虛擬環境

????創建一個名字為llama_factory的虛擬環境,只需創建一次

conda create --name llama_factory python=3.10

????激活虛擬環境

conda activate llama_factory

????進入LLaMA-Factory文件夾

cd LLaMA-Factory

????安裝配置文件

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -e .[torch,metrics]

1.4.下載開源大模型

????????可以選擇自己常用的 LLM,包括 ChatGLM,BaiChuan,Qwen,LLaMA 等,把下載好的模型保存到LLaMA-Factory文件夾下。
????????下載 qwen2-1.5B模型的命令:

git lfs install
git clone https://huggingface.co/Qwen/Qwen2-1.5B # huggingface下載
git clone https://www.modelscope.cn/qwen/Qwen2-1.5B.git # modelscope下載

????下載不下來的話,直接翻墻到對應目錄,點擊下載也可以;
????下載完,新建Qwen/Qwen2-1.5B模型文件夾,將下載內容放入該文件夾,然后將模型文件夾放在LLaMA-Factory目錄下,供后面訓練的時候使用;

2.訓練

????????在LLaMA-Factory項目中,單顯卡可以用命令或web頁面訓練,多顯卡只能用用命令的方式,當前系統是單顯卡,所以使用的web頁面訓練,另外web頁面也比較直觀,在LLaMA-Factory目錄下,執行以下命令:

python3 src/webui.py

????執行完后,終端會顯示如下:

終端顯示

Web界面如下

image

????界面分上下兩部分:

????上半部分是模型訓練的基本配置,有如下參數:

模型名稱:可以使用常用的模型,包括 ChatGLM,BaiChuan,Qwen,LLaMA 等
模型路徑:輸入框填寫我們之前下載的模型的地址。
微調方式:
????full:將整個模型都進行微調。
????freeze:將模型的大部分參數凍結,只對部分參數進行微調。
????lora:將模型的部分參數凍結,只對部分參數進行微調,但只在特定的層上進行微調。
????模型斷點(適配器):在未開始微調前為空,微調一次后可以點擊刷新斷點(適配器)按鈕,會得到之前微調過的斷點(適配器)。

下半部分是一個頁簽窗口,分為Train、Evaluate、Chat、Export四個頁簽,
????微調先看Train界面:

訓練階段:選擇訓練階段,分為預訓練(Pre-Training)、指令監督微調(Supervised Fine-Tuning)、獎勵模型訓練(Reward Modeling)、PPO 、DPO 五種

這里我們選擇指令監督微調(Supervised Fine-Tuning)。

數據集
????數據格式:

[
????{
????????"instruction": "用戶指令(必填)",#通常用于存儲指示模型生成輸出的指令
????????"input": "用戶輸入(選填)",
????????"output": "模型回答(必填)",
????????"system": "系統提示詞(選填)",
????????"history": [
????????????????["第一輪指令(選填)", "第一輪回答(選填)"],
????????????????["第二輪指令(選填)", "第二輪回答(選填)"]
????????]
????}
]

????????如果采用自行準備的數據集,要在 LLaMA Factory目錄下data目錄下的dataset_info.json添加新數據集信息,llm_data.json是按照上面的數據格式構造的訓練樣本數據。

"llm_type":{
????"file_name":"llm_data.json"
}

????????以上都設置及準備好后,點擊開始就開始微調訓練了,輸出目錄為:

LLaMA-Factory/saves/Qwen2-1.5B/lora/train_2024-07-16-14-53-45

????????訓練過程中可以在終端下看到詳細日志輸出:

train-progress

訓練完成后,會在webui界面顯示訓練完畢。

3.驗證推理

????1.在網頁界面,選擇Chat,加載模型,檢查點路徑:train_2024-07-16-14-53-45,推理數據類型:bfloat16,加載完成后,就可以進行聊天了

image

????2.導出模型,選擇Export選項,導出目錄/home/LLM/QwenSft

image

然后可以通過代碼來進行驗證,實現如下:

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

torch.manual_seed(0)
path = '/home/LLM/QwenSft'

def chat_with_qwen(content):
    tokenizer = AutoTokenizer.from_pretrained(path)
    model = AutoModelForCausalLM.from_pretrained(path, torch_dtype=torch.bfloat16, device_map='cpu', trust_remote_code=True)
    messages = [
       {"role": "system", "content": "You are a helpful assistant."},
       {"role": "user", "content": content}
    ]

    text = tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=True)
    model_inputs = tokenizer([text], return_tensors="pt").to("cpu")
    generated_ids = model.generate(**model_inputs,max_new_tokens=512)
    generated_ids = [output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)]

    response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
    print(response)

????本文簡單總結了一下使用LLaMA-Factory開源工具來訓練開源大模型的一個基本流程,后面會繼續深入了解,有新的收獲會繼續更新文章,感謝https://zhuanlan.zhihu.com/p/691239463

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 227,882評論 6 531
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,208評論 3 414
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 175,746評論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,666評論 1 309
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,477評論 6 407
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 54,960評論 1 321
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,047評論 3 440
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,200評論 0 288
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 48,726評論 1 333
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,617評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,807評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,327評論 5 358
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,049評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,425評論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,674評論 1 281
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,432評論 3 390
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,769評論 2 372

推薦閱讀更多精彩內容