Contents ...
udn網路城邦
在Google Colab上作免費的Fine Tune Training(微調訓練)
2025/06/19 20:00
瀏覽213
迴響0
推薦12
引用0
對微調訓練不熟悉的朋友,可以看以下這段我請ChatGPT寫的概述,其他朋友可以直接跳到後面資源及實測的部分
微調訓練概述:
在實務應用中,微調能夠解決許多原始模型無法勝任的問題。例如,企業可以使用自家知識資料進行微調,使模型具備企業內部知識,成為真正實用的客服或內部助理系統;醫療機構可以用專業醫學資料微調模型,使其理解專業術語並給出中立建議;法律或財經領域也常見透過微調提升模型對術語和邏輯的掌握程度。
微調的必要性在於,雖然原始模型擁有廣泛的知識與語言能力,但其回應往往過於泛泛,缺乏針對性,也可能在面對敏感話題時產生偏見或不當回答。透過微調,我們可以導入具有引導性、風格明確的資料,讓模型學會以我們期望的方式來理解問題與輸出回答。不僅能調整語氣、提升精準度,還能強化其遵守特定規則的能力。
值得一提的是,進行微調並不代表要從零開始訓練整個模型。現在的主流做法,例如使用 LoRA(Low-Rank Adaptation)或 QLoRA,可讓使用者僅訓練模型中的少量參數,顯著降低硬體資源與時間成本。這使得即便是使用 Google Colab 免費版(例如配備 T4 GPU 的環境),也能順利對 3B 或 7B 等中型模型進行有效的微調,特別是搭配 4-bit 量化模型。
資源及實測:
Fine Tune Training所需要的資源,雖然遠遠不及Pre-Trained Model 所需,但是當然也不容小覷,如果沒有GPU和VRAM基本上是不可能的。 幸運的是谷歌Colab開放了免費的T4 GPU工作空間,他的規格如下:
GPU Type
NVIDIA T4 (occasionally P100/K80)
Max VRAM
~12.7 GB usable
RAM
~12–16 GB system RAM
Disk
~100 GB (ephemeral)
Runtime limit
12 hours max session
Idle timeout
~90 minutes of inactivity
這樣的規格,用LoRA 的方式 (僅訓練模型中的少量參數,在原模型外附加一個參數更新檔,而非直接在原模型內改參數),個人實測在LLaMA 3.1 8B的模型上,執行51K筆Alpaca的更新數據,大概只需要10多分鐘左右。
Fine Tune Training 後,可以將原來的模型原封不動,而將更新檔單獨儲存,使用(Inference)時兩個合在一起使用,也可以將兩者合併為一個檔案(比較模組化),甚至於儲存成llama.cpp適合的GGUF檔案格式。
以下示範程式,我一行未改,從頭跑到尾,一氣呵成,連原始模型以及Alpaca資料集都是直接從網路上得到,我們完全不用費心。各位有興趣可以自己跑一跑體驗一下。
真正要做自己的模型,當然需要準備自己的資料集,以及選定合適的原始模型檔
能夠將FT這樣耗費資源的工作,變成免費上網10分鐘就跑完,這個真得需要感謝開源世界的LLaMA, Hugging Face,Unsloth,以及地球上各個角落優秀的AI貢獻者默默的耕耘。

有誰推薦more
全站分類:知識學習 科學百科
自訂分類:統計分析
下一則: 客服機器人LLM的DIY製作(下)
你可能會有興趣的文章:

限會員,要發表迴響,請先登入