模型評估與優化
模型訓練完成後,必須 透過 評估指標 對 模型效能 進行驗證,
並 根據結果 進一 步 優化模型。
A. 效能評估指標
不同任務對模型效能的要求不同,常用的評估指標包括:
a. 準確率(Accuracy):
衡量模型 預測正確 的比例,適用於平衡的分類問題。
b. F1 分數(F1 Score):
綜合考慮 精確率(Precision)和 召回率(Recall),
適合處 理 數據不平衡 的 問題。
c. 均方誤差(MSE):
適用於迴歸問題,反映 預測誤差 的 大小。
B. 交叉驗證
交叉驗證 是一種 評估模型穩健性 的技術,透過 將數據集分割
為 多個子集, 反 覆進行 訓 練 與 測 試,有效降低 過擬合風險
並提升模型 的 泛化能力。
其中,K 折交 叉驗證(K-Fold Cross-Validation)
是最常見的方法,將數據集平均分成K個子集 (折),
每次選擇其中一個 子集 作為 測試集,其餘 K-1個子集 作為訓練集,
重複K 次後 取 平均評估結果,以獲得模型的整體表現。
C. 模型調參
模型優化 的最後一步是 調整超參數,這一過程稱為「調參」。
常見的方法包括:
a. 網格搜索(Grid Search):
在預定範圍 內 逐一嘗試 超參數組合。
b. 隨機搜索(Random Search):
隨機選擇 超參數 進行測試,適合 高維度 的 參數空 間。
c. 貝葉斯優化(Bayesian Optimization):
透過 構建 代理 模型,根據歷史結果 逐步尋 找 最優參數。








