18. 下列何者最能同時反映 XGBoost(eXtreme Gradient Boosting)相較於傳統梯度提升決策樹(Gradient Boosting Decision Tree, GBDT)的主要技術改進?
(A)引入正則化項(Regularization)以抑制過擬合,並支援缺失值自動處理與並行化訓練;
(B)改以隨機森林(Random Forest)架構取代樹模型以提升準確率;
(C)以類神經網路(Neural Network)取代弱分類器(Weak Learners);
(D)採用批次正規化(Batch Normalization)技術提升模型穩定性

答案:登入後查看
統計: A(7), B(0), C(1), D(3), E(0) #3774692

詳解 (共 2 筆)

#7285376
正確答案是 (A)。 簡要說明:XGB...
(共 126 字,隱藏中)
前往觀看
1
0
#7372354

以下是針對 XGBoost 相較於傳統 GBDT 的主要技術改進分析:

  • (A) 引入正則化項 (Regularization) 以抑制過擬合,並支援缺失值自動處理與並行化訓練:
    • 正則化 (Regularization) XGBoost 在目標函數中加入了 \(L_{1}\)Lasso)和 \(L_{2}\)Ridge)正則項,能有效控制模型複雜度,防止過擬合。
    • 缺失值處理: XGBoost 具備「稀疏感知(Sparsity-aware)」能力,能在訓練時自動學習缺失值的最佳分裂方向。
    • 並行化/高效能: XGBoost 支援特徵粒度的並行運算(Block結構),且能利用 CPU 緩存進行優化,速度遠快於傳統 GBDT
  • (B) 錯誤: XGBoost 依然使用決策樹(CART)作為基學習器,而不是切換到隨機森林。
  • (C) 錯誤: XGBoost 依然使用樹模型(樹模型屬於Boosting中的弱學習器,而非類神經網路)。
  • (D) 錯誤:批次正規化 (Batch Normalization) 通常用於類神經網路訓練,並非 XGBoost 的核心改進技術。

 

0
0