18. 下列何者最能同時反映 XGBoost(eXtreme Gradient Boosting)相較於傳統梯度提升決策樹(Gradient Boosting Decision Tree, GBDT)的主要技術改進?
(A)引入正則化項(Regularization)以抑制過擬合,並支援缺失值自動處理與並行化訓練;
(B)改以隨機森林(Random Forest)架構取代樹模型以提升準確率;
(C)以類神經網路(Neural Network)取代弱分類器(Weak Learners);
(D)採用批次正規化(Batch Normalization)技術提升模型穩定性
答案:登入後查看
統計: A(7), B(0), C(1), D(3), E(0) #3774692
統計: A(7), B(0), C(1), D(3), E(0) #3774692
詳解 (共 2 筆)
#7372354
以下是針對 XGBoost 相較於傳統 GBDT 的主要技術改進分析:
- (A) 引入正則化項 (Regularization) 以抑制過擬合,並支援缺失值自動處理與並行化訓練:
- 正則化 (Regularization): XGBoost 在目標函數中加入了 \(L_{1}\)(Lasso)和 \(L_{2}\)(Ridge)正則項,能有效控制模型複雜度,防止過擬合。
- 缺失值處理: XGBoost 具備「稀疏感知(Sparsity-aware)」能力,能在訓練時自動學習缺失值的最佳分裂方向。
- 並行化/高效能: XGBoost 支援特徵粒度的並行運算(Block結構),且能利用 CPU 緩存進行優化,速度遠快於傳統 GBDT。
- (B) 錯誤: XGBoost 依然使用決策樹(CART)作為基學習器,而不是切換到隨機森林。
- (C) 錯誤: XGBoost 依然使用樹模型(樹模型屬於Boosting中的弱學習器,而非類神經網路)。
- (D) 錯誤:批次正規化 (Batch Normalization) 通常用於類神經網路訓練,並非 XGBoost 的核心改進技術。
0
0