17. 下列哪一種優化演算法內建動量(Momentum)的設計機制?
(A)SGD+Momentum;
(B)Adam;
(C)RMSProp;
(D)Adagrad
答案:登入後查看
統計: A(2), B(6), C(0), D(2), E(0) #3774691
統計: A(2), B(6), C(0), D(2), E(0) #3774691
詳解 (共 2 筆)
#7372351
(A) SGD+Momentum:雖然這個演算法名稱中帶有 Momentum,但嚴格來說,它是傳統隨機梯度下降 (SGD) 的延伸版本(增加動量項),而非「內建動量設計」的專用術語。相較之下,Adam 是一種將動量(一階矩)與自適應學習率結合的單一演算法。
ㅤㅤ
(B) Adam (Adaptive Moment Estimation):Adam 演算法內建了兩部分,一部分是 RMSProp 的自適應學習率,另一部分就是動量 (Momentum)。Adam 會計算梯度的指數加權移動平均(一階矩,即動量)來更新參數,這幫助它跳出局部極小值和穿過鞍點。
ㅤㅤ
(C) RMSProp:RMSProp 側重於調整學習率(適應性),它並不直接在基礎定義中內建動量,儘管它可以與動量法結合使用。
ㅤㅤ
(D) Adagrad:Adagrad 也是一種自適應學習率演算法,透過累加過去梯度的平方來調整學習率,它不內建動量。
ㅤㅤ
Adam 被稱為結合了 Momentum 和 RMSProp 優點的優化器。
0
0