16. 某團隊想採用循環神經網路(Recurrent Neural Network, RNN)建構長期氣候數據的預測模型,以下哪一項敘述最符合使用 RNN 可能會遇到的挑戰?
(A)RNN 無法處理可變長度的序列輸入,因此在實務上限制極大;
(B)RNN 在長序列訓練中可能出現梯度消失,影響模型效果;
(C)RNN 無法捕捉時間上的依賴關係,因此預測準確度低;
(D)RNN 只能用於分類任務,不能應用於時間序列預測
統計: A(4), B(37), C(5), D(5), E(0) #3869559
詳解 (共 1 筆)
-
✅ (B) 是正確的: RNN 在進行反向傳播(Backpropagation Through Time, BPTT)更新權重時,會將誤差隨時間步(time steps)向回傳遞。如果序列很長(例如題目中提到的「長期氣候數據」),由於鏈鎖律(Chain Rule)的連續相乘效應,梯度很容易會指數級地縮小到趨近於零,這就是著名的「梯度消失(Vanishing Gradient)」問題。這會導致模型忘記早期的資訊,難以捕捉到長期的時間依賴關係。實務上,為了解決這個問題,通常會改用 LSTM(長短期記憶網路)或 GRU(門控循環單元)等變體。
-
❌ (A) 是錯誤的: RNN 的一項核心優勢正是可以處理可變長度的序列輸入。它透過一個接一個地處理時間步的資料,並更新隱藏狀態(Hidden State),因此不需要像傳統的多元線性迴歸或全連接層那樣固定輸入維度。
-
❌ (C) 是錯誤的: RNN 的架構設計初衷就是為了捕捉時間序列上的依賴關係。它將前一個時間步的隱藏狀態傳遞給下一個時間步,使模型能夠擁有「記憶」,因此它絕對具備捕捉時間依賴的能力(只是傳統 RNN 在處理「長期」依賴時會遇到 (B) 選項的問題)。
-
❌ (D) 是錯誤的: RNN 的應用範圍非常廣泛,不限於分類任務。根據輸出架構的不同,它可以應用於:
-
時間序列預測(如氣溫預測、股票預測),屬於連續數值的迴歸任務。
-
機器翻譯(Sequence-to-Sequence)。
-
文字生成(預測下一個字詞)。
-
情感分類(Sequence-to-Class)。
-