顯示具有 TQC-人工智慧應用及技術-04第四類 標籤的文章。 顯示所有文章
顯示具有 TQC-人工智慧應用及技術-04第四類 標籤的文章。 顯示所有文章

TQC 人工智慧應用及技術 第四類 第1~20題

1. 機器學習模型中,下列關於模型的偏差(Bias)與變異(Variance)之描述哪一項正確?
(A) 希望訓練好的模型能是高變異、低偏差
(B) 高偏差代表模型過於複雜
(C) 高變異代表模型過於簡單
(D) 偏差與變異之間存在一平衡(Trade-off)關係
Ans: D 

2. 二元分類問題中,如果資料存在類別極度不平衡的問題,建立模型後在測試集達到了99%的準確度(Accuracy),下列描述哪一項正確?
(A) 模型有足夠高的準確度,可上線運行
(B) 準確率(Accuracy)不適合用來評估二元分類問題
(C) 應使用其他指標來評估不平衡的二元分類問題
(D) 可能有過擬合的風險,應更換更簡單的模型
Ans: C 

3. 如附圖所示,三個模型是對於訓練資料的擬合程度,下列敘述哪一項正確?

(A) 最左邊圖片的模型有較高的變異(Variance)
(B) 中間圖片的模型複雜度不足
(C) 最右邊圖片的模型可能是過擬合(Overfitting)
(D) 三個模型的訓練結果都不好
Ans: C 

4. 關於機器學習模型的敘述,下列哪一項正確?
(A) 一個模型如果在訓練集有較高的準確率(Accuracy),說明這個模型一定比較好
(B) 如果增加模型的複雜度,則測試集的錯誤率會降低
(C) 如果增加模型的複雜度,則訓練集的錯誤率會降低
(D) 訓練集的錯誤率越低,測試集的錯誤也會跟著越低
Ans: C 

5. 關於訓練集與測試集的比例,下列哪一項較為正確?
(A) 訓練集:測試集 = 6:4
(B) 訓練集:測試集 = 5:5
(C) 訓練集:測試集 = 2:8
(D) 比例不須固定,須根據資料集判斷
Ans: D 

TQC 人工智慧應用及技術 第四類 第21~40題

21. 下列哪一項不是分類問題常用的評估指標(Evaluation Metrics)?
(A) F1-Score
(B) Area Under Curve, AUC
(C) Mean Square Error, MSE
(D) R-Square
Ans: D 

22. 如附圖所示,為Log Loss的曲線圖,橫軸為模型預測的機率,縱軸則是該機率所帶來的Log Loss,請參考此圖判斷下列哪一項為Log Loss的計算公式?
    
(A) 
(B) 
(C) 
(D) 
Ans: B 

23. 關於相關係數(Correlation coefficient)的描述,下列哪一項錯誤?
(A) 其值在0至1之間
(B) 相關係數是衡量變數之間的線性相關性
(C) 相關係數就算很接近最大值,也不一定代表兩個變數有因果關係
(D) 可用於衡量迴歸模型的表現
Ans: A 

24. 關於常見的模型衡量標準,平均絕對誤差(Mean Absolute Error, MAE)與均方根誤差(Root Mean Square Error, RMSE)的描述,下列哪一項錯誤?
(A) 兩者對離群值都不敏感
(B) 兩者的值落在0至無限大之間
(C) 兩者都可以使用在迴歸的問題上
(D) 兩者都是數值越低,代表模型越精準
Ans: A 

25. 關於梯度提升機(Gradient Boosting Machine)的描述,下列哪一項錯誤?
(A) 使用集成(Ensemble)方法中的Boosting方法
(B) 使用大量弱學習器(Weak Learner)結合來提升模型準確度
(C) 弱學習器彼此之間無關聯性
(D) 可用於迴歸與分類問題
Ans: C 

TQC 人工智慧應用及技術 第四類 第41~63題

41. 關於啟動函數(Activation Function)所對應的輸出值域,下列哪一個錯誤?
(A) Sigmoid:(0, 1)
(B) ReLU:(0, Inf)
(C) LeakyReLU:(-1, Inf)
(D) Hyperbolic Tangent:(-1, 1)
Ans: C 

42. 下列哪一種啟動函數(Activation Function)較不會有梯度彌散(Vanishing Gradient)的現象?
(A) Tanh
(B) Sigmoid
(C) Softsign
(D) ReLU
Ans: D 

43. 在遞迴類神經網路(Recurrent Neural Network, RNN)模型中,克服梯度彌散(Vanishing Gradient)最主要的手段為下列哪一項?
(A) 使用ReLU作為整個神經網路的啟動函數
(B) 加入長短期記憶單元(LSTM Cell)
(C) 加入Dropout layer
(D) 加入1 x 1卷積層
Ans: B 

44. 在遞迴類神經網路(Recurrent Neural Network, RNN)模型中,克服梯度爆炸(Exploding Gradient)最主要的手段為下列哪一項?
(A) 使用ReLu作為整個神經網路的啟動函數
(B) 加入長短期記憶單元(LSTM Cell)
(C) 對梯度使用數值切割(Clip Gradient)
(D) 加入1 x 1卷積層
Ans: C 

45. 關於批次正規化(Batch Normalization),下列哪一項正確?
(A) 所有特徵一起做正規化(Normalization)
(B) 可以解決梯度彌散(Vanishing Gradient)的問題
(C) 在訓練模式(Training Mode)與推論模式(Inference Mode)所使用的平均數與標準差為同一組數值
(D) 在不論批次(Batch)大小下,使用批次正規化都能取得較好的結果
Ans: B