TQC 人工智慧應用及技術 第四類 第21~40題

21. 下列哪一項不是分類問題常用的評估指標(Evaluation Metrics)?
(A) F1-Score
(B) Area Under Curve, AUC
(C) Mean Square Error, MSE
(D) R-Square
Ans: D 

22. 如附圖所示,為Log Loss的曲線圖,橫軸為模型預測的機率,縱軸則是該機率所帶來的Log Loss,請參考此圖判斷下列哪一項為Log Loss的計算公式?
    
(A) 
(B) 
(C) 
(D) 
Ans: B 

23. 關於相關係數(Correlation coefficient)的描述,下列哪一項錯誤?
(A) 其值在0至1之間
(B) 相關係數是衡量變數之間的線性相關性
(C) 相關係數就算很接近最大值,也不一定代表兩個變數有因果關係
(D) 可用於衡量迴歸模型的表現
Ans: A 

24. 關於常見的模型衡量標準,平均絕對誤差(Mean Absolute Error, MAE)與均方根誤差(Root Mean Square Error, RMSE)的描述,下列哪一項錯誤?
(A) 兩者對離群值都不敏感
(B) 兩者的值落在0至無限大之間
(C) 兩者都可以使用在迴歸的問題上
(D) 兩者都是數值越低,代表模型越精準
Ans: A 

25. 關於梯度提升機(Gradient Boosting Machine)的描述,下列哪一項錯誤?
(A) 使用集成(Ensemble)方法中的Boosting方法
(B) 使用大量弱學習器(Weak Learner)結合來提升模型準確度
(C) 弱學習器彼此之間無關聯性
(D) 可用於迴歸與分類問題
Ans: C 

26. 實務上經常會遇到樣本分布不均衡的情形。如詐騙偵測,瑕疵檢測等,下列哪一種方法並不能解決樣本不均衡的問題?
(A) 對類別較少的資料進行過抽樣(Oversampling)
(B) 對類別較多的資料進行低抽樣(Undersampling)
(C) 在目標函數中,提高類別較少的樣本貢獻之損失值(Loss)
(D) 使用維度縮減(Dimension Reduction)來平衡類別
Ans: D 

27. 下列哪一種模型是無監督式學習(Unsupervised Learning)的常見模型?
(A) 支持向量機(Support Vector Machine)
(B) 條件隨機域(Conditional Random Field)
(C) 階層式分群法(Hierarchical Clustering)
(D) 決策樹(Decision Tree)
Ans: C 

28. 下列哪一種演算法不能用來對高維度的數據進行降維(Dimension Reduction)?
(A) 奇異值分解(Singular Value Decomposition)
(B) 主成分分析(Principal Component Analysis)
(C) 自編碼器(Autoencoder)
(D) 脊迴歸(Ridge Regression)
Ans: D 

29. 關於超參數搜索(Hyperparameter Searching)的描述,下列哪一項錯誤?
(A) 超參數的設置對模型的訓練過程會有很大的影響
(B) 正確的超參數搜尋應搭配Cross Validation進行
(C) 超參數指的是模型訓練時內部在更新的參數
(D) 不同資料集的最佳參數配置可能不同
Ans: C 

30. 機器學習中,特徵工程(Feature Engineering)是很重要的工作之一,下列關於特徵工程的描述哪一項錯誤?
(A) 對問題的領域有深入的了解能夠提出更關鍵的特徵(Features)
(B) 可使用Ridge Regression或樹模型進行特徵選取
(C) 可對數值特徵做數值轉換,如相乘、相除等等獲得更多特徵
(D) 衡量特徵的相關性,可剔除相關性過高的特徵
Ans: B 

31. 下列哪一項不是隨機森林(Random Forest)演算法可以調整的超參數(Hyperparameter)?
(A) 樹的最大深度(Max Depth of Tree)
(B) 樹的數量(Numbers of Tree)
(C) 學習率(Learning Rate)
(D) 切分的準則(Criterion)
Ans: C 

32. 如附圖所示,一個二元分類的問題(YES為Positive),建立模型完成預測後我們得到了一混淆矩陣,請問下列敘述哪一項錯誤?
(A) 模型準確率(Accuracy)為0.8
(B) 模型的真陽性率(True Positive Rate)為0.875
(C) 模型的偽陰性率(False Negative Rate)為0.1
(D) 模型的精準率(Precision)為0.7
Ans: C 

33. 二元分類的問題,經常使用0.5當成閾值進行分類,模型預測機率大於0.5判定為1,小於0.5則判定為0。實務上如生產線瑕疵檢測,寧願檢測機台發生誤警報,也不願意漏掉任何一個瑕疵。假設我們有一訓練好的自動瑕疵檢測機台,原本預測閾值大於0.5則判定為瑕疵,如果希望降低漏掉瑕疵的機率,此時我們會如何對閾值做調整來符合產線需求?
(A) 降低閾值
(B) 提升閾值
(C) 不變
(D) 調整閾值並不會改變判定結果
Ans: A 

34. 關於梯度下降法(Gradient Descent),下列哪一項正確?(L為目標函數,X為模型參數)
(A) 透過梯度下降法必定可以找到目標函數極小值
(B) 往dL / dx切線的反方向更新參數
(C) 往dL / dx切線的方向更新參數
(D) 整體的函數損失值(Loss)不會隨著迭代增加
Ans: B 

35. 機器學習問題與選用的優化目標函數的對應關係,下列哪一項錯誤?
(A) 二元分類問題 - 二元交叉熵(Binary Cross-Entropy)
(B) 二元分類問題 - 類別交叉熵(Categorical Cross-Entropy)
(C) 二元分類問題 - 準確率(Accuracy)
(D) 迴歸問題 - 均方誤差(Mean Square Error, MSE)
Ans: C 

36. 下列哪一項並非類神經網路常用的優化器(Optimizer)?
(A) Adam
(B) RMSProp
(C) AdaBoost
(D) Nadam
Ans: C 

37. 在一個神經網路架構中,兩個全連接層若各為10個神經元,此兩層間的參數量為下列哪一項?
(A) 100
(B) 110
(C) 30
(D) 1000
Ans: B 

38. 在一個神經網路架構中,兩個全連接層若第一層有10個神經元,第二層有15個神經元,此兩層間的參數量為下列哪一項?
(A) 150
(B) 165
(C) 1500
(D) 2250
Ans: B 

39. 下列哪一項並非類神經網路常見的解決過度擬合(Overfitting)方法?
(A) 使用Dropout
(B) 使用Regulizers
(C) 增加訓練資料
(D) 增加訓練時間
Ans: D 

40. 下列哪一種方法可以促使隨機梯度下降法(Stochastic Gradient Descent, SGD)優化器避免困在局部最小值(Local Minimum)?
(A) 將初始學習率(Learning Rate)設在較大的值上
(B) 在其啟動函數的切線方向上,加上動量(Momentum)
(C) 在其損失函數的切線方向上,加上動量(Momentum)
(D) 在其損失函數的法線方向上,加上動量(Momentum)
Ans: C 

沒有留言:

張貼留言