TQC 人工智慧應用及技術 第四類 第41~63題

41. 關於啟動函數(Activation Function)所對應的輸出值域,下列哪一個錯誤?
(A) Sigmoid:(0, 1)
(B) ReLU:(0, Inf)
(C) LeakyReLU:(-1, Inf)
(D) Hyperbolic Tangent:(-1, 1)
Ans: C 

42. 下列哪一種啟動函數(Activation Function)較不會有梯度彌散(Vanishing Gradient)的現象?
(A) Tanh
(B) Sigmoid
(C) Softsign
(D) ReLU
Ans: D 

43. 在遞迴類神經網路(Recurrent Neural Network, RNN)模型中,克服梯度彌散(Vanishing Gradient)最主要的手段為下列哪一項?
(A) 使用ReLU作為整個神經網路的啟動函數
(B) 加入長短期記憶單元(LSTM Cell)
(C) 加入Dropout layer
(D) 加入1 x 1卷積層
Ans: B 

44. 在遞迴類神經網路(Recurrent Neural Network, RNN)模型中,克服梯度爆炸(Exploding Gradient)最主要的手段為下列哪一項?
(A) 使用ReLu作為整個神經網路的啟動函數
(B) 加入長短期記憶單元(LSTM Cell)
(C) 對梯度使用數值切割(Clip Gradient)
(D) 加入1 x 1卷積層
Ans: C 

45. 關於批次正規化(Batch Normalization),下列哪一項正確?
(A) 所有特徵一起做正規化(Normalization)
(B) 可以解決梯度彌散(Vanishing Gradient)的問題
(C) 在訓練模式(Training Mode)與推論模式(Inference Mode)所使用的平均數與標準差為同一組數值
(D) 在不論批次(Batch)大小下,使用批次正規化都能取得較好的結果
Ans: B 

46. 在一個卷積神經網路中,若第N層的輸入大小為7 x 7 x 3(H x W x D),經由20個尺寸為3 x 3 x 3過濾器(Filters),在無填充(No Padding)下,以移步長(Strides)為2處理後,該層之輸出尺寸為下列哪一項?
(A) 5 x 5 x 3
(B) 5 x 5 x 20
(C) 3 x 3 x 3
(D) 3 x 3 x 20
Ans: D 

47. 在二維矩陣A中,A=,在經過一層池化尺寸為2的最大池化層(Max Pooling)處理後之矩陣A'為下列哪一項?
(A) 
(B) 
(C) 
(D) 
Ans: A 

48. 在二維矩陣A中,A=,在經過一層池化尺寸為2的平均池化層(Average Pooling)處理後之矩陣A'為哪一項?
(A) 
(B) 
(C) 
(D) 
Ans: C 

49. 關於自編碼器(AutoEncoder)的敘述,下列哪一項正確?
(A) 可用於資料降維
(B) 屬於監督式學習的一種
(C) 神經網路的結構必須是對稱的
(D) 訓練後的神經網路之參數無法遷移到其他任務,如分類問題
Ans: A 

50. 關於訓練深度神經網路時,下列敘述哪一種錯誤?
(A) 使用圖形處理單元(GPU)可以比用中央處理器(CPU)更加快速
(B) 當GPU記憶體不足時,降低要送進神經網路中的批量大小(Batch Size)可以解決
(C) 用Multi-GPU的方式可以加快神經網路的訓練
(D) 用Multi-GPU可以讓訓練速度隨著GPU數量呈現線性成長
Ans: D 

51. 關於卷積尺寸為1 x 1之卷積層,下列敘述哪一項錯誤?
(A) 可用於降低維度,增加運算效率與降低內存消耗
(B) 可以用增加維度(Channels)實現跨維度整合
(C) 首次在Inception Network中提出,又被稱為mlp Convolution layer
(D) 為了增加運算效率,通常搭配Tanh作為該層的啟動函數
Ans: D 

52. 物件偵測(Object Detection)是電腦視覺中的經典問題,下列哪一項深度學習模型架構不是物件偵測常用的模型?
(A) YOLO(You Only Look Once)
(B) R-CNN
(C) Faster R-CNN
(D) Sequence-to-Sequence
Ans: D 

53. 下列哪一項並非生成式對抗網路(Generative Adversarial Network, GAN)的常見應用範圍?
(A) 圖片生成(Image Generation)
(B) 解析度提升(Super Resolution)
(C) 圖像風格轉換(Image Style Transfer)
(D) 圍棋AI 程式
Ans: D 

54. 關於殘差網路(Residual Network),下列哪一項錯誤?
(A) 透過將每層的目標函數設為零矩陣,以達到傳遞殘差的效果
(B) 在影像辨識的效果上優於由Alex Krizhevsky、Geoffrey E. Hinton和Ilya Sutskever等人所提出之AlexNet
(C) 因為使用殘差設計,在卷積層的啟動函數上可以改用有範圍限制的Sigmoid或Tanh以達到將各層均化的效果
(D) 是目前卷積神經網路中常用的架構
Ans: C 

55. 關於深度學習模型的資料前處理,下列哪一項錯誤?
(A) 輸入可以是任何型態的資料
(B) 特徵通常需要經過正規化(Normalization)
(C) 若資料有缺失值,必須先經過填補
(D) 若資料有類別型態(Categorical)資料,必須使用一位有效編碼(One-Hot Encoding)轉換
Ans: A 

56. 下列哪一項並非近年來深度學習受到廣泛重視的原因?
(A) 深度學習與神經網路是一個全新的領域
(B) 我們可以蒐集/取得更大量的資料
(C) 硬體的運算能力增強
(D) 在國際圖像辨識大賽取得優異的成績
Ans: A 

57. 關於訓練深度學習模型的敘述,下列哪一項正確?
(A) 若模型參數過少,可能會導致擬合不足(Underfitting)
(B) 若訓練損失沒有下降,我們應該調高學習率(Learning Rate),加速訓練
(C) 降低訓練資料集的數量不會影響模型訓練的表現
(D) 資料的品質與訓練結果無關,只要資料量夠大,再髒的資料都可以得到不錯的結果
Ans: A 

58. 關於各種模型與其可以解決之問題的配對,下列哪一種錯誤?
(A) CycleGAN - 語意理解
(B) U-Net - 圖像語義分割
(C) Attention-Based Network(Transformer) - 機器翻譯
(D) YOLO - 物體偵測
Ans: A 

59. 下列哪一項並非Q-Learning中的要素?
(A) 行動(Action)
(B) 監督(Supervise)
(C) 狀態(State)
(D) 酬賞(Reward)
Ans: B 

60. 在Q-Learning中,我們常使用Epsilon來作為控制代理者保守程度的參數,關於Epsilon之敘述,下列哪一項正確?
(A) Epsilon可以控制代理者對於酬賞(Reward)之重視程度
(B) Epsilon可作為選擇行為時的隨機化程度指標
(C) 不隨訓練過程改變Epsilon會得到比隨時間改變Epsilon更好的結果
(D) Epsilon與學習率呈正比
Ans: B 

61. 關於Q-Learning與Policy based learning之比較,下列哪一項錯誤?
(A) 神經網路的輸出:價值狀態vs.動作之機率
(B) 學習方式:根據經驗修正環境狀態Q值vs.透過實際行為造成的結果修正動作
(C) 更新方式:單步更新vs.回合更新
(D) 動作型態:連續值動作(如0~1)vs.離散值動作(如上、下、左、右)
Ans: D 

62. 在處理實例分割(Instance Segmentation)的網路Mask-RCNN中使用了多個損失函數,下列哪一項並非使用在該神經網路中?
(A) Binary Cross-Entropy
(B) Hinge Loss
(C) Catgorical Cross-Entropy
(D) Smooth L1 Loss
Ans: B 

63. 在建置神經網路層的過程中,權重(Weights)與偏差(Bias)的起始值扮演重要的角色。請問關於權重與偏差之敘述,下列哪一項錯誤?
(A) 權重的起始值可為正數或負數
(B) 不同的權重起始點將可能導致最後模型收斂位置不同
(C) 各層的權重可以使用統一的常數(c)作為起始值
(D) 各層的偏差可以使用統一的常數(c)作為起始值
Ans: C 

沒有留言:

張貼留言