單項(xiàng)選擇題何者是圖像識(shí)別的天王?()

A.RNN
B.CNN
C.FCNN
D.LSTM
E.GAN


您可能感興趣的試卷

你可能感興趣的試題

1.單項(xiàng)選擇題關(guān)于深度學(xué)習(xí)敘述何者正確?()

A.以數(shù)學(xué)眼光來看CNN是NN的子集合
B.機(jī)器學(xué)習(xí)是深度學(xué)習(xí)的一種
C.人工智能是一種深度學(xué)習(xí)
D.深度學(xué)習(xí)通常隱藏層在百層以上的神經(jīng)網(wǎng)絡(luò),這樣才夠深
E.CNN是一種有記憶的神經(jīng)網(wǎng)絡(luò),會(huì)記得上一次的輸入

2.單項(xiàng)選擇題關(guān)于神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)原理敘述何者正確?()

A.神經(jīng)網(wǎng)絡(luò)調(diào)整參數(shù)的方式是一種前饋神經(jīng)網(wǎng)絡(luò)(FeedforwardNeuralNetwork)
B.學(xué)習(xí)率在迭代的參數(shù)調(diào)整過程中會(huì)固定不變
C.梯度下降是運(yùn)用積分的技巧來達(dá)成
D.損失函數(shù)移動(dòng)的方向跟梯度的方向相同
E.神經(jīng)網(wǎng)絡(luò)調(diào)整參數(shù)的順序是從后面一層層往前調(diào)

3.單項(xiàng)選擇題關(guān)于神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)原理敘述何者錯(cuò)誤?()

A.損失函數(shù)是對(duì)每個(gè)輸入的預(yù)測(cè)值與真實(shí)值的差異計(jì)算總和
B.透過梯度下降一定可以找到降低損失函數(shù)的最佳解
C.損失函數(shù)的變量是可以調(diào)整的參數(shù)
D.訓(xùn)練神經(jīng)網(wǎng)絡(luò)是透過參數(shù)的調(diào)整來降低損失函數(shù)
E.梯度下降是降低損失函數(shù)的一種算法

4.單項(xiàng)選擇題關(guān)于神經(jīng)網(wǎng)絡(luò)的敘述何者錯(cuò)誤?()

A.傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)是指全鏈接神經(jīng)網(wǎng)絡(luò)
B.全鏈接神經(jīng)網(wǎng)絡(luò)也叫標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)
C.標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)通常稱為NN(neuralnetwork)
D.全鏈接神經(jīng)網(wǎng)絡(luò)的每個(gè)神經(jīng)元都會(huì)跟前后層的神經(jīng)元相連
E.每個(gè)神經(jīng)元內(nèi)部的計(jì)算架構(gòu)都不一樣

5.單項(xiàng)選擇題關(guān)于神經(jīng)網(wǎng)絡(luò)模型的敘述何者正確?()

A.建構(gòu)神經(jīng)網(wǎng)絡(luò)時(shí)需要知道最終的函數(shù)學(xué)習(xí)機(jī)長(zhǎng)什么樣子
B.打造一個(gè)神經(jīng)網(wǎng)絡(luò)的函數(shù)學(xué)習(xí)機(jī)是透過編程來達(dá)成
C.神經(jīng)網(wǎng)絡(luò)模型可分成輸入層、表現(xiàn)層及輸出層
D.神經(jīng)網(wǎng)絡(luò)模型可分成輸入層、隱藏層及輸出層
E.神經(jīng)網(wǎng)絡(luò)模型可分成輸入層、激發(fā)層及輸出層

最新試題

在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?

題型:?jiǎn)雾?xiàng)選擇題

反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?

題型:多項(xiàng)選擇題

在自然語言處理中,哪些方法可以用于提升文本分類、情感分析和實(shí)體識(shí)別的準(zhǔn)確性()?

題型:多項(xiàng)選擇題

反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?

題型:多項(xiàng)選擇題

在強(qiáng)化學(xué)習(xí)中,什么是“動(dòng)態(tài)規(guī)劃”(DynamicProgramming)()?

題型:?jiǎn)雾?xiàng)選擇題

相對(duì)化學(xué)沉淀等傳統(tǒng)工藝而言,萃取工藝的主要優(yōu)點(diǎn)是()。

題型:多項(xiàng)選擇題

依存句法分析(DependencyParsing)主要用于分析什么()?

題型:?jiǎn)雾?xiàng)選擇題

進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時(shí)會(huì)將數(shù)據(jù)集劃分為()。

題型:多項(xiàng)選擇題

在自然語言處理中,哪些方法可以用于提升自動(dòng)對(duì)話系統(tǒng)和文本摘要生成的自然性和流暢性()?

題型:多項(xiàng)選擇題

反向傳播算法的基本原理是基于什么()?

題型:多項(xiàng)選擇題