A.池化層會(huì)出現(xiàn)在每個(gè)隱藏層
B.池化層目的是做特征的題曲
C.池化層運(yùn)做完會(huì)得到特征圖(FeatureMap)
D.池化層可以取代卷積層
E.第一層的卷積運(yùn)算是在做圖像邊緣或紋理的特征提取
您可能感興趣的試卷
你可能感興趣的試題
A.Kai-FuLee
B.GeoffreyHinton
C.YoshuaBengio
D.YangLeCun
E.AndrewNg
A.RNN
B.CNN
C.FCNN
D.LSTM
E.GAN
A.以數(shù)學(xué)眼光來(lái)看CNN是NN的子集合
B.機(jī)器學(xué)習(xí)是深度學(xué)習(xí)的一種
C.人工智能是一種深度學(xué)習(xí)
D.深度學(xué)習(xí)通常隱藏層在百層以上的神經(jīng)網(wǎng)絡(luò),這樣才夠深
E.CNN是一種有記憶的神經(jīng)網(wǎng)絡(luò),會(huì)記得上一次的輸入
A.神經(jīng)網(wǎng)絡(luò)調(diào)整參數(shù)的方式是一種前饋神經(jīng)網(wǎng)絡(luò)(FeedforwardNeuralNetwork)
B.學(xué)習(xí)率在迭代的參數(shù)調(diào)整過(guò)程中會(huì)固定不變
C.梯度下降是運(yùn)用積分的技巧來(lái)達(dá)成
D.損失函數(shù)移動(dòng)的方向跟梯度的方向相同
E.神經(jīng)網(wǎng)絡(luò)調(diào)整參數(shù)的順序是從后面一層層往前調(diào)
A.損失函數(shù)是對(duì)每個(gè)輸入的預(yù)測(cè)值與真實(shí)值的差異計(jì)算總和
B.透過(guò)梯度下降一定可以找到降低損失函數(shù)的最佳解
C.損失函數(shù)的變量是可以調(diào)整的參數(shù)
D.訓(xùn)練神經(jīng)網(wǎng)絡(luò)是透過(guò)參數(shù)的調(diào)整來(lái)降低損失函數(shù)
E.梯度下降是降低損失函數(shù)的一種算法
最新試題
集成學(xué)習(xí)在強(qiáng)化學(xué)習(xí)中的一個(gè)常見(jiàn)應(yīng)用是什么()?
人工智能發(fā)展的早期階段主要側(cè)重于哪方面的研究()?
在機(jī)器學(xué)習(xí)中,核技巧(KernelTrick)主要用于解決什么問(wèn)題()?
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
屬性值約束主要有()。
在自然語(yǔ)言處理中,哪些方法可以用于提升自動(dòng)文本摘要的生成效果()?
反向傳播算法的基本原理是基于什么()?
進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類(lèi)。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時(shí)會(huì)將數(shù)據(jù)集劃分為()。
在自然語(yǔ)言處理中,哪些方法可以用于提升文本分類(lèi)、情感分析和實(shí)體識(shí)別的準(zhǔn)確性()?
在自然語(yǔ)言處理中,哪些技術(shù)適用于提升問(wèn)答系統(tǒng)的性能()?