A.CNN
B.LeNet
C.NN
D.GoogleNet
E.RNN
您可能感興趣的試卷
你可能感興趣的試題
A.Kai-FuLee
B.GeoffreyHinton
C.YoshuaBengio
D.AndrewNg
E.YangLeCun
A.約10萬(wàn)
B.約50萬(wàn)
C.約100萬(wàn)
D.約130萬(wàn)
E.約200萬(wàn)
A.當(dāng)一個(gè)深度神經(jīng)網(wǎng)絡(luò)以卷積層為主體時(shí),稱為卷積神經(jīng)網(wǎng)絡(luò)
B.需要對(duì)特征向量進(jìn)行轉(zhuǎn)換,經(jīng)常用的是全連接層
C.歸一化指數(shù)層的作用用于完成多類線性分類器中的歸一化指數(shù)函數(shù)的計(jì)算
D.常用的非線性函數(shù)為邏輯函數(shù)、雙曲線正切函數(shù)、線性整流函數(shù)
E.以上皆是
A.收集多樣化的樣本
B.減少特征個(gè)數(shù)
C.交叉驗(yàn)證
D.正規(guī)化
E.內(nèi)插法
A.二分類
B.多分類
C.不分類
D.歸類法
E.以上皆非
最新試題
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?
在自然語(yǔ)言處理中,哪些方法可以用于提升文本分類、情感分析和實(shí)體識(shí)別的準(zhǔn)確性()?
反向傳播算法的主要目的是什么()?
相對(duì)化學(xué)沉淀等傳統(tǒng)工藝而言,萃取工藝的主要優(yōu)點(diǎn)是()。
在機(jī)器學(xué)習(xí)中,核技巧(KernelTrick)主要用于解決什么問(wèn)題()?
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)有助于防止過(guò)擬合并提高模型在多任務(wù)學(xué)習(xí)上的表現(xiàn)()?
在強(qiáng)化學(xué)習(xí)中,什么是“動(dòng)態(tài)規(guī)劃”(DynamicProgramming)()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
圖像數(shù)據(jù)標(biāo)注可以用于()算法中。
智能運(yùn)維AIOps 的核心技術(shù)是什么()?