您可能感興趣的試卷
你可能感興趣的試題
A.反向傳播算法的學(xué)習(xí)過程由正向傳播過程和反向傳播過程組成
B.反向傳播算法適合于多層神經(jīng)網(wǎng)絡(luò),它建立在梯度下降法的基礎(chǔ)上
C.反向傳播階段將訓(xùn)練輸入送入網(wǎng)絡(luò)以獲得激勵(lì)響應(yīng)
D.反向傳播算法主要由兩個(gè)環(huán)節(jié)(激勵(lì)傳播.權(quán)重更新)反復(fù)循環(huán)迭代,直到網(wǎng)絡(luò)對(duì)輸入的響應(yīng)的目標(biāo)范圍為止
A.任意矩陣與單位矩陣相乘,都不會(huì)改變
B.對(duì)稱矩陣A的轉(zhuǎn)置還是A本身
C.正交矩陣A的轉(zhuǎn)置等于A的逆
D.對(duì)角矩陣不存在逆矩陣
A.sigmod
B.tainh
C.relu
D.danish
最新試題
在機(jī)器學(xué)習(xí)中,核技巧(KernelTrick)主要用于解決什么問題()?
智能運(yùn)維AIOps 的核心技術(shù)是什么()?
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?
在自然語言處理中,哪些技術(shù)適用于提升問答系統(tǒng)的性能()?
Xpath 語言有()的構(gòu)成。
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
在自然語言處理中,哪些方法可以用于提升自動(dòng)對(duì)話系統(tǒng)和文本摘要生成的自然性和流暢性()?
進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時(shí)會(huì)將數(shù)據(jù)集劃分為()。
數(shù)量歸約中無參數(shù)的方法一般使用()。
圖像數(shù)據(jù)標(biāo)注可以用于()算法中。