A.名稱
B.位置
C.屬性
D.內(nèi)容
您可能感興趣的試卷
你可能感興趣的試題
A.微積分法
B.微積分中的鏈?zhǔn)角髮?dǎo)法則
C.微積分中的二分法
D.微積分中的均方誤差
A.序列標(biāo)注
B.引入預(yù)訓(xùn)練模型
C.注意力機(jī)制
D.使用卷積神經(jīng)網(wǎng)絡(luò)
A.批量歸一化
B.使用卷積神經(jīng)網(wǎng)絡(luò)
C.數(shù)據(jù)增強(qiáng)
D.使用Dropout 技術(shù)
A.批量歸一化
B.數(shù)據(jù)增強(qiáng)
C.使用卷積神經(jīng)網(wǎng)絡(luò)
D.梯度裁剪
A.訓(xùn)練集
B.驗證集
C.測試集
D.備份集
最新試題
在強(qiáng)化學(xué)習(xí)中,什么是“動態(tài)規(guī)劃”(DynamicProgramming)()?
模型微調(diào)中的提示學(xué)習(xí)是指:()。
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
在深度學(xué)習(xí)模型中,用于提高模型訓(xùn)練穩(wěn)定性的技術(shù)是:()。
在自然語言處理中,哪些技術(shù)適用于提升問答系統(tǒng)的性能()?
在機(jī)器學(xué)習(xí)中,核技巧(KernelTrick)主要用于解決什么問題()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)有助于防止過擬合并提高模型在多任務(wù)學(xué)習(xí)上的表現(xiàn)()?
反向傳播算法的基本原理是基于什么()?
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點是什么()?