A.梯度裁剪
B.權(quán)重衰減
C.批量歸一化
D.增加學(xué)習(xí)率
您可能感興趣的試卷
你可能感興趣的試題
A.輸出值總是正的
B.輸出值總是負(fù)的
C.輸出值在0和1之間
D.輸出值在-1和1之間
A.小數(shù)據(jù)集、相似數(shù)據(jù)
B.小數(shù)據(jù)集、不相似數(shù)據(jù)
C.大數(shù)據(jù)集、相似數(shù)據(jù)
D.數(shù)據(jù)集、相似數(shù)據(jù)
A.強(qiáng)化學(xué)習(xí)算法的組合
B.強(qiáng)化學(xué)習(xí)算法與監(jiān)督學(xué)習(xí)算法的集成
C.強(qiáng)化學(xué)習(xí)算法與無監(jiān)督學(xué)習(xí)算法的集成
D.強(qiáng)化學(xué)習(xí)算法與半監(jiān)督學(xué)習(xí)算法的集成
A.一種用于優(yōu)化策略的方法
B.一種用于計(jì)算狀態(tài)值的方法
C.一種用于選擇動作的規(guī)則
D.一種用于表示環(huán)境模型的數(shù)據(jù)結(jié)構(gòu)
A.智能體可以隨時選擇任何動作
B.環(huán)境的動態(tài)會隨時間改變
C.下一個狀態(tài)只取決于當(dāng)前狀態(tài)和采取的動作
D.智能體可以看到完整的狀態(tài)空間
最新試題
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?
在深度學(xué)習(xí)中,哪些方法可以用于優(yōu)化模型訓(xùn)練過程并提高模型在特定任務(wù)上的表現(xiàn)()?
在機(jī)器學(xué)習(xí)中,核技巧(KernelTrick)主要用于解決什么問題()?
智能運(yùn)維AIOps 的核心技術(shù)是什么()?
Xpath 語言有()的構(gòu)成。
在自然語言處理中,哪些方法可以用于提升自動對話系統(tǒng)和文本摘要生成的自然性和流暢性()?
進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時會將數(shù)據(jù)集劃分為()。
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
在深度學(xué)習(xí)中,哪些技術(shù)可以用于加速模型訓(xùn)練并提高模型在圖像分類和文本處理任務(wù)上的精確度()?