A.訓(xùn)練時(shí)間
B.模型大小
C.收斂速度
D.輸入數(shù)據(jù)格式
您可能感興趣的試卷
你可能感興趣的試題
A.模型簡單,易于理解
B.特征之間相互獨(dú)立
C.適用于小數(shù)據(jù)集
D.只能處理二分類問題
A.協(xié)同過濾
B.基于內(nèi)容的推薦
C.基于行為的推薦
D.關(guān)聯(lián)規(guī)則挖掘
A.抵抗過擬合
B.加快模型收斂速度
C.增加網(wǎng)絡(luò)特征提取能力
D.抵抗梯度消失
A.醫(yī)學(xué)
B.物理學(xué)
C.人工智能
D.經(jīng)濟(jì)學(xué)
A.圖形化交互
B.語音交互
C.對(duì)話式交互
D.多模態(tài)交互
最新試題
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)有助于防止過擬合并提高模型在多任務(wù)學(xué)習(xí)上的表現(xiàn)()?
在自然語言處理中,哪些方法可以用于提升文本分類、情感分析和實(shí)體識(shí)別的準(zhǔn)確性()?
反向傳播算法的基本原理是基于什么()?
在強(qiáng)化學(xué)習(xí)中,什么是“動(dòng)態(tài)規(guī)劃”(DynamicProgramming)()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
集成學(xué)習(xí)在強(qiáng)化學(xué)習(xí)中的一個(gè)常見應(yīng)用是什么()?
在深度學(xué)習(xí)中,哪些方法可以用于優(yōu)化模型訓(xùn)練過程并提高模型在特定任務(wù)上的表現(xiàn)()?
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?
在深度學(xué)習(xí)模型中,用于提高模型訓(xùn)練穩(wěn)定性的技術(shù)是:()。
屬性值約束主要有()。