A.選擇合適的損失函數(shù)
B.選擇合適的Mini-batchsize
C.選擇合適的激活函數(shù)
D.選擇合適的自適應(yīng)學(xué)習(xí)率
您可能感興趣的試卷
你可能感興趣的試題
A.訓(xùn)練數(shù)據(jù)太少
B.模型過(guò)于復(fù)雜
C.訓(xùn)練時(shí)間過(guò)長(zhǎng)
D.使用了過(guò)多的正則化
A.梯度下降
B.學(xué)習(xí)率調(diào)整
C.權(quán)重初始化
D.特征選擇
A.權(quán)重剪枝
B.模型量化
C.增加網(wǎng)絡(luò)層數(shù)
D.使用1x1卷積
A.重新采樣
B.修改損失函數(shù)
C.使用類別權(quán)重
D.早停法
A.學(xué)習(xí)率的大小
B.優(yōu)化算法的選擇
C.數(shù)據(jù)集的規(guī)模
D.網(wǎng)絡(luò)結(jié)構(gòu)的復(fù)雜度
最新試題
反向傳播算法的基本原理是基于什么()?
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)可以用于加速模型收斂和提高穩(wěn)定性()?
模型微調(diào)中的提示學(xué)習(xí)是指:()。
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
圖像數(shù)據(jù)標(biāo)注可以用于()算法中。
在深度學(xué)習(xí)模型訓(xùn)練中,"早停法"(EarlyStopping)策略的應(yīng)用目的是什么()?
智能運(yùn)維AIOps 的核心技術(shù)是什么()?
屬性值約束主要有()。
在強(qiáng)化學(xué)習(xí)中,什么是“馬爾可夫性質(zhì)”()?
在深度學(xué)習(xí)中,哪些技術(shù)可以用于加速模型訓(xùn)練并提高模型在圖像分類和文本處理任務(wù)上的精確度()?