A.學(xué)習(xí)率衰減(LearningRateDecay)
B.動量(Momentum)
C.學(xué)習(xí)率調(diào)度(LearningRateScheduling)
D.學(xué)習(xí)率重置(LearningRateReset)
您可能感興趣的試卷
你可能感興趣的試題
A.U-Net
B.YOLO
C.MaskR-CNN
D.VAE
A.Word2Vec
B.GloVe
C.BERT
D.LSTM
A.RNN
B.LSTM
C.Transformer
D.CNN
A.GPT
B.BERT
C.LSTM
D.CNN
A.Encoder-Decoder模型
B.Attention機(jī)制
C.LSTM
D.Transformer
最新試題
圖像數(shù)據(jù)標(biāo)注可以用于()算法中。
根據(jù)新數(shù)據(jù)集的大小和數(shù)據(jù)集的相似程度,下列選項(xiàng)不屬于遷移學(xué)習(xí)方法情況的是的是()。
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?
在自然語言處理任務(wù)中,哪些技術(shù)適用于改善實(shí)體識別和關(guān)系抽取的效果()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
在自然語言處理任務(wù)中,哪些技術(shù)適用于提升實(shí)體識別和文本理解的準(zhǔn)確性和效率()?
人工智能中的“序列到序列”模型主要用于處理什么類型的數(shù)據(jù)()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?
在強(qiáng)化學(xué)習(xí)中,什么是“動態(tài)規(guī)劃”(DynamicProgramming)()?
在自然語言處理中,哪些技術(shù)適用于提升問答系統(tǒng)的性能()?