A.有激活函數(shù)
B.損失函數(shù)
C.濾波器
D.正則化器
您可能感興趣的試卷
你可能感興趣的試題
A.卷積層
B.池化層
C.全連接層
D.激活層
A.降低模型的偏差。
B.減少模型的方差。
C.增加模型的復(fù)雜度。
D.提高模型的泛化能力。
A.生成候選目標(biāo)框
B.預(yù)測(cè)目標(biāo)的類別
C.定位目標(biāo)的精確位置
D.提高目標(biāo)分辨率
A.減輕梯度消失問題
B.加速模型收斂
C.增加模型的泛化能力
D.減少模型參數(shù)
A.用于將文本轉(zhuǎn)換為模型可處理的數(shù)值向量的工具
B.用于評(píng)估模型性能的指標(biāo)
C.模型訓(xùn)練時(shí)的優(yōu)化算法
D.模型輸出的文本格式
最新試題
在自然語(yǔ)言處理中,哪些方法可以用于提升自動(dòng)文本摘要的生成效果()?
在深度學(xué)習(xí)模型訓(xùn)練中,"早停法"(EarlyStopping)策略的應(yīng)用目的是什么()?
屬性值約束主要有()。
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)有助于防止過擬合并提高模型在多任務(wù)學(xué)習(xí)上的表現(xiàn)()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?
集成學(xué)習(xí)在強(qiáng)化學(xué)習(xí)中的一個(gè)常見應(yīng)用是什么()?
相對(duì)化學(xué)沉淀等傳統(tǒng)工藝而言,萃取工藝的主要優(yōu)點(diǎn)是()。
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
人工智能中的“序列到序列”模型主要用于處理什么類型的數(shù)據(jù)()?
在自然語(yǔ)言處理中,哪些方法可以用于提升自動(dòng)對(duì)話系統(tǒng)和文本摘要生成的自然性和流暢性()?