A.A*算法
B.與或樹搜索
C.極大極小分析法
D.α-β剪枝技術(shù)
您可能感興趣的試卷
你可能感興趣的試題
A.最大池化法
B.平均池化法
C.概率池化法
D.最小池化法
A.TopK池化
B.SortPooling
C.EdPooling
D.SAGPooling
E.DiffPooling
A.用于確定某些應(yīng)該從搜索樹中拋棄或修剪的節(jié)點
B.用于決定要生成哪一個或哪幾個后繼節(jié)點
C.用于決定應(yīng)先擴展哪一個節(jié)點
D.用于決定節(jié)點的類型
A.選擇合適的損失函數(shù)
B.選擇合適的Mini-batchsize
C.選擇合適的激活函數(shù)
D.選擇合適的自適應(yīng)學(xué)習(xí)率
A.訓(xùn)練數(shù)據(jù)太少
B.模型過于復(fù)雜
C.訓(xùn)練時間過長
D.使用了過多的正則化
最新試題
在深度學(xué)習(xí)中,哪些技術(shù)可以用于加速模型訓(xùn)練并提高模型在圖像分類和文本處理任務(wù)上的精確度()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?
在強化學(xué)習(xí)中,什么是“動態(tài)規(guī)劃”(DynamicProgramming)()?
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)有助于防止過擬合并提高模型在多任務(wù)學(xué)習(xí)上的表現(xiàn)()?
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點是什么()?
在自然語言處理中,哪些技術(shù)可以用于改善實體識別和文本生成任務(wù)的性能()?
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
在深度學(xué)習(xí)模型訓(xùn)練中,"早停法"(EarlyStopping)策略的應(yīng)用目的是什么()?
圖像數(shù)據(jù)標(biāo)注可以用于()算法中。
在深度學(xué)習(xí)模型中,用于提高模型訓(xùn)練穩(wěn)定性的技術(shù)是:()。