A.輸出層
B.輸入層
C.隱藏層
D.表現(xiàn)層
E.激發(fā)層
您可能感興趣的試卷
你可能感興趣的試題
A.分類的算法都稱為監(jiān)督式學(xué)習(xí)
B.分類的算法都稱為非監(jiān)督式學(xué)習(xí)
C.分群的算法都稱為監(jiān)督式學(xué)習(xí)
D.分群的算法都稱為非監(jiān)督式學(xué)習(xí)
E.判定樹(decisiontree)是機(jī)器學(xué)習(xí)分類的技術(shù)
A.大量數(shù)據(jù)變的可得
B.CPU計(jì)算能力的提升
C.GPU計(jì)算能力的提升
D.社群網(wǎng)絡(luò)的發(fā)達(dá)
E.深度學(xué)習(xí)的發(fā)展
A.學(xué)習(xí)(訓(xùn)練)
B.把問題化成函數(shù)的形式
C.打造一個函數(shù)學(xué)習(xí)機(jī)
D.收集歷史資料
E.先問一個問題
A.定義域中可以有元素不用對應(yīng)到值域中的元素
B.值域中可以有元素不用被對應(yīng)到
C.定義域的每個元素都必須有對應(yīng)值在值域
D.定義域的1個元素不可以有多個對應(yīng)元素出現(xiàn)在值域
E.值域中的1個元素可以被多個定義域中的元素所對應(yīng)
A.CNN
B.LeNet
C.NN
D.GoogleNet
E.RNN
最新試題
在自然語言處理任務(wù)中,哪些技術(shù)適用于提升文本分類的性能()?
在自然語言處理中,哪些方法可以用于提升文本分類、情感分析和實(shí)體識別的準(zhǔn)確性()?
根據(jù)新數(shù)據(jù)集的大小和數(shù)據(jù)集的相似程度,下列選項(xiàng)不屬于遷移學(xué)習(xí)方法情況的是的是()。
人工智能發(fā)展的早期階段主要側(cè)重于哪方面的研究()?
模型微調(diào)中的提示學(xué)習(xí)是指:()。
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)可以用于加速模型收斂和提高穩(wěn)定性()?
進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時會將數(shù)據(jù)集劃分為()。
反向傳播算法的基本原理是基于什么()?
集成學(xué)習(xí)在強(qiáng)化學(xué)習(xí)中的一個常見應(yīng)用是什么()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?