A.析取
B.合取
C.蘊(yùn)含
D.雙條件
您可能感興趣的試卷
你可能感興趣的試題
A.最少
B.最多
C.任意
D.以上答案均不正確
A.謂詞符號(hào)
B.變量符號(hào)
C.人名符號(hào)
D.地名符號(hào)
A.數(shù)據(jù)預(yù)處理
B.數(shù)據(jù)交換
C.數(shù)據(jù)挖掘
D.知識(shí)評(píng)價(jià)
A.專家系統(tǒng)
B.進(jìn)化算法
C.遺傳算法
D.禁忌搜索
A.數(shù)據(jù)加密
B.原型機(jī)的開發(fā)和實(shí)驗(yàn)
C.知識(shí)評(píng)價(jià)
D.尋找問題
最新試題
進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時(shí)會(huì)將數(shù)據(jù)集劃分為()。
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?
反向傳播算法的基本原理是基于什么()?
圖像數(shù)據(jù)標(biāo)注可以用于()算法中。
在自然語言處理任務(wù)中,哪些技術(shù)適用于提升實(shí)體識(shí)別和文本理解的準(zhǔn)確性和效率()?
數(shù)量歸約中無參數(shù)的方法一般使用()。
根據(jù)新數(shù)據(jù)集的大小和數(shù)據(jù)集的相似程度,下列選項(xiàng)不屬于遷移學(xué)習(xí)方法情況的是的是()。
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
屬性值約束主要有()。