A.輪廓系數(shù)
B.共性分類相關(guān)系數(shù)
C.熵
D.F度量
您可能感興趣的試卷
你可能感興趣的試題
A.規(guī)則集的表達能力遠不如決策樹好
B.基于規(guī)則的分類器都對屬性空間進行直線劃分,并將類指派到每個劃分
C.無法被用來產(chǎn)生更易于解釋的描述性模型
D.非常適合處理類分布不平衡的數(shù)據(jù)集
A.構(gòu)造網(wǎng)絡(luò)費時費力
B.對模型的過分問題非常魯棒
C.貝葉斯網(wǎng)絡(luò)不適合處理不完整的數(shù)據(jù)
D.網(wǎng)絡(luò)結(jié)構(gòu)確定后,添加變量相當麻煩
A.F1度量
B.召回率(recall)
C.精度(precision)
D.真正率(ture positive rate,TPR)
A.預(yù)測準確度
B.召回率
C.模型描述的簡潔度
D.計算復(fù)雜度
A.其支持度小于閾值
B.都是不讓人感興趣的
C.包含負模式和負相關(guān)模式
D.對異常數(shù)據(jù)項敏感
最新試題
假設(shè)屬性的數(shù)量固定,則可以在時間上以線性方式學(xué)習(xí)基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。
隨機梯度下降每次更新執(zhí)行的計算量少于批梯度下降。
由于決策樹學(xué)會了對離散值輸出而不是實值函數(shù)進行分類,因此它們不可能過度擬合。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個值,并選擇最小化失真度量的值。
訓(xùn)練神經(jīng)網(wǎng)絡(luò)具有過度擬合訓(xùn)練數(shù)據(jù)的潛在問題。
使決策樹更深將確保更好的擬合度,但會降低魯棒性。
無論質(zhì)心的初始化如何,K-Means始終會給出相同的結(jié)果。
最大似然估計的一個缺點是,在某些情況下(例如,多項式分布),它可能會返回零的概率估計。
根據(jù)數(shù)據(jù)科學(xué)家與數(shù)據(jù)工程師對于問題的理解并相互討論,然后確定需要收集數(shù)據(jù)的范圍以及種類,然后數(shù)據(jù)工程師使用數(shù)據(jù)收集工具,架構(gòu),甚至編程的形式來進行數(shù)據(jù)收集的工作,然后并把數(shù)據(jù)收集的數(shù)據(jù)放置到對應(yīng)的存儲系統(tǒng)。
數(shù)據(jù)收集中的拉模式需要通過定時的方式不斷地觸發(fā),才能源源不斷地獲取對應(yīng)的數(shù)據(jù)。