A.曼哈頓距離
B.平方歐幾里德距離
C.余弦距離
D.Bregman散度
您可能感興趣的試卷
你可能感興趣的試題
A.層次聚類
B.劃分聚類
C.非互斥聚類
D.模糊聚類
A.組合(ensemble)
B.聚集(aggregate)
C.合并(combination)
D.投票(voting)
A.0.75
B.0.35
C.0.4678
D.0.5738
A.無(wú)序規(guī)則
B.窮舉規(guī)則
C.互斥規(guī)則
D.有序規(guī)則
A.無(wú)序規(guī)則
B.窮舉規(guī)則
C.互斥規(guī)則
D.有序規(guī)則
最新試題
經(jīng)常跟管理層打交道并進(jìn)行有效地關(guān)于商業(yè)領(lǐng)域的討論有助于數(shù)據(jù)科學(xué)項(xiàng)目的成功。
假設(shè)屬性的數(shù)量固定,則可以在時(shí)間上以線性方式學(xué)習(xí)基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。
通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時(shí),我們幾乎總是可以通過允許更多隱藏狀態(tài)來(lái)增加訓(xùn)練數(shù)據(jù)的可能性。
要將工作申請(qǐng)分為兩類,并使用密度估計(jì)來(lái)檢測(cè)離職申請(qǐng)人,我們可以使用生成分類器。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類精度。
數(shù)據(jù)收集中的拉模式需要通過定時(shí)的方式不斷地觸發(fā),才能源源不斷地獲取對(duì)應(yīng)的數(shù)據(jù)。
數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個(gè)信箱。
非結(jié)構(gòu)化數(shù)據(jù)也可以使用關(guān)系型數(shù)據(jù)庫(kù)來(lái)存儲(chǔ)。
使用偏差較小的模型總是比偏差較大的模型更好。
訓(xùn)練神經(jīng)網(wǎng)絡(luò)具有過度擬合訓(xùn)練數(shù)據(jù)的潛在問題。