A.分類
B.回歸
C.模式發(fā)現(xiàn)
D.模式匹配
您可能感興趣的試卷
你可能感興趣的試題
A.決定要使用的表示的特征和結(jié)構(gòu)
B.決定如何量化和比較不同表示擬合數(shù)據(jù)的好壞
C.選擇一個(gè)算法過(guò)程使評(píng)分函數(shù)最優(yōu)
D.決定用什么樣的數(shù)據(jù)管理原則以高效地實(shí)現(xiàn)算法
A.模型
B.模式
C.模范
D.模具
A.JP聚類擅長(zhǎng)處理噪聲和離群點(diǎn),并且能夠處理不同大小、形狀和密度的簇
B.JP算法對(duì)高維數(shù)據(jù)效果良好,尤其擅長(zhǎng)發(fā)現(xiàn)強(qiáng)相關(guān)對(duì)象的緊致簇
C.JP聚類是基于SNN相似度的概念
D.JP聚類的基本時(shí)間復(fù)雜度為O(m)
A.概率
B.鄰近度
C.密度
D.聚類
A.STING
B.WaveCluster
C.MAFIA
D.BIRCH
最新試題
最大似然估計(jì)的一個(gè)缺點(diǎn)是,在某些情況下(例如,多項(xiàng)式分布),它可能會(huì)返回零的概率估計(jì)。
數(shù)據(jù)存儲(chǔ)體系中并不牽扯計(jì)算機(jī)網(wǎng)絡(luò)這一環(huán)節(jié)。
數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個(gè)信箱。
使用正則表達(dá)式可以找到一個(gè)文本文件中所有可能出現(xiàn)的手機(jī)號(hào)碼。
給定用于2類分類問(wèn)題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類精度。
通過(guò)統(tǒng)計(jì)學(xué)可以推測(cè)擲兩個(gè)撒子同時(shí)選中3點(diǎn)的幾率。
由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。
當(dāng)MAP中使用的先驗(yàn)是參數(shù)空間上的統(tǒng)一先驗(yàn)時(shí),MAP估計(jì)等于ML估計(jì)。
如果P(A B)= P(A),則P(A∩B)= P(A)P(B)。
數(shù)據(jù)收集中的拉模式需要通過(guò)定時(shí)的方式不斷地觸發(fā),才能源源不斷地獲取對(duì)應(yīng)的數(shù)據(jù)。