A.K均值丟棄被它識別為噪聲的對象,而DBSCAN一般聚類所有對象
B.K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念
C.K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇
D.K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會合并有重疊的簇
您可能感興趣的試卷
你可能感興趣的試題
A.基于圖的凝聚度
B.基于原型的凝聚度
C.基于原型的分離度
D.基于圖的凝聚度和分離度
A.O(m)
B.O(m2)
C.O(logm)
D.O(m*logm)
A.MIN(單鏈)
B.MAX(全鏈)
C.組平均
D.Ward方法
A.MIN(單鏈)
B.MAX(全鏈)
C.組平均
D.Ward方法
A.統(tǒng)計方法
B.鄰近度
C.密度
D.聚類技術(shù)
最新試題
當反向傳播算法運行到達到最小值時,無論初始權(quán)重是什么,總是會找到相同的解(即權(quán)重)。
使用偏差較小的模型總是比偏差較大的模型更好。
支持向量機不適合大規(guī)模數(shù)據(jù)。
數(shù)據(jù)存儲體系中并不牽扯計算機網(wǎng)絡(luò)這一環(huán)節(jié)。
數(shù)據(jù)復(fù)制或者備份均是為了從提高數(shù)據(jù)并發(fā)這個角度來設(shè)計和實現(xiàn)的。
假設(shè)屬性的數(shù)量固定,則可以在時間上以線性方式學習基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因為SVM通常能夠在訓練集上實現(xiàn)更好的分類精度。
任務(wù)調(diào)度系統(tǒng)的設(shè)計與實現(xiàn)才能使得數(shù)據(jù)收集工作可以不間斷地按照既定的目標從目標源獲取數(shù)據(jù)。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個值,并選擇最小化失真度量的值。
隨機梯度下降每次更新執(zhí)行的計算量少于批梯度下降。