A.主成分分析
B.特征提取
C.奇異值分解
D.特征加權(quán)
E.離散化
您可能感興趣的試卷
你可能感興趣的試題
A.連續(xù)性
B.維度
C.稀疏性
D.分辨率
E.相異性
A.時序數(shù)據(jù)
B.序列數(shù)據(jù)
C.時間序列數(shù)據(jù)
D.事務(wù)數(shù)據(jù)
E.空間數(shù)據(jù)
A.不一致
B.重復(fù)
C.不完整
D.含噪聲
E.維度高
A.矩陣
B.平行坐標(biāo)系
C.星形坐標(biāo)
D.散布圖
E.Chernoff臉
A.忽略元組
B.使用屬性的平均值填充空缺值
C.使用一個全局常量填充空缺值
D.使用與給定元組屬同一類的所有樣本的平均值
E.使用最可能的值填充空缺值
最新試題
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個值,并選擇最小化失真度量的值。
數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個信箱。
當(dāng)數(shù)據(jù)集標(biāo)簽錯誤的數(shù)據(jù)點時,隨機森林通常比AdaBoost更好。
使用正則表達式可以找到一個文本文件中所有可能出現(xiàn)的手機號碼。
要將工作申請分為兩類,并使用密度估計來檢測離職申請人,我們可以使用生成分類器。
小數(shù)據(jù)集的數(shù)據(jù)處理最好也由計算機手段來完成。
當(dāng)反向傳播算法運行到達到最小值時,無論初始權(quán)重是什么,總是會找到相同的解(即權(quán)重)。
最大似然估計的一個缺點是,在某些情況下(例如,多項式分布),它可能會返回零的概率估計。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因為SVM通常能夠在訓(xùn)練集上實現(xiàn)更好的分類精度。
使用偏差較小的模型總是比偏差較大的模型更好。