您可能感興趣的試卷
你可能感興趣的試題
A.4
B.5
C.6
D.7
A.OLAP事務量大,但事務內(nèi)容比較簡單且重復率高
B.OLAP的最終數(shù)據(jù)來源與OLTP不一樣
C.OLTP面對的是決策人員和高層管理人員
D.OLTP以應用為核心,是應用驅(qū)動的
A.OLAP主要是關(guān)于如何理解聚集的大量不同的數(shù)據(jù).它與OTAP應用程序不同
B.與OLAP應用程序不同,OLTP應用程序包含大量相對簡單的事務
C.OLAP的特點在于事務量大,但事務內(nèi)容比較簡單且重復率高
D.OLAP是以數(shù)據(jù)倉庫為基礎(chǔ)的,但其最終數(shù)據(jù)來源與OLTP一樣均來自底層的數(shù)據(jù)庫系統(tǒng),兩者面對的用戶是相同的
關(guān)于OLAP的特性,下面正確的是()
(1)快速性(2)可分析性(3)多維性(4)信息性(5)共享性
A.(1)(2)(3)
B.(2)(3)(4)
C.(1)(2)(3)(4)
D.(1)(2)(3)(4)(5)
最新試題
由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。
任務調(diào)度系統(tǒng)的設(shè)計與實現(xiàn)才能使得數(shù)據(jù)收集工作可以不間斷地按照既定的目標從目標源獲取數(shù)據(jù)。
任何對數(shù)據(jù)處理與存儲系統(tǒng)的操作均需要記錄,這符合數(shù)據(jù)安全的要求。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因為SVM通常能夠在訓練集上實現(xiàn)更好的分類精度。
最大似然估計的一個缺點是,在某些情況下(例如,多項式分布),它可能會返回零的概率估計。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個值,并選擇最小化失真度量的值。
使決策樹更深將確保更好的擬合度,但會降低魯棒性。
訓練神經(jīng)網(wǎng)絡具有過度擬合訓練數(shù)據(jù)的潛在問題。
隨機梯度下降每次更新執(zhí)行的計算量少于批梯度下降。
當反向傳播算法運行到達到最小值時,無論初始權(quán)重是什么,總是會找到相同的解(即權(quán)重)。