單項(xiàng)選擇題在自然語(yǔ)言處理中,BERT 模型相比于傳統(tǒng)的詞嵌入方法有什么優(yōu)勢(shì)()?

A.BERT 考慮了單詞之間的順序關(guān)系。
B.ERT 是一個(gè)靜態(tài)的詞嵌入模型。
C.BERT 不能用于下游任務(wù)。
D.BERT 不依賴于預(yù)訓(xùn)練階段。


您可能感興趣的試卷

你可能感興趣的試題

1.單項(xiàng)選擇題強(qiáng)化學(xué)習(xí)中近端策略優(yōu)化(ProximalPolicyOptimization-PPO)的目的是:()。

A.減少學(xué)習(xí)過(guò)程中的方差
B.加速模型的收斂速度
C.優(yōu)化策略的穩(wěn)定性
D.提高策略的探索能力

2.單項(xiàng)選擇題層次聚類方法中,凝聚的層次聚類是從什么開始()?

A.將每個(gè)數(shù)據(jù)點(diǎn)視為一個(gè)單獨(dú)的簇
B.將所有數(shù)據(jù)點(diǎn)視為一個(gè)簇
C.隨機(jī)選擇數(shù)據(jù)點(diǎn)作為簇
D.根據(jù)數(shù)據(jù)的分布選擇簇

3.單項(xiàng)選擇題下列不屬于Keras 的核心模塊的是()。

A.有激活函數(shù)
B.損失函數(shù)
C.濾波器
D.正則化器

5.單項(xiàng)選擇題在機(jī)器學(xué)習(xí)中,提升方法(Boosting)的主要目的是什么()?

A.降低模型的偏差。
B.減少模型的方差。
C.增加模型的復(fù)雜度。
D.提高模型的泛化能力。

最新試題

在自然語(yǔ)言處理任務(wù)中,哪些技術(shù)適用于提升文本分類的性能()?

題型:多項(xiàng)選擇題

反向傳播算法的基本原理是基于什么()?

題型:多項(xiàng)選擇題

相對(duì)化學(xué)沉淀等傳統(tǒng)工藝而言,萃取工藝的主要優(yōu)點(diǎn)是()。

題型:多項(xiàng)選擇題

在自然語(yǔ)言處理任務(wù)中,哪些技術(shù)適用于改善實(shí)體識(shí)別和關(guān)系抽取的效果()?

題型:多項(xiàng)選擇題

反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?

題型:多項(xiàng)選擇題

根據(jù)新數(shù)據(jù)集的大小和數(shù)據(jù)集的相似程度,下列選項(xiàng)不屬于遷移學(xué)習(xí)方法情況的是的是()。

題型:?jiǎn)雾?xiàng)選擇題

在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?

題型:?jiǎn)雾?xiàng)選擇題

依存句法分析(DependencyParsing)主要用于分析什么()?

題型:?jiǎn)雾?xiàng)選擇題

在自然語(yǔ)言處理中,哪些方法可以用于提升自動(dòng)對(duì)話系統(tǒng)和文本摘要生成的自然性和流暢性()?

題型:多項(xiàng)選擇題

人工智能中的“序列到序列”模型主要用于處理什么類型的數(shù)據(jù)()?

題型:?jiǎn)雾?xiàng)選擇題