A.BERT 考慮了單詞之間的順序關(guān)系。
B.ERT 是一個(gè)靜態(tài)的詞嵌入模型。
C.BERT 不能用于下游任務(wù)。
D.BERT 不依賴于預(yù)訓(xùn)練階段。
您可能感興趣的試卷
你可能感興趣的試題
A.減少學(xué)習(xí)過(guò)程中的方差
B.加速模型的收斂速度
C.優(yōu)化策略的穩(wěn)定性
D.提高策略的探索能力
A.將每個(gè)數(shù)據(jù)點(diǎn)視為一個(gè)單獨(dú)的簇
B.將所有數(shù)據(jù)點(diǎn)視為一個(gè)簇
C.隨機(jī)選擇數(shù)據(jù)點(diǎn)作為簇
D.根據(jù)數(shù)據(jù)的分布選擇簇
A.有激活函數(shù)
B.損失函數(shù)
C.濾波器
D.正則化器
A.卷積層
B.池化層
C.全連接層
D.激活層
A.降低模型的偏差。
B.減少模型的方差。
C.增加模型的復(fù)雜度。
D.提高模型的泛化能力。
最新試題
在自然語(yǔ)言處理任務(wù)中,哪些技術(shù)適用于提升文本分類的性能()?
反向傳播算法的基本原理是基于什么()?
相對(duì)化學(xué)沉淀等傳統(tǒng)工藝而言,萃取工藝的主要優(yōu)點(diǎn)是()。
在自然語(yǔ)言處理任務(wù)中,哪些技術(shù)適用于改善實(shí)體識(shí)別和關(guān)系抽取的效果()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
根據(jù)新數(shù)據(jù)集的大小和數(shù)據(jù)集的相似程度,下列選項(xiàng)不屬于遷移學(xué)習(xí)方法情況的是的是()。
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?
依存句法分析(DependencyParsing)主要用于分析什么()?
在自然語(yǔ)言處理中,哪些方法可以用于提升自動(dòng)對(duì)話系統(tǒng)和文本摘要生成的自然性和流暢性()?
人工智能中的“序列到序列”模型主要用于處理什么類型的數(shù)據(jù)()?