單項(xiàng)選擇題TensorFlow中不支持哪種方式定義變量()

A.隨機(jī)數(shù)
B.常數(shù)
C.通過(guò)其他變初始值計(jì)算得到
D.null


您可能感興趣的試卷

你可能感興趣的試題

1.單項(xiàng)選擇題以下選項(xiàng)中關(guān)于圖像識(shí)別云服務(wù)器描述錯(cuò)誤的是()

A.服務(wù)可以識(shí)別出摩天大樓.建筑.船舶這樣具體的物體
B.服務(wù)也可以識(shí)別出大海.城市.港口等場(chǎng)景
C.服務(wù)可對(duì)圖片中的內(nèi)容進(jìn)行語(yǔ)義分析,提取出具體抽象意義的標(biāo)簽
D.服務(wù)可以提供物體和場(chǎng)景標(biāo)簽,也能較多的提供概念標(biāo)簽

2.單項(xiàng)選擇題在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果以某種方法知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,你就可以近似任何函數(shù)。實(shí)現(xiàn)這個(gè)最佳的辦法是什么()

A.隨機(jī)賦值,祈禱它們是正確的
B.搜索所有權(quán)重和偏差的組合,直到得到最佳值
C.賦于一個(gè)初始值,通過(guò)檢查跟最佳值的差值,然后迭代更新權(quán)重
D.以上都不正確

4.單項(xiàng)選擇題關(guān)于反向傳播描述錯(cuò)誤的是()

A.反向傳播算法的學(xué)習(xí)過(guò)程由正向傳播過(guò)程和反向傳播過(guò)程組成
B.反向傳播算法適合于多層神經(jīng)網(wǎng)絡(luò),它建立在梯度下降法的基礎(chǔ)上
C.反向傳播階段將訓(xùn)練輸入送入網(wǎng)絡(luò)以獲得激勵(lì)響應(yīng)
D.反向傳播算法主要由兩個(gè)環(huán)節(jié)(激勵(lì)傳播.權(quán)重更新)反復(fù)循環(huán)迭代,直到網(wǎng)絡(luò)對(duì)輸入的響應(yīng)的目標(biāo)范圍為止

最新試題

在深度學(xué)習(xí)模型中,用于提高模型訓(xùn)練穩(wěn)定性的技術(shù)是:()。

題型:?jiǎn)雾?xiàng)選擇題

在自然語(yǔ)言處理中,哪些方法可以用于提升自動(dòng)文本摘要的生成效果()?

題型:多項(xiàng)選擇題

在自然語(yǔ)言處理任務(wù)中,哪些技術(shù)適用于提升文本分類(lèi)的性能()?

題型:多項(xiàng)選擇題

在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)有助于防止過(guò)擬合并提高模型在多任務(wù)學(xué)習(xí)上的表現(xiàn)()?

題型:多項(xiàng)選擇題

數(shù)量歸約中無(wú)參數(shù)的方法一般使用()。

題型:多項(xiàng)選擇題

模型微調(diào)中的提示學(xué)習(xí)是指:()。

題型:?jiǎn)雾?xiàng)選擇題

進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類(lèi)。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時(shí)會(huì)將數(shù)據(jù)集劃分為()。

題型:多項(xiàng)選擇題

在自然語(yǔ)言處理中,哪些方法可以用于提升文本分類(lèi)、情感分析和實(shí)體識(shí)別的準(zhǔn)確性()?

題型:多項(xiàng)選擇題

圖像數(shù)據(jù)標(biāo)注可以用于()算法中。

題型:多項(xiàng)選擇題

在深度學(xué)習(xí)中,哪些方法可以用于優(yōu)化模型訓(xùn)練過(guò)程并提高模型在特定任務(wù)上的表現(xiàn)()?

題型:多項(xiàng)選擇題