人人妻人人澡人人爽人人精品av_精品乱码一区内射人妻无码_老司机午夜福利视频_精品成品国色天香摄像头_99精品福利国产在线导航_野花社区在线观看视频_大地资源在线影视播放_东北高大肥胖丰满熟女_金门瓶马车内剧烈运动

首頁>國內(nèi) > 正文

圖像識別更準(zhǔn)確!尤洋團(tuán)隊(duì)最新研究:全新自適應(yīng)計算模型AdaTape

2023-08-23 13:18:20來源:新智元

自適應(yīng)計算(adaptive computation)是指ML統(tǒng)根據(jù)環(huán)境變化調(diào)整其行為的能力。


(相關(guān)資料圖)

傳統(tǒng)神經(jīng)網(wǎng)絡(luò)具有固定的功能和計算能力,即用相同數(shù)量的FLOP來處理不同的輸入。

但具有自適應(yīng)和動態(tài)計算的模型,根據(jù)輸入的復(fù)雜性調(diào)節(jié)其專用于處理每個輸入的計算預(yù)算。

神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)計算之所以吸引人,有兩個關(guān)鍵原因。

首先,引入自適應(yīng)的機(jī)制提供了一種歸納偏差,可以在解決一些具有挑戰(zhàn)性的任務(wù)中發(fā)揮關(guān)鍵作用。

例如,為不同的輸入啟用不同數(shù)量的計算步驟對于解決需要對不同深度的層次結(jié)構(gòu)進(jìn)行建模的算術(shù)問題至關(guān)重要。

其次,它使從業(yè)者能夠通過動態(tài)計算,提供的更大靈活性來調(diào)整推理成本。

來自谷歌團(tuán)隊(duì)發(fā)表的論文中,介紹了一種全新自適應(yīng)計算的新模型——AdaTape。

論文地址:https://arxiv.org/pdf/2301.13195.pdf

最新模型是基于Transverter架構(gòu),用動態(tài)tape token和自適應(yīng)Tape讀取算法來生成輸入序列,可提高圖像識別任務(wù)的性能。

AdaTape使用自適應(yīng)tape讀取機(jī)制,來確定根據(jù)輸入的復(fù)雜性,添加到每個輸入中的不同數(shù)量的tape token。

AdaTape實(shí)現(xiàn)起來非常簡單,在需要時提供了一個有效的knob來提高準(zhǔn)確性。

與其他自適應(yīng)基線相比,AdaTape也更高效,因?yàn)樗苯訉⑦m應(yīng)性注入輸入序列而不是模型深度。

最后,Adatape在標(biāo)準(zhǔn)任務(wù)(如圖像分類)以及算法任務(wù)上提供了更好的性能,同時保持良好的質(zhì)量和成本權(quán)衡。

彈性輸入序列的自適應(yīng)計算

AdaTape使用自適應(yīng)函數(shù)類型和動態(tài)計算預(yù)算。

具體來說,對于分詞后的一批輸入序列,AdaTape使用表示每個輸入的向量來動態(tài)選擇可變大小的tape token序列。

AdaTape使用稱為「tape bank」的token庫,來存儲通過自適應(yīng)tape讀取機(jī)制與模型交互的所有候選tape token。

研究人員稱,創(chuàng)建tape庫的2種不同方法:輸入驅(qū)動庫和可學(xué)習(xí)庫。

輸入驅(qū)動庫的總體思想,是從輸入中提取一組token庫,同時采用與原始模型分詞器不同的方法,將原始輸入映射到一系列輸入token序列。

這使得動態(tài)、按需訪問從使用不同圖像分辨率獲得的輸入信息。

AdaTape整體架構(gòu)

在某些情況下,由于不同抽象級別的分詞化是不可能的,因此輸入驅(qū)動的tape庫是不可行的。

例如當(dāng)很難進(jìn)一步拆分圖Transformer中的每個節(jié)點(diǎn)時。

為了解決這個問題,AdaTape提供了一種更通用的方法,通過使用一組可訓(xùn)練向量作為tape token來生成tape庫。

這種方法被稱為「可學(xué)習(xí)庫」,可以被視為嵌入層,其中模型可以根據(jù)輸入示例的復(fù)雜性動態(tài)檢索token。

可學(xué)習(xí)庫使AdaTape能夠生成更靈活的tape庫,使其能夠根據(jù)每個輸入示例的復(fù)雜性動態(tài)調(diào)整其計算預(yù)算。

例如,更復(fù)雜的示例從庫中檢索更多token,這使得模型不僅使用存儲在庫中的知識,而且花費(fèi)更多的FLOP來處理它,因?yàn)檩斎氍F(xiàn)在更大了。

最后,選定的tape token被附加到原始輸入,并饋送到以下Transformer層。

對于每個Transformer層,在所有輸入和tape token上使用相同的多頭注意力。

但是,使用了兩種不同的前饋網(wǎng)絡(luò)(FFN):一種用于來自原始輸入的所有token,另一種用于所有tape token。

研究人員觀察到,通過對輸入和tape token使用單獨(dú)前饋網(wǎng)絡(luò),質(zhì)量略好一些。

歸納偏差

我們在奇偶校驗(yàn)上評估AdaTape,這對標(biāo)準(zhǔn)Transformer來說是一項(xiàng)非常具有挑戰(zhàn)性的任務(wù),以研究AdaTape中歸納偏差的影響。

對于奇偶校驗(yàn)任務(wù),給定序列1、0和-1,模型必須預(yù)測序列中1的數(shù)量的均勻性或奇異性。

奇偶校驗(yàn)是周期性正則語言,但也許令人驚訝的是,這項(xiàng)任務(wù)是標(biāo)準(zhǔn)Transformer無法解決的。

對奇偶校驗(yàn)任務(wù)的評估

盡管在短而簡單的序列上進(jìn)行了評估,但標(biāo)準(zhǔn)Transformer和通用Transformer都無法執(zhí)行奇偶校驗(yàn)任務(wù),因?yàn)樗鼈儫o法在模型中維護(hù)計數(shù)器。

然而,AdaTape的性能優(yōu)于所有基線,因?yàn)樗谄漭斎脒x擇機(jī)制中結(jié)合了輕量級遞歸,提供了歸納偏差,可以隱式維護(hù)計數(shù)器,這在標(biāo)準(zhǔn)Transformer中是不可能的。

圖像分類評估

就圖像分類任務(wù),研究人員在ImageNet-1K上從頭開始訓(xùn)練AdaTape。

下圖顯示了AdaTape和基線方法的準(zhǔn)確性,包括A-ViT和通用Transformer ViT(UViT和U2T)與其速度(以每秒每個代碼處理的圖像數(shù)量衡量)。

在質(zhì)量和成本權(quán)衡方面,AdaTape的表現(xiàn),比替代的自適應(yīng)Transformer基線要好得多。

在效率方面,較大的AdaTape模型(就參數(shù)計數(shù)而言)比較小的基線更快。

通過在ImageNet上從頭開始訓(xùn)練來評估AdaTape

這樣的結(jié)果與之前的研究發(fā)現(xiàn)一致,即自適應(yīng)模型深度架構(gòu)不太適合許多加速器,如TPU。

對AdaTape行為研究

除了測試在奇偶校驗(yàn)任務(wù)和ImageNet-1K上的性能,研究人員還評估了AdaTape在JFT-300M驗(yàn)證集上,使用輸入驅(qū)動庫的token選擇行為。

為了更好地理解模型的行為,將輸入驅(qū)動庫上的token選擇結(jié)果可視化為熱圖,其中較淺的顏色意味著位置被更頻繁地選擇。

熱圖顯示AdaTape更頻繁地選擇中心patch。

這同樣符合先驗(yàn)知識,因?yàn)橹行膒atch通常信息更豐富。

尤其是在自然圖像數(shù)據(jù)集的上下文中,其中主要對象位于圖像中間。

這一結(jié)果凸顯了AdaTape的智能性,因?yàn)樗梢杂行У刈R別和優(yōu)先考慮更多信息patch,以提高其性能。

可視化AdaTape-B/32(左)和AdaTape-B/16(右)的tape token選擇熱圖

AdaTape的特點(diǎn)是,自適應(yīng)tape讀取機(jī)制產(chǎn)生的彈性序列長度。

這也引入了一種新的感應(yīng)偏置,使AdaTape有潛力解決,對標(biāo)準(zhǔn)Transformer和現(xiàn)有自適應(yīng)Transformer都具有挑戰(zhàn)性的任務(wù)。

通過對圖像識別基準(zhǔn)進(jìn)行綜合實(shí)驗(yàn),研究證明,當(dāng)計算保持不變時,AdaTape優(yōu)于標(biāo)準(zhǔn)和自適應(yīng)Transformer。

作者介紹

尤洋目前是新加坡國立大學(xué)校長青年教授。

2021年4月,入選亞洲福布斯30歲以下精英榜。他曾獲得了清華大學(xué)計算機(jī)系獲得碩士學(xué)位,還獲得了美國加利福尼亞大學(xué)伯克利分校計算機(jī)系獲得博士學(xué)位。

關(guān)鍵詞:

相關(guān)新聞

Copyright 2015-2020   三好網(wǎng)  版權(quán)所有 聯(lián)系郵箱:435 22 [email protected]  備案號: 京ICP備2022022245號-21