2023-07-04 12:09:52來源:量子位
本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。
只要你用了ReLU,我們就是好朋就是“淺度學(xué)習(xí)”。
最近有研究證明,所有基于ReLU的深度神經(jīng)網(wǎng)絡(luò)都可以重寫為功能相同的3層神經(jīng)網(wǎng)絡(luò)。
【資料圖】
基于這個證明,倫敦國王學(xué)院的研究團隊還提出一種為任意ReLU網(wǎng)絡(luò)找到相應(yīng)淺層網(wǎng)絡(luò)的算法。
由此產(chǎn)生的淺層網(wǎng)絡(luò)是透明的,可用于解釋網(wǎng)絡(luò)的行為。
只要通過算法,就能找到任意深度ReLU網(wǎng)絡(luò)的對應(yīng)淺層網(wǎng)絡(luò)。
圖片
對此網(wǎng)友驚呼:我要讀這篇論文,立刻馬上!
圖片
任何深度ReLU網(wǎng)絡(luò)都是淺層的ReLU是深度學(xué)習(xí)領(lǐng)域最常用的一種激活函數(shù),由Nair & Hintonw在2010為限制玻爾茲曼機(restricted Boltzmann machines)提出的。
由于常常在實踐中有著比其他常用激勵函數(shù)(例如邏輯函數(shù))更好的效果,而被深度神經(jīng)網(wǎng)絡(luò)廣泛用于圖像識別等計算機視覺人工智能領(lǐng)域。
論文指出,每個深度ReLU網(wǎng)絡(luò)都可以轉(zhuǎn)換為一個功能相同且具有“三個隱藏層”的淺層網(wǎng)絡(luò)。并提供了一個找到對應(yīng)淺層網(wǎng)絡(luò)權(quán)重的算法,提高神經(jīng)網(wǎng)絡(luò)的全局可解釋性。
簡單來說就是,通過劃分輸入空間,使用線性函數(shù)對每個分區(qū)進行建模,來實現(xiàn)深層網(wǎng)絡(luò)淺化。
圖片
具體分為這三步。
圖片
首先,需要構(gòu)建一個將線性模型和半空間編碼的第一層,通過使用一個矩陣來表示半空間條件,其中每個行向量表示一個半空間的線性方程。
然后,構(gòu)建第二層,該層根據(jù)輸入的所屬區(qū)域決定哪些邊界是活躍的。
最后,構(gòu)建第三層,通過將輸入與每個線性模型相乘并使用指示函數(shù)來選擇正確的模型。
基于此,每一個深度ReLU網(wǎng)絡(luò)都可以被轉(zhuǎn)換為一個功能上相同的三層網(wǎng)絡(luò),其權(quán)重值在擴展實數(shù)中。
當(dāng)然要完成淺化,還需要一些咒(suan)語(fa)。
根據(jù)論文,使用算法時只需找到H、c、α、β這些參數(shù),并知道每個區(qū)域所需的半空間就可以,主要分三步。
首先,識別可行的模式集,對于每個可行模式,計算全局線性規(guī)劃的參數(shù)A(l)和d(l)。
然后,確定半空間條件,將這些矩陣堆疊起來,確定每個激活模式的半空間條件。最終得到矩陣H和向量c。
最后,計算局部線性模型,根據(jù)模型的權(quán)重和激活模式,使用顯式公式,計算局部線性模型α和β。
圖片
簡單理解,就是根據(jù)已訓(xùn)練好的網(wǎng)絡(luò),通過啟發(fā)式搜索在可能的神經(jīng)元激活空間中找到合適的權(quán)重值。
通過構(gòu)建淺層白盒網(wǎng)絡(luò),能夠快速計算出每個數(shù)據(jù)點的SHAP值,大大提高數(shù)據(jù)的可解釋性。
實驗表明,通過上面算法就可以找到給定深度ReLU網(wǎng)絡(luò)對應(yīng)的淺層網(wǎng)絡(luò)的顯式權(quán)重。
網(wǎng)友:實驗很酷,但也有些問題論文很新穎的提出一個算法,可以實現(xiàn)“深轉(zhuǎn)淺”,不過該方法仍有一些缺點。
比如構(gòu)建淺層網(wǎng)絡(luò)使用了無限權(quán)重,盡管這些權(quán)重可以在Python中實現(xiàn),但不能使用梯度下降進行微調(diào)。
當(dāng)然,“找茬兒”這塊,怎能少得了熱心腸的網(wǎng)友。
根據(jù)論文可以發(fā)現(xiàn),如果使用團隊提供的算法,實驗過程中計算時間其實是會隨著神經(jīng)元數(shù)量增加呈指數(shù)增長。
所以就有網(wǎng)友提出疑惑:算法運行時間與神經(jīng)元數(shù)量成指數(shù)關(guān)系,12個神經(jīng)元需要近10分鐘,那計算一個普通大小的DNN所需時間豈不是長了去了……
圖片
網(wǎng)友指出:假設(shè)單層神經(jīng)網(wǎng)絡(luò)可以計算任何函數(shù),那么對于任何神經(jīng)網(wǎng)絡(luò)來說,這不是都成立嗎?
圖片
對于這個研究,也有網(wǎng)友犀利表示:這就是個「普遍逼近定理」,沒什么大驚小怪的。
不過無論網(wǎng)友怎么說,這篇論文仍然有一些出彩點。
比如,通過這個方式得到的淺層網(wǎng)絡(luò)是透明的,可以用來生成模型行為的解釋。
此外還提供了用于復(fù)現(xiàn)實驗的代碼,供其他研究人員使用來探索和實驗。
論文地址已經(jīng)貼在下面,感興趣可以去看看~
論文傳送門:https://arxiv.org/abs/2306.11827
關(guān)鍵詞:
本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。
精進電動(688280)07月04日在投資者關(guān)系平臺上答復(fù)了投資者關(guān)心的問題。
7月3日,二三四五(002195)融資買入1276 22萬元,融資償還1632 46萬元
大數(shù)據(jù)文摘出品作者:Caleb如果一個網(wǎng)站每個月有超過20億人訪問,每人
隨著信息技術(shù)和互聯(lián)網(wǎng)的發(fā)展,票務(wù)系統(tǒng)也在不斷升級,比如實現(xiàn)了移動支
一、解決大圖內(nèi)存 計算問題的三個范式在兩年前做的tutorial里面,我們
大型語言模型(LLM)已經(jīng)很強了,但還可以更強。通過結(jié)合知識圖譜,LLM
每個企業(yè)中都有一些問題員工,但是管理IT領(lǐng)域的員工有一系列特定的挑戰(zhàn)
在貴州榕江縣進行的“和美鄉(xiāng)村足球超級聯(lián)賽”持續(xù)火爆網(wǎng)絡(luò),目前,“村
慧算賬隸屬于北京公瑾科技有限公司,成立于2015年4月,是中國起步較早
珠海提出以工業(yè)化思維發(fā)展預(yù)制菜工程,建立生態(tài)聯(lián)盟,打造預(yù)制菜“燈塔
Redis是一種開源的內(nèi)存數(shù)據(jù)結(jié)構(gòu)存儲系統(tǒng),它支持五種基本數(shù)據(jù)類型:字
7月4日消息,MetaGPT是一個著重于代碼生成的AI模型,雖然名字類似,但
靜態(tài)測試簡介靜態(tài)測試包括代碼檢查、靜態(tài)結(jié)構(gòu)分析、代碼質(zhì)量度量等。它
7月4日消息,社交媒體平臺Instagram母公司Meta開發(fā)的推特競品Threads已