99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁(yè)大數(shù)據(jù)時(shí)代AdaGCN:將傳統(tǒng)方法AdaBoost用于深度圖神經(jīng)網(wǎng)絡(luò),效果會(huì)如何(CDA干貨內(nèi)容分享)
AdaGCN:將傳統(tǒng)方法AdaBoost用于深度圖神經(jīng)網(wǎng)絡(luò),效果會(huì)如何(CDA干貨內(nèi)容分享)
2022-01-14
收藏

作者:CHEONG AI

來(lái)源:機(jī)器學(xué)習(xí)與知識(shí)圖譜

本文分享一篇ICLR 2021的文章AdaGCN:Adaboosting Graph Convolutional Networks into Deep Models,AdaGCN模型的核心思想是將傳統(tǒng)機(jī)器學(xué)習(xí)AdaBoost的思想引入到圖神經(jīng)網(wǎng)絡(luò)中,另外,與之前深層圖模型直接堆疊多個(gè)卷積層不同,AdaGCN在所有網(wǎng)絡(luò)層之間共享相同的神經(jīng)網(wǎng)絡(luò)架構(gòu),然后進(jìn)行遞歸優(yōu)化,類似于RNN。

AdaGCN:將傳統(tǒng)方法<a href='/map/adaboost/' style='color:#000;font-size:inherit;'>AdaBoost</a>用于深度圖<a href='/map/shenjingwangluo/' style='color:#000;font-size:inherit;'>神經(jīng)網(wǎng)絡(luò)</a>,效果會(huì)如何

Paper:https://arxiv.org/abs/1908.05081

Github:https://github.com/datake/AdaGCN

一、摘要

深度圖模型仍是一個(gè)有待研究的問(wèn)題,關(guān)鍵之處在于如何有效地匯聚來(lái)自多跳鄰居節(jié)點(diǎn)的特征信息。在本文中,通過(guò)將AdaBoost融入到圖網(wǎng)絡(luò)中提出了一個(gè)類似于RNN的深度圖模型AdaGCN,能夠以Adaboost的方式高效的抽取多跳鄰居特征信息,不同于之前的深度圖模型直接堆疊多個(gè)卷積層,AdaGCN在所有網(wǎng)絡(luò)層之間共享相同的神經(jīng)網(wǎng)絡(luò)架構(gòu)。另外,從理論角度分析了AdaGCN和現(xiàn)有的GCN模型的關(guān)聯(lián),最后,通過(guò)大量的實(shí)驗(yàn),證明了我們的方法在不同的標(biāo)簽率和計(jì)算優(yōu)勢(shì)下始終保持最先進(jìn)的性能。

二、模型

首先,最簡(jiǎn)單的兩個(gè)卷積層的GCN模型公式如下

其中輸入是節(jié)點(diǎn)的Raw Features,輸出是經(jīng)過(guò)兩個(gè)卷積層的最終表征。ReLU是一個(gè)非線性激活函數(shù)。但是,我們認(rèn)為對(duì)于多層GCN網(wǎng)絡(luò)不需要太多的非線性變化,原因在于節(jié)點(diǎn)特征是簡(jiǎn)單的一維向量而不是多維的。這個(gè)想法在SGC模型也已經(jīng)提出過(guò),直接將非線性變化ReLU函數(shù)去除的SGC模型的匯聚公式如下所示

在SGC模型中,將RuLU操作去除后確實(shí)在一定程度上緩解了深度圖模型常出現(xiàn)的Over-Smoothing問(wèn)題,并且計(jì)算效率也更快;但是,我們認(rèn)為,對(duì)于這種多層堆疊的GCN網(wǎng)絡(luò)來(lái)說(shuō),沒(méi)有了ReLU操作的多層堆疊線性變換也會(huì)很大程度降低模型的表征能力,同時(shí)也通過(guò)實(shí)驗(yàn)證明了這個(gè)想法。

因此,在本文中,我們提出了一個(gè)新的非線性函數(shù)來(lái)替換沒(méi)有激活函數(shù)的線性變換,公式如下所示

那么,如何使用AdaBoost?其實(shí)就是把深度模型的每一層輸出的結(jié)果放到一個(gè)弱分類器中計(jì)算,并使用了SAMME(Stagewise Additive Modeling using a Multi-class Exponential Loss function)算法將多個(gè)弱分類器結(jié)合起來(lái)

AdaGCN:將傳統(tǒng)方法<a href='/map/adaboost/' style='color:#000;font-size:inherit;'>AdaBoost</a>用于深度圖<a href='/map/shenjingwangluo/' style='color:#000;font-size:inherit;'>神經(jīng)網(wǎng)絡(luò)</a>,效果會(huì)如何

如上圖所示,我們直接使用基分類器f函數(shù)來(lái)抽取特征信息,當(dāng)前層的加權(quán)錯(cuò)誤概率以及基分類器的權(quán)重以如下方式計(jì)算

為了得到一個(gè)正的權(quán)重,需要保證

同時(shí),在傳播過(guò)程中向錯(cuò)誤的節(jié)點(diǎn)增加權(quán)重以保證其的值減少,也就是對(duì)性能差的分類器給予較少的權(quán)重

然后,利用Adaboost方法將不同層的預(yù)測(cè)結(jié)果進(jìn)行組合,得到最終的預(yù)測(cè)結(jié)果

我們也提供了AdaGCN的簡(jiǎn)化形勢(shì)

三、實(shí)驗(yàn)

我們是在Cora,Citeseer,Pubmed,MS Academic和Reddit五個(gè)數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),通過(guò)run 100次實(shí)驗(yàn)取平均來(lái)保證結(jié)果的置信度,取得了SOTA效果,

AdaGCN:將傳統(tǒng)方法<a href='/map/adaboost/' style='color:#000;font-size:inherit;'>AdaBoost</a>用于深度圖<a href='/map/shenjingwangluo/' style='color:#000;font-size:inherit;'>神經(jīng)網(wǎng)絡(luò)</a>,效果會(huì)如何

并且,如下圖所示,隨著模型深度增加,模型性能不會(huì)因?yàn)镺ver-Smoothing問(wèn)題而下滑

AdaGCN:將傳統(tǒng)方法<a href='/map/adaboost/' style='color:#000;font-size:inherit;'>AdaBoost</a>用于深度圖<a href='/map/shenjingwangluo/' style='color:#000;font-size:inherit;'>神經(jīng)網(wǎng)絡(luò)</a>,效果會(huì)如何

數(shù)據(jù)分析咨詢請(qǐng)掃描二維碼

若不方便掃碼,搜微信號(hào):CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢
客服在線
立即咨詢
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機(jī)數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進(jìn)行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個(gè)參數(shù)驗(yàn)證碼對(duì)象,之后可以使用它調(diào)用相應(yīng)的接口 initGeetest({ // 以下 4 個(gè)配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺(tái)檢測(cè)極驗(yàn)服務(wù)器是否宕機(jī) new_captcha: data.new_captcha, // 用于宕機(jī)時(shí)表示是新驗(yàn)證碼的宕機(jī) product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說(shuō)明請(qǐng)參見(jiàn):http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計(jì)時(shí)完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請(qǐng)輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請(qǐng)輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }