
機器學(xué)習(xí)模型可解釋的重要及必要性
不管你是管理自己的資金還是客戶資金,只要你在做資產(chǎn)管理,每一步的投資決策都意義重大,做技術(shù)分析或基本面分析的朋友很清楚地知道每一個決策的細節(jié),但是通過機器學(xué)習(xí)、深度學(xué)習(xí)建模的朋友可能就會很苦惱,因為直接產(chǎn)出決策信號的模型可能是個黑盒子,很難明白為什么模型會產(chǎn)出某一個信號,甚至很多保守的私募基金把模型的可解釋性放入了事前風(fēng)控。其實,模型的可解釋性是很容易做到的,難點在于研究員是否對模型有深入的思考和理解。
介紹
機器學(xué)習(xí)領(lǐng)域在過去十年中發(fā)生了顯著的變化。從一個純粹的學(xué)術(shù)和研究領(lǐng)域方向開始,我們已經(jīng)看到了機器學(xué)習(xí)在各個領(lǐng)域都有著廣泛的應(yīng)用,如零售,技術(shù),醫(yī)療保健,科學(xué)等等。在21世紀,數(shù)據(jù)科學(xué)和機器學(xué)習(xí)的重要目標(biāo)已經(jīng)轉(zhuǎn)變?yōu)榻鉀Q現(xiàn)實問題,自動完成復(fù)雜任務(wù),讓我們的生活變得更加輕松,而不僅僅是在實驗室做實驗發(fā)表論文。機器學(xué)習(xí),統(tǒng)計學(xué)或深度學(xué)習(xí)模型工具已基本成型。像Capsule Networks這樣的新模型在不斷地被提出,但這些新模型被工業(yè)采用卻需要幾年時間。因此,在工業(yè)界中,數(shù)據(jù)科學(xué)或機器學(xué)習(xí)的主要焦點更多在于應(yīng)用,而不是理論。這些模型可以在正確數(shù)據(jù)上有效應(yīng)用來解決現(xiàn)實問題是至關(guān)重要的。
機器學(xué)習(xí)模型本質(zhì)上就是一種算法,該算法試圖從數(shù)據(jù)中學(xué)習(xí)潛在模式和關(guān)系,而不是通過代碼構(gòu)建一成不變的規(guī)則。所以,解釋一個模型是如何在商業(yè)中起作用總會遇到一系列挑戰(zhàn)。在某些領(lǐng)域,特別是在金融領(lǐng)域,比如保險、銀行等,數(shù)據(jù)科學(xué)家們通常最終不得不使用更傳統(tǒng)更簡單的機器學(xué)習(xí)模型(線性模型或決策樹)。原因是模型的可解釋性對于企業(yè)解釋模型的每一個決策至關(guān)重要。然而,這常常導(dǎo)致在性能上有所犧牲。復(fù)雜模型像如集成學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)通常表現(xiàn)出更好更精準(zhǔn)的性能(因為真實的關(guān)系在本質(zhì)上很少可以通過線性劃分的),然而,我們最終無法對模型決策做出合適的解釋。為了解決和探討這些差距,本文中,我會重點解釋模型可解釋性的重要及必要性。
動機
作為一名在企業(yè)工作的數(shù)據(jù)科學(xué)家并時常指導(dǎo)他人,我發(fā)現(xiàn)數(shù)據(jù)科學(xué)仍然常常被視為一個黑盒,它能用“魔法”或“煉金術(shù)”提供人們想要的東西。然而,嚴酷的現(xiàn)實是,如果不對模型進行合理足夠的解釋,現(xiàn)實世界的項目很少成功。如今,數(shù)據(jù)科學(xué)家通過構(gòu)建模型并為業(yè)務(wù)提供解決方案。企業(yè)可能不知道模型實現(xiàn)的復(fù)雜細節(jié),卻要依靠這些模型做出決策,他們確實有權(quán)提出這樣的問題:“我怎樣才能相信你的模型?”或“你的模型是如何決策的”?”回答這些問題是數(shù)據(jù)科學(xué)實踐者和研究人員數(shù)年來一直在嘗試的事情。
數(shù)據(jù)科學(xué)家知道,模型解釋性與模型性能之前有一個權(quán)衡。在這里,模型性能不是運行時間或執(zhí)行性能,而是模型在做出預(yù)測時的準(zhǔn)確度。有幾種模型(包括簡單的線性模型甚至基于樹的模型),他們的預(yù)測的原理很好直觀理解,但是需要犧牲模型性能,因為它們的產(chǎn)生的結(jié)果偏差或者方差很高(欠擬合:線性模型),或者容易過擬合(基于樹的模型)。更復(fù)雜的模型,如集成模型和近期快速發(fā)展的深度學(xué)習(xí)通常會產(chǎn)生更好的預(yù)測性能,但被視為黑盒模型,因為要解釋這些模型是如何真正做出決策是一件非常困難的事情。
雖然有些人說,知道模型性能好就行了,為什么還要知道它背后的原理呢? 然而,作為人類,大多數(shù)決策基于邏輯和推理。 因此,人工智能(AI)作出決策的模式無疑會受到懷疑。 在很多現(xiàn)實情況下,有偏差的模型可能會產(chǎn)生真正的負面影響。 這包括預(yù)測潛在的犯罪、司法量刑、信用評分、欺詐發(fā)現(xiàn)、健康評估、貸款借款、自動駕駛等,其中模型的理解和解釋是最重要的。 數(shù)據(jù)科學(xué)家、作家Cathy O’ Neil在她的著名著作《Weapons of Math Destruction》中也強調(diào)了這一點。
著名學(xué)者和作家凱特克勞福德在NIPS 2017主題演講《The Trouble with Bias》中談到了偏差在機器學(xué)習(xí)中的影響以及它對社會的影響。
有興趣的讀者也可以看看她在紐約時報的著名文章《 Artificial Intelligence’s White Guy Problem》,向我們展示了機器學(xué)習(xí)應(yīng)用的案例,包括圖像分類、犯罪風(fēng)險預(yù)測、交付服務(wù)可用性等等,這些應(yīng)用對黑人極不親善。 如果我們想利用機器學(xué)習(xí)來解決這些問題,所有這些真實世界的場景都在告訴我們模型解釋是多么的重要。
在過去的一年里,我在解決行業(yè)問題的同時也看到了對模型解釋的需求,同時我也在寫我的新書《Practical Machine Learning with Python2》。在這段時間里,我有機會與DataScience.com的優(yōu)秀員工進行互動,他們非常清楚在機器學(xué)習(xí)模型中人類可解釋性的必要性和重要性。他們也一直在積極研究解決方案,并開發(fā)了流行的python框架Skater。后續(xù)我們將深入研究Skater,并在本系列文章中做一些實際的模型解釋。
理解模型解釋
機器學(xué)習(xí)(尤其是深度學(xué)習(xí))僅在最近幾年才得到廣泛的行業(yè)采用。因此,模型解釋作為一個概念仍然主要是理論和主觀的。
任何機器學(xué)習(xí)模型都有一個響應(yīng)函數(shù),試圖映射和解釋自(輸入)變量和因(目標(biāo)或響應(yīng))變量之間的關(guān)系和模式。
模型解釋試圖理解和解釋響應(yīng)函數(shù)做出的這些決定。模型解釋的關(guān)鍵在于透明度以及人們理解模型決策的容易程度。模型解釋的三個最重要的方面解釋如下。
什么主導(dǎo)了模型預(yù)測?我們應(yīng)該找出特征的相互作用,以了解在模型的決策策略中哪些特征可能是重要的。這確保了模型的公平性。
為什么模型做出某個特定決策?我們還應(yīng)該能夠驗證為什么某些關(guān)鍵特征在預(yù)測期間推動某個模型所做出的某些決定。這確保了模型的可靠性。
我們?nèi)绾蜗嘈拍P皖A(yù)測?我們應(yīng)該能夠評估和驗證任何數(shù)據(jù)點以及模型如何作出決策。對于模型按預(yù)期運行的直接利益相關(guān)者來說,這應(yīng)該是可證明的,并且易于理解。這確保了模型的透明度。
可解釋性是指人(包括機器學(xué)習(xí)中的非專家)能夠理解模型在其決策過程中所做出的選擇(怎么決策,為什么決策和決策了什么)。
在模型比較時,除了模型的性能,如果一個模型的決策比另一個模型的決策更容易被人類理解,則說該模型比另一個模型具有更好的可解釋性。
模型解釋的重要性
在解決機器學(xué)習(xí)問題時,數(shù)據(jù)科學(xué)家通常傾向于注意模型性能指標(biāo),如準(zhǔn)確性、精確度和召回率等(毫無疑問,這很重要?。?。但是,度量標(biāo)準(zhǔn)只能說明模型預(yù)測性決策的一部分內(nèi)容。隨著時間的推移,由于環(huán)境中各種因素造成的模型概念漂移,性能可能會發(fā)生變化。因此,了解什么促使模型作出某些決定是極為重要的。
我們中的一些人可能會認為模型已經(jīng)工作得很好了,為什么還要深入挖掘呢?一定要記住,當(dāng)解決現(xiàn)實世界中的數(shù)據(jù)科學(xué)問題時,為了讓企業(yè)相信你的模型預(yù)測和決策,他們會不斷提問“我為什么要信任你的模型?”,這非常合理。如果一個人患有癌癥或糖尿病,如果一個人可能對社會構(gòu)成風(fēng)險,或者即使客戶流失,您是否會滿意于只是預(yù)測和做出決定(如何)的模型?也許另外一種會更好,如果我們可以更多地了解模型的決策過程(為什么以及如何),我們可能更喜歡它。這為我們提供了更多的透明度,說明為什么模型會做出某些決定,在某些情況下可能會出錯,并且隨著時間的推移它可以幫助我們在這些機器學(xué)習(xí)模型上建立一定的信任度。
這一部分關(guān)鍵的一點是,現(xiàn)在是時候停止將機器學(xué)習(xí)模型視為黑盒子,不僅嘗試和分析數(shù)據(jù),而且還要分析模型如何做出決策。實際上,走向這條道路的一些關(guān)鍵步驟是由著名論文《Why Should I Trust You?》(解釋了任意分類器的預(yù)測)”開始的,由MT Ribeiro,S. Singh和C. Guestrin在SIGKDD 2016上介紹了LIME(Local Interpretable Model-Agnostic Explanations)(局部可解釋模型 - 不可知論解釋)的概念。
他們在論文中提到了一些值得記住的關(guān)鍵點。
然而,理解預(yù)測背后的原因在評估信任方面非常重要,如果計劃基于預(yù)測采取行動,或者選擇是否部署新模型,則對模型的信任是至關(guān)重要的。 無論人類是直接使用機器學(xué)習(xí)分類器作為工具還是在其他產(chǎn)品中部署模型,仍然存在一個至關(guān)重要的問題:如果用戶不信任模型或預(yù)測,他們將不會使用它。
這是我們在本文中多次討論的內(nèi)容,也是決定數(shù)據(jù)科學(xué)項目在業(yè)界成功與否的關(guān)鍵因素之一。這就推動了模型解釋的必要性和重要性。
模型解釋方法的標(biāo)準(zhǔn)
對于模型解釋方法的分類有特定的標(biāo)準(zhǔn)。在Christoph Molnar的“Interpretable Machine Learning,Making Guide for Making Black Box Models Explainable”中提到了一個很好的指導(dǎo)標(biāo)準(zhǔn):
內(nèi)在或事后?內(nèi)在解釋性是關(guān)于利用機器學(xué)習(xí)模型的,它本質(zhì)上是解釋性的(像線性模型、參數(shù)模型或基于樹的模型)。事后解釋性意味著選擇和訓(xùn)練一個黑盒模型(集成方法或神經(jīng)網(wǎng)絡(luò))并在訓(xùn)練后應(yīng)用可解釋性方法(特征重要性,部分依賴關(guān)系圖)。我們將在我們的系列文章中更多地關(guān)注事后模型可解釋的方法。
是針對某個模型的還是通用的?特定于模型的解釋工具對固有模型解釋方法非常具體,這些解釋方法完全取決于每個模型的能力和特征。這可以是系數(shù),p值,與回歸模型相關(guān)的AIC分數(shù),決策樹的規(guī)則等等。通用的模型解釋方法還是依賴于事后對模型的分析,可用于任何機器學(xué)習(xí)模型。通常通過分析特征輸入和輸出對來運行。根據(jù)定義,這些方法無法訪問任何模型內(nèi)部,如權(quán)重,約束或假設(shè)。
本地還是全局?這種解釋的分類會談到解釋方法是解釋單個預(yù)測還是整個模型行為?或者如果范圍介于兩者之間?我們將盡快討論更多關(guān)于局部和全局的解釋。
這并不是對可解釋方法進行分類的一套完整的標(biāo)準(zhǔn),因為這仍然是一個新興的領(lǐng)域,但這可以是一個很好的標(biāo)準(zhǔn),可以在多種方法之間進行比較和對比。
模型解釋的范圍
我們?nèi)绾谓缍ń忉尩姆秶徒缦??一些有用的方面可以是模型的透明度,公平性和可靠性。本地還是全局模型解釋是定義模型解釋范圍的明確方法。
全局解釋性
這就是要試圖理解“模型如何做出預(yù)測?”和“模型的子集如何影響模型決策?”。為了一次理解和解釋整個模型,我們需要全局解釋。全局可解釋性是指能夠基于完整數(shù)據(jù)集上的依賴(響應(yīng))變量和獨立(預(yù)測)特征之間的條件相互作用來解釋和理解模型決策。試圖理解特征的相互作用和重要性,往往是理解全局解釋的好的一步。當(dāng)然,在嘗試分析交互時,在超過兩個或三個維度后對特征進行可視化變得非常困難。因此,經(jīng)常查看可能會影響全局知識模型預(yù)測的模塊化部分和特征子集,對全局解釋是有所幫助的。完整的模型結(jié)構(gòu)知識,假設(shè)和約束是全局解釋所必需的。
局部解釋性
這就是要了解“為什么模型會為單個實例做出特定決策?”以及“為什么模型會為一組實例做出特定決策?”。對于局部的可解釋性,我們不關(guān)心模型的內(nèi)在結(jié)構(gòu)或假設(shè),我們把它當(dāng)作一個黑箱子。為了理解單個數(shù)據(jù)點的預(yù)測決策,我們專門關(guān)注該數(shù)據(jù)點,并在該點附近的特征空間中查看局部子區(qū)域,并嘗試根據(jù)此局部區(qū)域了解該點的模型決策。局部數(shù)據(jù)分布和特征空間可能表現(xiàn)完全不同,并提供更準(zhǔn)確的解釋而不是全局解釋。局部可解釋模型 - 不可知論解釋(LIME)框架是一種很好的方法,可用于模型不可知的局部解釋。我們可以結(jié)合使用全局解釋和局部解釋來解釋一組實例的模型決策。
模型透明度
這就是要了解“從算法和特征中創(chuàng)建模型的過程如何?”。我們知道,典型的機器學(xué)習(xí)模型都是關(guān)于利用一個算法在數(shù)據(jù)特征之上構(gòu)建一個表示,將輸入映射到潛在的輸出(響應(yīng))。模型的透明性可以嘗試理解模型如何構(gòu)建的更多技術(shù)細節(jié),以及影響其決策的因素。這可以是神經(jīng)網(wǎng)絡(luò)的權(quán)值,CNN濾波器的權(quán)值,線性模型系數(shù),節(jié)點和決策樹的分割。然而,由于企業(yè)對這些技術(shù)細節(jié)可能并不十分熟悉,試圖用不可知的局部和全局解釋方法來解釋模型決策有助于展示模型的透明度。
結(jié)論
模型可解釋是一個對現(xiàn)實世界機器學(xué)習(xí)項目非常重要的一件事情。讓我們試著去研究人類可解釋的機器學(xué)習(xí),讓每個人都打開機器學(xué)習(xí)模型的黑箱,并幫助人們增加對模型決策的信任。
寫在最后:模型解釋性很重要,這能夠加深我們對模型的信心,尤其是在金融市場中,當(dāng)模型持續(xù)回撤時,信心比黃金還重要。之前有一個私募團隊使用了StockRanker策略,但是遲遲不肯上實盤,后來在弄清楚模型的理論原理和每一步細節(jié)、處理流程后,終于有信心上實盤,實盤前期遇到回撤也能明白是正常情況,并非模型預(yù)測失效,扛住前期的回撤后策略凈值開始上升。因此,機器學(xué)習(xí)模型可解釋很重要,模型也是可以解釋的,只是需要研究員付出更多的心血
數(shù)據(jù)分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
LSTM 模型輸入長度選擇技巧:提升序列建模效能的關(guān)鍵? 在循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)家族中,長短期記憶網(wǎng)絡(luò)(LSTM)憑借其解決長序列 ...
2025-07-11CDA 數(shù)據(jù)分析師報考條件詳解與準(zhǔn)備指南? ? 在數(shù)據(jù)驅(qū)動決策的時代浪潮下,CDA 數(shù)據(jù)分析師認證愈發(fā)受到矚目,成為眾多有志投身數(shù) ...
2025-07-11數(shù)據(jù)透視表中兩列相乘合計的實用指南? 在數(shù)據(jù)分析的日常工作中,數(shù)據(jù)透視表憑借其強大的數(shù)據(jù)匯總和分析功能,成為了 Excel 用戶 ...
2025-07-11尊敬的考生: 您好! 我們誠摯通知您,CDA Level I和 Level II考試大綱將于 2025年7月25日 實施重大更新。 此次更新旨在確保認 ...
2025-07-10BI 大數(shù)據(jù)分析師:連接數(shù)據(jù)與業(yè)務(wù)的價值轉(zhuǎn)化者? ? 在大數(shù)據(jù)與商業(yè)智能(Business Intelligence,簡稱 BI)深度融合的時代,BI ...
2025-07-10SQL 在預(yù)測分析中的應(yīng)用:從數(shù)據(jù)查詢到趨勢預(yù)判? ? 在數(shù)據(jù)驅(qū)動決策的時代,預(yù)測分析作為挖掘數(shù)據(jù)潛在價值的核心手段,正被廣泛 ...
2025-07-10數(shù)據(jù)查詢結(jié)束后:分析師的收尾工作與價值深化? ? 在數(shù)據(jù)分析的全流程中,“query end”(查詢結(jié)束)并非工作的終點,而是將數(shù) ...
2025-07-10CDA 數(shù)據(jù)分析師考試:從報考到取證的全攻略? 在數(shù)字經(jīng)濟蓬勃發(fā)展的今天,數(shù)據(jù)分析師已成為各行業(yè)爭搶的核心人才,而 CDA(Certi ...
2025-07-09【CDA干貨】單樣本趨勢性檢驗:捕捉數(shù)據(jù)背后的時間軌跡? 在數(shù)據(jù)分析的版圖中,單樣本趨勢性檢驗如同一位耐心的偵探,專注于從單 ...
2025-07-09year_month數(shù)據(jù)類型:時間維度的精準(zhǔn)切片? ? 在數(shù)據(jù)的世界里,時間是最不可或缺的維度之一,而year_month數(shù)據(jù)類型就像一把精準(zhǔn) ...
2025-07-09CDA 備考干貨:Python 在數(shù)據(jù)分析中的核心應(yīng)用與實戰(zhàn)技巧? ? 在 CDA 數(shù)據(jù)分析師認證考試中,Python 作為數(shù)據(jù)處理與分析的核心 ...
2025-07-08SPSS 中的 Mann-Kendall 檢驗:數(shù)據(jù)趨勢與突變分析的有力工具? ? ? 在數(shù)據(jù)分析的廣袤領(lǐng)域中,準(zhǔn)確捕捉數(shù)據(jù)的趨勢變化以及識別 ...
2025-07-08備戰(zhàn) CDA 數(shù)據(jù)分析師考試:需要多久?如何規(guī)劃? CDA(Certified Data Analyst)數(shù)據(jù)分析師認證作為國內(nèi)權(quán)威的數(shù)據(jù)分析能力認證 ...
2025-07-08LSTM 輸出不確定的成因、影響與應(yīng)對策略? 長短期記憶網(wǎng)絡(luò)(LSTM)作為循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的一種變體,憑借獨特的門控機制,在 ...
2025-07-07統(tǒng)計學(xué)方法在市場調(diào)研數(shù)據(jù)中的深度應(yīng)用? 市場調(diào)研是企業(yè)洞察市場動態(tài)、了解消費者需求的重要途徑,而統(tǒng)計學(xué)方法則是市場調(diào)研數(shù) ...
2025-07-07CDA數(shù)據(jù)分析師證書考試全攻略? 在數(shù)字化浪潮席卷全球的當(dāng)下,數(shù)據(jù)已成為企業(yè)決策、行業(yè)發(fā)展的核心驅(qū)動力,數(shù)據(jù)分析師也因此成為 ...
2025-07-07剖析 CDA 數(shù)據(jù)分析師考試題型:解鎖高效備考與答題策略? CDA(Certified Data Analyst)數(shù)據(jù)分析師考試作為衡量數(shù)據(jù)專業(yè)能力的 ...
2025-07-04SQL Server 字符串截取轉(zhuǎn)日期:解鎖數(shù)據(jù)處理的關(guān)鍵技能? 在數(shù)據(jù)處理與分析工作中,數(shù)據(jù)格式的規(guī)范性是保證后續(xù)分析準(zhǔn)確性的基礎(chǔ) ...
2025-07-04CDA 數(shù)據(jù)分析師視角:從數(shù)據(jù)迷霧中探尋商業(yè)真相? 在數(shù)字化浪潮席卷全球的今天,數(shù)據(jù)已成為企業(yè)決策的核心驅(qū)動力,CDA(Certifie ...
2025-07-04CDA 數(shù)據(jù)分析師:開啟數(shù)據(jù)職業(yè)發(fā)展新征程? ? 在數(shù)據(jù)成為核心生產(chǎn)要素的今天,數(shù)據(jù)分析師的職業(yè)價值愈發(fā)凸顯。CDA(Certified D ...
2025-07-03