99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁精彩閱讀極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你
極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你
2020-03-27
收藏


極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你

作者 | KHYATI MAHENDRU


概述

  • 貝葉斯定理是統(tǒng)計學中最強大的概念之一,而貝葉斯定理也是數(shù)據(jù)科學專業(yè)人員必須知道的定理
  • 熟悉貝葉斯定理,其工作原理及其多種多樣的應(yīng)用
  • 本文中有許多直觀的例子來理解貝葉斯定理背后的思想


介紹

概率是許多數(shù)據(jù)科學算法的核心 。實際上,解決這么多數(shù)據(jù)科學問題的方法本質(zhì)上都是概率性的-因此,我始終建議在著手研究算法之前,著重學習一下統(tǒng)計數(shù)據(jù)和概率。


但我看到很多有能力的數(shù)據(jù)科學家都在回避統(tǒng)計這一方面的知識,尤其是貝葉斯統(tǒng)計。許多分析師和數(shù)據(jù)科學家仍然無法理解這一點。我相信你們很多人都對此點頭贊同吧!


貝葉斯定理是貝葉斯統(tǒng)計的一個主要方面,是由生活在18世紀的僧侶托馬斯·貝葉斯(Thomas Bayes)提出的。我們?nèi)栽趯W習貝葉斯統(tǒng)計的這一事實,表明他的作品在多個世紀以來都具有巨大的影響力!貝葉斯定理使我們能夠解決復(fù)雜的數(shù)據(jù)科學問題,并且仍然領(lǐng)先在世界領(lǐng)先的大學教授。


極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


在本文中,我們將詳細探討貝葉斯定理及其應(yīng)用,包括樸素貝葉斯分類器和判別函數(shù)等。本文有很多要解壓的內(nèi)容,讓我們開始吧!


目錄

  • 貝葉斯定理的前提條件
  • 貝葉斯定理是什么?
  • 貝葉斯定理的一個例證
  • 貝葉斯定理的應(yīng)用
  • 樸素貝葉斯分類器
  • 判別函數(shù)和決策面
  • 貝葉斯參數(shù)估計
  • 貝葉斯參數(shù)估計的演示


貝葉斯定理的前提條件


在進入貝葉斯定理的世界之前,我們需要了解一些概念。這些概念本質(zhì)上是理解貝葉斯定理的前提條件。


1.實驗


當您聽到“實驗”一詞時,您想到的第一張圖片是什么?包括我在內(nèi)的大多數(shù)人都想象有一個充滿試管和燒杯的化學實驗室。概率論中的實驗概念實際上非常相似:

實驗是在受控條件下執(zhí)行的有計劃的操作。

實驗的例子包括拋硬幣,擲骰子和從洗好的牌中抽出一張。


極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


2.樣本空間


實驗的結(jié)果稱為實驗結(jié)果事件的所有可能結(jié)果的集合稱為樣本空間。例如,如果我們的實驗是擲骰子并記錄其結(jié)果,則樣本空間將為:

S1 = {1,2,3,4,5,6}


當我們?nèi)佑矌艜r,樣本將是什么?在看到下面的答案之前,請仔細的想一想:

S2 = {H,T}


3.事件


事件是實驗結(jié)果的集合(即樣本空間的子集)。

極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


讓我們回到擲骰子的實驗中并將事件E和F定義為:

  • E =獲得偶數(shù)= {2,4,6}
  • F =獲得大于3的數(shù)字= {4,5,6}


這些事件發(fā)生的可能性:

P(E)=有利結(jié)果數(shù)/可能結(jié)果總數(shù)= 3/6 = 0.5 P(F)= 3/6 = 0.5


集合論中的基本運算,也就是事件的并交集是可能的,因為一個事件就是一個集合。


極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


E∪F= {2,4,5,6}和E∩F= {4,6}


現(xiàn)在考慮一個事件G =獲得一個奇數(shù):

那么E∩G=空集=Φ


這種事件稱為不相交事件。這些也稱為互斥事件,因為一次實驗只能在兩個事件中發(fā)生一個:

極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


4.隨機變量


隨機變量的確切含義就像它聽起來的那樣—一個具有隨機值的變量,每個值都有一定的概率(可能為零)。它是在實驗的樣本空間上定義的實值函數(shù):


極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


讓我們來看一個簡單的示例(請參考上面的圖片)。在拋硬幣實驗的樣本空間上定義一個隨機變量X。如果獲得“ Heads”(正面),則值為+1;如果獲得“ Tails”(反面),則值為-1。然后,X取值為+1和-1,概率為1/2。


假設(shè)Y是某一天某一地點的觀察溫度(攝氏溫度)。因此,我們可以說Y是一個連續(xù)的隨機變量,定義在相同的空間上,S =[0,100](攝氏溫標定義在0攝氏度到100攝氏度之間)。


5.詳盡的事件


如果必須在任何時間發(fā)生至少一個事件,則認為一組事件是詳盡的。因此,如果A∪B = S,即在樣本空間內(nèi)兩個事件A和B被認為是窮舉性的。


例如,假設(shè)A是從包裝中抽出的紙牌是紅色的事件,B是抽出的紙牌是黑的事件。這里,A和B是窮舉性的,因為樣本空間S = {red,black}。很簡單的東西,對不對?


6.獨立事件


如果一個事件的發(fā)生對另一事件的發(fā)生沒有任何影響,則可以說這兩個事件是獨立的。從數(shù)學上講,如果滿足以下條件,則兩個事件A和B被認為是獨立的:


例如,如果A在擲骰子時獲得5,而B從一副洗的特別好的一堆紙牌中抽出了紅桃K,那么A和B就其定義而言來說就是獨立的。識別獨立事件通常不那么容易,因此我們使用上面提到的公式。


7.條件概率


假設(shè)我們從給定的牌堆中抽出一張牌。是黑牌的概率是多少?很簡單- 1/2,對吧?然而,如果我們知道它是一張黑牌,那么它是一張國王牌的概率是多少?


解決這個問題的方法并不那么簡單。


極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


這就是條件概率概念起作用的地方。條件概率被定義為一個事件A發(fā)生的概率,前提是另一個事件B已經(jīng)發(fā)生(即A條件B)。這由P(A | B)表示,我們可以將其定義為:

P(A | B)= P(A∩B)/ P(B)


讓事件A代表選擇國王,事件B代表黑牌。然后,使用上述公式找到P(A | B):

P(A∩B)= P(獲得一張國王黑卡)= 2/52 P(B)= P(撿黑卡)= 1/2


因此,P(A | B)= 4/52。根據(jù)您選擇的示例進行嘗試。這將幫助您很好地掌握整個概念。


8.邊際概率


它是一個事件A發(fā)生的概率,獨立于任何其他事件B,即邊緣化事件B。


邊際概率P(A)= P(A | B)* P(B)+ P(A |?B)* P(?B)


這只是一種奇特的說法:

P(A)= P(A∩B)+ P(A∩?B)#根據(jù)我們對條件概率的了解


其中?B表示未發(fā)生B的事件。

極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


讓我們來驗證一下邊際概率的概念是否成立。這里,我們需要計算抽到的隨機紙牌是紅色(事件a)的概率,答案顯然是1/2。 。讓我們通過事件B的邊際概率計算得出國王的概率。


極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


P(A∩B)= 2/52(因為有兩個是紅色的國王,一個是紅心,另一個是方塊)


極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


并且P(A∩?B)= 24/52(紅色的剩余的牌) 因此,P(A)= 2/52 + 24/52 = 26/52 = 1/2


完美!因此,這足以涵蓋我們貝葉斯定理的基礎(chǔ)知識?,F(xiàn)在讓我們花一些時間來了解貝葉斯定理的確切含義以及其工作原理。


貝葉斯定理是什么?


極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


你看過熱門電視劇《神探夏洛克》(或任何犯罪驚悚劇)嗎?想想看,我們對罪魁禍首的看法在整集里都在改變。我們處理新的證據(jù),并在每一步完善我們的假設(shè)。這就是現(xiàn)實生活中的貝葉斯定理!


現(xiàn)在,讓我們從數(shù)學上理解它。這將是相當簡單的,因為我們的基礎(chǔ)是清楚的。


假設(shè)A和B是樣本空間S中P(B)≠0的任意兩個事件。利用我們對條件概率的理解,我們有:

P(A|B) = P(A∩B) / P(B) 類似地,P(B|A) = P(A∩B) / P(A) 由此可見,P (A∩) = P (A | B) * P (B) = P (B |) * P (A) 因此,P(A|B) = P(B|A)*P(A) / P(B)


這就是貝葉斯定理。


這里,P(A)和P(B)是獨立觀察A和B的概率。這就是為什么我們說它們是邊際概率。P(B|A)和P(A|B)是條件概率。


P(A)稱為先驗概率,P(B)稱為證據(jù)

P(B)= P(B | A)* P(A)+ P(B |?A)* P(?A)

P(B | A)稱為可能性,P(A | B)稱為后驗概率。

極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


等價地,貝葉斯定理可以寫成:

后驗=可能性*先驗/證據(jù)


這些詞聽起來可能很花哨,但它們背后的基本思想其實很簡單。當你有任何疑問的時候,你可以回到這個部分進行查看。


貝葉斯定理的一個例證


我們用貝葉斯定理來解決一個問題。這將幫助你理解和想象你可以在哪里應(yīng)用它。我們舉一個例子,我相信幾乎所有人都在學校里見過。


有3個分別標記為A,B和C的盒子:

  • 盒子A包含2個紅色和3個黑色的球
  • 盒子B包含3個紅色和1個黑色的球
  • 盒子C包含1個紅球和4個黑球


這三個盒子是一樣的,被選中的概率是一樣的。假設(shè)選擇了一個紅色的球。那么這個紅球從框A中取出的概率是多少?


極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


設(shè)E表示一個紅色球被選中的事件,A、B、C表示各自的盒子被選中。我們需要計算條件概率P(A|E)。


我們有先驗概率P(A)= P(B)= P(C)= 1/3,因為所有盒子都有相同的被選取的概率。 P(E|A) =盒子A中紅色球的數(shù)量/盒子A中紅色球的總數(shù)= 2 / 5 同理,P(E|B) = 3 / 4, P(E|C) = 1 / 5 


然后證據(jù)P (E) = P (E |) * P (A) + P (E | B) * P (B) + P (E | C) * P (C) = (2/5)* (1/3)+ (3/4)* (1/3)+ (1/5)* (1/3)= 0.45 因此,P (A | E) = P (E |) * P (A) / P (E) = (2/5) * (1/3) / 0.45 = 0.296


貝葉斯定理的應(yīng)用


貝葉斯定理在現(xiàn)實世界中有很多應(yīng)用。如果你不能馬上理解所有涉及的數(shù)學,也不要擔心。只要了解它是如何工作的就足夠了。


貝葉斯決策理論是解決模式分類問題的一種統(tǒng)計方法。根據(jù)這一理論,假定類別的潛在概率分布是已知的。因此,我們得到了一個理想的貝葉斯分類器,所有其他分類器都根據(jù)它來判斷性能。


我們將討論貝葉斯定理的三個主要應(yīng)用:

  • 樸素貝葉斯分類器
  • 判別函數(shù)和決策面
  • 貝葉斯參數(shù)估計


讓我們詳細查看每個應(yīng)用。


樸素貝葉斯分類器


這可能是貝葉斯定理最著名的應(yīng)用,甚至可能是最強大的。在機器學習中你會經(jīng)常遇到樸素貝葉斯算法。


樸素貝葉斯分類器是基于貝葉斯定理的一組概率分類器。這些分類器的基本假設(shè)是,用于分類的所有功能都彼此獨立。那就是“樸素”這個名字的來歷,因為很少有我們獲得一套完全獨立的功能。


這些分類器的工作方式與我們在插圖中解決的方法完全相同,只是假設(shè)了更多相互獨立的特性。


這里,我們需要找到概率P(Y|X)其中X是一個n維隨機變量,其組成隨機變量X1, X2,…, X_n相互獨立:


類似的,因為條件獨立

代入(1),得到

最后,P(Y | X)最大的Y是我們的預(yù)測類。


判別函數(shù)和曲面


這個名字很不言自明。判別函數(shù)用于將其參數(shù)“區(qū)分”到其相關(guān)類中。想要一個例子嗎?那就來一個!


如果你研究過機器學習中的分類問題,你可能會遇到支持向量機(SVM)。支持向量機算法通過尋找最佳分離訓練樣本的微分超平面來對向量進行分類。這個超平面可以是線性的,也可以是非線性的:

極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


這些超平面是我們的決策平面,這個超平面的方程是我們的判別函數(shù)。


好了-現(xiàn)在讓我們正式討論這個話題。


w1,w2,…..,w_c表示我們的數(shù)據(jù)向量X可以分類的c個類。然后,決策規(guī)則變?yōu)椋?/span>

對于所有j≠i,如果g_i(X)> g_j(X),則確定w_i


這些函數(shù)gi(X) i = 1,2,…,稱為判別函數(shù)。這些函數(shù)將向量空間分割成c決策區(qū)域——R1, R2,…, Rc對應(yīng)于每個c類。這些區(qū)域的邊界稱為決策面或邊界。


如果gi(X) = gj(X)是c判別函數(shù)中最大的值,那么將向量X劃分為wi類和wj類是不明確的。因此,X位于一個判定邊界或曲面上。


查看下圖:

極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


這是個很酷的概念,對吧?將二維向量空間分成R1和R2兩個決策區(qū)域,用兩個雙曲線將兩個決策區(qū)域分隔開。


注意,如果f(.)是一個單調(diào)遞增的函數(shù),那么任何函數(shù)f(g_i(X))也可以用作判別函數(shù)。對數(shù)函數(shù)是f(.)的常用選擇。


極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


現(xiàn)在,考慮兩個類別的情況下使用類w ^ _1和W_2?!?nbsp;最小錯誤率分類 ”決策規(guī)則變?yōu)椋?/span>

如果P(w_1|X) > P(w_2|X),則判定w_1,否則判定w_2 P(error|X) = min{P(w_1|X),P(w_2|X)}


P(w_i|X)是一個條件概率,可以用貝葉斯定理來計算。因此,我們可以根據(jù)可能性和先驗來重申決策規(guī)則:

如果P(X|w_1)*P(w_1) > P(X|w_2)*P(w_2),則判定w_1,否則判定w_2


請注意,分母上的“證據(jù)”只是用于縮放,因此我們可以從決策規(guī)則中消除它。


因此,判別函數(shù)的一個明顯選擇是:

g_i(X) = P(X|w_i)*P(w_i) 或 g_i(X) = ln(P(X|w_i)) + ln(P(w_i))


兩類情況一般可用一個判別函數(shù)進行分類。

g(X) = g_1(X) - g_2(X) = ln(P(X|w_1) / P(X|w_2)) + ln(P(w_1) / P(w_2)) 判斷w_1,如果g(X) >為0 判斷w_2,如果g(X) < 0 如果g(X) = 0,則X位于決策面。


極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


在上圖中,g(X)是二維向量X中的一個線性函數(shù)。然而,更復(fù)雜的決策邊界也是有可能的:



極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你



貝葉斯參數(shù)估計

這是貝葉斯定理的第三個應(yīng)用。我們將使用單變量高斯分布和一些數(shù)學知識來理解它。不要擔心它看起來很復(fù)雜——我已經(jīng)把它分解成容易理解的術(shù)語。


你一定聽說過超級流行的IMDb Top 250。這是250部有史以來最受歡迎的電影。《肖申克的救贖》在榜單上排名第一,評分9.2/10。


極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


你認為這些評級是如何計算的?IMDb使用的原始公式聲稱使用“真正的貝葉斯估計”。此后,這個公式發(fā)生了變化,沒有公開披露。下面是之前的公式:


W=加權(quán)評級

R=從1到10的電影平均(平均值)=(評級)

v=電影的投票數(shù)=(投票)

m=進入前250名所需的最低票數(shù)(目前為25,000)

C= 整個報告的平均投票數(shù)(目前為7.0)

最終評級W是R和C的加權(quán)平均值,分別用權(quán)重v和m表示。m是先驗估計。


  • 當票數(shù)v增加并超過m時,所需的最小票數(shù)W接近電影的平均票數(shù)R
  • 當v接近于0(投給電影的投票數(shù)更少),W接近所有電影的平均評級,C


我們通常沒有關(guān)于分類問題的概率性質(zhì)的完整信息。相反,我們對情況有一個模糊的概念,以及一些訓練的例子。然后我們使用這些信息來設(shè)計一個分類器。


基本思想是潛在的概率分布具有一個已知形式。因此,我們可以使用參數(shù)向量Θ對其進行描述。例如,可以用Θ= [μ,σ2]描述高斯分布。


極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


然后,我們需要估計這個向量。這通常通過兩種方式實現(xiàn):


  • 最大似然估計(MLE): 假設(shè)是底層的概率分布p(Θ)未知但固定參數(shù)向量。最佳估計最大化似然函數(shù):

p (D |θ)= p (x1 |θ)* p (x2 |θ)* ....* p (xn |θ)=相對于樣本D集合的θ似然


  • 貝葉斯參數(shù)估計 –在貝葉斯學習中,Θ是一個隨機變量,而不是MLE中的“未知但固定”值。我們使用訓練的例子將此變量的分布轉(zhuǎn)換為后驗概率密度。

我們可以將其非正式地寫為:

P(Θ|數(shù)據(jù))= P(數(shù)據(jù)|Θ)* P(Θ)/ P(數(shù)據(jù)),其中數(shù)據(jù)表示訓練示例集


你需要知道的關(guān)鍵點:


  1. 我們假設(shè)概率密度p(X)是未知的,但具有已知的參數(shù)形式。因此,可以說,p (X |Θ)完全是已知的
  2. 我們可能擁有的關(guān)于Θ的任何先驗信息都包含在已知的先驗概率密度p(Θ)中
  3. 我們使用訓練樣本來找到后驗密度p(Θ| data)。這應(yīng)該在Θ的真實值處急劇達到峰值

貝葉斯參數(shù)估計的證明–單變量高斯案例


讓我來演示一下貝葉斯參數(shù)估計是如何工作的。這將進一步明確我們剛才提到的理論。


首先,讓p (X)是正態(tài)分布的均值μ和方差σ2,μ是唯一我們希望估計未知參數(shù)。然后:

p(X|Θ) = p(X|μ) ~ N(μ, σ2)


我們將在這里簡化數(shù)學。因此, 讓先驗概率密度p(μ)也是正態(tài)分布與平均μ和方差σ2(這都是已知的)。


在此,將p(Θ| data)= p(μ| data)稱為繁殖密度,將p(Θ)= p(μ)稱為共軛先驗。


極具感染力的貝葉斯定理,寫給數(shù)據(jù)科學專業(yè)人的你


a是歸一化常數(shù)

由于樣本是相互獨立的,

帶入(2)


現(xiàn)在,我們把概率密度替換成我們一開始描述的那樣


由于exp()中的此參數(shù)是μ的二次方,因此它表示一個正常的密度。因此,如果我們有n個訓練示例,我們可以說p(μ| data)正態(tài)分布為均值μn和方差σn2,其中

以下是我的觀察:


  1. 隨著n的增加,σ_n2減小。因此,我們估計中的不確定性降低
  2. 由于不確定性降低,因此密度曲線在其平均值μ_n處急劇上升:

數(shù)據(jù)分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢
客服在線
立即咨詢
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個參數(shù)驗證碼對象,之后可以使用它調(diào)用相應(yīng)的接口 initGeetest({ // 以下 4 個配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺檢測極驗服務(wù)器是否宕機 new_captcha: data.new_captcha, // 用于宕機時表示是新驗證碼的宕機 product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說明請參見:http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計時完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }