99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁精彩閱讀復(fù)盤 | 離AI取代人類還有多遠?
復(fù)盤 | 離AI取代人類還有多遠?
2016-03-10
收藏
3月9日下午,經(jīng)過3個半小時的激戰(zhàn),李世石九段投子認輸,Alpha Go再次戰(zhàn)勝人類。

根據(jù)日程安排,5局棋將分別于3月9日、10日、12日、13日和15日舉行,即使一方率先取得3勝,也會下滿5局。比賽采用中國規(guī)則,執(zhí)黑一方貼7目半,各方用時為2小時,3次60秒的讀秒。

與戰(zhàn)前李世石預(yù)言5:0全勝的成績相比,今天的結(jié)果有些出乎意料,也讓未來幾天的比賽更加充滿懸念。

然而,僅這一局的結(jié)果就已經(jīng)能說明一些問題。

AlphaGo獲勝意味著什么?

李世石戰(zhàn)績

1995年入段,1998年二段,1999年三段,2003年因獲LG杯冠軍直接升為六段。

2003年4月獲得韓國最大棋戰(zhàn)KT杯亞軍,升為七段。

2003年7月獲第16屆富士通杯冠軍后直接升為九段。

2006、2007、2008韓國圍棋大獎——最優(yōu)秀棋手大獎(MVP)。

2009年,李世石連續(xù)19個月高居韓國棋手等級分排行榜首位,并保有國內(nèi)國際各兩項棋戰(zhàn)的冠軍頭銜,取代“石佛”李昌鎬成為韓國圍棋第一人。

近10年來獲得世界第一頭銜最多的棋手,共獲得14個個人賽世界冠軍。

AlphaGo戰(zhàn)績

2015年10月阿爾法圍棋以5:0完勝歐洲圍棋冠軍、職業(yè)二段選手樊麾。

別看只有一枚軍功章,這在人工智能領(lǐng)域卻是了不起的進步。

很多人都知道,1997年的「深藍」計算機戰(zhàn)勝了人類的國際象棋冠軍卡斯帕羅夫,但是那時候大家不會認為“深藍”真正擁有了人工智能。原因在于:國際象棋就64格,最大只有2^155種局面,稱為香農(nóng)數(shù),大致是10^47。雖然沒法全部去遍歷,只要把開局庫和殘局庫多輸一些進去,結(jié)合一些中盤的策略選擇和部分遍歷就很牛了。

對棋局進行預(yù)測,遍歷每一種走法直到一方勝出,然后回退計算每一個可能贏的概率,最后使用概率最高的作為最優(yōu)的走法。「深藍」就做了這么件事,暴力窮舉所有的步子,然后找最優(yōu)。所以雖然「深藍」勝了,但并不意味著「智能」。

但對圍棋來說,千古無同局,沒有殘局的概念。圍棋每回合有 250 種可能,一盤棋可以長達 150 回合。所以最大有3^361 種局面,大致的體量是10^170,而已經(jīng)觀測到的宇宙中,原子的數(shù)量才10^80而已。


圍棋復(fù)雜度示意圖(只看圖C君已經(jīng)暈了)

圍棋需要的并不僅僅是計算的能力,還有圖形處理的能力,后者是計算機的弱項。

局部的死活就是一個例子,計算機的一個總體目標,就是贏棋,它很難像人一樣靈活構(gòu)建不同的局部目標。圍棋高手對棋形的判斷近似于對人臉的判斷,這更接近人工智能的本質(zhì)。這也就是為什么在今天直播解棋時古力九段評價:電腦雖然在局部戰(zhàn)斗表現(xiàn)出色,但在大局上似乎不如人類高瞻遠矚。

AlphaGo是如何戰(zhàn)勝李世石的?

AlphaGo實際上是搜索算法和深度學(xué)習的結(jié)合。

深度學(xué)習是人工智能(AI)領(lǐng)域當下最為熱門的研究領(lǐng)域。具體到 AlphaGo 上,「 深度學(xué)習」的能力利用「 價值網(wǎng)絡(luò)( value network ) 」去計算局面,然后再用「 策略網(wǎng)絡(luò)( policy network )」去選擇下子?!? 價值網(wǎng)絡(luò) 」和「 策略網(wǎng)絡(luò) 」是兩種不同的深度神經(jīng)網(wǎng)絡(luò),并且共同構(gòu)成了 AlphaGo 的「 大腦 」。

AlphaGo的”大腦“實際上分成了四大部分:


Rollout Policy 快速感知”腦“:用于快速的感知圍棋的盤面,獲取較優(yōu)的下棋選擇,類似于人觀察盤面獲得的第一反應(yīng),準確度不高

SL Policy Network 深度模仿”腦“:通過人類6-9段高手的棋局來進行模仿學(xué)習得到的腦區(qū)。這個深度模仿“腦”能夠根據(jù)盤面產(chǎn)生類似人類棋手的走法。

RL Policy Network 自學(xué)成長“腦”:以深度模仿“腦”為基礎(chǔ),通過不斷的與之前的“自己”訓(xùn)練提高下棋的水平。

Value Network 全局分析“腦”:利用自學(xué)成長“腦”學(xué)習對整個盤面的贏面判斷,實現(xiàn)從全局分析整個棋局。


四個腦區(qū)的功能不一樣,基本對應(yīng)人類棋手下棋所需的不同思維,既包含局部的計算,也包含全局的分析。其中的Policy Network用于具體每一步棋的優(yōu)劣判斷,而Value Network則對整個棋局進行形勢的判斷。

開局不久,我們能看到李世石用一手棋來試探AlphaGo的棋力,CSDN總裁蔣濤現(xiàn)場點評說,這一招很不明智,AlphaGo是遇強則強,遇臭也臭。因為AlphaGo提升棋力首先是依靠模仿來進行自我水平的提升,這和人類的學(xué)習方式其實是一模一樣的。

人類棋手下棋的步驟:

Step 1:分析判斷全局的形勢

Step 2:分析判斷局部的棋局找到幾個可能的落子點

Step 3:預(yù)測接下來幾步的棋局變化,判斷并選擇最佳的落子點。

那么,AlphaGo在擁有強大的神經(jīng)網(wǎng)絡(luò)”大腦“的基礎(chǔ)上采用蒙特卡洛樹搜索來獲取最佳的落子點,本質(zhì)上和人類的做法是接近的。

首先是采用蒙特卡洛樹搜索的基本思想,其實很簡單:多次模擬未來的棋局,然后選擇在模擬中選擇次數(shù)最多的走法

AlphaGo具體的下棋基本思想如下:

Step 1:基于深度模仿“腦” 來預(yù)測未來的下一步走法,直到L步。

Step 2:結(jié)合兩種方式來對未來到L的走勢進行評估,一個是使用全局分析“腦”進行評估,判斷贏面,一個是使用快速感知“腦”做進一步的預(yù)測直到比賽結(jié)束得到模擬的結(jié)果。綜合兩者對預(yù)測到未來L步走法進行評估。

Step 3:評估完,將評估結(jié)果作為當前棋局下的下一步走法的估值。即給一開始給出的下一步走法根據(jù)未來的走向進行評估。

Step 4 :結(jié)合下一步走法的估值和深度模仿腦進行再一次的模擬,如果出現(xiàn)同樣的走法,則對走法的估值取平均(蒙特卡洛的思想在這里)

反復(fù)循環(huán)上面的步驟到n次。然后選擇選擇次數(shù)最多的走法作為下一步。

簡單的講就是綜合全局和具體走法的計算分析,對下一步棋進行模擬,找到最佳的下一步。對步子的選擇,既要依賴于全局分析“腦”的判斷,也需要深度模仿“腦”的判斷。

離AI取代人類還有多遠?

在對戰(zhàn)結(jié)束之后,中國棋手柯潔對于AlphaGo的勝利有些擔心,甚至表示如果可能愿意接受AlphaGo的約戰(zhàn)。他說,AlphaGo的出現(xiàn)讓人類棋手的生存空間變小了。

AlphaGo的表現(xiàn)讓我們看到了AI的無限可能,也讓不少人對于未來的人類世界產(chǎn)生了些許擔心。我們都知道「機器人學(xué)之父」阿西莫夫在著作《我是機器人》中所提的“機器人工學(xué)三原則”:

機器人不得危害人類。此外,不可因為疏忽危險的存在而使人類受害。
機器人必須服從人類的命令,但命令違反第一條內(nèi)容時,則不在此限。
在不違反第一條和第二條的情況下,機器人必須保護自己。

技術(shù)之外,人們擔心的其實是未來社會的倫理秩序。

有人提到,機器能夠獲勝除了強大的計算能力,還在于它不像人一樣有各種心理和身體的負擔,沒有情感,永遠快速而準確。然而,「沒有情感」,這是機器的鎧甲,也可能成為它的軟肋。讓人工智能獲得情感感知能力,應(yīng)該還有一段艱難的路要走。

萬不得已時,C君想到了一個主意對付AlphaGo:


(順便致敬C君最愛的庫布里克最偉大的作品《2001太空漫游》:可能拔電源都沒用)


附:人機對弈歷史

機器對戰(zhàn)人類,四大經(jīng)典勝利

從第一臺計算機問世以來,人們就夢想造出一種可以完美模擬甚至超越人腦的計算機系統(tǒng)。過去20年中,有4次人機大戰(zhàn)給人們留下格外深刻的印象,也成為人工智能發(fā)展的絕佳注腳。

1997 深藍Ⅱ:蠻算的“硬漢”

1997年,美國IBM公司的“深藍Ⅱ”超級計算機以2勝1負3平戰(zhàn)勝了當時世界排名第一的國際象棋大師卡斯帕羅夫?!吧钏{”的運算能力當時在全球超級計算機中居第259位,每秒可運算2億步。

第一局比賽,“深藍Ⅱ”看上去就像是個業(yè)余棋手。但第二局比賽,電腦下棋卻像世界一流的特級大師。受第二局失利的影響,卡斯帕羅夫無心比賽。在決勝局中,卡斯帕羅夫犯了一個低級錯誤,他走了19步后就宣布放棄。整場比賽進行了不到一個小時,“深藍Ⅱ”贏了這場具有特殊意義的對抗。

“深藍Ⅱ”還算不上足夠智能,主要依靠強大的計算能力窮舉所有路數(shù)來選擇最佳策略“深藍Ⅱ”靠硬算可以預(yù)判12步,卡斯帕羅夫可以預(yù)判10步。

2006 浪潮天梭:以一敵五

2006年,“浪潮杯”首屆中國象棋人機大戰(zhàn)中,5位中國象棋特級大師最終敗在超級計算機浪潮天梭手下。中國人發(fā)明的這項充滿東方智慧的模擬戰(zhàn)爭游戲,被中國超級計算機獨占鰲頭。

值得一提的是,浪潮天梭在比賽中,同時迎戰(zhàn)柳大華、張強、汪洋、徐天紅、樸風波5位大師。在2局制的博弈中,浪潮天梭以平均每步棋27秒的速度,每步66萬億次的棋位分析與檢索能力,最終以11:9的總比分險勝。

柳大華在兩局之間中場休息時,直言這場比賽“艱苦卓絕”。他在賽后表示:“我覺得計算機的優(yōu)勢在于它的計算非??於覝蚀_,有抓住優(yōu)勢的能力,并且抓住以后就不放手,不會受到任何不良的心理影響,將勝利進行到底。不過它的確在平穩(wěn)的局面下會比較死板,不夠靈活?!?/span>

2011 沃森:答題“學(xué)霸”

2011年,“深藍”的同門師弟“沃森”在類似于“最強大腦”的美國智力問答節(jié)目《危險邊緣》中挑戰(zhàn)兩位人類冠軍。

雖然比賽時不能接入互聯(lián)網(wǎng)搜索,但“沃森”存儲了2億頁的數(shù)據(jù),包括各種百科全書、詞典、新聞,甚至維基百科的全部內(nèi)容?!拔稚笨梢栽?秒內(nèi)檢索數(shù)百萬條信息并以人類語言輸出答案,還能分析題目線索中的微妙含義、諷刺口吻及謎語等?!拔稚边€能根據(jù)比賽獎金的數(shù)額、自己比對手落后或領(lǐng)先的情況、自己擅長的題目領(lǐng)域來選擇是否要搶答某一個問題。

“沃森”最終輕松戰(zhàn)勝兩位人類冠軍,展示出的自然語言理解能力一直是人工智能界的重點課題。

2015 阿爾法圍棋:“思考者”

2015年10月,“阿爾法圍棋”人工智能程序以5:0戰(zhàn)勝歐洲圍棋冠軍樊麾,這是人工智能程序首次在不讓子的情況下戰(zhàn)勝人類圍棋選手。

樊麾1月份回顧這場比賽時表示,“就是在一個特定的房間里,我面前有一張棋盤和一臺電腦,我沒有在電腦上直接下,而是通過棋盤下的?!敝劣诼鋽〉脑?,樊麾分析稱,“首先是自己棋有點臭,尤其是到了后半盤,開始讀秒的時候老打‘勺子’,下得也比較著急,我這些毛病,事后看都被電腦抓住了。其次應(yīng)該說是心態(tài)問題,我太想贏了,而且一開始我也不太相信它能戰(zhàn)勝我。”

樊麾對記者說:“如果沒有人告訴我,我一定不知道它是電腦,它太像人了。它一定是在思考。按照人的說法,它應(yīng)該有棋風吧?!?/span>

結(jié)合songrotek的專欄編寫

數(shù)據(jù)分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢
客服在線
立即咨詢
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個參數(shù)驗證碼對象,之后可以使用它調(diào)用相應(yīng)的接口 initGeetest({ // 以下 4 個配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺檢測極驗服務(wù)器是否宕機 new_captcha: data.new_captcha, // 用于宕機時表示是新驗證碼的宕機 product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說明請參見:http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計時完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }