99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁(yè)精彩閱讀TED演講-人工智能將如何影響你的生活
TED演講-人工智能將如何影響你的生活
2018-05-19
收藏

TED演講-人工智能將如何影響你的生活

谷歌高級(jí)研究員Jeff Dean就AI對(duì)生活的影響提出了一些有趣的看法。

中英雙字視頻如下:

針對(duì)不方便打開視頻的小伙伴,CDA字幕組也貼心的整理了文字版本,如下:

在過(guò)去幾年,人工智能領(lǐng)域在飛速發(fā)展。

你知道未來(lái)AI將如何影響你的生活嗎? 我有一些想法。

我叫Jeff Dean,我是谷歌的一名高級(jí)研究員。這有一定的含義。首先,說(shuō)明我有點(diǎn)老;其次,我需要花時(shí)間攻克我認(rèn)為對(duì)公司很重要的問題。

我在研究人工智能問題,我負(fù)責(zé)位于加州山景城的谷歌大腦團(tuán)隊(duì),也就是我們的人工智能研究團(tuán)隊(duì)。

我們的團(tuán)隊(duì)長(zhǎng)期以來(lái)研究如何讓機(jī)器智能化,我們還會(huì)與谷歌的產(chǎn)品團(tuán)隊(duì)合作,從而生產(chǎn)出智能的機(jī)器產(chǎn)品。我們希望用智能提升人類的能力,讓我們做得更多,消除繁瑣重復(fù)性任務(wù),并讓我們有更多的時(shí)間進(jìn)行創(chuàng)新。

AI的潛力

比起個(gè)人計(jì)算機(jī)的發(fā)明、智能手機(jī)的普及,AI將更具影響力。AI的概念并不新,在最早的計(jì)算機(jī)時(shí)代就存在,這是開發(fā)智能化機(jī)器的宏大項(xiàng)目。當(dāng)中有很多實(shí)現(xiàn)的方法,從那時(shí)起該領(lǐng)域就深深吸引住了計(jì)算機(jī)科學(xué)家們。

當(dāng)中最有潛力的方式是機(jī)器學(xué)習(xí)領(lǐng)域。比起讓機(jī)器掌握一切需要預(yù)先知道的內(nèi)容,我們更希望讓機(jī)器學(xué)會(huì)如何學(xué)習(xí),從而它們能夠通過(guò)對(duì)世界的觀察而學(xué)習(xí),并根據(jù)觀察做出推斷。

深度學(xué)習(xí)機(jī)器學(xué)習(xí)的一個(gè)特殊的領(lǐng)域。在過(guò)去四、五年間,深度學(xué)習(xí)在解決各種問題時(shí)優(yōu)勢(shì)明顯。

人腦如何學(xué)習(xí)

在深入該問題之前,讓我們探討我們是如何學(xué)習(xí)的。

我們通過(guò)例子和重復(fù)練習(xí)進(jìn)行學(xué)習(xí)。同樣,重復(fù)練習(xí)和例子對(duì)機(jī)器學(xué)習(xí)也至關(guān)重要。

機(jī)器學(xué)習(xí)中,我們會(huì)讓系統(tǒng)接觸到我們想讓其掌握的行為樣本,系統(tǒng)將從那些樣本中學(xué)習(xí)。

看到這張簡(jiǎn)單的圖,我們想教會(huì)計(jì)算機(jī)識(shí)別圖像中包含的是貓還是狗。我們會(huì)給出相應(yīng)樣本,標(biāo)明圖像是貓還是狗。然后把這些樣本圖像提供給計(jì)算機(jī),讓計(jì)算機(jī)回答圖中是什么。

如果得到正確的答案就成功了。但如果錯(cuò)了,則需要進(jìn)行一些調(diào)整。從而在下次更有可能得到正確的答案,而不是錯(cuò)誤的。

神經(jīng)網(wǎng)絡(luò)

深度學(xué)習(xí)完成這點(diǎn)的方式很特殊,這很重要。即在學(xué)習(xí)過(guò)程中自動(dòng)構(gòu)建抽象層。

最低層包括,圖像的某個(gè)部分是否包含棕色的斑點(diǎn)等。接著上面層次的內(nèi)容更復(fù)雜,比如圖像的某部分包含了耳朵、眼睛或胡須。這些特征是學(xué)習(xí)過(guò)程的組成部分,也是深度學(xué)習(xí)的關(guān)鍵因素。

我們不需要告訴計(jì)算機(jī)如何區(qū)分貓和狗,計(jì)算機(jī)能學(xué)會(huì)識(shí)別哪些是胡須,而且在貓的圖像中出現(xiàn)得更多。在學(xué)習(xí)過(guò)程中這些特征是自動(dòng)構(gòu)建的。

神經(jīng)網(wǎng)絡(luò)能學(xué)習(xí)的不僅是分辨貓狗。還能學(xué)會(huì)分辨成千上萬(wàn)種不同類別的物體,比如消防車、消防船等。神經(jīng)網(wǎng)絡(luò)還能從音頻中學(xué)習(xí),從音頻中識(shí)別出單詞。

比如"外面有多冷”;輸入英語(yǔ)的"hello, how are you”,輸出相應(yīng)法語(yǔ)"Bonjour, comment allez-vous”。

它們能輸入圖像,進(jìn)行分析。不僅識(shí)別類別,它們還能得出句子對(duì)圖像進(jìn)行描述,比如"一列藍(lán)黃相間的火車在鐵軌上行駛”。這就展現(xiàn)了對(duì)圖像內(nèi)容的高度理解。

TensorFlow的應(yīng)用

深度學(xué)習(xí)中很棒的一點(diǎn)是,這些內(nèi)容都能用相對(duì)簡(jiǎn)單的算法和常用的軟件框架實(shí)現(xiàn)。因此我們構(gòu)建軟件框架,解決不同的問題,并在我們的研究和產(chǎn)品中反復(fù)使用。

我們開發(fā)的這個(gè)系統(tǒng)叫做TensorFlow。我們用它進(jìn)行該領(lǐng)域的研究開發(fā)。去年我們決定將它開源化,我們希望人們能夠免費(fèi)下載這個(gè)軟件,用于解決他們的問題。我很欣喜的看到人們將其用于不同事物。

比如日本有一位種黃瓜的農(nóng)民。對(duì)黃瓜種植者而言,你需要對(duì)黃瓜分成不同的類別進(jìn)行銷售。比如個(gè)頭小的、中等的、大的、帶刺的、不帶刺的、直的、彎曲的。在收獲時(shí),這個(gè)過(guò)程很復(fù)雜且耗時(shí)。

因此這位農(nóng)民用相機(jī)拍照,加上他用TensorFlow訓(xùn)練的計(jì)算機(jī)視覺模型,從而讓視覺模型判定黃瓜的類別。接著裝配到傳輸帶上,讓轉(zhuǎn)換器把黃瓜放到合適的箱子里。這樣在收獲季時(shí),大量減輕了人力勞動(dòng)。

計(jì)算力的顯著提升

正如我說(shuō)過(guò)的,神經(jīng)網(wǎng)絡(luò)并不新的概念,在1980年代到1990年代就已經(jīng)出現(xiàn)了。當(dāng)時(shí)在解決小型問題時(shí),它們的成果顯著。但當(dāng)時(shí)在面對(duì)現(xiàn)實(shí)的大型問題上,它們效果欠佳。

原因在于我們的計(jì)算力不夠。對(duì)每個(gè)樣本的模型進(jìn)行調(diào)整,多次處理每個(gè)樣本,從而構(gòu)建模型需要大量的計(jì)算力。因此我們需要更快的計(jì)算機(jī)。

幸運(yùn)的是,如今我們有了更快的計(jì)算機(jī)。在過(guò)去的三十到四十年間,計(jì)算機(jī)每年都在飛速發(fā)展。如今神經(jīng)網(wǎng)絡(luò)已能夠應(yīng)用于實(shí)際問題?,F(xiàn)在你手機(jī)中的計(jì)算機(jī),比二十年到三十年前的臺(tái)式機(jī)要強(qiáng)一百到一千倍。這是至關(guān)重要的,現(xiàn)在我們有足夠的計(jì)算力。

計(jì)算機(jī)視覺識(shí)別

計(jì)算機(jī)視覺領(lǐng)域每年有舉辦比賽,看哪個(gè)團(tuán)隊(duì)能對(duì)給出的圖像進(jìn)行正確分類,圖像包括數(shù)千個(gè)不同類別。

2011年,在人們使用神經(jīng)網(wǎng)絡(luò)之前,獲勝團(tuán)隊(duì)的錯(cuò)誤率是26%。比起人類5%的錯(cuò)誤率,這個(gè)結(jié)果不太理想。但在五年后,如今有了深度學(xué)習(xí)和更多的計(jì)算力,錯(cuò)誤率降低為3%。在這個(gè)任務(wù)上,超過(guò)了人類的水平,這是具有變革意義的。

如今計(jì)算機(jī)能夠看,這在之前是不行的,這是巨大變革的開端。對(duì)于開發(fā)機(jī)器人來(lái)說(shuō),這是非常有用的。

看到機(jī)器人的例子。這里使用了深度學(xué)習(xí)教它們做到手眼協(xié)調(diào)。每個(gè)機(jī)器人都有攝像頭能,模型將從攝像頭中獲得輸入像素,然后直接輸出到六個(gè)轉(zhuǎn)矩馬達(dá)的指令,用來(lái)控制機(jī)器人的不同接口。

它們將通過(guò)反復(fù)試錯(cuò)練習(xí)拾取物品,通過(guò)抓爪是否關(guān)閉或完成拾取判斷是否成功。它們還根據(jù)得到的視覺數(shù)據(jù),學(xué)習(xí)對(duì)于不同的物品哪種抓取更有效。我們?cè)贏mazon買了大量不同的玩具和工具,最終的效果很不錯(cuò)。

醫(yī)療領(lǐng)域的運(yùn)用

我認(rèn)為機(jī)器學(xué)習(xí)有巨大機(jī)遇的另一個(gè)領(lǐng)域是醫(yī)療領(lǐng)域。

糖尿病性視網(wǎng)膜病變是世界上增長(zhǎng)最快的致盲原因。每年有4億人面臨失明的風(fēng)險(xiǎn),他們需要每年接受篩查,但很多人都沒有進(jìn)行必要的篩查。我們希望通過(guò)計(jì)算機(jī)視覺攻克這個(gè)難題。

通常,眼科醫(yī)生通過(guò)篩查眼部圖像對(duì)癥狀進(jìn)行評(píng)估,看有沒有相關(guān)癥狀。因此我們獲取大量這類眼部圖像,并讓眼科醫(yī)生進(jìn)行標(biāo)注。

如果讓兩個(gè)眼科醫(yī)生進(jìn)行評(píng)分,他們有60%的幾率會(huì)得出相同的評(píng)估。更擔(dān)憂的是,若讓同一位眼科醫(yī)生在幾小時(shí)后評(píng)估同一幅圖,只有65%的幾率他們會(huì)得出相同結(jié)論,顯然這是個(gè)難題。

本周早些時(shí)候,我們團(tuán)隊(duì)在《美國(guó)醫(yī)學(xué)會(huì)期刊》上發(fā)布相關(guān)論文。對(duì)于這個(gè)任務(wù),我們的機(jī)器學(xué)習(xí)模型能夠媲美,甚至優(yōu)于人類眼科醫(yī)生。

這是很重要的,因?yàn)檫@能讓眼科醫(yī)生更高效。他們能夠把時(shí)間交給那些真正需要關(guān)注的人群,而不是花時(shí)間篩查沒有這方面問題的人。

藝術(shù)領(lǐng)域的運(yùn)用

再看到一個(gè)例子。圖賓根大學(xué)的Leon Gaty和他來(lái)自德國(guó)馬普研究所的同事,在去年發(fā)布了一篇出色的論文。他們的算法能夠輸入照片和畫,將照片輸出為畫的風(fēng)格。

這里你看到的是同一個(gè)照片,呈現(xiàn)為三種不同藝術(shù)家的風(fēng)格,這是非常驚人的。我認(rèn)為這是一個(gè)好機(jī)遇,為藝術(shù)家們創(chuàng)造相應(yīng)工具。讓他們與這類系統(tǒng)交互,從中獲得靈感并得出更有創(chuàng)意的藝術(shù)產(chǎn)物。

從1980年到如今,許多發(fā)展都源于計(jì)算力的增加。在未來(lái)也是如此,我們需要更多的計(jì)算力來(lái)訓(xùn)練更大型的模型,從而學(xué)的更多。同時(shí)深度學(xué)習(xí)也在變革我們?cè)O(shè)計(jì)、開發(fā)計(jì)算機(jī)的方式。

兩大特征

神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)算法中有兩個(gè)有趣的特征。

首先,精確度下降是可以接受的。當(dāng)你乘以1.2或0.6時(shí),這是沒問題的。我們不需要將計(jì)算成本用于追求數(shù)字上的精確度,那是傳統(tǒng)CPU設(shè)計(jì)的初衷。這將很有幫助,如果你需要進(jìn)行大量計(jì)算,你能更加接近從而進(jìn)行更多操作。神經(jīng)網(wǎng)絡(luò)也是如此。

另一點(diǎn)是,之前我展現(xiàn)的所有機(jī)器學(xué)習(xí)系統(tǒng)和算法只需要依賴少量具體操作,并不需要通常計(jì)算機(jī)需要的全部指令。它們需要完成矩陣乘法、向量運(yùn)算、線性代數(shù)等,僅此而已。

這讓我們能夠開發(fā)專門的計(jì)算機(jī),能夠非常好的完成這些任務(wù)。在過(guò)去三年,我們?cè)诠雀栝_發(fā)了TPU系統(tǒng),用于加速計(jì)算。

這類深度學(xué)習(xí)算法能夠適用于許多問題。我們能夠提高計(jì)算力,與傳統(tǒng)CPU相比達(dá)到數(shù)量級(jí)的提高,這是很強(qiáng)大的。這能讓我們?cè)诋a(chǎn)品中用到更強(qiáng)大的模型,從而得出更好的系統(tǒng)。

未來(lái)的需求

讓我們看到將來(lái)的一些需求。隨著用戶對(duì)系統(tǒng)的要求更高,人們希望系統(tǒng)變得更智能。

"哪些圖顯示了糖尿病視網(wǎng)膜病變的癥狀”。

我之前已經(jīng)說(shuō)過(guò)了,如今這點(diǎn)已能夠?qū)崿F(xiàn)。

"用西班牙語(yǔ)描述這個(gè)視頻”。

這方面還做得不夠好。我們能夠很好的描述圖像,但對(duì)于動(dòng)態(tài)的視頻還欠佳,今后這是可能實(shí)現(xiàn)的。

"幫我找到與機(jī)器人技術(shù)強(qiáng)化學(xué)習(xí)的相關(guān)文件,并用德語(yǔ)進(jìn)行總結(jié)”。

這很復(fù)雜,但如果我們有相關(guān)工具可以做到的話,這將多么高效。

"請(qǐng)從廚房幫我拿一杯茶”。

讓機(jī)器人在類似廚房的復(fù)雜環(huán)境中工作是很難的,但之前手眼協(xié)調(diào)的例子就是不錯(cuò)的開端。

總結(jié)一下,AI 能夠幫助我們變得更健康、更開心、更高效、更有創(chuàng)造力。

你對(duì)AI的未來(lái)感到激動(dòng)嗎? 顯然我很激動(dòng),謝謝大家

數(shù)據(jù)分析咨詢請(qǐng)掃描二維碼

若不方便掃碼,搜微信號(hào):CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢
客服在線
立即咨詢
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機(jī)數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進(jìn)行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個(gè)參數(shù)驗(yàn)證碼對(duì)象,之后可以使用它調(diào)用相應(yīng)的接口 initGeetest({ // 以下 4 個(gè)配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺(tái)檢測(cè)極驗(yàn)服務(wù)器是否宕機(jī) new_captcha: data.new_captcha, // 用于宕機(jī)時(shí)表示是新驗(yàn)證碼的宕機(jī) product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說(shuō)明請(qǐng)參見:http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計(jì)時(shí)完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請(qǐng)輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請(qǐng)輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }