99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁精彩閱讀TED演講-人工智能將如何影響你的生活
TED演講-人工智能將如何影響你的生活
2018-05-19
收藏

TED演講-人工智能將如何影響你的生活

谷歌高級研究員Jeff Dean就AI對生活的影響提出了一些有趣的看法。

中英雙字視頻如下:

針對不方便打開視頻的小伙伴,CDA字幕組也貼心的整理了文字版本,如下:

在過去幾年,人工智能領(lǐng)域在飛速發(fā)展。

你知道未來AI將如何影響你的生活嗎? 我有一些想法。

我叫Jeff Dean,我是谷歌的一名高級研究員。這有一定的含義。首先,說明我有點老;其次,我需要花時間攻克我認為對公司很重要的問題。

我在研究人工智能問題,我負責位于加州山景城的谷歌大腦團隊,也就是我們的人工智能研究團隊。

我們的團隊長期以來研究如何讓機器智能化,我們還會與谷歌的產(chǎn)品團隊合作,從而生產(chǎn)出智能的機器產(chǎn)品。我們希望用智能提升人類的能力,讓我們做得更多,消除繁瑣重復(fù)性任務(wù),并讓我們有更多的時間進行創(chuàng)新。

AI的潛力

比起個人計算機的發(fā)明、智能手機的普及,AI將更具影響力。AI的概念并不新,在最早的計算機時代就存在,這是開發(fā)智能化機器的宏大項目。當中有很多實現(xiàn)的方法,從那時起該領(lǐng)域就深深吸引住了計算機科學家們。

當中最有潛力的方式是機器學習領(lǐng)域。比起讓機器掌握一切需要預(yù)先知道的內(nèi)容,我們更希望讓機器學會如何學習,從而它們能夠通過對世界的觀察而學習,并根據(jù)觀察做出推斷。

深度學習機器學習的一個特殊的領(lǐng)域。在過去四、五年間,深度學習在解決各種問題時優(yōu)勢明顯。

人腦如何學習

在深入該問題之前,讓我們探討我們是如何學習的。

我們通過例子和重復(fù)練習進行學習。同樣,重復(fù)練習和例子對機器學習也至關(guān)重要。

機器學習中,我們會讓系統(tǒng)接觸到我們想讓其掌握的行為樣本,系統(tǒng)將從那些樣本中學習。

看到這張簡單的圖,我們想教會計算機識別圖像中包含的是貓還是狗。我們會給出相應(yīng)樣本,標明圖像是貓還是狗。然后把這些樣本圖像提供給計算機,讓計算機回答圖中是什么。

如果得到正確的答案就成功了。但如果錯了,則需要進行一些調(diào)整。從而在下次更有可能得到正確的答案,而不是錯誤的。

神經(jīng)網(wǎng)絡(luò)

深度學習完成這點的方式很特殊,這很重要。即在學習過程中自動構(gòu)建抽象層。

最低層包括,圖像的某個部分是否包含棕色的斑點等。接著上面層次的內(nèi)容更復(fù)雜,比如圖像的某部分包含了耳朵、眼睛或胡須。這些特征是學習過程的組成部分,也是深度學習的關(guān)鍵因素。

我們不需要告訴計算機如何區(qū)分貓和狗,計算機能學會識別哪些是胡須,而且在貓的圖像中出現(xiàn)得更多。在學習過程中這些特征是自動構(gòu)建的。

神經(jīng)網(wǎng)絡(luò)能學習的不僅是分辨貓狗。還能學會分辨成千上萬種不同類別的物體,比如消防車、消防船等。神經(jīng)網(wǎng)絡(luò)還能從音頻中學習,從音頻中識別出單詞。

比如"外面有多冷”;輸入英語的"hello, how are you”,輸出相應(yīng)法語"Bonjour, comment allez-vous”。

它們能輸入圖像,進行分析。不僅識別類別,它們還能得出句子對圖像進行描述,比如"一列藍黃相間的火車在鐵軌上行駛”。這就展現(xiàn)了對圖像內(nèi)容的高度理解。

TensorFlow的應(yīng)用

深度學習中很棒的一點是,這些內(nèi)容都能用相對簡單的算法和常用的軟件框架實現(xiàn)。因此我們構(gòu)建軟件框架,解決不同的問題,并在我們的研究和產(chǎn)品中反復(fù)使用。

我們開發(fā)的這個系統(tǒng)叫做TensorFlow。我們用它進行該領(lǐng)域的研究開發(fā)。去年我們決定將它開源化,我們希望人們能夠免費下載這個軟件,用于解決他們的問題。我很欣喜的看到人們將其用于不同事物。

比如日本有一位種黃瓜的農(nóng)民。對黃瓜種植者而言,你需要對黃瓜分成不同的類別進行銷售。比如個頭小的、中等的、大的、帶刺的、不帶刺的、直的、彎曲的。在收獲時,這個過程很復(fù)雜且耗時。

因此這位農(nóng)民用相機拍照,加上他用TensorFlow訓練的計算機視覺模型,從而讓視覺模型判定黃瓜的類別。接著裝配到傳輸帶上,讓轉(zhuǎn)換器把黃瓜放到合適的箱子里。這樣在收獲季時,大量減輕了人力勞動。

計算力的顯著提升

正如我說過的,神經(jīng)網(wǎng)絡(luò)并不新的概念,在1980年代到1990年代就已經(jīng)出現(xiàn)了。當時在解決小型問題時,它們的成果顯著。但當時在面對現(xiàn)實的大型問題上,它們效果欠佳。

原因在于我們的計算力不夠。對每個樣本的模型進行調(diào)整,多次處理每個樣本,從而構(gòu)建模型需要大量的計算力。因此我們需要更快的計算機。

幸運的是,如今我們有了更快的計算機。在過去的三十到四十年間,計算機每年都在飛速發(fā)展。如今神經(jīng)網(wǎng)絡(luò)已能夠應(yīng)用于實際問題?,F(xiàn)在你手機中的計算機,比二十年到三十年前的臺式機要強一百到一千倍。這是至關(guān)重要的,現(xiàn)在我們有足夠的計算力。

計算機視覺識別

計算機視覺領(lǐng)域每年有舉辦比賽,看哪個團隊能對給出的圖像進行正確分類,圖像包括數(shù)千個不同類別。

2011年,在人們使用神經(jīng)網(wǎng)絡(luò)之前,獲勝團隊的錯誤率是26%。比起人類5%的錯誤率,這個結(jié)果不太理想。但在五年后,如今有了深度學習和更多的計算力,錯誤率降低為3%。在這個任務(wù)上,超過了人類的水平,這是具有變革意義的。

如今計算機能夠看,這在之前是不行的,這是巨大變革的開端。對于開發(fā)機器人來說,這是非常有用的。

看到機器人的例子。這里使用了深度學習教它們做到手眼協(xié)調(diào)。每個機器人都有攝像頭能,模型將從攝像頭中獲得輸入像素,然后直接輸出到六個轉(zhuǎn)矩馬達的指令,用來控制機器人的不同接口。

它們將通過反復(fù)試錯練習拾取物品,通過抓爪是否關(guān)閉或完成拾取判斷是否成功。它們還根據(jù)得到的視覺數(shù)據(jù),學習對于不同的物品哪種抓取更有效。我們在Amazon買了大量不同的玩具和工具,最終的效果很不錯。

醫(yī)療領(lǐng)域的運用

我認為機器學習有巨大機遇的另一個領(lǐng)域是醫(yī)療領(lǐng)域。

糖尿病性視網(wǎng)膜病變是世界上增長最快的致盲原因。每年有4億人面臨失明的風險,他們需要每年接受篩查,但很多人都沒有進行必要的篩查。我們希望通過計算機視覺攻克這個難題。

通常,眼科醫(yī)生通過篩查眼部圖像對癥狀進行評估,看有沒有相關(guān)癥狀。因此我們獲取大量這類眼部圖像,并讓眼科醫(yī)生進行標注。

如果讓兩個眼科醫(yī)生進行評分,他們有60%的幾率會得出相同的評估。更擔憂的是,若讓同一位眼科醫(yī)生在幾小時后評估同一幅圖,只有65%的幾率他們會得出相同結(jié)論,顯然這是個難題。

本周早些時候,我們團隊在《美國醫(yī)學會期刊》上發(fā)布相關(guān)論文。對于這個任務(wù),我們的機器學習模型能夠媲美,甚至優(yōu)于人類眼科醫(yī)生。

這是很重要的,因為這能讓眼科醫(yī)生更高效。他們能夠把時間交給那些真正需要關(guān)注的人群,而不是花時間篩查沒有這方面問題的人。

藝術(shù)領(lǐng)域的運用

再看到一個例子。圖賓根大學的Leon Gaty和他來自德國馬普研究所的同事,在去年發(fā)布了一篇出色的論文。他們的算法能夠輸入照片和畫,將照片輸出為畫的風格。

這里你看到的是同一個照片,呈現(xiàn)為三種不同藝術(shù)家的風格,這是非常驚人的。我認為這是一個好機遇,為藝術(shù)家們創(chuàng)造相應(yīng)工具。讓他們與這類系統(tǒng)交互,從中獲得靈感并得出更有創(chuàng)意的藝術(shù)產(chǎn)物。

從1980年到如今,許多發(fā)展都源于計算力的增加。在未來也是如此,我們需要更多的計算力來訓練更大型的模型,從而學的更多。同時深度學習也在變革我們設(shè)計、開發(fā)計算機的方式。

兩大特征

神經(jīng)網(wǎng)絡(luò)機器學習算法中有兩個有趣的特征。

首先,精確度下降是可以接受的。當你乘以1.2或0.6時,這是沒問題的。我們不需要將計算成本用于追求數(shù)字上的精確度,那是傳統(tǒng)CPU設(shè)計的初衷。這將很有幫助,如果你需要進行大量計算,你能更加接近從而進行更多操作。神經(jīng)網(wǎng)絡(luò)也是如此。

另一點是,之前我展現(xiàn)的所有機器學習系統(tǒng)和算法只需要依賴少量具體操作,并不需要通常計算機需要的全部指令。它們需要完成矩陣乘法、向量運算、線性代數(shù)等,僅此而已。

這讓我們能夠開發(fā)專門的計算機,能夠非常好的完成這些任務(wù)。在過去三年,我們在谷歌開發(fā)了TPU系統(tǒng),用于加速計算。

這類深度學習算法能夠適用于許多問題。我們能夠提高計算力,與傳統(tǒng)CPU相比達到數(shù)量級的提高,這是很強大的。這能讓我們在產(chǎn)品中用到更強大的模型,從而得出更好的系統(tǒng)。

未來的需求

讓我們看到將來的一些需求。隨著用戶對系統(tǒng)的要求更高,人們希望系統(tǒng)變得更智能。

"哪些圖顯示了糖尿病視網(wǎng)膜病變的癥狀”。

我之前已經(jīng)說過了,如今這點已能夠?qū)崿F(xiàn)。

"用西班牙語描述這個視頻”。

這方面還做得不夠好。我們能夠很好的描述圖像,但對于動態(tài)的視頻還欠佳,今后這是可能實現(xiàn)的。

"幫我找到與機器人技術(shù)強化學習的相關(guān)文件,并用德語進行總結(jié)”。

這很復(fù)雜,但如果我們有相關(guān)工具可以做到的話,這將多么高效。

"請從廚房幫我拿一杯茶”。

讓機器人在類似廚房的復(fù)雜環(huán)境中工作是很難的,但之前手眼協(xié)調(diào)的例子就是不錯的開端。

總結(jié)一下,AI 能夠幫助我們變得更健康、更開心、更高效、更有創(chuàng)造力。

你對AI的未來感到激動嗎? 顯然我很激動,謝謝大家

數(shù)據(jù)分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢
客服在線
立即咨詢
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個參數(shù)驗證碼對象,之后可以使用它調(diào)用相應(yīng)的接口 initGeetest({ // 以下 4 個配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺檢測極驗服務(wù)器是否宕機 new_captcha: data.new_captcha, // 用于宕機時表示是新驗證碼的宕機 product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說明請參見:http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計時完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }