99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁精彩閱讀斯坦福重磅發(fā)布 丨AI 指數(shù)年度報告丨附報告下載
斯坦福重磅發(fā)布 丨AI 指數(shù)年度報告丨附報告下載
2017-12-06
收藏

斯坦福重磅發(fā)布 丨AI 指數(shù)年度報告丨附報告下載

斯坦福大學近日重磅發(fā)布了 AI 指數(shù) 2017 年度報告,從學術、產(chǎn)業(yè)、技術等多個角度盤點了 AI 領域的動態(tài)和進度。

點擊【閱讀原文】下載 "AI 指數(shù)年度報告"

毋庸置疑 ,AI 是近年來的行業(yè)熱點,吸引了越來越多的從業(yè)者、行業(yè)領袖、決策者和公眾的關注。AI 指數(shù)是斯坦福大學 AI 百年研究的一個項目,旨在追蹤 AI 領域的行業(yè)動態(tài),促進對 AI 的了解。

報告中進行了大量的調(diào)查和統(tǒng)計,主要包括 4 個部分:

活動量(Volume of Activity)

這部分圍繞 AI 領域的“多少”(how much)方面。例如,論文發(fā)表數(shù)量、參會人數(shù)、創(chuàng)業(yè)投資等。

技術表現(xiàn)(Technical Performance)

這部分圍繞 AI 表現(xiàn)“有多好”(how much)的方面。例如,計算機理解圖像和證明定理的性能。

衍生測量(Derivative Measures)

我們對各個趨勢之間的關系進行探究。還引入了一種探索性的方法,即AI 活力指數(shù)(AI Vibrancy Index),將學術界和行業(yè)的AI 趨勢結(jié)合起來,對AI領域的現(xiàn)狀進行量化。

接近人類表現(xiàn)(Towards Human Performance)

我們列舉了 AI 在接近或超越人類表現(xiàn)方面取得的重大進展,以及當中遇到的困難與挑戰(zhàn)。

活動量丨Volume of Activity

學術界 

1. 論文發(fā)表數(shù)量

自 1996 年以來,計算機科學領域的論文數(shù)量增長了 6 倍,但在同一時期,每年發(fā)表的 AI 論文數(shù)量增加 了 9 倍。

以下學術論文的 Scopus 數(shù)據(jù)庫中所收錄,關鍵詞為“人工智能”的計算機科學論文發(fā)表數(shù)量。

2. 選課人數(shù)

自1996年以來,斯坦福大學的 AI 課程選課人數(shù)增加了 11 倍。

機器學習(ML)是 AI 的一個分支。在這里之所以強調(diào)機器學習課程,是因為其選課人數(shù)的激增,而且機器學習技術對最近許多 AI 成果至關重要。

下圖為斯坦福大學的 AI 和機器學習課程的選課人數(shù)。

由于其他大學的數(shù)據(jù)有限,因此在報告中突出斯坦福的數(shù)據(jù)。但是根據(jù)參考數(shù)據(jù),可以推測其他大學的趨勢與斯坦福類似。

3. 參會情況

以下為 AI 會議的參會人數(shù)。

研究重點轉(zhuǎn)移,大型 AI 會議(1000人以上)中,研究重點已經(jīng)從符號推理轉(zhuǎn)向機器學習深度學習

但是在小型 AI 會議(1000人以下)中,符號推理方面仍在穩(wěn)步發(fā)展。

行業(yè) 

1. AI 創(chuàng)業(yè)公司

以下為風投資本支持的 AI 創(chuàng)業(yè)公司數(shù)量。自 2000 年以來,這一數(shù)量增加了 14倍。

2. AI 創(chuàng)業(yè)基金

在美國投資 AI 創(chuàng)業(yè)的基金數(shù)量也在增長,自 2000 年以來,每年投入 AI 創(chuàng)業(yè)的資本增加了 6 倍:

3. 職位需求

根據(jù)兩個在線求職平臺 Indeed 和 Monster 的數(shù)據(jù),AI 相關崗位需求也在增長。自 2013 年以來,在美國需要 AI 技能的工作崗位已經(jīng)增長了4.5 倍。

根據(jù) Indeed 的數(shù)據(jù),不同國家需要 AI 技能的工作崗位也在增加。

Monster 平臺發(fā)布每年 AI 相關工作職位的數(shù)據(jù),按具體技能劃分。

4. 機器人進口

下面是產(chǎn)業(yè)自動化的情況。北美和全球的工作機器人購買量在增加。

開源軟件

GitHub 項目統(tǒng)計

以下是 GitHub 上,TensorFlow 和 Scikit-Learn 軟件包獲得的星標(star)數(shù)量。(TensorFlow 和 Scikit-Learn 是用于進行深度學習機器學習的熱門軟件包。)

以下是 Github 上其他 AI 和 ML 軟件包的星標情況。

公共認知

媒體報道

關于 AI 的主流媒體文章報道中,含有正面情緒(藍線)和負面情緒(紫線)的文章比例。

技術表現(xiàn)丨Technical Performance

視覺

1. 物體檢測

大型視覺識別挑戰(zhàn)(LSVRC)比賽中,AI 系統(tǒng)檢測物體的性能也在顯著提升。自 2010 年以來,錯誤率從 28.5 %下降到低于 2.5%。

2. 視覺問答

視覺問答(Visual Question Answering),是一種涉及計算機視覺和自然語言處理的學習任務。以下為在開放式回答有關圖像問題的任務中,AI 系統(tǒng)的性能。

自然語言理解

1. 句法分析

AI 系統(tǒng)在確定句子句法結(jié)構(gòu)上的表現(xiàn)。

2. 機器翻譯

AI 系統(tǒng)在翻譯英語和德語方面的表現(xiàn)。

3. 問答

AI 系統(tǒng)在文檔中找到問題答案的性能。

4. 語音識別

AI 系統(tǒng)在識別語音錄音的表現(xiàn),2016 已經(jīng)達到人類水平。

結(jié)語

這份報告中有以下亮點:

· 學術領域:自1996 年以來,AI 論文發(fā)表量增加了 9 倍;同時相關課程的選課人數(shù)也在增長。例如,斯坦福大學的 AI 課程選課人數(shù)比 20 年前,增加了 11 倍。

· 產(chǎn)業(yè)領域:自 2000 年以來,有資本支持的 AI 創(chuàng)業(yè)公司數(shù)量增長了 14 倍。針對AI 創(chuàng)業(yè)的投資在同一時期增加了 6 倍。

· 技術表現(xiàn):AI 在圖像和語音識別上都逐漸接近人類水平。AI 系統(tǒng)在針對現(xiàn)實問題的應用上表現(xiàn)出色,例如物體檢測、理解和回答、圖像分類等方面。

· 接近人類表現(xiàn):AI 在某些方面已經(jīng)能夠接近人類的表現(xiàn)。比如在游戲應用中,AI 在國際象棋、圍棋等方面都有不俗的表現(xiàn)。盡管如此,但當中也存在一些困難和挑戰(zhàn),比如在處理信息的深層含義方面,AI 與人類表現(xiàn)仍有一定的差距。


數(shù)據(jù)分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢
客服在線
立即咨詢
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個參數(shù)驗證碼對象,之后可以使用它調(diào)用相應的接口 initGeetest({ // 以下 4 個配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺檢測極驗服務器是否宕機 new_captcha: data.new_captcha, // 用于宕機時表示是新驗證碼的宕機 product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說明請參見:http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計時完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }