99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁精彩閱讀我們對人工智能的10大誤解
我們對人工智能的10大誤解
2016-03-19
收藏

我們對人工智能的10大誤解

自從20年前深藍(Deep Blue)在國際象棋中擊敗卡斯帕羅夫(Garry Kasparov),該事件就被人們譽為機器智能最權(quán)威的證明。谷歌的AlphaGo已經(jīng)在圍棋比賽中以四勝一負(譯者注:原文是三場中獲勝兩局)贏得了韓國棋手李世石,更表明了這些年來人工智能的迅猛進步。機器終會比人類更聰明的預言即將到來,但我們似乎并沒有真正理解這個具有劃時代意義的事件的影響。

事實上,我們執(zhí)著于對人工智能的一些嚴重的、甚至是危險的誤解。去年年底,SpaceX公司的聯(lián)合創(chuàng)始人伊隆·馬斯克(Elon Musk)警告說,人工智能會統(tǒng)治世界。此話一出,引發(fā)了對人工智能或譴責或支持的激烈爭論。對于這樣一個重大的未來事件,關于它是否會發(fā)生,或是以何種形式發(fā)生,各方持巨大的分歧。而當我們考慮到人工智能會帶來巨大的利益的同時,也可能出現(xiàn)風險,這一點尤其令人擔憂。不同于其他任何的人類發(fā)明,人工智能具有重塑人類的潛力,但它也可能摧毀我們。

很難知道該相信什么。但借助于計算科學家,神經(jīng)科學家,和人工智能理論家的創(chuàng)舉,我們可以逐漸了解關于人工智能更清晰的圖景。下面是關于人工智能最常見的誤解和虛傳。

◆ 誤解一:“我們永遠不會創(chuàng)造出類似人類智慧的人工智能?!?


\


現(xiàn)實:我們已經(jīng)在一些游戲領域,如象棋與圍棋、股市交易和談話等創(chuàng)造出可以與人類智慧匹敵、甚至超過人類的計算機。而背后驅(qū)動的計算機和算法只會越來越好;因此,計算機趕超其他人類活動,將只是個時間問題。

紐約大學的心理學家加里·馬庫斯(Gary Marcus)說,在人工智能領域工作的“幾乎每個人”都認為,機器將最終會替代我們自己。支持者和懷疑論者之間的唯一真正的區(qū)別只是時間框架問題。像Ray Kurzweil等未來學家認為機器替代人類可能會在幾十年發(fā)生,也有人說,它可能需要幾個世紀。

當懷疑論者說這是一個無法解決的技術問題,或是生物大腦有一些內(nèi)在的獨特之處時,是不能令人信服的。我們的大腦是生物機器,但歸根到底它們?nèi)匀皇菣C器;他們在現(xiàn)實世界中存在,按照物理學的基本規(guī)律運行。沒有什么是不可知的。

◆誤解二:“人工智能將有自覺意識”


\


現(xiàn)實:關于機器智能的一個共同的假設是,它是自覺的有意識的,也就是說,它會像人類一樣思考。更重要的是,像微軟聯(lián)合創(chuàng)始人保羅·艾倫的批評者認為,我們還沒有實現(xiàn)人工普遍智能(Artificial General Intelligence, AGI),即能夠執(zhí)行任何一項人類能夠進行的智能任務,因為我們?nèi)狈﹃P于意識的完整科學理論知識體系。但倫敦帝國大學認知機器人專家默里·沙納漢(Murray Shanahan)指出,我們應該避免混淆這兩個概念。

意識無疑是一個有趣和重要的主題,但我不相信意識是匹敵人類水平的人工智能必要的部分,”他告訴Gizmodo。 “或者,更準確地說,我們用意識這個詞,是為了表明一些心理和認知的屬性,而這在人類中是緊密相連互有重合的”。

我們完全可以想像一個非常聰明的機器,缺乏一個或多個這種屬性。最后,我們可以建立一個非常聰明的,但沒有自我意識的,不能主觀或有意識地體驗世界的人工智能。沙納漢說,將智慧和意識同時融合在一臺機器里也是有可能的,但是,我們不應該忽視這樣一個事實,即智慧和意識是兩個不同的概念。

只是因為一臺機器通過圖靈測試從而證實計算機和人類在智能上無區(qū)別,并不意味著它是有意識的。對我們來說,先進的人工智能可能會導致機器看起來是意識的假象,但是在自我自覺方面,它并不比一塊巖石或計算器更能感知自我意識。

◆ 誤解三:"我們不應該害怕人工智能?!?

事實:今年一月,facebook創(chuàng)始人Mark Zuckerberg說我們不應害怕人工智能,他說這將會為世界創(chuàng)造很多令人驚異的好東西。他只對了一半。我們安然享受人工智能所能創(chuàng)造的巨大的好處:從無人駕駛汽車到新藥的制造,然而我們卻無法保證所有通過人工智能所實現(xiàn)的將會是良性的。

一個高度智慧的系統(tǒng)也許能了解完成一個特定任務所需要的所有知識,例如解決一個讓人頭痛的財務問題,或者侵入一個敵人的系統(tǒng)。但除開這些它所專長的特定的領域外,它很可能非常無知和愚昧。Google的DeepMind系統(tǒng)精通于圍棋,然而除了圍棋,它對于其他領域卻沒有任何推理和邏輯能力。

許多類似的系統(tǒng)也可能缺乏深入的安全考慮。一個很好的例子就是由美國和以色列軍方共同開發(fā)的一份非常強大而復雜的武器級病毒系統(tǒng)Stuxnet Virus,其原本的作用是為了潛入和攻擊伊朗核武器動力裝置。此病毒系統(tǒng)卻不慎(至于是有人故意而為之還是純屬意外則不得而知)感染了俄羅斯核武器動力裝置。


\


攻擊網(wǎng)絡間諜的Flame病毒

類似的例子還有在中東用于攻擊網(wǎng)絡間諜的程序:Flame??梢韵胂螅磥眍愃芐tuxnet或者Flame這樣的系統(tǒng)如若廣泛散布,可能對一些含有有敏感信息的基礎設施產(chǎn)生一系列不可估量的破壞。(作者注:在此澄清,這些病毒并非人工智能,但在將來他們可以輕易加入人工智能,因此也將會帶來以上的一些顧慮。)

◆ 誤解四:“人工智能由于其極高智能,將不會犯任何錯誤?!?


\


電影《The Invisible Boy》中的超級計算機


事實:Surfing Samurai機器人人工智能研究者和開發(fā)者,Richard Loosemore認為大多數(shù)假設的人工智能將毀滅世界的情景都非常不符合邏輯。大多數(shù)類似的假設總是認為人工智能將會說:“我知道毀滅人類文明是由于設計引起的故障,但無論如何我還是很想去做?!盠oosemore指出如果人工智能在打算毀滅人類時,其思路是如此自相矛盾的話,它將在其一生中面臨無數(shù)自相矛盾的邏輯推理,也因此會干擾了其認知從而變得非常愚蠢,而同時根本不足以對我們造成傷害。他同時也斷言,那些認為“人工智能只會做程序設定的任務”的人,將會像在電腦剛剛發(fā)明時那些說電腦將永遠不會具備應變能力的謬論的人一樣。

牛津大學人類未來研究所(Future of Humanity Institute)的Peter Mcintyre和Stuart Armstrong對此有不同看法。他們認為人工智能將很大程度上依賴其程序鎖定。他們不相信人工智能不會犯錯誤,或者反過來他們沒有聰明到可以理解我們希望他們能做什么。

McIntyre告訴作者:“從定義上講,人工智能就是一個在方方面面都比最聰明的人腦要更為聰明的智慧載體”。“它將會完全知道我們設計他們來做什么”。McIntyre和Armstrong相信人工智能將只會做其程序編寫的任務,但如果它足夠聰明的話,它會最終理解法律的精髓和人文的意義。

McIntyre將人類將來可能面臨的困境和老鼠所面臨的困境做了比較。老鼠將會不停尋求食物和住所,但它們的目標跟人類不想與老鼠共棲一室的目標始終是相互沖突的。他說“正如我們完全能理解老鼠為什么要鉆進我們的屋子里、但仍然不能忍受與老鼠一起生活一樣,即使人工智能系統(tǒng)理解我們的目標和我們想要什么,他們?nèi)匀粫X得我們的目標無關緊要”。

◆ 誤解五:“一個簡單的修補程序?qū)⒔鉀Q人工智能的控制問題?!?br /> \


正如電影《機械姬》所描述,比我們聰明的機器人并不是那么簡單就能控制的

現(xiàn)實:假設我們創(chuàng)造出強于人類的人工智能,我們將要面對一個嚴重的“控制問題”。未來主義者和人工智能理論家完全不知如何限制和制約一個ASI(超強人工智能),一旦它被創(chuàng)造出來,也不知道如何保證它將對人類友好。最近,佐治亞理工的研究人員天真地認為人工智能可以通過閱讀簡單的故事和社會習俗來學習人類價值觀。而問題很可能會遠遠比這復雜。

“人們已經(jīng)提出很多簡單的技巧來解決整個人工智能的控制問題,”阿姆斯特朗說。具體例子包括將ASI程序編輯成讓它希望取悅?cè)祟?,或者僅僅作為人類的工具。換個角度說,我們可以集成一個概念,比如愛和尊重,把這些寫入它的源代碼。并且為了防止它采用超簡單的、單色的觀點來認識世界,它可以被編程來欣賞知識、文化和社會多樣性。


\


Isaac Asimov的“機器人控制三定律”只能是科幻元素,要解決人工智能控制問題,我們不能只靠理論或幻想。

但是,這些解決方案要么太簡單,(比如嘗試將人類喜好的整個的復雜性用精巧的語言來定義),要么包羅人類所有的復雜到簡單的單詞、詞組或思想。舉個例子來說,試圖給出一個連貫的、可操作的定義“尊重”一次,是非常困難的。

“這并不是說,這種簡單的技巧是無用的,許多此類建議揭示了好的研究途徑,而且有助于解決最終的問題,”阿姆斯特朗說。 “但是,在沒有大量工作來發(fā)展和探索這些技巧之前,我們不能完全信賴它們?!?

◆ 誤解六:"我們將被超人工智能毀滅。"


\


現(xiàn)實:現(xiàn)在還沒有證據(jù)保證人工智能會毀滅我們,或者我們將來一定沒有辦法來控制它。正如人工智能理論家Eliezer Yudkowsky所說:“人工智能不恨你,也不愛你,但你是由可以用做別的東西的原子組成的”。

他的書《超級智能》中寫道:路徑,危險,策略,牛津大學哲學家Nick Bostrom寫道,真正的超級智能人工一旦實現(xiàn),可能會造成比以往人類任何發(fā)明更大的風險。著名思想家Elon Musk,比爾·蓋茨和斯蒂芬·霍金(霍金警告說,人工智能可能是我們“歷史上最嚴重的錯誤”)也同樣警告這一點。

Mclntyre說,對于超級人工智能可以實現(xiàn)的大多數(shù)目標,有很好的理由讓人類退出這些過程。

“一個人工智能或許能夠非常準確地預測,我們不希望犧牲消費者、環(huán)境和非人類動物的利益為代價,來給某個公司帶來最大化的利潤,”McIntyre說。 “因此,它會有強烈的動機以確保自己不被中斷或干擾,包括被關閉,或其目標被改變,因為這樣這些目標將無法實現(xiàn)?!?

除非ASI的目標精確地反映我們自己的目標,McIntyre表示,它將有很好的理由不讓我們停止它的操作。并且由于它的智力水平大大超過了我們自己的,我們并不能做些什么(來阻止它)。

但萬事無絕對,也沒有人可以肯定人工智能會采取何種形式,以及它如何可能危及人類。Musk指出,人工智能實際上可以用于控制、調(diào)節(jié)和監(jiān)控其他人工智能?;蛘撸赡鼙还噍斎祟悆r值,以及強制要求友好對待人類。

◆誤解七:“超人工智能會很友好。”


\


現(xiàn)實:哲學家Immanuel Kant相信智能與道德密切相關。神經(jīng)學家David Chalmers也在他自己的論文“The Singularity: A Philosophical Analysis(奇點:從哲學角度分析)”中采用了Kant這一著名的觀點,并將其用在了解釋超人工智能的崛起之中。

如果這是正確的,那我們可以預測“智能爆炸”將會同時引發(fā)一場“道德爆炸”。我們還可以預測由此產(chǎn)生的超人工智能系統(tǒng)將會在超智能的同時也是超道德的,因此我們大概可以推測這是良性的。

但是認為先進的人工智能會是開明并且天生就好的觀點是站不住腳的。正如Armstrong所指出的,有許多戰(zhàn)犯都是很聰明的。智力與道德之間的聯(lián)系好像并不存在于人類身上,因此他對這一聯(lián)系存在于其他智能形式的假設提出了質(zhì)疑。

他說:“行為不道德的聰明人可能會給他愚蠢的同胞們帶來更大規(guī)模的傷害。智力恰好賦予了他們更聰明地做壞事的能力,而并不會使他們變好?!?

正如McIntyre所解釋的,一個代理達成目標的能力并不取決于這個目標一開始是否聰明。他說:“如果我們的人工智能具有獨一無二的在變聰明的同時會變得更加道德的能力,那我們是非常幸運的。但是,單純依靠運氣面對某些可能會決定我們未來的東西,并不是很好的策略?!?

◆ 誤解八:“來自人工智能的危險和機器人是一回事?!?


\


現(xiàn)實:這是一個特別常見的錯誤,一個被不加批判的媒體和《終結(jié)者》這類好萊塢電影延續(xù)的錯誤。

如果像天網(wǎng)(Skynet)那樣的超級人工智能真的想毀滅人類,它不會使用揮舞機關槍的機器人。它會使用更有效的手段,比如:釋放生物瘟疫,或發(fā)動基于納米技術的灰蠱災難?;蛘撸梢灾苯悠茐牡舸髿鈱?。人工智能是潛在的危險,并不因為它意味著機器人的未來,而是它將如何對世界展現(xiàn)它的存在。

◆誤解九:“科幻小說是對未來人工智能的精神描述?!?


\


人類思想如此豐富,所以各種科幻中的人工智能也是多種多樣的

現(xiàn)實:當然,很多年以來作家和未來學家都利用科幻來作夢幻般的預言,而是由ASI帶來的視界是一個不同顏色的馬。更重要的是,人工智能是非?!安蝗说赖摹保虼宋覀兒茈y了解和預測其準確性質(zhì)和形式。

要想讓科幻來娛樂弱小而可憐的人類,我們需要將“人工智能”描述成類似我們自己?!叭祟惖乃枷胍彩乔Р钊f別的;即使在人類內(nèi)部,你可能和你的鄰居完全不同,而這種差別和所有可能存在的頭腦相比是微不足道的。“麥金太爾(McIntyre)說。

大多數(shù)科幻是為了講述一個引人入勝的故事,并不需要在科學上準確無誤。因此,在科幻中即使是對等的實體之間也往往存在沖突。 “想象一下,的是,”阿姆斯特朗說,“如果人工智能沒有意識、喜悅、愛恨,根除了一切人類的痕跡,以實現(xiàn)一個無趣的目標,那將是一個多么無聊的故事?!?

◆ 誤解十:“人工智能將接手我們所有的工作,這太可怕了?!?

現(xiàn)實:人工智能自動完成人類工作的能力與它摧毀人類的潛能是兩回事。但《機器人的崛起》一書的作者馬丁 · 福特卻認為:技術的進步和未來的失業(yè)往往是密不可分的。思考人工智能在未來可能扮演的角色無可厚非,但是我們更應該關注的是后面幾十年的問題。人工智能主要完成的還是大規(guī)模自動化的工作。

毫無疑問,人工智能將徹底接管包括從工廠做工到上層的白領工作在內(nèi)的許多現(xiàn)有的工作崗位。有專家預測,在美國有一半的工作崗位可能在不久的將來實現(xiàn)自動化。

但這并不意味著我們不能適應這種巨變。通過人工智能將自己從紛雜的體力和腦力勞動中解放出來,不也是人類的美好愿景嗎?

“在接下來的幾十年中,人工智能會摧毀許多工作,但是這是一件好事,”米勒告訴Gizmodo。例如,自動駕駛汽車可以取代卡車司機,這將減少運輸成本,從而降低它的商品購買價格。 “如果你是一名卡車司機,那你可能輸了,但其他人會得到有效加薪,他們的薪水可以買更多的東西,”米勒說。 “而這些人將錢節(jié)省下來可以購買其他商品和服務,因而會創(chuàng)造新的工作。”

所以最終的結(jié)果可能是,人工智能會產(chǎn)生創(chuàng)造財富的新途徑,而人類可以騰出來做其他事情。而在人工智能的進步將帶動其他領域,尤其是制造業(yè)的發(fā)展。在未來,滿足人類需求會變得更加容易,而不是更難


數(shù)據(jù)分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢
客服在線
立即咨詢
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個參數(shù)驗證碼對象,之后可以使用它調(diào)用相應的接口 initGeetest({ // 以下 4 個配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺檢測極驗服務器是否宕機 new_captcha: data.new_captcha, // 用于宕機時表示是新驗證碼的宕機 product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說明請參見:http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計時完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }