99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁精彩閱讀斯坦福研究人員讓AI看了100部好萊塢大片后,培養(yǎng)出了一個“吻戲識別大師”
斯坦福研究人員讓AI看了100部好萊塢大片后,培養(yǎng)出了一個“吻戲識別大師”
2019-07-11
收藏
斯坦福研究人員讓AI看了100部好萊塢大片后養(yǎng)出“吻戲識別大師”

編輯:大明


【導讀】斯坦福大學研究人員給AI模型看了100部好萊塢電影,讓AI看懂了什么是接吻,并從視頻片段中分割識別出接吻的鏡頭場景,而且把接吻和性愛場景區(qū)分開來。嗯,想開車的朋友可能要等等,但想看吻戲的朋友這回可以一次看個夠了。

和大多數(shù)沒有接過吻的人一樣,AI學接吻這件事最開始也是通過觀看愛情電影片段進行的。AI通過看電影來了解關于接吻的基本知識,尤其是看看那些好萊塢明星的嘴唇動作究竟是什么樣的。

研究人員對熟練掌握識別面部識別和目標識別的深度學習算法進行了訓練,識別由專業(yè)演員戲劇化的熱吻場景,這表明,AI系統(tǒng)已經(jīng)能夠更深入地了解最親密的人類“交流”活動。

斯坦福研究人員讓AI看了100部好萊塢大片后養(yǎng)出“吻戲識別大師”

電影《泰坦尼克號》中男女主角著名的“船頭接吻”鏡頭

這項研究來自Netflix的高級數(shù)據(jù)科學家Amir Ziai,他正在斯坦福大學攻讀AI專業(yè)研究生。Ziai從過去一個世紀的好萊塢電影數(shù)據(jù)庫中挑選了100部電影的代表性片段。然后手動將不同的電影片段標記為接吻/非接吻場景,并使用來自這些片段的靜止圖像幀和聲音片段來訓練深度學習算法,以檢測影片中親吻的場景和聲音。

斯坦福研究人員讓AI看了100部好萊塢大片后養(yǎng)出“吻戲識別大師”

尋找非交叉接吻動作分割片段的算法偽代碼

不過請不要誤會,目前還不清楚這個測吻的方法是否可以用于親吻之外的進一步性愛場景的識別。對此,Ziai 表示:“在我的訓練數(shù)據(jù)集中有意遠離了過度的性愛場景,以確保模型不會混淆接吻和性愛”。

斯坦福研究人員讓AI看了100部好萊塢大片后養(yǎng)出“吻戲識別大師”

Ziai目前的雇主Netflix沒有參與斯坦福大學的這項研究,該研究一發(fā)表在預印本服務器arXiv上。Ziai尚未研究該技術在Netflix上的能否獲得一些應用前景。但不難想象,這類視頻識別技術可能會讓Netflix或其他公司(如YouTube,F(xiàn)acebook,Instagram和TikTok)很感興趣,由此技術開發(fā)出的商業(yè)應用可以處理大量流媒體或存儲視頻。

2019年4月,谷歌宣布其Pixel智能手機已經(jīng)能夠接收Photobooth功能更新,可以在智能手機攝像頭拍攝的視頻中檢測到接吻時進行自動拍照。Ziai展示了與視頻有關的接吻檢測技術,未來的應用可以對視頻內(nèi)容進行自動分類,為用戶打造個性化的視頻推薦列表,甚至可能充當在線視頻審核的部分作用,對某些內(nèi)容的視頻進行篩選。

“這是一個很好的例子,說明現(xiàn)代計算機視覺技術如何能夠相當容易地開發(fā)特定的'感知和響應'軟件,提示定性/非結構化的東西(如場景中的接吻),”O(jiān)penAI策略與轉播主管杰克·克拉克說,他的導入人工智能新聞通訊,最近突出了親吻檢測研究?!拔艺J為這是AI改變個人軟件開發(fā)方面,未來受關注潛力最高的領域之一?!?/span>

目前對親吻場景識別最成功的深度學習模型是ResNet-18,這是一種圖像分類算法,已經(jīng)基于ImageNet數(shù)據(jù)庫中的超過一百萬張圖像進行了預訓練。為了能夠正確識別接吻的聲音,使用名為VGGish的深度學習模型,利用每個接吻場景的一秒鐘片段的后960毫秒的音頻進行了訓練。

斯坦福研究人員讓AI看了100部好萊塢大片后養(yǎng)出“吻戲識別大師”

使用這種雙管齊下的訓練方式,AI模型處理接吻的圖像和音頻的方式,讓整個模型獲得了高達的0.95的F1分數(shù) - 這一分數(shù)用于衡量算法(對于誤報和假陰性的)精度的加權平均值。

但是,面對一些電影場景中視頻編輯過多,以及和攝像機角度問題時,模型可能會無能為力。拍攝演員接吻的遠景鏡頭有時會騙過算法,因為這種情況下,大部分相機鏡框內(nèi)都是風景背景??旃?jié)奏的視頻剪輯和不包括兩個演員的鏡頭也證明是具有挑戰(zhàn)性的。

要弄清究竟是AI模型究竟是根據(jù)哪些特定數(shù)據(jù)模式進行預測是比較困難的事情。人類嘗試理解AI邏輯的一種方法是使用顯著性圖來突出顯示在分析過程中受到AI最多關注的數(shù)據(jù)。在好萊塢電影中的親吻場景中,深度學習模型似乎更加關注與演員面部相關的圖像像素。

Ziai說,一些“有限的實驗”也表明,AI模型更依賴視覺特征,而不是音頻特征來識別接吻場景。實驗表明,利用更加“精心調(diào)整的數(shù)據(jù)集”會更有利于接吻探測系統(tǒng)的性能發(fā)揮,并且可能利用更多的背景信息,而不僅僅是靠靜止圖像來識別接吻場景。

斯坦福研究人員讓AI看了100部好萊塢大片后養(yǎng)出“吻戲識別大師”

帕特里克·斯維澤和黛米·摩爾在1990年的電影《幽靈》中的接吻畫面,該影片是數(shù)據(jù)科學家用于訓練AI模型識別接吻場景選取的100部電影之一

目前還不清楚AI模型在全部100部好萊塢電影中的識別表現(xiàn)如何,如《安娜·卡列尼娜》(1935),《幽靈》(1990)和《皇家賭場》(2006)將在更大的電影數(shù)據(jù)集中發(fā)揮作用。但是,在訓練數(shù)據(jù)集超過80個視頻后,該模型僅僅出現(xiàn)了“邊際化的性能提升”,Ziai說。好萊塢電影數(shù)據(jù)集和一些計算資源由斯坦福大學計算機科學助理教授Kayvon Fatahalian實驗室提供。

另一個問題是,這種接吻AI識別模型是否能夠在檢測社交媒體上常見的視頻中的接吻場景時表現(xiàn)出相當?shù)木?。這一挑戰(zhàn)可能需要對更大的視頻數(shù)據(jù)集進行額外的訓練。盡管如此,一些初步測試仍然表明,這種方式有望誕生更廣泛的AI接吻檢測應用。

“這項研究的嘗試是使用多樣化的數(shù)據(jù)集,讓模型不會過度適應任何特定類型的電影,”Ziai說?!坝腥さ氖?,它似乎在我發(fā)現(xiàn)的一些YouTube視頻上的性能表現(xiàn)相當不錯?!?/span>

數(shù)據(jù)分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢
客服在線
立即咨詢
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個參數(shù)驗證碼對象,之后可以使用它調(diào)用相應的接口 initGeetest({ // 以下 4 個配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺檢測極驗服務器是否宕機 new_captcha: data.new_captcha, // 用于宕機時表示是新驗證碼的宕機 product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說明請參見:http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計時完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }