您現(xiàn)在的位置是:首頁 >財(cái)經(jīng) > 2020-11-09 09:09:23 來源:
使用AI檢測看似完美的深層視頻
一年前,斯坦福大學(xué)的Maneesh Agrawala幫助開發(fā)了口型同步技術(shù),該技術(shù)使視頻編輯人員幾乎無法察覺地修改說話者的單詞。該工具可以無縫地插入一個(gè)人從未說過的單詞,甚至是句子中間,也可以消除她曾經(jīng)說過的單詞。在肉眼上,甚至對(duì)許多基于計(jì)算機(jī)的系統(tǒng),看起來都沒有錯(cuò)。
使用該工具可以更輕松地修復(fù)故障,而無需重新拍攝整個(gè)場景,以及為不同地方的不同觀眾量身定制電視節(jié)目或電影。
但是,這項(xiàng)技術(shù)還為難以發(fā)現(xiàn)的深造視頻創(chuàng)造了令人擔(dān)憂的新機(jī)會(huì),這些深造視頻的創(chuàng)建是為了歪曲事實(shí)。一個(gè)最近的共和黨的視頻,例如,使用較粗略的技術(shù),醫(yī)生與副總統(tǒng)拜登的采訪。
今年夏天,斯坦福大學(xué)和加州大學(xué)伯克利分校的Agrawala及其同事推出了一種基于AI的方法來檢測口形同步技術(shù)。通過識(shí)別人們發(fā)出的聲音與嘴巴形狀之間的微小不匹配,新程序可以準(zhǔn)確發(fā)現(xiàn)80%以上的假貨。
但是斯坦福大學(xué)布朗媒體創(chuàng)新研究所所長,森林籃科學(xué)計(jì)算機(jī)科學(xué)教授,也隸屬于斯坦福大學(xué)以人類為中心的人工智能研究所的阿格拉瓦拉警告說,對(duì)于深層假貨沒有長期的技術(shù)解決方案。
他說,真正的任務(wù)是提高媒體素養(yǎng),使人們在故意制造和傳播錯(cuò)誤信息時(shí)承擔(dān)更多責(zé)任。
他說:“隨著操縱視頻的技術(shù)越來越好,探測操縱技術(shù)的能力將越來越差。” “我們需要專注于非技術(shù)方法,以識(shí)別和減少虛假信息和虛假信息。”
例如,拜登操縱的錄像不是通過技術(shù)曝光的,而是因?yàn)椴稍L副總統(tǒng)的人意識(shí)到他自己的問題已經(jīng)改變。
深度假貨的工作原理
操縱視頻是有正當(dāng)理由的。例如,制作虛構(gòu)電視節(jié)目,電影或商業(yè)廣告的任何人都可以使用數(shù)字工具清理錯(cuò)誤或調(diào)整腳本來節(jié)省時(shí)間和金錢。
問題是當(dāng)有意使用這些工具傳播虛假信息時(shí)出現(xiàn)的。并且許多技術(shù)對(duì)于普通觀眾是不可見的。
許多假冒的視頻都依賴于換臉,實(shí)際上是將一個(gè)人的臉疊加到另一個(gè)人的視頻上。但是,盡管換臉工具令人信服,但它們相對(duì)粗糙,通常會(huì)留下計(jì)算機(jī)可以檢測到的數(shù)字或視覺偽像。
另一方面,口型同步技術(shù)則比較細(xì)微,因此很難發(fā)現(xiàn)。他們操縱圖像的一小部分,然后合成與一個(gè)人的嘴巴真正吻合的嘴唇移動(dòng)方式(如果他或她說了某些特定的單詞)。Agrawala說,只要有足夠的人的圖像和聲音樣本,虛假的制作人就可以使人“說”任何話。