- +1
走出恐怖谷:AI已能合成難辨真假的人臉照片,還更被信任

看到這張照片,你是否覺(jué)得這就是一張真實(shí)的人臉照片?
事實(shí)上,這是一個(gè)名為“此人不存在”的網(wǎng)站生成的合成人臉照片(this-person-does-not-exist.com)。
“我們對(duì)AI合成人臉照片真實(shí)感的評(píng)估表明,合成引擎已經(jīng)走過(guò)了‘恐怖谷’,能夠創(chuàng)造出跟真實(shí)人臉難以區(qū)分且更受人信賴的人臉?!?月14日,一篇發(fā)表在《美國(guó)國(guó)家科學(xué)院院刊》(PNAS)的論文在摘要中表示。
“恐怖谷效應(yīng)”于1970年由森昌弘提出,是一個(gè)關(guān)于人類對(duì)機(jī)器人和非人類物體感覺(jué)的假設(shè)。
“恐怖谷效應(yīng)”稱,由于機(jī)器人與人類在外表、動(dòng)作上相似,所以人類亦會(huì)對(duì)機(jī)器人產(chǎn)生正面的情感;而當(dāng)機(jī)器人與人類的相似程度達(dá)到一個(gè)特定程度的時(shí)候,人類對(duì)他們的反應(yīng)便會(huì)突然變得極其負(fù)面和反感,哪怕機(jī)器人與人類只有一點(diǎn)點(diǎn)的差別,都會(huì)顯得非常顯眼刺目,從而覺(jué)得整個(gè)機(jī)器人非常僵硬恐怖。在合成人臉照片的情景中,“恐怖谷”效應(yīng)往往來(lái)自于合成人眼中空洞的表情所引發(fā)的不安感。

而一旦機(jī)器人和人類的相似度繼續(xù)上升,相當(dāng)于普通人之間的相似度時(shí),人類對(duì)其的情感反應(yīng)會(huì)再度回到正面,產(chǎn)生人類與人類之間的移情。

越來(lái)越令人信服的圖像正在將觀者拉出“恐怖谷”,進(jìn)入由Deepfake(深度偽造)構(gòu)建的欺騙世界。在加州大學(xué)伯克利分校教授Hany Farid和蘭開(kāi)斯特大學(xué)博士生Sophie Nightingale的《AI合成的人臉與真實(shí)人臉沒(méi)有區(qū)別且更被信賴》研究中,參與實(shí)驗(yàn)的人被要求區(qū)分神經(jīng)網(wǎng)絡(luò)StyleGAN2合成人臉和真實(shí)人臉,以及這些人臉喚起的信任程度。
這項(xiàng)研究由三個(gè)實(shí)驗(yàn)構(gòu)成。在第一個(gè)實(shí)驗(yàn)中,315名參與者從128張面孔(從一組800張面孔中提取)分類為真實(shí)面孔或合成面孔,準(zhǔn)確率為48%。
在第二個(gè)實(shí)驗(yàn)中,219名新參與者被培訓(xùn)如何識(shí)別真實(shí)人臉與合成人臉,然后與第一個(gè)實(shí)驗(yàn)一樣對(duì)128張人臉進(jìn)行分類。盡管進(jìn)行了訓(xùn)練,最后準(zhǔn)確率也只是提高到了59%。
繼而,研究人員決定探索可信度的感知是否可以幫助人們識(shí)別人造圖像,“人臉提供了豐富的信息來(lái)源,只需幾毫秒的時(shí)間就足以對(duì)個(gè)人特征(例如可信度)進(jìn)行隱含推斷。我們想知道合成面孔是否會(huì)激活相同的可信度判斷,如果不是,那么對(duì)可信度的感知可能有助于區(qū)分真實(shí)面孔和合成面孔?!?/p>
第三項(xiàng)實(shí)驗(yàn),223名參與者對(duì)128張面孔的可信度進(jìn)行評(píng)分,這些面孔取自同一組800張面孔,評(píng)分范圍為1(非常不可信)到7(非??尚牛?。最后,合成面孔的平均評(píng)分比真實(shí)面孔的平均評(píng)分高7.7%,具有統(tǒng)計(jì)學(xué)意義。
整個(gè)實(shí)驗(yàn)結(jié)果表明,合成的人臉照片與真實(shí)人臉幾乎無(wú)法區(qū)分,甚至被認(rèn)為更值得信賴。這樣的結(jié)果也在研究者的意料之外,Nightingale表示,“我們最初認(rèn)為合成面孔不如真實(shí)面孔可信?!?/p>
這個(gè)生成人臉照片的StyleGAN是Nvidia于2018年開(kāi)發(fā)的一種神經(jīng)網(wǎng)絡(luò)。GAN由2個(gè)相互競(jìng)爭(zhēng)的神經(jīng)網(wǎng)絡(luò)組成,其中一個(gè)稱為生成器,不斷生成一些東西,另一個(gè)稱為鑒別器,不斷嘗試確定結(jié)果是真實(shí)的還是由第一個(gè)生成的。生成器以隨機(jī)像素開(kāi)始練習(xí)。隨著鑒別器的反饋,它逐漸產(chǎn)生了越來(lái)越逼真的人臉。最終,鑒別器無(wú)法區(qū)分真臉和假臉,訓(xùn)練就結(jié)束了。
創(chuàng)建不存在的人臉照片實(shí)際上是GAN的一個(gè)副產(chǎn)品,其原本的主要目標(biāo)是訓(xùn)練人工智能識(shí)別假臉和一般人臉,Nvidia需要通過(guò)自動(dòng)識(shí)別人臉并對(duì)其應(yīng)用其他渲染算法來(lái)提高其顯卡性能。然而,由于StyleGAN代碼是公開(kāi)的,Uber的一名工程師就利用它創(chuàng)建了一個(gè)隨機(jī)人臉生成器。
對(duì)于Deepfake(深度偽造)技術(shù)的惡意使用已經(jīng)在現(xiàn)實(shí)中有了諸多體現(xiàn),比如美國(guó)大選中的虛假宣傳活動(dòng),為勒索而創(chuàng)造的虛假色情內(nèi)容等等。自Deepfake技術(shù)出現(xiàn)以來(lái),鑒別出深度偽造和進(jìn)一步欺騙鑒別之間已經(jīng)變成了一場(chǎng)“軍備競(jìng)賽”。
現(xiàn)在這項(xiàng)對(duì)Deepfake進(jìn)展的研究使人更加擔(dān)心其被濫用,“任何人都可以在沒(méi)有Photoshop或 CGI專業(yè)知識(shí)的情況下創(chuàng)建合成內(nèi)容,”Nightingale表示。
美國(guó)南加州大學(xué)視覺(jué)智能和多媒體分析實(shí)驗(yàn)室主任Wael Abd-Almageed在接受《科學(xué)美國(guó)人》采訪時(shí)表示,“另一個(gè)擔(dān)憂是,這些發(fā)現(xiàn)會(huì)讓人覺(jué)得深度偽造將變得完全無(wú)法檢測(cè)到,科學(xué)家們可能會(huì)放棄嘗試開(kāi)發(fā)針對(duì)深度偽造的對(duì)策?!?/p>
兩位研究者也提出了應(yīng)對(duì)措施,如將強(qiáng)大的水印合并到圖像和視頻合成網(wǎng)絡(luò)中,這將為可靠識(shí)別提供有效機(jī)制。
論文中寫(xiě)道,也許最有害的是,在任何圖像和視頻都可以偽造的數(shù)字世界中,任何不受歡迎的記錄的真實(shí)性都可能受到質(zhì)疑?!八裕覀児膭?lì)推進(jìn)技術(shù)發(fā)展的人們考慮風(fēng)險(xiǎn)是否大于收益,而不僅僅從技術(shù)角度考慮其是否可能實(shí)現(xiàn)?!?/p>





- 報(bào)料熱線: 021-962866
- 報(bào)料郵箱: news@thepaper.cn
滬公網(wǎng)安備31010602000299號(hào)
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營(yíng)許可證:滬B2-2017116
? 2014-2025 上海東方報(bào)業(yè)有限公司




