如今,AI換臉在網(wǎng)上被玩的不亦樂(lè)乎。喜歡哪個(gè)明星,就把所有電視劇主角都換成他的臉,如果只是單純娛樂(lè),貌似也無(wú)可厚非。但可怕的是,你的臉很可能會(huì)被“植入”到色情視頻然后被打包販賣,甚至你的手機(jī)、電腦、智能門鎖等應(yīng)用了人臉識(shí)別技術(shù)的設(shè)備也可能被AI換臉輕松攻破。有人用AI視頻造假,亦或是犯罪,似乎就沒(méi)那么好玩了。

  刷臉支付、人臉識(shí)別……不可否認(rèn),人工智能技術(shù)給人們的生活帶來(lái)了諸多便利。“但我們也應(yīng)當(dāng)正視,當(dāng)前人工智能技術(shù)還處在初步發(fā)展階段,仍然面臨著一些挑戰(zhàn)!鼻迦A大學(xué)教授、清華大學(xué)人工智能研究院基礎(chǔ)理論研究中心主任朱軍說(shuō)。

  “任何技術(shù)都是一把雙刃劍,當(dāng)AI技術(shù)應(yīng)用到越來(lái)越多的場(chǎng)景,由于AI算法本身存在漏洞所引發(fā)的安全問(wèn)題必須引起足夠重視。同時(shí),AI技術(shù)的濫用也將引發(fā)安全隱患,比如隱私與倫理問(wèn)題。當(dāng)AI開(kāi)始觸碰邊界問(wèn)題,安全性就成為AI發(fā)展過(guò)程中必須思考的課題!北本┤鹑R智慧科技有限公司(以下簡(jiǎn)稱RealAI)高級(jí)產(chǎn)品經(jīng)理張旭東在接受科技日?qǐng)?bào)記者采訪時(shí)說(shuō)。

  技術(shù)漏洞帶來(lái)AI安全問(wèn)題

  回家,到單元樓門口,刷一下臉,門就開(kāi)了。人臉解鎖已經(jīng)成為生活中最常見(jiàn)的AI應(yīng)用場(chǎng)景之一。然而,很少有人會(huì)想到,當(dāng)前的AI算法存在明顯的“安全盲點(diǎn)”。

  RealAI團(tuán)隊(duì)就曾做過(guò)相關(guān)研究:針對(duì)識(shí)別算法漏洞,可生成一類名為對(duì)抗樣本的“噪音”,惡意誤導(dǎo)AI算法輸出非預(yù)期的結(jié)果,誘導(dǎo)識(shí)別系統(tǒng)出錯(cuò)。團(tuán)隊(duì)成員通過(guò)一張打印上對(duì)抗樣本“噪音”的紙,成功地讓研究對(duì)象在識(shí)別系統(tǒng)下實(shí)現(xiàn)“隱身”,如果再把紙貼在其他實(shí)物上,比如小車模型上,也可以讓該物體在識(shí)別系統(tǒng)下完全“消失不見(jiàn)”。此外,他們還研發(fā)了一種帶有噪點(diǎn)的“眼鏡”,只要戴上,即使不是本人,也能成功破解商用智能手機(jī)的刷臉解鎖,甚至包括門鎖等其他人臉識(shí)別設(shè)備。

  “AI算法漏洞本質(zhì)上是安全問(wèn)題的一大類,而解決安全問(wèn)題往往是攻防兩端不斷對(duì)抗、演化的過(guò)程!睆埿駯|說(shuō)。目前對(duì)主流的攻擊手段都有比較有力的防御手段,如可以通過(guò)訓(xùn)練模型去除對(duì)抗“噪音”,或是檢測(cè)出對(duì)抗樣本以后將其從數(shù)據(jù)中去除,以及使用攻擊算法生成大量對(duì)抗樣本對(duì)模型做對(duì)抗訓(xùn)練等方式來(lái)解決這些問(wèn)題。

  由于AI換臉技術(shù)也在不段進(jìn)化,早期換臉技術(shù)生成的視頻中人物往往不會(huì)眨眼,可根據(jù)一些較為明顯的特征直接肉眼判斷。但隨著深度偽造技術(shù)的不斷演化,這些鑒別方法已不再有效。

  “面對(duì)這種情況,我們會(huì)根據(jù)當(dāng)前市面上流行的換臉?biāo)惴ㄉ珊A康挠?xùn)練樣本,再結(jié)合貝葉斯學(xué)習(xí)處理還未出現(xiàn)的新型虛假視頻。簡(jiǎn)單理解,就是基于主流的甚至更為領(lǐng)先的生成技術(shù)制作出大量逼真的假視頻,再利用這些假視頻訓(xùn)練出一個(gè)新的模型。做的假視頻越逼真,訓(xùn)練出來(lái)的模型分辨能力就越強(qiáng)!睆埿駯|說(shuō)。

  要守好技術(shù)和法規(guī)兩道關(guān)

  “AI技術(shù)濫用最顯性的問(wèn)題在于個(gè)人信息被輕易‘操縱’,這背后可能會(huì)引發(fā)隱私泄露、身份危機(jī),而且還會(huì)催生出更加隱秘、難以偵察的新型黑產(chǎn),如色情黑產(chǎn)、金融欺詐等!睆埿駯|說(shuō)。

  此外,AI技術(shù)濫用的潛在效應(yīng)還將蔓延到大眾的信息獲取和社會(huì)信任層面,引導(dǎo)公眾輿論、引發(fā)社會(huì)信任危機(jī),比如美國(guó)就曾流出國(guó)家領(lǐng)導(dǎo)人被惡搞的視頻,制作者利用視頻煽動(dòng)政治暴力、破壞選舉、擾亂外交。長(zhǎng)此以往,難以辨別真相的公眾無(wú)法選擇相信還是不相信,如果選擇相信可能會(huì)繼續(xù)給不法分子帶來(lái)可趁之機(jī),如果選擇不相信則可能帶來(lái)長(zhǎng)期的社會(huì)冷漠。

  張旭東表示,AI安全問(wèn)題牽一發(fā)而動(dòng)全身,守好技術(shù)和法規(guī)兩道“關(guān)卡”是當(dāng)務(wù)之急,同時(shí)需要聯(lián)動(dòng)社會(huì)各界力量,從監(jiān)管機(jī)構(gòu)、AI科技企業(yè)到普通公眾共同重視、共同發(fā)力才能真正的從根本上使其良性發(fā)展。

  欣喜的是,AI安全問(wèn)題已經(jīng)引起國(guó)內(nèi)相關(guān)監(jiān)管機(jī)構(gòu)的重視。此前,網(wǎng)信辦就正式發(fā)布《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》,指出自2020年1月1日起,AI造假音視頻不得隨意發(fā)布。新規(guī)定中關(guān)于AI造假音視頻的規(guī)定主要有四條:按照國(guó)家有關(guān)規(guī)定開(kāi)展安全評(píng)估、以顯著方式予以標(biāo)識(shí)非真實(shí)音視頻信息、不得利用AI造假技術(shù)發(fā)布虛假新聞、部署AI造假音視頻鑒別技術(shù)和健全辟謠機(jī)制等。

  “當(dāng)然,最有效、最可行的解決方法仍是依靠技術(shù)制衡技術(shù)!睆埿駯|說(shuō),這主要包括兩方面,一是開(kāi)發(fā)出高精度的AI檢測(cè)算法與檢測(cè)產(chǎn)品,從源頭制止虛假內(nèi)容的泛濫傳播;二是開(kāi)發(fā)出相應(yīng)的“防火墻”技術(shù),從防御端鑄造高墻,保障配備了人臉識(shí)別系統(tǒng)的公共安全設(shè)備攻不可破。(記者 付麗麗)