如今,AI換臉在網上被玩的不亦樂乎。喜歡哪個明星,就把所有電視劇主角都換成他的臉,如果只是單純娛樂,貌似也無可厚非。但可怕的是,你的臉很可能會被“植入”到色情視頻然后被打包販賣,甚至你的手機、電腦、智能門鎖等應用了人臉識別技術的設備也可能被AI換臉輕松攻破。有人用AI視頻造假,亦或是犯罪,似乎就沒那么好玩了。
刷臉支付、人臉識別……不可否認,人工智能技術給人們的生活帶來了諸多便利。“但我們也應當正視,當前人工智能技術還處在初步發展階段,仍然面臨著一些挑戰。”清華大學教授、清華大學人工智能研究院基礎理論研究中心主任朱軍說。
“任何技術都是一把雙刃劍,當AI技術應用到越來越多的場景,由于AI算法本身存在漏洞所引發的安全問題必須引起足夠重視。同時,AI技術的濫用也將引發安全隱患,比如隱私與倫理問題。當AI開始觸碰邊界問題,安全性就成為AI發展過程中必須思考的課題。”北京瑞萊智慧科技有限公司(以下簡稱RealAI)高級產品經理張旭東在接受科技日報記者采訪時說。
技術漏洞帶來AI安全問題
回家,到單元樓門口,刷一下臉,門就開了。人臉解鎖已經成為生活中最常見的AI應用場景之一。然而,很少有人會想到,當前的AI算法存在明顯的“安全盲點”。
RealAI團隊就曾做過相關研究:針對識別算法漏洞,可生成一類名為對抗樣本的“噪音”,惡意誤導AI算法輸出非預期的結果,誘導識別系統出錯。團隊成員通過一張打印上對抗樣本“噪音”的紙,成功地讓研究對象在識別系統下實現“隱身”,如果再把紙貼在其他實物上,比如小車模型上,也可以讓該物體在識別系統下完全“消失不見”。此外,他們還研發了一種帶有噪點的“眼鏡”,只要戴上,即使不是本人,也能成功破解商用智能手機的刷臉解鎖,甚至包括門鎖等其他人臉識別設備。
“AI算法漏洞本質上是安全問題的一大類,而解決安全問題往往是攻防兩端不斷對抗、演化的過程。”張旭東說。目前對主流的攻擊手段都有比較有力的防御手段,如可以通過訓練模型去除對抗“噪音”,或是檢測出對抗樣本以后將其從數據中去除,以及使用攻擊算法生成大量對抗樣本對模型做對抗訓練等方式來解決這些問題。
由于AI換臉技術也在不段進化,早期換臉技術生成的視頻中人物往往不會眨眼,可根據一些較為明顯的特征直接肉眼判斷。但隨著深度偽造技術的不斷演化,這些鑒別方法已不再有效。
“面對這種情況,我們會根據當前市面上流行的換臉算法生成海量的訓練樣本,再結合貝葉斯學習處理還未出現的新型虛假視頻。簡單理解,就是基于主流的甚至更為領先的生成技術制作出大量逼真的假視頻,再利用這些假視頻訓練出一個新的模型。做的假視頻越逼真,訓練出來的模型分辨能力就越強。”張旭東說。
要守好技術和法規兩道關
“AI技術濫用最顯性的問題在于個人信息被輕易‘操縱’,這背后可能會引發隱私泄露、身份危機,而且還會催生出更加隱秘、難以偵察的新型黑產,如色情黑產、金融欺詐等。”張旭東說。
此外,AI技術濫用的潛在效應還將蔓延到大眾的信息獲取和社會信任層面,引導公眾輿論、引發社會信任危機,比如美國就曾流出國家領導人被惡搞的視頻,制作者利用視頻煽動政治暴力、破壞選舉、擾亂外交。長此以往,難以辨別真相的公眾無法選擇相信還是不相信,如果選擇相信可能會繼續給不法分子帶來可趁之機,如果選擇不相信則可能帶來長期的社會冷漠。
張旭東表示,AI安全問題牽一發而動全身,守好技術和法規兩道“關卡”是當務之急,同時需要聯動社會各界力量,從監管機構、AI科技企業到普通公眾共同重視、共同發力才能真正的從根本上使其良性發展。
欣喜的是,AI安全問題已經引起國內相關監管機構的重視。此前,網信辦就正式發布《網絡音視頻信息服務管理規定》,指出自2020年1月1日起,AI造假音視頻不得隨意發布。新規定中關于AI造假音視頻的規定主要有四條:按照國家有關規定開展安全評估、以顯著方式予以標識非真實音視頻信息、不得利用AI造假技術發布虛假新聞、部署AI造假音視頻鑒別技術和健全辟謠機制等。
“當然,最有效、最可行的解決方法仍是依靠技術制衡技術。”張旭東說,這主要包括兩方面,一是開發出高精度的AI檢測算法與檢測產品,從源頭制止虛假內容的泛濫傳播;二是開發出相應的“防火墻”技術,從防御端鑄造高墻,保障配備了人臉識別系統的公共安全設備攻不可破。