ZAO將AI換臉技術再次放置到了聚光燈下,但這并非是AI換臉首次走上歷史舞臺。
早在2017年底,國外論壇就已經出現了ID為“deepfakes”的大神,發布了通過機器學習來更換視頻人臉的AI算法。
不過當時該技術的使用門檻還比較高,需要編譯代碼之類的操作;而在數個月后,使用管理DeepFakes技術的簡易版AI換臉工具FakeApp出現了,就算是普通用戶,也能夠順利操作了。
FakeApp令AI換臉的使用門檻大幅下降,不過它還是需要一定的準備工作。
首先它需要安裝額外的運行庫,其次它對硬件有需求,需要高性能顯卡參與運算,其中對N卡的兼容最好。
而FakeApp還需要較新版的Windows 10系統才可以安裝,運行起來還得等待好一段時間——過程越久,效果越好,畢竟機器學習還是需要足夠的時長和樣本的。
最后,FakeApp就可以生成幾乎以假亂真的AI換臉視頻了。
FakeApp的出現令AI換臉視頻一度猶如黃河泛濫一發不可收拾,不少名人都深受其害。
例如大名鼎鼎的“神奇女郎”,就莫名其妙成為了色情片里的主演;又例如國內很多人都印象深刻的楊冪版小龍女,令人驚嘆演員換臉的奇效。
AI換臉目前已經在網絡上泛濫到怎樣的一種程度呢?我們從幾個細節就可以窺一斑。
首先是AI換臉色情視頻的廣為流傳,俗語云,色情是互聯網的第一生產力,AI換臉技術的出現,令色情內容的制造者們迎來了狂歡,各大黃網一度遍布著明星名人臉龐換臉而來的色情片。
盡管各大色情網站可能是出于法律風險方面的考慮,紛紛聲明禁止該類換臉視頻的上傳,但止不住人多勢眾,時至今日人們仍可在這些網站上找到換臉的視頻。
而除了色情網站外,網絡的多個角落也蔓延著AI換臉視頻。例如在國內的視頻站,只要用“AI換臉”為關鍵詞搜索,輕松就能找到大量使用DeepFakes技術生成的視頻。
而如果你想要制造AI換臉視頻,你并不需要鉆研代碼,甚至不需要安裝FakeApp——在淘寶上,就有很多商家提供AI換臉視頻制作服務,只需要幾塊錢十幾塊錢,就能夠定制一部換臉視頻。
簡而言之,DeepFakes技術的出現為AI換臉視頻的流行打下了基礎,而FakeApp的誕生則讓AI換臉視頻成為了真正意義上的爆款。
而現在,ZAO的出現,極有可能將AI換臉視頻的風行推到一個新的高度。
和前輩們相比,ZAO的門檻進一步降低。
首先,ZAO不需要復雜的配置,使用手機APP即可開始制作。
其次,它對硬件沒有特別大的需求,ZAO將視頻制作的運算放到了服務器上,用戶不需要準備高性能的硬件;最后,它的生成速度飛快,視頻上傳后很快就得出結果。
在ZAO當中,AI換臉視頻即點即成,制作已然不存在門檻。
也正因如此,在AI換臉視頻已經泛濫的現狀下,ZAO的降臨意味著對這股潮流進一步推波助瀾,令人平添了幾份恐慌。
AI換臉技術會帶來怎樣的問題?
拋開風險來說,AI換臉視頻還是非常有趣的。
例如用在電影上,就等于換了個演員,想要體驗顏值高但演技不在線的演員真正會演戲的樣子,可能還真得靠這一技術。
又例如把自己或者朋友熟人的臉換到某個視頻上,在私密間分享,也不失為一種有趣的玩笑——這可比P表情包歡樂多了。
AI換臉用對地方會有奇效,例如《速度與激情7》中已逝演員保羅沃克的臉就利用了類似技術嫁接上去
然而這一切,都是忽視風險后的論調,而真正憑心而論的話,制作AI換臉視頻是沒辦法不考慮風險的。
首先這對于信息的真實性形成嚴峻的挑戰。PS發明后,有圖不再有真相;而AI視頻換臉技術的出現,則讓視頻也開始變得鏡花水月了起來——人們普遍認為視頻可以擔當“實錘”,而現在這把實錘竟可憑空制造,對于本來就假消息滿天飛的互聯網來說,這無疑會造成進一步的信任崩壞。
其次,這會大大增加侵犯肖像權的可能。
正如文章一開頭所說,沒人愿意自己的臉龐出現在莫名其妙的視頻當中。
和多用途的PS等修圖軟件不同,AI換臉技術的功能只有一個,那就是換臉,從這個角度來說它的存在天然就是一種對肖像權的威脅。
而PornHub等網站之所以對AI換臉視頻如臨大敵,肖像權風險就是一大原因。
再者,ZAO這樣的工具還徒增了信息安全的相關隱患。
這主要涉及兩方面:
一是ZAO這樣的在線處理機制,流程上必須上傳相應肖像,甚至還要填寫詳細的實名制信息,而服務商是否能妥善保管相關方面信息仍是個未知數——使用ZAO只是為了娛樂,付出這樣的風險代價似乎有點得不償失。
二是類似技術生成的偽視頻,是否會成為一把破解人臉識別大門的鑰匙?盡管現在生成的視頻有一定局限性,但從機理上來看,假視頻的確比假照片更具這方面的可能。
換言之,AI換臉技術或許真的玩著有趣,然而真正的問題在于,這樣風險百出的技術我們到底玩不玩得起?這恐怕非常值得大家深思。
AI換臉技術可能僅僅只是個開始?
由于上述提到的風險,AI換臉技術已經在相當程度上引起恐慌。
也難怪,當得知該技術能夠接近完美捏造假視頻的時候,擔心自己的言行是否會被虛構,是很正常的自然反應。
然而,在警惕AI換臉技術的同時,我們或許還需要意識到,AI技術仍在不斷發展,目前的AI換臉視頻或許遠非終點。
當前的AI換臉技術已經達到了驚人的水準,但目前大多數的AI換臉仍只涉及視覺。然而事情正在發生變化——AI換臉已經成為了現實,而AI變聲也開始嶄露頭角。
谷歌之前曾經研究過AI變聲的相應技術,但并沒有大規模實裝;而國內廠商則更加激進,不少研究輸入法的廠商都已經嘗試在產品當中推廣AI變聲功能。
在一些國產輸入法當中,現在就可以找到AI變聲的開關,輸入一段語音后,等待片刻即可生成特定音調音色的語音,擬真度相當出色。
當然,此類產品限定了AI變聲的模版,但聲音的自由變換修改相對于我們來說也并不是那么遙遠。例如“Modulate.ai”這個網站,就提供了AI變聲服務,甚至連奧巴馬的聲音都能完美模仿。
Modulate.ai所使用的變聲技術和DeepFakes類似,都使用了神經網絡機器學習算法來訓練模型,所擬真出來的聲音真假難辨。
另外還有“Lyrebird.ai”這個網站,也提供了類似的服務,而且所提供的模仿對象更加豐富,據悉多達上千種,包括特朗普、奧巴馬、克林頓等名人的聲音都可以被模仿。
可見,AI變聲技術已經逐漸成熟,它和AI換臉技術結合后,會形成威力無窮的組合拳。
在之前,就有人結合AI換臉、AI變聲,偽造一段虛假的奧巴馬演講視頻。視頻當中,奧巴馬指斥特朗普是個“笨蛋”,令人震驚。
這段視頻在國外引起了轟動,如果沒有特別標注,恐怕很多人會信以為真。
而這仍不是AI換臉的終點。目前的AI換臉、變聲仍需要一段時間的運算,難以和真人互動。
而當AI換臉、變聲可以實時生效時,恐怕連視頻電話的真偽都難以分辨,而人臉識別也將面臨著嚴峻挑戰。
到了這步,AI換臉、變聲技術極可能成為犯罪分子的詐騙、勒索利器。
通過大數據和機器學習,AI將特定信息解構后,重構成為難以分辨的虛假信息,當相應的技術成熟后,虛假信息可以源源不斷地生成,如此高質量的虛假信息能夠大批量生產,在歷史上可謂是前所未有。
然而盡管人們對此感到恐慌,但相應的應用、開發卻并沒有停下腳步。
ZAO自不必說,直接把這樣高風險的技術做成了娛樂APP,令人們前所未有近距離接觸到了AI構建的虛假視頻。
而行業中的巨頭也視此為機遇,蘋果、谷歌、微軟、Facebook等大佬都爆出過利用用戶數據訓練語音、語言模型的新聞,而近年也可以看到AI自動應答的邏輯性、自動生成語音的擬真度大幅上漲——用AI構建一個完全虛擬的人格,似乎也為期不遠。
得益于大數據和AI算法,Google Assistant的智能程度大大提升,甚至可以對答如流
在未來,我們或許不僅可以看到逼真的AI換臉、AI變聲,甚至可能連應答都由AI來完成。
當AI能自動生成以假亂真的面容、聲音乃至語言的時候,互聯網乃至整個社會該如何應對這種身份信息的混亂?現在仍沒有一個好的應對方案。
后話
就在發文之際,筆者的擔心成真了。
《華爾街日報》的最新報道顯示,今年3月份,有犯罪分子使用AI技術成功模仿了英國某能源公司在德國母公司CEO的聲音,詐騙了220,000歐元(約1,730,806人民幣)。
僅僅依靠AI變聲就能釀造出一宗如此重大的詐騙案,AI騙術的威力可見一斑。
目前AI換臉多用于娛樂,然而我們應該知悉,這是一項連黃網都不敢碰的技術,是一項能極大程度混淆身份信息、甚至可能令社會信用體系走向崩潰的技術。
當詐騙短信進化為AI假視頻、還能夠自動應答的時候,我們是否還有方法防范?
對于AI擬真技術的運用,人們應該更加謹慎,這不是一項可以隨便曝光于公眾視野的技術。AI換臉,你真的玩得起嗎?
了解更多AI詐騙短信、假視頻防范方法,請查看原文:十大AI詐騙防范方式