繼神奇女俠蓋爾·加朵“被下海”以後,AI “換臉術”已經蔓延到越來越多的領域,這次的受害者是美國總統特朗普。
近日 Youtube 上出現了一段以假亂真的特朗普視頻 ,其原視頻是 Alec Baldwin 週末晚間秀中對特朗普的模仿,一位的 UP 主 “ derpfakes ” 用 AI 技術將 Alec Baldwin 的臉換成了特朗普的臉。
如果對比著看,你會發現右邊的修改版本,相較於原視頻有些失真,臉上也少了不少細節。 但這是在對比的情況下,如果單拿出來,這個視頻足以以假亂真,不仔細觀察根本看不出有什麼破綻。
無獨有偶,另一位 Youtube UP 主,將2004年的電影《帝國的毀滅》中 Bruno Ganz 扮演的希特勒的臉,換到了現任的阿根廷總統 Mauricio Macri 臉上。
還是那句話,仔細看還是有些彆扭,但有多少人願意去摳這些細節? 況且技術實在不斷發展的,幾年以後,不用技術手段就無法辨別的模仿技術定會出現。
造假視頻的氾濫,主要是因為這種技術的實現門檻實在太低了。 製作出蓋爾·加朵等人“下海視頻”的是一位名為“deepfakes”的美國網友,這位仁兄不僅技術高超,還非常有開源精神,他無償地分享了自己的技術成果,甚至 非常“貼心”地製作了視頻教程,只要有耐心,幾乎任何人都可以跟隨教程製作出像樣的“換臉”視頻。
此前虎嗅文章《 “換臉術”即將帶來的“福利”與恐慌 》曾提到:
這裡隱藏的真正問題,在於利用開源的AI架構進行視頻換臉這件事,不是太複雜太前衛了,而是太簡單太容易了。
為了驗證這點,我先後把deepfakes分享的視頻和代碼發給了三位從事機器視覺相關工作的朋友,得到的反饋基本一致:這東西毫無技術難度。 只要會用TensorFlow的基礎功能,電腦顯卡不至於太爛,差不多幾個小時就可以搞出來一個。
哪怕連編程基礎都沒有的人,跟著教程一步步走,蒐集足夠多的素材,也可以自己搞出來換臉視頻。
對此,Deepfakes這麼解釋:“每個技術都可能被用來做壞事,這個我們攔不住,我不認為讓每個普通人參與到機器學習的研究中來是一件壞事。”
雖說技術進步是好事,但這也意味著造假的成本進一步降低,而人們分辨真偽的成本被前所未有的抬高。 如果你從未聽說過有所謂的“AI 換臉術”,面對視頻里活靈活現的真人,是非常難以辨別真偽的。
在此之前,此項技術還只是用來滿足部分群體的自娛自樂,雖然不可避免地會對明星們的聲譽造成不好的影響,但涉及到的還只是侵權等方面的問題。 但如果任由技術濫用,將會有更多現實問題出現,比如詐騙、勒索,甚至對社會和政治造成惡劣影響。
此前 Facebook 曾公佈數據,俄羅斯過去兩年在Facebook上發表了8萬多篇試圖影響美國政治的帖子,大約有1.26億美國人看過這些內容。 雖然無法統計有多少人看了這些帖子就改變選票,但你沒法保證它是毫無影響的。
而如果一旦這種造假視頻,被當作某種政治手段大規模使用,欺騙性會更高,會有更多的人被蒙蔽,從而對政治走向造成影響。 最好的例子就是美國大選,如今美國大選的勝利似乎已經成為了人設的勝利,看你順眼就投你。 但如果大選期間,有幾個偽造的視頻出現,勢必會掀起不小的波瀾。 “造謠一張嘴,闢謠跑斷腿”,即便能證明視頻系偽造,其所造成的影響一時半會是不會輕易消除的。
畢竟群眾總是盲目的,當他看到一個獵奇的視頻是更願意傾向於相信,而不是去了解晦澀的技術手段去辨別真偽。
什麼,你說人們不會被虛假視頻忽悠? 好,請你告訴我,下面這個奧巴馬踹門的片段是真是假?
目前來看,“Deepfakes”還沒有得到有效的監管。 雖然美國一些圖片、視頻網站已經開始訓練自己的 AI 模型以對抗造假視頻的氾濫,但這更多的還是民間行為,還沒有政府層面的機構出面進行相關干預。 但隨著造假視頻涉及的範圍越來越廣,甚至開始拿政要開涮,估計離有關部門出來踩剎車的那天也不遠了。
自由是相對的,同理技術自由也是相對的,沒有被正確應用的技術,難免會走向另一個極端。
本文由 古泉君 授權 虎嗅網 發表,並經虎嗅網編輯。 轉載此文章須經作者同意,並請附上出處( 虎嗅網 )及本頁鏈接。 原文鏈接https://www.huxiu.com/article/233516.html