又見深度偽造色情網站!自稱專注於“讓人類的夢想成真”

近日,據《赫芬頓郵報》報道,繼臭名昭著的深度偽造軟體“Deepnude”被下架後,又有一個更強大、更智慧的“娛樂”網站出現在網際網路中。在這個網站上,任何使用者可以輕易地在數字層面剝去獲取一個人(通常是女性)的衣服。

而根據其網站的介紹,他們所專注的事業是:“透過AI研究,讓

人類

的夢想成真”。

又見深度偽造色情網站!自稱專注於“讓人類的夢想成真”

為了避免為其引流,本文對該網站的名字略去不提。

此網站的使用相當簡單,使用者只要上傳一張自己選擇的穿戴整齊的女性照片,幾秒鐘之內,網站就會免費為他們脫光衣服。在輿論的抗議下,網站在9月6日暫時關停,但不到一天後,網站就帶著“收費模式”重新上線。收費模式下,獲得一張深度偽造的高畫質裸體圖片僅需0。3美元。

又見深度偽造色情網站!自稱專注於“讓人類的夢想成真”

成果“驚人的真實”,已積累3800多萬點擊量

用技術做對比的話,2019年走紅的“Deepnude”並不先進,如果能拋去其獨特的“色情”元素,他們生產的產品甚至可以被稱為是幼稚可笑的:如果在Deepnude上傳一張男性半裸的照片,那在照片的下半部分將被拼接上一副裸露的女性乳房。但相比之下,這個成立於2020年的新網站比Deepnude先進得多。

據稱,該網站生產的裸體女性影象“驚人的真實”。在這些生成的影象中通常沒有偽造的破綻或是視覺線索,都是在深度偽造的技術下綜合處理生成的,這大大增加了對圖片主體的潛在傷害。

“任何有報復心的變態都可以很容易地‘裸體化’併發布他前女友的照片,圖片將非常有說服力,好像她的真實裸體被洩露了一樣。”《赫芬頓郵報》寫道。

此外,該網站自稱開發了自己的“最先進的”深度學習影象翻譯演算法來“裸體化”女性身體,可以覆蓋到所有的種族,從這個角度來說,它可能比頻頻被爆種族歧視的Facebook更“人人平等”——“人人”除了男性。當你上傳一張男性照片時,該網站會為其匹配上女性的性器官。

又見深度偽造色情網站!自稱專注於“讓人類的夢想成真”

從今年年初至今,該網站已經積累了3800多萬點擊量——這可能和該網站的“推薦”策略有關。每個使用者都可以生成分享連結,而每個點入這個連結的人將給分享者帶來一份“獎勵”——他們會獲得至多一百個免費生成女性高畫質裸體的額度。這鼓勵了成千上萬的使用者為它做廣告,有時他們會附上網站生成的“成果圖”,這些圖片的主體可能是他們的同事、鄰人、前任,甚至是被隨手拍下的陌生人。

又見深度偽造色情網站!自稱專注於“讓人類的夢想成真”

然而,以URL形式分享的連結存在著明顯的弱點:社交應用可以在自己的平臺上全面禁止其傳播。但至今為止,只有Facebook在被媒體提醒後這樣做了。截止至此稿釋出,該網站仍可以被直接在搜尋引擎中被找到。

不僅是名人:任何女性都可以成為被偽造的物件

早在此網站之前,Telegram就被爆出平臺上有深度偽造合成裸照的應用。據網路安全研究機構Sensity在2020年秋季釋出的報告,在Telegram的應用中,至少有10。48萬女性“被裸體”,而在分發這些照片的7個頻道中,累計使用者超過10萬。

又見深度偽造色情網站!自稱專注於“讓人類的夢想成真”

根據Sensity的追蹤調查,Telegram應用中超七成的使用者表示他們上傳的照片是透過社交平臺,或其他私人渠道取得的。

“這是一個非常非常糟糕的情況。”英國深度偽造專家亨利·阿吉德說:“(新網站生成的)圖片真實性大大提高了。”同時他也指出,深度造假技術在應用於名人外,也針對普通女性:“絕大多數使用這些(工具)的人瞄準了他們認識的人。”

沒有人是安全的——Sensity的執行長帕特里尼說,只要你在社交媒體上釋出了有人臉資訊的圖片,就可以被用於生成裸照。

帕特里尼和阿吉德的意見都可以在另一個網站(它是Deepnude的迭代產品)中得到佐證。在此網站的展示頁面中,有來自世界各地的女性裸體展示,而經過記者溯源,可以發現這些圖片來自於各個平臺:Pinterest、Instagram、或是購物網站;這些女性有的是商業模特,有的是健身博主,也有約拍人像的普通女孩。這些裸體照片的原型可能是她們的工作照,也有生活片段的分享。

此外,展示頁面中相當一部分照片來源是“無版權圖片”,這意味著這些圖片可被免費下載、使用。那麼隨著深度偽造技術的發展,“無版權圖片”應被視作商品還是個人肖像權的部分?

至少,在溯源的過程中,沒有任何資訊顯示這些女性是自願提供這些影象的。

深度偽造影片呈指數級增長,暫無有效管控方式

根據Sensity的資料,自2018年以來,網上深度偽造影片的數量呈指數級增長,大約每六個月就翻一番。截止到2020年12月,他們共發現虛假影片85047個。

又見深度偽造色情網站!自稱專注於“讓人類的夢想成真”

然而,相對於其迅速擴張的現狀來說,深度偽造尚無行之有效的管控方式。

“大規模檢測可以說是最好的解決方案,”阿吉德說,這指的是用演算法大規模過濾社交媒體和平臺,但,不幸的是,“目前很難做好大規模的檢測,並將這套檢測系統納入我們生活的數字基礎設施中。。。檢測系統部署起來不夠準確和可靠,特別是對於海量吞吐資料的社交平臺來說。”

另一種技術方法被稱為內容認證,如TruePic或Adobe等平臺,他們可以透過捕捉點來認證照片或影片的真偽。這本質上是對原始影象進行“指紋識別”,並記錄下影象在處理過程中的所有更改。但這種方法也有缺點。其中最顯著的一點是,人們可以將照片拍照後再次上傳。

阿吉德認為,理想的方法可能是兩者的結合,加上一些數字素養,這樣個人就可以在不那麼複雜的深度造假中發現媒體操縱的跡象。然而,就目前而言,識別深度造假仍然是一場差距懸殊的追捕賽:被造假的受害者需要花費大量精力維持生活、追訴公義,在這個過程中一些受害者失去了工作,社會關係和尊嚴,而有些人死於自殺。

某種意義上來說,這些影象是否真實已經不再重要——《赫芬頓郵報》這樣寫道——它們創造了一個新的現實,受害者必須生活在其中。

編譯/綜合:南都見習記者胡耕碩

編輯:蔣琳

TAG: 網站偽造深度女性裸體