09 七月 2019

【AI遭濫用 每個人都可能成受害者 合成裸照惹議急下架】

Posted in 新聞

AI科技日益進步,但濫用AI卻可能帶來無法想像的嚴重後果!根據媒體報導,美國一名工程師開發了一款名為「Deepnude」的APP,由於號稱具有「透視功能」而一夕爆紅,用戶只要將女性照片上傳,不到一分鐘就可透過AI技術生成以假亂真的「虛擬裸照」,對不少女性造成極大的傷害。由於這款APP嚴重危害個人隱私,受到外界極大的撻伐之後趕緊宣布下架,但網路上傳出已經有破解版的Deepnude,道德爭議的話題恐將持續延燒。

先前已有不少知名女星因為「換臉」(Deepfake)技術遭到濫用,因而淪為「假A片」的受害者。但現在這個AI演算法卻又產生了更具爭議的APP,號稱只要輸入任何女性一張照片即可「一鍵脫衣」輸出假裸照。國外媒體採訪了開發APP的工程師,他表示自己以1萬張女性裸照為素材庫,透過Deepfake技術將Deepnude的AI訓練成能夠自動生成裸照。報導發佈之後,儘管Deepnude網站立刻被塞爆,但負面批評也隨之排山倒海而來,APP在推出不到一個禮拜的時間內緊急下架,團隊也在6月底宣布關閉網站並停止運作。

事實上,Deepnude所引發的問題除了所引發的道德爭議之外,性別歧視也是必須正視的議題。媒體引述Deepnude開發者的說法表示,「我跟所有人一樣,想實現60、70年代的X-Ray透視眼鏡的夢想。我們只是想帶給大家娛樂,讓修圖軟體能做到的事,變得更簡單快速。」然而這背後所隱藏的卻是對無辜受害者極大的傷害。而根據用戶的分享,如果上傳穿得愈少的女性照片,愈能獲得逼真的視覺效果,因此有人提出警告,「女性就應該多穿一點,才能自我保護。」這樣檢討受害者的思維相當令人不解。

Deepnude所引發的恐慌還可能進一步衍生出「色情報復」(revenge porn)的疑慮,反色情報復組織Badass的創辦人Katelyn Bowden指出,「真是讓人震驚!現在每個人都可能成為色情報復的受害者,即使沒有拍過一張裸體照片,也可能成為受害者。這樣的技術根本不應該讓公眾取得。」而且任何東西被上傳到網路之後,就不可能被永遠的刪除,只會無止盡地被轉傳。此外,即使散播的是假裸照,但仍會有人認為合成照片就是受害者本人,而且這樣的傷害不僅只是一次性的,網路上只要出現「跪求老司機給載點」的留言,就可能讓受害者再次受傷。