嗨,早!
在未來的網路世界裡,如果創作者沒有特別出具內容的真實性證明,那它就會是假的。
強制裸體的 AI 機器人
科技正在降低複製與創作的門檻。複製門檻降低,衍生出盜版問題。創作門檻降低,帶來假圖問題。
最近在 Telegram 上就有一款名為 DeepNude 的 AI 機器人,會自動將人們傳過去的圖片變成女性裸體照。根據 BuzzFeed 報導:
這是一款主要在俄羅斯和東歐傳播的新型 AI 機器人 ⋯ 全球有超過 68 萬名女性在不知情的情況下,照片被有心人士傳送給 Telegram 上的 AI 機器人,產生逼真的假裸照。該工具讓人們只要上傳一張照片,就能運用 Deepfake 創造出照片主角的假裸照。
我就拿自己的照片測試了一次。它硬是幫我加上了女性的刻板性徵。照片太可怕,我就不直接放在文章裡。我有遮臉、遮點,讓它看起來不會那麼不舒服。但還是請你三思再點開(密碼 2020)。
DeepNude 處理男性的照片看起來就只是惡搞,我也不太覺得被冒犯。但如果上傳的是女性全身照,就可能非常逼真。即便受害女性知道那些裸照是假的,但看到這樣的照片肯定還是不舒服。
不難想像,AI 未來還會被用來詐財。既然 DeepNude 可以製造假裸照,DeepVoice 就可以製造假聲音。影像加上聲音就是視訊,當長輩看到視訊電話另一頭被綁架的人長得很像是自家小孩時,還能不心慌嗎?
AI 詐騙也會影響政府和企業。若有人開發出 DeepAccident 製造假車禍照片、DeepDie 製造假死亡照片或是 DeepWeather 製造假天災照片,政府和保險公司就麻煩了。申請理賠的人指證歷歷,但他手上的照片卻可能是經過 AI 變造而成。
這時保險公司是賠還是不賠?又該如何辨認這些影音內容的真偽?既然光靠肉眼所見的表象已經無法辨別真假,未來就得進一步檢查這些影音內容背後是不是有可靠且登記在案的「履歷」。
讓鏈上數據說話
人們用手機、相機拍下來的每張照片,本來就都會自帶拍攝時間、地點和裝置型號(下圖左)。相較之下,以 AI 憑空捏造的假照片就不會有這些資訊(下圖右)。這就是辨別真假圖片的簡單方法。
Keep reading with a 7-day free trial
Subscribe to 區塊勢 to keep reading this post and get 7 days of free access to the full post archives.