| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

溫哥華資訊

溫哥華地產

溫哥華教育

溫哥華財稅

新移民/招聘

黃頁/二手

旅游

一個AI恐怖故事:我在色情網站,看到了自己

QR Code
請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!



“我在群裡看到你,是你嗎?”

韓國,如果有朋友給你發來這句問候,不要誤會,他大概率不是要和你敘舊,因為接下來他給你發的,很可能就是你的裸照


看著屏幕,你如遭雷擊,腦子一片空白。雖然你百分百確認自己從來沒有拍攝這樣的照片,可手機屏幕裡的那個人眉目清楚,卻又分明就是你。

你不明白發生了什麼,心臓被攥緊,恐懼開始在全身蔓延。

照片當然和女孩兒無關,它是由一種名叫深度偽造(DeepFake)的技術生成,這種技術在國內更被人熟知的稱呼是“AI換臉”。在如今的韓國,這種技術正在變成一團巨大的陰影,籠罩在所有女性的頭頂,帶來恐慌和迫害。

韓國,犯罪者通過DeepFake將普通人的形象替換到色情圖片或視頻中,然後通過社交媒體上進行傳播,對當事人進行羞辱。

據《朝鮮(专题)日報》的報道,最近一周在警方發現的相關Telegram社群裡,參與制作和傳播DeepFake的加害者已多達23萬人。這些人不局限在韓國,也來自世界各地。

另據一位韓國網友在X上發布的帖子表示,受到DeepFake影響的受害者已經遍及韓國數百所國中、高中和大學。這些受害者中,80%是女性,她們有的還在念初高中,屬於未成年人、有的是大學生或者教師,其中甚至包括女性軍人,她們的照片被稱為“軍需品”。




X上披露受Deepfake技術影響的校園名單

回顧這場風暴,DeepFake無疑是其中的關鍵。但它卻並不是一項新技術,最早出現在2016年的DeepFake到如今已有將近十年的歷史。


這十年間,DeepFake一直游走在罪惡和法律的邊緣,不斷挑戰著人性和道德的底線。從美國中國,從韓國印度(专题),DeepFake每隔一兩年就會有一次技術突破,然後又給這個世界帶來一場更大的恐慌。

技術有罪嗎?DeepFake好像確實如此。但技術真的有罪嗎?卻似乎又與DeepFake無關。

被害人,從明星到百姓

追溯起來,DeepFake 最早出現在2016年。

當時,機器視覺還是全球AI研究最熱門的方向之一,一些研究人員在研究機器視覺的過程中使用DCNN(深度卷積神經網絡)實現了人臉識別、表情轉換以及其他與圖像處理相關的任務,這是DeepFake最早的雛形。

差不多一年之後,以這些技術為基礎,科研人員進一步采用GAN(生成對抗網絡)實現了生成逼真的人臉圖像。之後,“換臉”很快以極具破壞性的首秀向大眾展示它的威力。
覺得新聞不錯,請點個贊吧     還沒人說話啊,我想來說幾句
上一頁12345下一頁
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
    猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0331 秒 and 4 DB Queries in 0.0027 秒