2020年,当韩国政府追查一个强迫年轻女性为付费观众拍摄露骨色情视频的时,他们在社交媒体的黑暗角落里发现了其他东西:经过粗略加工的色情图片,上面贴着其他人的面孔。
他们不知道如何处理这些深度伪造色情内容的早期尝试。最后,韩国国会颁布了一项措辞模糊的法律,禁止制作、传播这类内容。但这未能阻止一个使用人工智能技术的犯罪浪潮的出现,该浪潮现已将韩国推到了登峰造极的程度。
在过去的两周里,韩国人震惊地发现,越来越多的年轻男性和十几岁的男孩在社交媒体上获取同学、老师和军队同僚的大量照片,而且几乎都是年轻女性和女孩,包括未成年女孩的照片,然后借助深度伪造应用程序,用这些照片来制作性剥削图片和视频片段。
他们通过加密短信服务平台Telegram的聊天室来传播这些内容,有些聊天室的成员多达22万。这些深度伪造的内容通常将受害者的面孔贴在摆出露骨性姿态身体的图片上,后者来自淫秽作品。调查人员说,伪造照片的技术如此之先进,以至于普通人常常很难分辨出它们是假的。随着韩国迅速采取措施努力应对这一威胁,专家们已指出,韩国人对新技术的热情有时会超过对其道德影响的担忧。