สถาบันวิจัยในเกาหลีสร้างแอปตรวจจับ Deepfake หวังลดสื่อโป๊ที่เหยื่อมักเป็นคนดัง

สถาบันวิทยาศาสตร์และเทคโนโลยีขั้นสูงแห่งเกาหลี หรือ KAIST (The Korea Advanced Institute of Science and Technology) เปิดตัวแอปพลิเคชั่นตรวจจับ Deepfake โดยซอฟต์แวร์ที่มีชื่อว่า KaiCatch จะใช้ AI ตรวจจับความผิดปกติ หรือความบิดเบือดบนใบหน้า ผู้ใช้งานสามารถอัพโหลดรูปภาพหรือวิดีโอเข้ามาในแอปเพื่อให้ระบบช่วยตรวจสอบ โดยมีการคิดค่าใช้งานที่ 2,000 วอน หรือประมาณรูปละ 55 บาท

Lee Heung-kyu ศาสตราจารย์ในสถาบันผู้อยู่เบื้องหลัง KaiCatch ระบุว่าความคาดหวังว่า KaiCatch จะช่วยให้คนทั่วไปสามารถตรวจจับ Deepfake ได้มากขึ้น ซึ่ง Deepfake กลายเป็นประเด็นในเกาหลีใต้เนื่องจากมีการใช้ Deepfake เพื่อสร้างคลิปโป๊ และบ่อยครั้งที่เหยื่อเป็นผู้หญิงคนดัง

จนถึงตอนนี้ KaiCatch สามารถใช้งานเฉพาะบนแอนดรอยด์ในเกาหลีเท่านั้น ซึ่งจะขยายไปยัง iOS ต่อไป และจะเพิ่มการรองรับภาษาจีน อังกฤษ ญี่ปุ่น

No Description

ที่มา – Korea Herald

from:https://www.blognone.com/node/121944