ตอนนี้ Deep Fake ได้รับความนิยมอย่างมากในธุรกิจบันเทิง เช่น สร้างใบหน้าของนักแสดงชื่อดังใส่เข้าไปในภาพยนตร์โดยที่ตัวจริงไม่ได้ปรากฏตอนถ่ายทำ อีกทั้งยังใช้เพื่อสนับสนุนงานวิจัยทางการแพทย์ เพื่อฝึกอัลกอริธึมการตรวจวินิจฉัยโรค สำหรับโรคที่หายาก เพื่อลดความเสี่ยง
แต่ในอีกมุมหนึ่ง Deep Fake ถูกนำมาใช้เพื่อสร้างแรงจูงใจทางการเมือง เช่น การเผยแพร่วิดีโอปลอมที่ส่งผลต่อการเลือกตั้ง บ่อนทำลายความเชื่อมั่นของคน และความมั่นคง
หน้าปลอมอาจถูกนำมาใช้เพื่อทำให้อับอาย หรือแบล็กเมล์ใช้เพื่อสร้างบัญชีโซเชียลมีเดียปลอม ในขณะที่เทคโนโลยีก้าวหน้าขึ้น กำลังกลายเป็นความท้าทายใหม่ ที่กฎระเบียบของแพลตฟอร์มโซเชียลมีเดีย จำเป็นต้องปรับตัว
: Deep Fake เกิดขึ้นได้ยังไง?
ภาพหน้าคนที่ถูกปลอมแปลงให้เหมือนจริง จากฝีมือของเทคโนโลยีปัญญาประดิษฐ์ (AI) เกิดครั้งแรกในปี 2560 เป็นได้ทั้งรูปถ่าย เสียง และวิดีโอ
การปลอมอย่างลึกซึ้งมักสร้างขึ้นด้วยเทคโนโลยี Machine Learning ซึ่งส่วนประกอบย่อยของ AI ที่ผ่านการเรียนรู้และฝึกฝนให้สร้างข้อมูลปลอมในลักษณะภาพถ่าย การบันทึกเสียง หรือฟุตเทจวิดีโอ ที่จำลองคุณสมบัติของไฟล์ต้นฉบับ ซึ่งการทำข้อมูลปลอมซ้ำๆ อย่างต่อเนื่อง เป็นพันครั้งหรือหลายล้านครั้ง ทำให้ข้อมูลมีความสมจริงจนไม่สามารถแยกแยะระหว่างข้อมูลจริงและของปลอมได้อีกต่อไป และเนื้อหาปลอมที่ได้ น่าเชื่อถือมากขึ้น
แม้ว่าการบิดเบือนสื่อจะไม่ใช่เรื่องใหม่ แต่การใช้ AI เพื่อสร้าง Deep Fake นั้น ทำให้เกิดความกังวล เนื่องจากผลลัพธ์มีความสมจริง แลฃะถูกสร้างขึ้นอย่างรวดเร็ว ด้วยราคาถูกด้วย หรือซอฟต์แวร์ที่ให้บริการฟรี ที่ประมวลผลผ่านคลาวด์คอมพิวติ้ง
นั่นแปลว่า ไม่จำเป็นต้องมีทักษะ หรือความเชี่ยวชาญก็สามารถสร้าง Deep Fake ได้
: ตรวจจับของปลอมได้อย่างไร?
แม้ Deep Fake จะตรวจพบได้โดยไม่ต้องใช้เครื่องมือเฉพาะ แต่ความซับซ้อนของเทคโนโลยีกำลังทำให้การตรวจจับของมนุษย์ทำได้ยากขึ้น
เป็นเหตุให้สำนักงานโครงการวิจัยขั้นสูงของกระทรวงกลาโหมสหรัฐ (DARPA) ตัดสินใจลงทุนเครื่องมือตรวจจับ Deep Fake แบบอัตโนมัติ เช่น Media Forensics (MediFor) และ Semantic Forensics (SemaFor) MediFor ภายใต้งบประมาณปี 2021
เครื่องมือที่ว่านี้ครอบคลุมถึงการพัฒนาอัลกอริธึมเพื่อประเมินความสมบูรณ์ของภาพถ่ายและวิดีโอโดยอัตโนมัติ เพื่อให้ข้อมูลแก่นักวิเคราะห์ รวมถึงเรียนรู้วิธีการสร้างเนื้อหาปลอม โดยโปรแกรมสามารถจับความไม่สอดคล้องกันของภาพและเสียงที่มีอยู่ได้
เทคโนโลยี MediFor คาดว่าจะถูกนำไปใช้กรองเนื้อหาที่ส่งผลกระทบ โดยระบุได้ว่าเป็นเนื้อหาที่ปลอดภัยหรือเป็นอันตรายกันแน่
เครื่องมือนี้จะทำหน้าที่ตรวจจับความไม่สอดคล้องกันบนภาพ เช่น ต่างหูที่ไม่ตรงกัน ลักษณะใบหน้า หรือพื้นหลังที่ผิดปกติ และระบุได้ว่าเป็นเนื้อหาที่ต้องสงสัย เข้าข่ายปลอมแปลงหรือไม่
ในมุมของนักวิเคราะห์ได้ออกมาแสดงความกังวลว่า กฎระเบียบของเทคโนโลยีอาจกระทบต่อแพลตฟอร์มโซเชียลมีเดีย หรือไปจำกัดการแสดงความคิดเห็น และการแสดงออก ซึ่งในความเป็นจริงการตรวจสอบด้วยเครื่องมือทางเทคนิคเพียงอย่างเดียวจะไม่เพียงพอ ผู้ใช้เองยังต้องมีความเข้าใจและไม่กลายเป็นผู้สร้าง Deep Fake เพิ่มเติม
ขณะที่ แพลตฟอร์มโซเชียลมีเดียเองก็อาจจำเป็นต้องติดป้ายกำกับเนื้อหาที่ส่งผลกระทบต่อความปลอดภัย และความเป็นส่วนตัวของผู้ใช้ รวมถึงมีส่วนรับผิดชอบต่อการเผยแพร่เนื้อหาปลอมที่เป็นอันตรายด้วย
ที่มา : https://www.eurasiareview.com/16062021-deep-fakes-and-national-security-analysis-2/