เป็นข่าวใหญ่ เมื่อใน X (Twitter) มีการแชร์ภาพโป๊เปลือยของนักร้องดังอย่าง Talor Swift ภาพดังกล่าวมีคนดูมากถึง 45 ล้านครั้ง มีการรีโพสต์มากถึง 24,000 ครั้ง มีการกดไลค์และบุ๊กมาร์กนับแสนครั้ง ซึ่งแน่นอนว่า เป็นภาพที่ถูกสร้างจาก AI โดยใช้เทคโนโลยี Deepfake
Deepfake ทำงานโดยการนำข้อมูลใบหน้าหรือเสียงของบุคคลจริงมาเรียนรู้ด้วยอัลกอริทึม จากนั้นจึงใช้อัลกอริทึมนี้เพื่อสร้างสื่อสังเคราะห์ที่มีลักษณะเหมือนบุคคลจริง โดยสื่อสังเคราะห์เหล่านี้รวมถึงภาพและวีดีโอที่มีความสมจริงมาก จนบางครั้งอาจแยกไม่ออกว่าจริงหรือปลอม
นี่ไม่ใช่เคสแรกที่เกิดขึ้น เพราะก่อนหน้านี้ นักร้อง K-Pop และดาราฮอลลีวูดหลายคนถูกนำใบหน้าไปทำเป็นวีดีโอโป๊เปลือย และมันก็หาดูได้ง่าย ๆ บนเว็บ Pornhub
ทีนี้ ภาพ 18+ ของ Talor Swift ถูกลบออกแล้วในภายหลัง แต่มันก็เกิดการแชร์เป็นจำนวน และ Talor ก็กำลังชั่งใจว่า กำลังจะฟ้องร้องแพทฟอร์ม X และคนที่สร้างภาพขึ้นมาหรือไม่
มีรายงานจาก 404 Media พบว่ารูปภาพเหล่านั้นอาจมีต้นกำเนิดในกลุ่มบน Telegram ซึ่งผู้ใช้แชร์รูปภาพผู้หญิงที่สร้างโดย AI อย่างโจ่งแจ้ง
เหตุการณ์ดังกล่าวบ่งบอกถึงความท้าทายของหน่วยงานต่าง ๆ ที่ต้องการจะหยุดสื่อลามกปลอมและภาพคนจริงๆ ที่สร้างโดย AI ซึ่งในความเป็นจริง โปรแกรมสร้างภาพ AI หลายตัวมีข้อจำกัดในการป้องกันภาพเปลือย ภาพลามกอนาจาร และภาพเหมือนจริงของคนดัง ๆ ไม่ให้ถูกสร้างขึ้น แต่ก็มีโปรแกรมอื่น ๆ อีกจำนวนมากไม่ได้ให้บริการดังกล่าวอย่างชัดเจน