[ทำกันได้] ตอนนี้มีเครื่องมือ AI มากมาย ที่ช่วยอำนวยความสะดวกแก่ผู้ใช้ได้หลากหลาย แต่ด้วยความสามารถที่มากล้น ก็ย่อมมีความกังวลว่าจะถูกนำไปใช้งานในทางผิดได้ และมันก็เกิดขึ้นแล้ว ล่าสุดพบ Scammer หรือนักหลอกลวงออนไลน์ นำ AI มาปลอมแปลงเสียง เพื่อหลอกเหยื่อให้โอนเงินช่วยเหลือ
รายงานจาก Washington Post พบสามีภรรยาชาวแคนาดาวัย 70 ปีคู่หนึ่ง เผยได้รับโทรศัพท์ที่คิดว่าเป็นหลายชายโทรมา โดยในสายเผยว่าตนเองกำลังติดคุก และต้องการเงินประกันตัวด่วน ด้วยความร้อนรน สามีภรรยาคู่นี้จึงถอนเงินถึง 3,000 ดอลลาร์ฯ หรือประมาณ 1 แสนบาทมารอไว้เลย
แต่เคราะห์ดีที่ยังไม่ทันได้โอน หลังกำลังจะถอนเงินจำนวนเดียวกันนี้ออกจากอีกธนาคารหนึ่ง ก็ได้ผู้จัดการของธนาคารนั้นเตือนก่อนว่า พวกเขากำลังถูกหลอกลวง แถมยังมีลูกค้ารายอื่น ๆ ได้รับสายที่คล้ายกันด้วย
ทว่าก็ยังมีผู้เคราะห์ร้าย โดยรายนี้เป็นครอบครัวของ Benjamin Perkin ผู้เป็นลูกชาย เผยพ่อแม่ของตนได้รับโทรศัพท์จากทนายความแจ้งว่า ตนเองขับรถชนนักการทูตของสหรัฐฯ จนถึงแก่ความตาย เป็นเหตุให้ตัวเองกำลังติดคุก และต้องการค่าดำเนินการทางกฎหมายเป็นการด่วน
ร้ายไปกว่านั้น ตัวคนร้ายยังเลียนแบบเสียงตัวเอง โดยทำทีว่าให้ลูกชายมาพูดคุยด้วย เพียงเท่านั้น ทางพ่อแม่ก็ได้ส่งเงินเป็นจำนวนมากถึง 15,449 ดอลลาร์ฯ หรือราว ๆ 5 แสนบาทไปเรียบร้อย ไม่สามารถนำเงินกลับมาได้อีก และยังตามตัวก็ไม่ได้ เนื่องจากส่งเงินผ่าน Bitcoin…
[พวกเขาเชื่อจริง ๆ ว่ากำลังพูดคุยกับผม] Benjamin Perkin กล่าว
ในปีที่แล้ว ทางสหรัฐฯ ก็พบเคสเดียวกันนี้เป็นจำนวนมากถึง 36,000 เคส โดยมาแนวเดียวกันเลยคือ เลียนเสียงเพื่อหลอกว่าเป็นเพื่อนหรือครอบครัว และมี 5,100 เหตุการณ์ที่เกิดขึ้นทางโทรศัพท์
จากแต่เดิมการเลียนแบบเสียงนั้น จะต้องใช้ขั้นตอนที่ยุ่งยาก แต่หลังการมาของ AI ก็ช่วยลดขั้นตอนต่าง ๆ ไปได้มาก เป็นเหตุให้มีการใช้เครื่องมือนี้ มาก่อเหตุอาชญากรรม โดยที่มาของเสียงนั้น ก็ต้องการเพียงคลิปวิดีโอสั้น ๆ ของเหยื่อ (ที่มีเสียงพูดในคลิป) ซึ่งมีอยู่เกลื่อนในโซเชียลมีเดีย เท่านั้นก็เพียงพอที่จะเลียนเสียงได้อย่างแม่นยำแล้ว
ที่มา : Techspot