เมื่อไม่นานมานี้ Apple ได้ประกาศเตรียมใช้งานระบบ ตรวจสอบเนื้อหาที่เกี่ยวกับการล่วงละเมิดทางเพศเด็ก (CSAM) โดยการสแกนรูปภาพที่เข้าข่าย จากการอัปโหลดขึ้น iCloud ใน iPhone และอุปกรณ์อื่น ๆ ด้วย
ล่าสุด Apple ถูกนักวิจารณ์ตั้งคำถามถึงความเป็นส่วนตัวจากระบบนี้ และยังถูกกล่าวด้วยว่า เหมือน Apple กำลังสร้าง Backdoor หรือแอบฝั่งเครื่องมือสอดส่องข้อมูลในเครื่องผู้ใช้มากกว่า แม้ทางบริษัทจะยืนยันว่า ตัวระบบยังคำนึงถึงความเป็นส่วนตัวอยู่ก็ตาม
สำหรับตัวระบบนั้น ทาง Apple กล่าวว่า ระบบจะสแกนเฉพาะรูปภาพ (ซึ่งถูกแปลงเป็นรหัส NeuralHash) ที่เข้าข่ายเท่านั้น ไม่ได้ไล่สแกนรูปภาพในเครื่องหรือใน iCloud ทั้งหมด อย่างไรก็ตาม นักวิจารณ์ก็ได้แสดงความกังวลว่า
ระบบยังคงละเมิดความเป็นส่วนตัวอยู่ดี และที่น่าเป็นห่วงกว่านั้น วันหนึ่งอาจถูกนำไปใช้ในด้านอื่น ๆ ที่ไม่ใช่การค้นหารูปภาพ CSAM เดิมก็เป็นได้
นอกจากนักวิจารณ์แล้ว เมื่อวันอาทิตย์ที่ผ่านมา มีกลุ่มผู้สนับสนุนความเป็นส่วนตัวและผู้เชี่ยวชาญด้านความปลอดภัย ได้เขียนจดหมายเปิดผนึกถึง Apple เพื่อขอให้บริษัทพิจารณาตัวระบบนี้ใหม่ ซึ่งจดหมายดังกล่าวมีลายเซ็นมากกว่า 5,000 ชื่อกันเลยครับ
ที่มา : Gizmodo