แอบขโมยข้อมูล ใช้ ช่องโหว่ ChatGPT สร้างความทรงจำปลอม

ช่องโหว่ ChatGPT

เมื่อไม่นานมานี้ นักวิจัยด้านความปลอดภัยชื่อ Johann Rehberger ได้รายงานถึงช่องโหว่ใน ChatGPT ที่ทำให้ผู้โจมตีสามารถจัดเก็บข้อมูลเท็จและคำสั่งอันตรายไว้ในส่วนการตั้งค่าความทรงจำระยะยาวของผู้ใช้ได้

วิธีการดังกล่าวคือ การฉีด Prompt ทางอ้อมลงไปในฟีเจอร์ “ความทรงจำระยะยาวของ AI” ลองนึกภาพว่า ChatGPT เป็นเหมือนเพื่อนที่คุยด้วยได้ แต่เพื่อนคนนี้มีความจำเป็นเลิศ เขาจำทุกอย่างที่เราเคยคุยกันได้หมด ปัญหาคือ มีคนแอบเอาข้อมูลเท็จมาใส่ในความทรงจำของเพื่อนเรา ทำให้เขาเข้าใจเราผิดไปหมด นี่แหละคือ “การฉีด Prompt ทางอ้อม”

โดยปกติ ChatGPT จะเรียนรู้และจดจำจากบทสนทนาของเรา แต่มันก็มีช่องโหว่ที่ทำให้คนไม่หวังดีสามารถ “ฉีด” ข้อมูลปลอมเข้าไปในความทรงจำของมันได้ เหมือนกับการแอบเขียนโน้ตใส่สมุดเพื่อนโดยที่เขาไม่รู้ตัว ข้อมูลปลอมเหล่านี้อาจมาจากอีเมล เว็บไซต์ หรือแม้แต่รูปภาพที่เราเปิดดู

เมื่อ ChatGPT ถูก “ฉีด” ข้อมูลปลอม มันก็จะเชื่อว่าข้อมูลเหล่านั้นเป็นเรื่องจริง และจะตอบคำถามหรือทำตามคำสั่งของเราโดยอ้างอิงจากข้อมูลที่ผิด ๆ นั้น ยกตัวอย่างเช่น แฮกเกอร์อาจหลอก ChatGPT ให้เชื่อว่าเราอายุ 100 ปี ทั้งที่จริงๆ แล้วเราอายุแค่ 20 ปี

สิ่งที่อันตรายกว่านั้นคือ แฮกเกอร์สามารถใช้ช่องโหว่นี้เพื่อขโมยข้อมูลของเราได้ พวกเขาอาจหลอกให้ ChatGPT ส่งข้อมูลการสนทนา หรือข้อมูลส่วนตัวอื่นๆ ของเราไปให้โดยที่เราไม่รู้ตัว นอกจากนี้ ยังอาจถูกใช้ในการโจมตีแบบ Phishing ซึ่งแฮกเกอร์ อาจใช้การฉีด Prompt ทางอ้อมเพื่อสร้างข้อความหลอกลวงที่ดูเหมือนมาจากแหล่งที่เชื่อถือได้ หลอกล่อให้ผู้ใช้เปิดเผยข้อมูลส่วนตัวหรือคลิกลิงก์ที่เป็นอันตรายได้เช่นกัน

สำหรับฟีเจอร์ดังกล่าวที่เป็นปัญหาคือ ความทรงจำระยะยาวในการสนทนา ซึ่งเป็นฟีเจอร์ที่ OpenAI เริ่มทดสอบในเดือนกุมภาพันธ์ และเปิดให้ใช้งานอย่างกว้างขวางมากขึ้นในเดือนกันยายน โดย ChatGPT จะเก็บข้อมูลจากการสนทนาก่อนหน้า และนำมาใช้เป็นบริบทในการสนทนาในอนาคตทั้งหมด วิธีนี้ทำให้ LLM สามารถรับรู้รายละเอียด เช่น อายุ เพศ ความเชื่อทางปรัชญา และข้อมูลอื่นๆ ของผู้ใช้ เพื่อไม่ให้ต้องป้อนข้อมูลเหล่านี้ซ้ำในการสนทนาแต่ละครั้ง

อย่างไรก็ตาม ตอนนี้ OpenAI ได้ทำการออกแพทซ์ป้องกันการดึงข้อมูล โดยมีการแก้ไขเพื่อป้องกันไม่ให้ความทรงจำถูกใช้เป็นช่องทางในการดึงข้อมูลของผู้ใช้โดยไม่ได้รับอนุญาตออกมาแล้ว รอดูกันต่อไปว่า จะมีปัญหาอะไรตามมาในอนาคตอีกไหม…

ที่มา
arstechnica