หนึ่งในปัญหาใหญ่ที่ผู้ใช้ Youtube เจอเสมอมาคือ [Toxic] การแสดงความคิดเห็นหรือคอมเมนต์ไม่เหมาะสม แสดงความเกลียดชัง จนอาจลุกลามบานปลายได้ทุกเมื่อ ล่าสุดทาง Youtube ได้ส่งฟีเจอร์ใหม่ มาช่วยแก้ปัญหานี้โดยเฉพาะ
เจออีกแบน 24 ชั่วโมง !! ก่อนหน้านี้ทาง Youtube เคยได้แก้ปัญหานี้ (แบบเบื้องต้น) มาแล้ว ด้วยการขึ้นแจ้งเตือน [โปรดแสดงคอมเมนต์อย่างเหมาะสม] ให้แก่ผู้ใช้ทุกคนก่อนคอมเมนต์ แต่ก็มีผู้ใช้บางคนมองข้าม ไม่สนใจแจ้งเตือนดังกล่าว
คราวนี้ Youtube ปรับวิธีใหม่ จากเตือนก่อน เป็นเตือนเมื่อพบแทน โดยหากทาง Youtube พบคอมเมนต์ไหนที่ (AI) คิดว่าไม่เหมาะสม ก็จะทำแจ้งเตือนผู้ใช้รายนั้นเป็นคน ๆ ไปเลย และหากพบผู้ใช้กระทำแบบเดิมซ้ำอีก ก็ส่งโทษแบนให้งดคอมเมนต์เป็นเวลา 1 วันทันที
อย่างไรก็ตาม ทางฝ่ายผู้จัดการชุมชนของ YouTube ที่ได้กล่าวถึงฟีเจอร์ใหม่นี้นั้น ก็ยอมรับด้วยว่า วิธีแก้ปัญหานี้อาจยังไม่เด็ดขาดพอ แต่จากการทดลองก่อนหน้า ก็พบว่าช่วยลดโอกาสแสดงคอมเมนต์ไม่เหมาะสมได้อยู่ และยอมรับอีกว่า [ระบบไม่ได้ถูกต้องเสมอไป] ซึ่งหากใครรู้สึกว่าได้รับคำเตือนที่ไม่เหมาะสมซะเอง ก็สามารถแจ้งเรื่องกับทางแพลตฟอร์มได้
ท้ายนี้ตัวฟีเจอร์ ปัจจุบันรองรับเฉพาะภาษาอังกฤษเท่านั้น แต่ทาง Youtube ยืนยันว่าจะมีการใช้กับภาษาอื่นด้วยภายในช่วงเดือนหน้าเร็ว ๆ นี้
ที่มา : Techspot