Twitter กำลังเริ่มโครงการใหม่ในชื่อ Responsible Machine Learning เพื่อประเมินอันตรายที่อาจเกิดขึ้นโดยไม่ตั้งใจจากอัลกอริทึม ซึ่งจะศึกษาว่าการใช้แมชชีนเลิร์นนิงของ Twitter จะเกิดการวิเคราะห์ที่เป็นอัคติจากการใช้งานได้อย่างไร
.
ก่อนหน้านี้ Twitter ใช้ Machine Learning เพื่อวิเคราะห์เนื้อหาและแนะนำสิ่งต่าง ๆ ให้กับคนที่สนใจในเรื่องนั้น ๆ เช่น เราอาจสนใจเรื่องรถยนต์ Twitter ก็จะฟีดเนื้อหาเกี่ยวกับรถยนต์มาให้เราเยอะ ๆ ซึ่งจะมีแต่เรื่องที่เราสนใจ รวมทั้ง Machine Learning ยังถูกใช้งานกับระบบอัตโนมัติอื่น ๆ ของ Twitter
.
โดยที่ผ่านมา Twitter พบว่า Machine Learning อาจแสดงเนื้อหาที่เป็นอคติเช่น อคติทางเชื้อชาติและเพศ โดยในอัลกอริทึมการครอบตัดรูปภาพของ Twitter ผู้ใช้ Twitter รายหนึ่งได้ชี้ให้เห็นว่าภาพตัวอย่างที่ครอบตัดอัตโนมัติดูเหมือนจะชอบใบหน้าสีขาวมากกว่าใบหน้าสีดำ ทำให้เห็นว่า Ai เริ่มที่จะอคติมากขึ้น (เดาว่าน่าจะมาจากข้อมูลล้าน ๆ ไบต์ที่ระบบเรียนรู้จากโลกโซเชียล)
.
ทั้งนี้ ทีมของ Twitter จะตามตรวจสอบสิ่งต่าง ๆ เหล่านี้ โดยจะดูว่าคำแนะนำในไทม์ไลน์แตกต่างกันอย่างไร โดยเฉพาะในกลุ่มย่อยทางเชื้อชาติและวิเคราะห์คำแนะนำเนื้อหาเกี่ยวกับอุดมการณ์ทางการเมืองในประเทศต่าง ๆ เพื่อลบความอคติออกไปจากระบบครับ
.
ที่มา : https://www.theverge.com/2021/4/15/22385563/twitter-algorithms-machine-learning-bias