อคติหรือ bias ในงานการเรียนรู้ของเครื่อง (Machine Learning) นั้นสามารถเป็นปัญหาได้ถึงแม้ว่าจะเป็นองค์กรขนาดใหญ่ที่มีประสบการณ์ด้าน AI มาอย่างโชกโชนอย่าง Amazon ตามรายงานของ Reuters นั้น บริษัท e-Commerce ยักษ์ใหญ่นี้ได้จัดการกับโครงการภายในที่ได้เคยพยายามใช้ AI ที่จะตรวจสอบใบสมัครงานหลังจากซอฟต์แวร์มีการลดคะแนนผู้สมัครที่เป็นเพศหญิงมาอย่างต่อเนื่อง
เพราะว่าระบบ AI เรียนรู้ที่จะตัดสินใจโดยการมองไปถึงข้อมูลประวัติต่างๆ ในอดีตซึ่งมักจะยังมี bias คงอยู่ไว้ตลอดไป ในกรณีนี้ bias ก็คือทรัพยากรการทำงานที่เพศชายมีอำนาจมากกว่าในโลกของเทคโนโลยี และตามรายงานข่าวของ Reuters นั้น โปรแกรมของ Amazon นั้นได้ตัดคะแนนผู้สมัครที่มีการเข้าร่วมกิจกรรมมหาลัยของสตรีทั้งหลาย เช่นเดียวกันกับเรซูเม่ใดๆ ที่มีคำว่า “women’s” (ซึ่งมักจะปรากฎในประโยค “women’s chess club”)
โดยมีข่าวลือว่าทีมงานเบื้องหลังของโครงการได้ตั้งใจที่จะเร่งกระบวนการการจ้างงาน”พวกเขาต้องการที่จะให้มันเป็น engine ที่ฉันจะให้มัน 100 เรซูเม่แล้วมันจะคัดแยกออกมาให้เหลือ top five แล้วพวกเราจะจ้างพวกเขาทั้งหมดนั้นเลย” แหล่งต้นทางไม่ทราบชื่อที่เกี่ยวข้องกับงานเล่าให้กับ Reuters โดยเมื่อบริษัทได้ตระหนักว่าซอฟต์แวร์นั้นไม่ได้ให้ผลลัพธ์ที่เป็นกลางทางเพศจึงทำให้มันถูกปรับเพื่อที่จะลบเอา bias นี้ออกไป อย่างไรก็ดี ก็ยังไม่เป็นที่แน่นนอนว่า bias อื่นๆ จะเข้ามาในซอฟต์แวร์ด้วยหรือป่าว ดังนั้น จึงเป็นผลให้มันถูกจัดการไปทั้งหมดเมื่อปีที่ผ่านมา
ในช่วงสองสามปีที่ผ่านมา ตามที่ระบบปัญญาประดิษฐ์ (Artificial Intelligence) นั้นได้มีการนำเอาไปใช้งานในหลายๆ รูปแบบบริบทต่างๆ มากยิ่งขึ้น นักวิจัยก็เริ่มมีเสียงของการพูดถึงอันตรายเกี่ยวกับ bias กันเพิ่มมากยิ่งขึ้นเรื่อยๆ ซึ่งอคติเกี่ยวกับเพศและการเหยียดสีผิวนั้นสามารถที่จะเข้าไปในโปรแกรม AI ต่างๆ ได้ง่าย อย่างอัลกอริทึมรู้จำใบหน้า (facial recognition) ที่ถูกใช้โดยศาลและโรงพยาบาล
ในเคสส่วนใหญ่ โปรแกรมเหล่านี้จะสามารถจัดการกับ bias ที่มีอยู่ได้ง่ายๆ ตัวอย่างในระบบสแกน CV ของ Amazon นี้เอง ผู้รับสมัครงาน recruiter ที่เป็นคนนั้นอาจจะมี bias กับผู้สมัครเพศหญิงตามพื้นฐานจิตใต้สำนึกของคนนั้นๆ อยู่ หากแต่การส่ง bias เหล่านี้ลงไปในโปรแกรมคอมพิวเตอร์นั้น พวกเราสร้างให้ปรากฎให้น้อยลงและเปิดให้มีการแก้ไขให้น้อยลงไปได้ และนี่คือสิ่งที่พวกเราควรจะเชื่อการตัดสินใจจากโปรแกรม เพราะโปรแกรม AI ไม่สามารถอธิบายสิ่งที่พวกมันคิดได้
ถึงแม้ว่าจะมีสิ่งนี้เกิดขึ้น ก็ยังมีสตาร์ทอัพอีกจำนวนมากที่กำลังพัฒนาเครื่องมือรับสมัครงานที่ใช้ระบบ AI ซึ่งได้พยายามขายบริการไปในแนวทางที่มีการหลีกเลี่ยง bias เพราะว่าสามารถที่จะใส่ preference สำหรับผู้สมัครที่เฉพาะเจาะลงลงไปได้ ซึ่ง Amazon นั้นก็กำลังคิดถึงวิธีการนี้เช่นกัน และตามรายงานของ Reuters นั้นก็ยังบอกว่าบริษัทก็มีแนวทางที่กำลังจะไปต่อในการสร้างเครื่องมือรับสมัครงานที่ใช้ AI ซึ่งครั้งนี้จะเป็นการ”มุ่งเน้นไปที่ความหลายหลาย (diversity)”
Source : https://www.theverge.com/2018/10/10/17958784/ai-recruiting-tool-bias-amazon-report