Facebook บอกว่าได้ลบโพสแสวงหาประโยชน์จากเด็ก 8.7 ล้านชิ้นด้วยเทคโนโลยีการเรียนรู้ของเครื่อง

0
https://techcrunch.com/wp-content/uploads/2018/10/GettyImages-939157214.jpg?w=730&crop=1
An illustration picture taken through a magnifying glass on March 28, 2018 in Moscow shows the icon for the social networking app Facebook on a smart phone screen. Facebook said on March 28, 2018 it would overhaul its privacy settings tools to put users "more in control" of their information on the social media website. The updates include improving ease of access to Facebook's user settings, a privacy shortcuts menu and tools to search for, download and delete personal data stored by Facebook. / AFP PHOTO / Mladen ANTONOV (Photo credit should read MLADEN ANTONOV/AFP/Getty Images)

Facebook ได้ประกาศวันนี้ว่าได้มีการลบ content เป็นจำนวน 8.7 ล้านชิ้นในช่วงไตรมาสที่ผ่านมาที่เป็น content ซึ่งละเมิดต่อกฎซึ่งมีการแสวงหาผลประโยชน์จากเด็กโดยใช้เทคโนโลยีใหม่ วึ่งระบบปัญญาประดิษฐ์ (Artificial Intelligence) และการเรียนรู้ของเครื่อง (Machine Learning) ที่ได้ถูกสร้างและพัฒนาขึ้นมาในช่วงปีที่แล้วโดยบริษัทได้ถอดเอาโพสเหล่านั้นออกไปได้ 99% ก่อนที่ใครจะมีการ report มาให้ คุณ Antigone Davis หัวหน้าหน่วยด้านความปลอดภัยของ Facebook กล่าวไว้ในบล็อคโพส

โดยเทคโนโลยีใหม่นี้จะวิเคราะห์โพสว่าเป็นภาพเปลือยของเด็กหรือมีข้อความ content ที่แสวงหาผลประโยชน์อื่นๆ หรือไม่เมื่อพวกเขากำลังจะอัพโหลด และถ้าหากว่าจำเป็น ตัวรูปภาพและบัญชีผู้ใช้นั้นจะถูกรายงานไปที่ National Center for Missing and Exploited Children ซึ่ง Facebook ได้มีการนำเอาเทคโนโลยีจับคู่ภาพ (photo-matching) มาใช้งานแล้ว เพื่อที่จะเปรียบเทียบภาพที่อัพโหลดเข้าไปใหม่กับภาพของเด็กที่รู้ว่าเป็นการแสวงหาประโยชน์จากเด็กหรือภาพโป๊เปลือย ซึ่งเครื่องมือใหม่นี้มีวัตถุประสงค์เพื่อป้องกัน content ที่ไม่สามารถระบุได้ก่อนหน้านี้จากการนำเอาออกไปเผยแพร่ผ่านแพลตฟอร์มเพียงเท่านั้น

เทคโนโลยีนั้นยังคงไม่สมบูรณ์ โดยมีพ่อแม่หลายคนได้บ่นว่ารูปที่ไม่ได้มีอันตรายๆ ของลูกของพวกเขานั้นได้ถูกลบออกไป ซึ่งคุณ Davis ได้กล่าวถึงประเด็นนี้ในโพสด้วยว่าเป็นการ “หลีกเลี่ยงโอกาสที่จะทำในไปสู่การใช้ในทางที่ผิด พวกเราจึงดำเนินการกับ content ที่ไม่ใช่เรื่องเซ็กส์ด้วยเช่นกัน เหมือนกับภาพที่ดูเหมือนก้อนเล็กๆ กับเด็กในอ่างอาบน้ำ” และนี่คือวิธีการที่เข้าใจได้ ซึ่งเป็นหนึ่งในเหตุผลที่ Facebook ลบ content ให้มากที่สุดเท่าที่จะทำได้ในช่วงไตรมาสที่ผ่านมา

หากแต่เทคโนโลยีการกลั่นกรองของ Facebook นี้ก็ไม่ได้แปลว่าสมบูรณ์ และมีผู้คนจำนวนมากเชื่อว่ามันไม่ได้เป็นที่เข้าใจได้หรือว่ามีความแม่นยำที่เพียงพอ เพิ่มเติมนอกเหนือจากภาพถ่ายรูปครอบครัว ก็ยังมีการวิพากษ์วิจารณ์ออกมาว่า content อย่างภาพ Phan Thi Kim Phuc หรือที่รู้จักว่าคือภาพ “Napalm Girl” นั้นก็ถูกลบออก ซึ่งคุณ Sheryl Sandberge ตำแหน่ง COO ก็ได้ตัดสินใจออกมาขอโทษแล้ว

อย่างไรก็ดี การคัดกรอง content ใน social media เป็นตัวอย่างที่ควรพิจารณาน่าสนใจในการนำเอาระบบ AI automation มาใช้งานทดแทนแรงงานมนุษย์ได้ ซึ่งเมื่อปีที่ผ่านมา คุณ Selena Scola อดีตผู้คัดกรอง content ของ Facebook ได้ฟ้องบริษัทโดยอ้างว่าการสกรีนภาพที่มีความรุนแรงหลายพันภาพนั้นส่งผลให้เธอเกิดอาการภาวะผิดปกติทางจิตใจจากเหตุการณ์รุนแรง (post-traumatic stress disorder) ส่วนผู้คัดกรองอื่นๆ โดยมากมักจะเป้น contractor ซึ่งก็ได้พูดถึงการสูญเสียทางจิตจากงานที่ทำและกล่าวว่า Facebook ก็ไม่ได้เสนอการ training การ support หรือการชดเชยในเรื่องเงินมากเพียงพอแต่อย่างใด

Source : https://techcrunch.com/2018/10/24/facebook-says-it-removed-8-7m-child-exploitation-posts-with-new-machine-learning-tech/