ตั้งแต่ปี 2019 ทาง Bumble แอปหาคู่สำหรับสตรีได้มีการใช้เครื่องมือ Machine Learning เพื่อปกป้องผู้ใช้งานจากภาพลามกอนาจารต่าง ๆ โดยเครื่องมือดังกล่าวมีชื่อว่า “Private Detector” ที่สามารถคัดกรองภาพที่ส่งมาเพื่อจับคู่ได้ว่าเป็นภาพที่ไม่เหมาะสมหรือไม่ ซึ่งภาพเหล่านั้นจะไม่ได้รับการอนุญาตในแอป Bumble และล่าสุด Bumble ได้ประกาศเปิด Open Source เครื่องมือ Private Detector นี้แล้ว
จากบล็อคโพสล่าสุด ทาง Bumble ได้ประกาศว่าเปิด Open Source เครื่องมือเฟรมเวิร์กดังกล่าวไว้บน GitHub เป็นที่เรียบร้อยแล้ว
โดย Private Detector นั้นเป็น Binary Classifier ที่อิงจาก EfficientNetv2 หรือเป็นโครงข่าย Convolutional Neural Network ชนิดหนึ่งที่ถูกเทรนบนข้อมูล Data Set จำนวนมหาศาลที่ไม่ใช่ข้อมูลภาพลามกที่คัดสรรมาอย่างดีเพื่อทำให้สามารถสะท้อนความเป็นจริงได้มากที่สุด พร้อมส่วนต่าง ๆ ของร่างกายมนุษย์ เพื่อที่จะทำให้ AI สามารถระบุได้ว่าภาพนั้นเป็นอันตรายหรือไม่
“มันเป็นความหวังของพวกเรา ที่ฟีเจอร์นี้จะสามารถนำไปปรับใช้ในชุมชนเทคโนโลยีที่กว้างขวางขึ้น ตามที่พวกเราได้ทำงานกันมาเพื่อทำให้อินเทอร์เน็ตนั้นเป็นพื้นที่ที่ปลอดภัยมากขึ้นกว่าเดิม” บริษัทกล่าว พร้อมรับว่านี่เป็นเพียงแค่หนึ่งในผู้เล่นจำนวนมากในตลาดเท่านั้น
ที่มา: https://www.engadget.com/bumble-private-detection-open-source-192530832.html