งานวิจัยใหม่จากมหาวิทยาลัย Stanford สร้างความฮือฮาอีกแล้วกับเทคโนโลยีปัญญาประดิษฐ์ที่ทำตัวเสมือน “gaydar” ที่สามารถระบุได้ว่าบุคคลในภาพถ่ายเป็นเกย์หรือไม่โดยมีความแม่นยำร้อยละ 81 สำหรับผู้ชายและร้อยละ 74 สำหรับผู้หญิง แต่งานวิจัยครั้งนี้ก็นำมาซึ่งคำถามและประเด็นที่น่าหารือมากมาย
งานวิจัย “Deep neural networks are more accurate than humans at detecting sexual orientation from facial images” นี้ใช้เทคนิค deep neural networks ในการวิเคราะห์ภาพถ่ายใบหน้าที่มีข้อมูลตั้งตนเป็นภาพถ่ายใบหน้ากว่า 35,000 รูปที่ผู้ใช้เว็บไซต์หาคู่ของสหรัฐทั้งชายและหญิงเปิดเป็นสาธารณะ
การทดลองพบว่าระบบนี้สามารถระบุเพศของบุคคลในภาพถ่ายได้ดีกว่ามนุษย์ที่มีความแม่นยำอยู่ที่ร้อยละ 61 ในผู้ชายและร้อยละ 54 ในผู้หญิงเท่านั้น และระบบ machine learning นี้จะยิ่งทำได้ดีขึ้นไปอีกหากได้รับ 5 ภาพถ่ายต่อบุคคลมาวิเคราะห์ ซึ่งจะทำให้ระบบมีความแม่นยำอยู่ที่ 91% ในผู้ชายและ 83% ในผู้หญิง
งานวิจัยดังกล่าวพบว่าชายและหญิงที่เป็นเกย์นั้นส่วนใหญ่แล้วจะมีองค์ประกอบทางใบหน้าที่ไม่ตรงกับแบบแผนนัก กล่าวคือชายที่เป็นเกย์นั้นมีองค์ประกอบ สีหน้า และลักษณะการดูแลตัวเอง (ในที่นี้เช่น ทรงผม คิ้ว หนวด) ทีมีความเป็นผู้หญิงมากกว่าชายที่นิยมเพศตรงข้าม และในทำนองเดียวกันหญิงที่เป็นเกย์นั้นก็มักจะมีองค์ประกอบที่มีความเป็นชายมากกว่าหญิงอื่นๆ
แต่ที่น่าสนใจไปกว่านั้นคือแนวโน้มบางอย่างที่ปรากฏขึ้นระหว่างการวิจัยดังกล่าว เช่นการที่ชายที่เป็นเกย์มักมีกรามที่แคบกว่า จมูกที่ยาวกว่า และหน้าผากที่กว้างกว่าชาย heterosexual หรือหญิงที่เป็นเกย์มักมีกรามที่กว้างกว่าและหน้าผากที่แคบกว่า เป็นต้น การค้นพบเหล่านี้อาจกลายมาเป็นหลักฐานสนับสนุนชิ้นสำคัญต่อทฤษฎีที่ว่ารสนิยมทางเพศนั้นมีต้นตอมาจากการได้สัมผัสกับฮอร์โมนบางประเภทก่อนเกิด ซึ่งแปลว่ารสนิยมทางเพศนั้นเป็นสิ่งที่ติดตัวมาตั้งแต่กำเนิด ไม่ใช่”ทางเลือก”แต่อย่างใด
อย่างไรก็ตาม งานวิจัยครั้งนี้นั้นยังคงเป็นการศึกษาที่มีต่อผู้คนผิวขาวที่เป็นเกย์เท่านั้น ยังไม่ได้รวมผู้คนผิวสี คนข้ามเพศ (transgender) หรือคนที่มีรสนิยมทางเพศแบบ bisexual ในกลุ่มตัวอย่างแต่อย่างใด
และในทำนองเดียวกับเครื่องมือทางเทคโนโลยีหลายๆชนิด หลังงานวิจัยชิ้นดังกล่าวได้รับการตีพิมพ์ ก็เกิดคำถามมากมายเกี่ยวกับการนำไปใช้ ผู้คนบางส่วนออกมาแสดงความกังวลถึงการนำระบบนี้ไปใช้เป็นเครื่องมือในการตรวจสอบรสนิยมทางเพศซึ่งถือเป็นเรื่องส่วนตัวโดยไม่ได้รับความยินยอมจากตัวผู้ใช้ Sam Levin ผู้สื่อข่าวของ The Guardian ก็ได้จินตนาการไปถึงกรณีที่เลวร้ายกว่านั้นเช่นการนำไปใช้กับคู่สมรสเมื่อสงสัยว่าอีกฝ่ายอาจเป็นเกย์ หรือหากรัฐบาลในประเทศที่รักร่วมเพศยังเป็นความผิดทางกฎหมายนำเครื่องมือนี้ไปใช้ตั้งข้อหาแก่ประชาชน แม้กระทั่งตัวผู้อ่านเอง ในเวลาสั้นๆอาจสามารถนึกถึงการงานวิจัยนี้ไปใช้ในทางที่ไม่ดีได้อย่างไม่ยากเย็นนัก
ในขณะเดียวกัน นักวิจัยเจ้าของผลงานนี้ก็ได้โต้กลับว่าเทคโนโลยีในระบบนั้นแท้จริงเป็นเทคโนโลยีที่มีอยู่แล้วทั้งสิ้น การพัฒนาระบบและเปิดเผยกลไกและความสามารถของมันจึงเป็นเรื่องจำเป็นที่สาธารณะจะต้องรับรู้ อีกทั้งยังเป็นการเตือนให้รัฐบาลและบริษัทต่างๆคอยเฝ้าระวังความเป็นส่วนตัวของบุคคลทั่วไปด้วย
“มันน่ากลัวอย่างไม่ต้องสงสัย และก็เหมือนเครื่องมือชนิดใหม่ทุกๆชิ้นนั่นแหละ ที่หากตกไปอยู่ในมือของคนไม่ดีก็จะถูกนำไปใช้ในทางที่ผิดได้” Nick Rule รองศาสตราจารย์ภาควิชาจิตวิทยา มหาวิทยาลัย Toronto ผู้เคยตีพิมพ์งานวิจัยเกี่ยวกับ gaydar มาก่อน ให้ความเห็น “สิ่งที่หสิ่งที่นักวิจัยของงานวิจัยนี้ได้ทำคือการประกาศชัดเจนถึงพลังของระบบดังกล่าว …ตอนนี้เราเลยได้รู้ว่าเราต้องมีการป้องกัน”
“AI สามารถบอกคุณได้ทุกเรื่องเกี่ยวกับใครก็ได้ถ้ามีข้อมูลมากพอ คำถามก็คือในฐานะสังคมแล้ว เราอยากจะรู้หรือเปล่า?” Brian Brackeen – CEO ของบริษัทซอฟต์แวร์ระบุใบหน้า Kairos ตั้งคำถาม