ปัญญาประดิษฐ์ (AI) ซึ่งจะเป็นกำลังขับเคลื่อนหุ่นยนต์เครื่องจักรกลต่างๆ และตัวกรองเนื้อหาในอนาคตนั้น ตอนนี้มีแหล่งทรัพยากรใหม่เพื่อเรียนรู้เข้าใจมนุษย์เพิ่มอีกหนึ่งอย่าง โดยเมื่อวันที่ 19 ตุลาคม 2560 ที่ผ่านมา ทาง Google เจ้าของ YouTube ได้เผยถึงชุดข้อมูลวีดีโอจากภาพยนตร์ที่จะใช้สอนระบบให้เข้าใจถึงการเคลื่อนไหวท่าทางของมนุษย์ได้
ข้อมูลวีดีโอชุดนั้นมีชื่อว่า AVA (Atomic Visual Actions) ซึ่งไม่ได้วิเศษอะไรในสายตาผู้ชม เพราะเป็นเพียงคลิปสั้น 3 วินาที แสดงท่าทางของมนุษย์ เช่น ดื่มน้ำ ทำอาหาร แต่คลิปเหล่านั้นจะเป็นสื่อให้กับการเรียนรู้ของเครื่องหรือ Machine Learning เพื่อใช้เรียนรู้พร้อมศึกษารายละเอียดท่าทาง และการมีปฏิสัมพันธ์ระหว่างมนุษย์ด้วยกันเองหรือกับสิ่งของ ซึ่งลักษณะเหมือนกับการสอนเด็กให้เรียนรู้ศัพท์ใหม่นั่นเองเพียงแต่อยู่ในรูปแบบดิจิทัล เมื่อในคลิปนั้นมีมากกว่าหนึ่งคน แต่ละคนก็จะมีชื่อของตัวเอง (label) ด้วยวิธีนี้เองที่จะทำให้อัลกอริทึมเรียนรู้ว่าคนสองคนจะจับมือทักทายกันอย่างไร
เทคโนโลยีนี้ช่วย Google ให้สามารถวิเคราะห์วีดีโอบน YouTube ได้ทุกวัน และสามารถนำไปประยุกต์ใช้ได้ดีกับการโฆษณาให้ตรงกับกลุ่มเป้าหมายตามเนื้อหาวีดีโอที่คุณดู โดยเป้าหมายที่แท้จริงคือ ให้โปรแกรมเข้าใจภาพทางสังคม (social visual intelligence) กล่าวคือ เข้าใจในสิ่งที่มนุษย์กำลังทำ สิ่งที่กำลังจะเกิดขึ้นต่อไป และสิ่งที่คนเหล่านั้นตั้งใจให้เกิดขึ้น
ชุดข้อมูล AVA มีวีดีโอที่ได้รับการระบุชื่อแล้วทั้งสิ้น 57,600 คลิป ประกอบไปด้วยการกระทำกริยาท่าทาง 80 ประเภท กิจกรรมง่ายๆ เช่น การยืน การเดิน การพูดคุยและการฟัง ก็มีมากกว่า 10,000 ชื่อ ทีมพัฒนากล่าวว่าการใช้คลิปจากภาพยนตร์ก็มีการเอนเอียง (bias) ไปบ้าง เพราะการถ่ายทำภาพยนตร์มี “สูตร” ของมัน และบางกริยาการกระทำก็ถูกปรับดูเป็นละครหรือเล่นใหญ่ไปหน่อย ซึ่งทางทีมงานก็มองว่าข้อมูลเหล่านี้อาจไม่ได้ดีเลิศ 100% แต่ก็ดีกว่านำวีดีโอที่สร้างขึ้นเองโดยผู้ใช้ทั่วไปมาใช้ เช่น คลิปสอนประดิษฐ์ หรือคลิปงานวันเกิดเด็ก เป็นต้น
ทั้งนี้ ทีมงานก็พยายามหาคลิปที่มีนักแสดงมีชื่อจากหลายๆ ประเทศ หลายเชื้อชาติ แต่ก็ไม่ได้บอกรายละเอียดว่าชุดข้อมูลจะมีอคติทางด้านสัญชาติหรือเพศหรือไม่อย่างไร
Source : https://qz.com/1108090/google-is-teaching-its-ai-how-humans-hug-cook-and-fight/