นักวิจัยจากมหาวิทยาลัยมิชิแกน (University of Michigan) เพิ่งได้มีการตีพิมพ์งานวิจัยที่อธิบายเกี่ยวกับอัลกอริทึม deep learning ที่สามารถทำนายตำแหน่งของคนเดินเท้าในอนาคตพร้อมด้วยท่าทางการเดินของพวกเขาได้
“โครงข่ายที่นำเสนอนั้นสามารถที่จะทำนายท่าทางและตำแหน่งของคนเดินเท้าได้พร้อมๆ กันด้วยระยะจากกล้องถึง 45 เมตร” นักวิจัยกล่าวในงานตีพิมพ์
งานวิจัยนี้ได้มุ่งเน้นไปที่ 2 มุมมองที่จะเป็นกุญแจที่จะเร่งงานวิจัยในด้านนี้ คือการทำนาย ร่างกายคนออกมาในรูปแบบ mesh สามมิติแล้วทำให้สามารถทำนายได้ในหลายคนพร้อมๆ กันภายในสภาพแวดล้อมอย่างตรงสี่แยกใจกลางเมือง และการทำนายท่าทางของคนเดินเท้าแบบสามมิติและตำแหน่งในเฟรมที่จะเกิดต่อในอนาคตได้
ภาษากายของคนคนหนึ่งนั้นสามารถให้ข้อมูล insight ที่มีมูลค่าเกี่ยวกับสิ่งที่พวกเขาน่าจะทำได้ เช่นการมองข้ามไปไหล่อีกคนไป หรือว่าพวกเขากำลังจะหันหลังกลับไปดู หรือว่ากำลังส่งสัญญาณไปให้ใครบางคนในรถ หรือมองใครบางคนในอีกฝั่งหนึ่งของถนน?
นักวิจัยจึงหวังว่าการออกแบบระบบ computer vision ที่สามารถเข้าใจข้อมูลที่เป็นนัยเล็กๆ เหล่านี้ในพฤติกรรมของมนุษย์ได้นั้นจะสามารถพัฒนาระบบ computer vision ที่มีความทนทานได้มากขึ้นกว่าเดิมสำหรับหุ่นยนต์ (robotics) และยานพาหนะขับเคลื่อนอัตโนมัติ (autonomous vehicle)
โดยทีมได้เทรนโครงข่ายประสาทเทียม bio-LSTM บนเฟรมเวิร์ก Keras กับข้อมูล PedX dataset ที่มีข้อมูลตรงสี่แยกจริงใน Ann Arbor มิชิแกนและข้อมูล dataset ทดสอบที่แยกออกไปที่บันทึกในสภาพแวดล้อมภายนอกที่ควบคุมด้วยระบบการจับการเคลื่อนที่ (motion capture system)
โดยทีมงานได้ใช้ GPU สำหรับการ inference “โครงข่ายที่นำเสนอของพวกเราได้พัฒนาบน Python 3.6 ซึ่งด้วยโค้ดที่ยังไม่ได้มีการ optimize การทำนายข้อมูลได้ใช้เวลาประมาณ 1 ms ต่อการทำนายแ่ละคนในแต่ละภาพ”
นักวิจัยกล่าวว่าพวกเขาจะขยายงานวิจัยของพวกเขาให้สามารถจับการเคลื่อนไหวได้แบบ real-time เพื่อสามารถนำไปใช้งานได้ในแอปที่เป็นยานพานะขับเคลื่อนอัตโนมัติได้
โดยงานตีพิมพ์ได้ถูกเผยแพร่ใน IEEE Robotics and Automation Letters และบน Arxiv แล้ว
Source : https://news.developer.nvidia.com/ai-algorithm-for-autonomous-machines-can-predict-human-movement/