นักวิจัยจาก NVIDIA, Adobe และมหาวิทยาลัยสโตนนีบรูค (Stony Brook University) ได้สร้างระบบที่ทำให้ผู้ใช้งาน VR สามารถค้นหาโลกเสมือนขนาดใหญ่ในพื้นที่จริงๆ ขนาดเล็ก ซึ่งเป็นการทำให้พวกเขาสามารถหลีกเลี่ยงกำแพง เฟอร์นิเจอร์ หรือผู้เล่นอื่นๆ ได้
นักวิจัยผู้ที่ได้นำเสนอครั้งแรกในงานสัมมนาวิชาการ GPU Technology Conference (GTC) ที่เมืองแซนโฮเซ (San Jose) เมื่อต้นปีที่ผ่านมา และได้นำเสนอใน NVIDIA Blog มาก่อนนี้ ได้ดำเนินการเพิ่มเติมโดยตรวจจับการเคลื่อนไหวอย่างรวดเร็วของดวงตา หรือที่เรียกว่าเซะคาด (saccade)
สิ่งที่เป็นผลงาน contribution หลักในงานวิจัยนี้คือ “การเปลี่ยนเส้นทางการเดินแบบ end-to-end โดยอิงจากการทำปรากฏการณ์ saccadic suppression หรือเป็นการระงับภาพจากตาหนึ่งด้วยความรวดเร็ว ซึ่งมีผลต่อผู้บริโภค VR ในระดับห้อง (room-scale VR) และอัลกอริทึมวางแผนเส้นทางแบบ real-time ที่จะหลีกเลี่ยงอุปสรรคทั้งแบบหยุดนิ่งและเคลื่อนที่ได้อัตโนมัติ โดยตอบสนองกับการเคลื่อนที่ของดวงตาแต่ละคน ซึ่งวิธีการเพิ่มประสิทธิภาพของพวกเรานั้นเป็นการเชื่อมต่อระหว่างพฤติกรรมผู้ใช้และการเคลื่อนที่ในโลกจริง โดยคำนึงถึงความเป็นไปได้ที่ใกล้เคียงกับอนาคตผ่านการสุ่ม sampling แบบ real-time และค้นหาโซลูชันเชิงตัวเลขที่ดีที่สุดสำหรับการควบคุมกล้องแบบออนไลน์”
จากงานสัมมนา GTC ทีมวิจัยได้เปิดเผยวีดีโอใหม่ที่อธิบายวิธีการดังกล่าว และวันนี้พวกเขาก็ได้ตีพิมพ์งานวิจัยที่รวมถึงรายละเอียดของเทคนิคดังกล่าวนี้
โดยระบบสามารถนำไปใช้กับแอปพลิเคชันที่ตอบสอง interactive กับ VR หรือเกม หรือประสบการณ์ต่างๆ ที่สามารถใช้ VR ได้ โดยงานวิจัยนี้จะถูกนำเสนอในงาน SIGGRAPH 2018 ในเมืองแวนคูเวอร์ รัฐบริติชโคลัมเบีย ประเทศแคนาดา
Source : https://news.developer.nvidia.com/new-method-helps-vr-users-walk-in-small-physical-spaces/