นักวิจัยจาก Carnegie Mellon University ได้พัฒนาโมเดลระบบเรียนรู้ที่ประเมินว่าเสียงมาจากทิศทางใด โดยไม่จำเป็นต้องใช้วลีหรือท่าทางพิเศษ แต่อาศัยคุณสมบัติของเสียงที่สะท้อนไปรอบห้อง
ระบบสามารถรู้ได้ว่า เสียงแรกที่ดังและชัดที่สุดมักเป็นเสียงที่สั่งตรงมายังวัตถุที่ต้องการ เสียงอื่น ๆ จะมีแนวโน้มเสียงที่เบากว่า ดีเลย์ และอู้อี้ไม่ค่อยชัด โมเดล AI ตระหนักรู้ว่าความถี่ของเสียงมนุษย์แตกต่างไปขึ้นอยู่กับทิศทางที่ผู้พูดมองไป ความถี่ที่ต่ำกว่ามักจะเป็นรูปแบบรอบทิศทางมากกว่า
นักวิจัยเสริมว่า วิธีการนี้เป็นวิธีการง่าย ๆ โดยใช้ซอฟต์แวร์เป็นหลัก และไม่ต้องมีการส่งข้อมูลไปยังคลาวด์แต่อย่างใด
ก็คงอีกสักพักกว่าเราจะได้เห็นการใช้งานจริงของเทคโนโลยีนี้ แม้ว่าทีมวิจัยได้เผยแพร่โค้ดและข้อมูลที่ช่วยให้ผู้อื่นต่อยอดไปต่อได้ก็ตาม แต่ก็สามารถบอกได้ว่าเทคโนโลยีนี้จะพัฒนาไปในทิศทางใด ซึ่งอาจจะเป็นการสั่งให้ลำโพงเปิดเพลงโดยไม่ต้องมี wake word หรือคำเรียกใช้งาน หรือไม่ต้องตั้งค่าอุปกรณ์เชื่อมต่อใด ๆ
อีกทั้งยังอาจช่วยเรื่องความเป็นส่วนตัว โดยจำเป็นต้องมีการปรากฏตัวของผู้ใช้งานอยู่บริเวณนั้น ทำให้สามารถตัดความจำเป็นในการใช้กล้องตรวจจับท่าทางออกไป พูดอีกแบบก็คือ อาจจะเหมือนกับผู้ช่วยเสียงใน Star Trek ที่รู้ได้ทันทีว่า ผู้ใช้งานกำลังออกคำสั่งกับอุปกรณ์นั้นอยู่