งานวิจัยใหม่จาก Imperial College ในกรุงลอนดอน และศูนย์วิจัย AI ของ Samsung ในสหราชอาณาจักร แสดงวิธีการที่รูปภาพเพียงรูปเดียวและไฟล์เสียงสามารถนำไปใช้สร้างคลิปวีดีโอคนร้องเพลงหรือพูดได้
นักวิจัยก็ใช้วิธีเช่นเดียวกับงาน deepfake อื่นๆ ที่เราเคยเห็น นั่นคือ ใช้ระบบเรียนรู้สร้างเอาท์พุต และแม้ว่าผลที่ออกมาจะยังห่างไกลจากความสมจริง 100 เปอร์เซ็นต์ แต่ก็น่าประหลาดใจที่สามารถสร้างผลลัพธ์ออกมาได้จากข้อมูลเพียงนิดเดียว ดังที่เห็นได้จากตัวอย่างของคลิปอัลเบิร์ต ไอน์สไตน์ ซึ่งถูกแปลงออกมาเป็นคลิปบรรยายที่คุณคงไม่เคยเห็นที่ไหนมาก่อน
อีกหนึ่งตัวอย่างคือ คลิปของกริกอรี รัสปูติน กำลังร้องเพลงของบียอนเซ่
ไม่เพียงแต่จะทำให้ภาพวีดีโอที่ออกมาตรงกับไฟล์เสียงเท่านั้น ระบบยังสามารถทำให้คนพูดสื่ออารมณ์ออกมาได้ตรงตามที่กำหนดด้วย โดยมีอินพุตเพียงแค่ภาพรูปเดียวและไฟล์เสียง แล้วอัลกอริธึมก็จัดการส่วนที่เหลือนั้น
ดังที่กล่าวไว้แล้วข้างต้น ผลงานที่ออกมาไม่ได้ดูสมจริงนัก แต่เป็นการแสดงให้เห็นว่าเทคโนโลยีพัฒนาไปได้เร็วแค่ไหน เทคนิคในการสร้าง deepfake นั้นง่ายขึ้นทุกที และแม้ว่างานวิจัยเช่นนี้ยังไม่ออกสู่ตลาด แต่คงอีกไม่นานที่เทคโนโลยีนี้อาจจะมาในรูปแบบซอฟต์แวร์ที่ใช้งานง่าย
เป็นที่เข้าใจได้ว่า งานวิจัยแนวนี้สร้างความกังวลใจแก่คนทั่วไปหากถูกนำไปใช้เผยแพร่ข้อมูลเท็จและโฆษณาชวนเชื่อ หรือถูกนำไปใช้ก่อความเสียหายแก่ตัวบุคคล โดยเฉพาะผู้หญิง ซึ่งยังคงตกเป็นเป้าถูกนำภาพไปใช้สร้างภาพอนาจารสร้างความอับอายได้