การจะสร้าง deepfake (วีดีโอหรือคลิปเสียงปลอมที่สร้างขึ้นโดย AI) ให้ดูน่าเชื่อถือได้นั้น คุณต้องใช้โมเดลเครือข่ายประสาทเทียมที่ถูกฝึกจากการป้อนข้อมูลอ้างอิงปริมาณมาก ยิ่งในคลังภาพ วีดีโอ หรือเสียง มีขนาดชุดข้อมูลมากเท่าไร ผลลัพธ์ที่ออกมาก็ยิ่งแม่นยำมากขึ้น แต่ตอนนี้ นักวิจัยจากศูนย์ AI ของ Samsung ได้คิดค้นวิธีฝึกโมเดลให้สร้างภาพได้ด้วยชุดข้อมูลจำกัด แค่รูปเพียงรูปเดียวก็สามารถสร้างผลลัพธ์ได้ดีอย่างน่าทึ่งเลยทีเดียว
นักวิจัยบรรลุผลดังกล่าวได้โดยการฝึกอัลกอริธึมให้หาจุดเด่นบนใบหน้า (รูปหน้า ตา รูปปาก และอื่นๆ) และถอดรูปจากที่เก็บภาพของบรรดาผู้มีชื่อเสียงนับ 7,000 ภาพที่รวบรวมมาจาก YouTube
จากตรงนั้นเอง ระบบก็แปลงลักษณะเด่นเหล่านั้นมาเป็นรูปภาพที่มีชีวิตชีวา โมเดลนี้ยังใช้กับรูปโมนาลิซ่า และรูปถ่ายภาพนิ่งบุคคลเดี่ยวอื่นๆ เช่น ในวีดีโอ ก็มีทั้งภาพของอัลเบิร์ต ไอน์สไตน์ และมาริลีน มอนโรว ให้กลับมามีชีวิตราวกับถ่ายวีดีโอบุคคลจริงๆ แต่ก็เช่นเดียวกับ deepfake อื่นๆ ที่เราพอจะมองออกว่ามีรอยต่อที่ยังไม่ค่อยแนบเนียนเท่าไรนัก
แม้ว่าจะมีตำหนิให้เห็นบ้าง แต่วีดีโอและเสียงที่ปลอมขึ้นก็เริ่มดูสมจริงมากขึ้นทุกที อย่างเช่น การเลียนเสียงซ้ำตามต้นฉบับเสียงของโจ โรแกน เป็นต้น ในขณะที่นักวิจัยยังคงสรรหาวิธีเพื่อสร้างภาพเสมือนจริงให้มีคุณภาพสูงนั้น ก็ยังมีความกังวลว่า เครื่องมือดังกล่าวอาจนำไปใช้ในรูปแบบของโฆษณาชวนเชื่อ หรือนำภาพไปตัดต่อ เช่น ทำเป็นวีดีโออนาจาร เป็นต้น