ในช่วงสัปดาห์ที่ผ่านมา เทคโนโลยี Generative AI ได้ยึดครองพื้นที่ข่าวอีกครั้ง แต่คราวนี้ไม่ใช่เพราะความสามารถใหม่ที่น่าทึ่งหรือการทำลายเพดานความสำเร็จ แต่เป็นกรณีของภาพอนาจารปลอมของนักร้องสาวชื่อดัง Taylor Swift ที่ส่งสัญญาณเตือนรัฐและผู้ใช้งานทั่วโลกถึงอันตรายหากถูกนำไปใช้ในทางที่ผิด
ภาพอนาจาร Taylor Swift ปลอมโดย Gen AI ถูกเผยแพร่บนแพลตฟอร์ม X (ทวิตเตอร์)
ในช่วงสัปดาห์ที่ผ่านมา ภาพอนาจารปลอมของนักร้องสาวชื่อดัง Taylor Swift ได้ถูกเผยแพร่บนแพลตฟอร์ม X (ทวิตเตอร์) โดยหนึ่งในโพสต์ที่ได้รับความนิยมสูงที่สุดนั้นถูกรีโพสต์กว่า 24,000 ครั้งและมียอดการเข้าชมมากกว่า 45 ล้านครั้ง ภาพชุดดังกล่าวปรากฏอยู่ในแพลตฟอร์มกว่า 17 ชั่วโมงก่อนจะถูกลบ ไม่นานหลังจากนั้น X ได้ปิดการค้นหาคีย์เวิร์ด “Taylor Swift” เป็นการชั่วคราวเพื่อป้องกันการเข้าถึงภาพอนาจรปลอมดังกล่าวที่ถูกโพสต์ขึ้น
สื่อ 404 Media รายงานว่าภาพอนาจารปลอมนั้นอาจมีมีที่มาจากห้องสนทนากลุ่มใน Telegram ซึ่งเป็นกลุ่มสำหรับแชร์ภาพอนาจารที่ถูกสร้างขึ้นด้วยเทคโนโลยี AI โดยภาพจำนวนมากภายในกลุ่มถูกสร้างขึ้นโดย Microsoft Designer บริการ Generative AI สำหรับสร้างกราฟิกซึ่งมีช่องโหว่ให้ผู้ใช้สามารถสร้างภาพอนาจารขึ้นได้ หลังจากรายงานข่าวนี้ถูกเผยแพร่ Microsoft ได้เร่งแก้ไขระบบเพื่ออุดช่องโหว่ดังกล่าวพร้อมแถลงถึงจุดยืนในการให้บริการที่ให้เกียรติและปลอดภัยสำหรับทุกคน และยืนยันที่จะสืบสวนและพัฒนาระบบรักษาความปลอดภัยของเครื่องมือต่างๆเพื่อป้องกันการใช้งานโดยไม่สุจริต
แน่นอนว่ากรณีภาพอนาจารปลอมของบุคคลที่มีชื่อเสียงโด่งดังอย่าง Taylor Swift นี้ก่อให้เกิดความตื่นตัวในสังคมขึ้นเป็นวงกว้าง ผู้แทนราษฎรและสมาชิกวุฒิสภาของสหรัฐอเมริกาหลายรายได้ออกมาเรียกร้องให้มีการเพิ่มกฎหมายลงโทษผู้กระทำผิดที่เฉพาะเจาะจงกับการใช้เทคโนโลยี Deepfake และ Generative AI ในทางมิชอบ และ Karine Jean Pierre โฆษกประจำทำเนียบขาวก็ได้กล่าวถึงกรณีดังกล่าวว่าน่าตระหนก และเป็นเรื่องที่รัฐบาล Biden-Harris ให้ความสำคัญ อีกทั้งการลดความเสี่ยงจากการใช้เทคโนโลยี Gen AI ยังเป็นหนึ่งในประเด็นที่ประธานาธิปดี Joe Biden มีคำสั่งให้เร่งหามาตรการเมื่อช่วงปีที่ผ่านมา
Generative AI, Deepfake และสื่ออนาจาร รัฐควรรับมืออย่างไร
Deepfake คือชื่อเรียกรวมของการใช้เทคโนโลยีดิจิทัลเพื่อดัดแปลงหรือปลอมแปลงสื่อของบุคคลที่มีชีวิตจริง อาจกล่าวได้ว่า Deepfake ของยุคคอมพิวเตอร์นั้นเริ่มขึ้นในปี 1997 เมื่อ “Video Rewrite: driving visual speech with audio” งานวิจัยเกี่ยวกับโปรแกรมที่สามารถดัดแปลงริมฝีปากของผู้ที่อยู่ในวิดีโอให้เป็นไปตามเสียงพูดที่ใส่เพิ่มเข้ามาได้ถูกตีพิมพ์และเผยแพร่ ต่อมาในช่วงทศวรรษ 2010 ความก้าวหน้าของเทคโนโลยีปัญญาประดิษฐ์เป็นไปอย่างรวดเร็ว และการสร้างภาพกราฟิกหรือภาพถ่ายปลอมด้วย AI ก็รุดหน้าและมีความสมจริงมากขึ้นเรื่อยๆ ในขณะที่เครื่องมือในการสร้างไม่ได้เข้าถึงยากโดยบุคคลทั่วไปอีกต่อไป
Deepfake นั้นสามารถนำไปประยุกต์ใช้ในการผลิตสื่อ งานศิลป์ และใช้เพื่อความบันเทิงทั่วไปได้เป็นอย่างดี ทว่าความเสี่ยงกลับมีมากกว่า ทั้งในด้านของการปลอมแปลงตัวตน การสร้างความขัดแย้ง การเมือง รวมไปถึงการผลิตสื่ออนาจาร
กรณีของสื่ออนาจารปลอมของคนดังที่เป็นข่าวใหญ่นั้นถูกรายงานขึ้นครั้งแรกในปี 2017 แต่ในขณะนั้นเทคโนโลยียังไม่ก้าวหน้ามากนัก ทำให้ภาพที่ออกมาสามารถตรวจสอบการปลอมแปลงได้ง่ายและเป็นเพียงการสลับใบหน้าของคนดังเข้าไปในรูปอนาจาร อย่างไรก็ตามการสำรวจโดย Sensity AI ในปี 2018 พบว่าคอนเทนท์ที่ถูกผลิตขึ้นโดยเทคโนโลยี Deepfake มากกว่าร้อยละ 90 คือสื่ออนาจารที่ไม่ได้รับการยินยอมจากตัวบุคคล และสื่ออนาจารที่ถูกจัดทำขึ้นด้วย Deepfake นั้นมีจำนวนเพิ่มมากขึ้นกว่า 290% ตั้งแต่ปี 2018 และจากการสัมภาษณ์ในปี 2020 Sensity พบว่า DeepNude ซึ่งเป็นบอทที่ถูกพัฒนาขึ้นเพื่อสร้างสื่ออนาจารนั้นถูกใช้งานกับเหยื่อเพศหญิงไปมากกว่า 100,000 ราย ซึ่งในจำนวนนั้นมีบุคคลที่ยังไม่บรรลุนิติภาวะด้วย
ในปี 2023 ที่ผ่านมา Washington Post รายงานว่ามีการอัพโหลดภาพมากกว่า 415,000 รูปใน 10 เว็บไซต์สำหรับอัพโหลดรูปอนาจารที่ถูกปลอมแปลงขึ้นที่มีการเข้าชมมากที่สุด และในปีเดียวกัน มีวิดีโออนาจารปลอมกว่า 143,000 คลิปถูกอัพโหลดขึ้นในบรรดา Top 40 เว็บไซต์สื่ออนาจารปลอมแปลง ซึ่งเป็นตัวเลขที่สูงกว่าจำนวนวิดีโอปลอมที่ถูกอัพโหลดขึ้นในช่วงปี 2016 ถึง 2022
ตัวเลขที่เพิ่มขึ้นนี้สอดคล้องกับความง่ายในการเข้าถึงเทคโนโลยี Generative AI ที่เพิ่มขึ้นมากในปีที่ผ่านมา ประกอบกับความก้าวหน้าและความสมจริงที่เพิ่มมากขึ้นในการสร้างภาพถ่าย ในเดือนกันยายน ปี 2023 FBI รายงานว่าการปลอมภาพอนาจารนั้นมีเหยื่อแล้วกว่า 26,800 ราย แม้ไม่อาจทราบแน่ชัดว่าภาพเหล่านั้นสัดส่วนเท่าใดเป็นฝีมือของ AI แต่ก็เป็นตัวเลขที่เพิ่มมากขึ้นกว่า 149% จากปี 2019
ปัจจุบัน มีเพียง 10 รัฐในสหรัฐอเมริกาที่มีกฎหมายคุ้มครองผู้เสียหายจากสื่ออนาจาร Deepfake ด้านกฎหมายระดับประเทศ มีเพียงความพยายามผลักดันร่างกฎหมาย No FRAUD AI Act ขึ้นในปี 2023 แต่ร่างกฎหมายดังกล่าวได้รับคำวิจารณ์ว่ามีเนื้อหาที่กว้างและไม่เฉพาะเจาะจงมากพอที่จะนำมาบังคับใช้และลงโทษผู้กระทำผิด
สหราชอาณาจักรได้เริ่มบังคับใช้กฎหมายลงโทษผู้ผลิตและเผยแพร่สื่ออนาจารจาก Deepfake ใน Online Safety Act เมื่อเดือนตุลาคม 2023 นอกจากนี้ยังมีประเทศจีนที่มีกฎหมายควบคุมการใช้งาน Deepfake ที่เคร่งครัด และประเทศอินเดียที่วางแผนจะขยายอำนาจของกฎหมายให้ครอบคลุมยิ่งขึ้น
กรณีภาพอนาจารปลอมของ Taylor Swift ที่ถูกสร้างขึ้นด้วย Generative AI นี้เกิดขึ้นในช่วงเวลาที่เทคโนโลยีผลิตภาพมีความสามารถมากพอ เครือข่ายสังคมแผ่ขยายไปทั่วโลก และตัวนักร้องสาวมีผู้ชื่นชอบและสนับสนุนจำนวนมากที่ออกมาเรียกร้องและสร้างความตระหนักถึงปัญหาอย่างจริงจังเป็นวงกว้าง การจัดการความเสี่ยงและป้องกันการใช้ AI ในทางที่ไม่ดีนั้นเป็นบทสนทนาที่ผู้คนจะต้องถกเถียง เรียกร้อง และต่อสู้กันไปอีกยาวนาน โดยเฉพาะอย่างยิ่งเมื่อความตื่นตาตื่นใจในความสามารถของ AI เบาบางลงและมันกลายเป็นส่วนหนึ่งของชีวิตประจำวัน