OpenAI เผยช่องโหว่ AI ถูกหลอกด้วยข้อความบนกระดาษ

0

นักวิจัยจากห้องแล็บระบบเรียนรู้ OpenAI ค้นพบว่า ระบบคอมพิวเตอร์วิทัศน์ (computer vision) ของตนถูกหลอกได้จากข้อความที่เขียนบนกระดาษดังปรากฏในภาพ แค่เขียนชื่อวัตถุแล้วแปะบนสิ่งอื่นก็หลอกซอฟต์แวร์ให้ระบุสิ่งของนั้นเป็นตามสิ่งที่เขียนไปได้ทันที

นักวิจัย OpenAI ระบุการกระทำเช่นนี้ว่าเป็น “typographic attacks” (การโจมตีด้วยการจัดวางและการออกแบบตัวอักษร) โดยใช้ความสามารถของระบบในการอ่านข้อความ นักวิจัยพบว่า แม้แต่ภาพข้อความลายมือก็สามารถหลอกระบบได้ ซึ่งการโจมตีในรูปแบบนี้ก็เหมือนกับ adversarial images ซึ่งก็คือชุดข้อมูลที่ได้รับการออกแบบมาเพื่อให้ระบบทำงานผิดพลาดอย่างจำเพาะ แต่การโจมตีแบบใช้ข้อความบนกระดาษนั้นทำได้ง่ายกว่า

Adversarial images นับว่าเป็นภัยต่อระบบที่ต้องอาศัย machine vision เห็นได้จากในกรณีของนักวิจัยที่หลอกซอฟต์แวร์ในรถขับเคลื่อนด้วยตัวเองของ Tesla ให้เปลี่ยนเลนโดยไม่แจ้งเตือน ด้วยการแปะสติกเกอร์บนถนน การโจมตีลักษณะนี้นับว่าเป็นอันตรายต่อการประยุกต์ใช้ AI ในหลายรูปแบบ ตั้งแต่ทางการแพทย์ไปจนถึงการทหาร

“Multimodal neurons” ใน CLIP ที่ตอบสนองต่อภาพของวัตถุต่าง ๆ ภาพวาด และข้อความ (Image credit: OpenAI)

แต่ typographic attacks นั้นยังไม่น่าเป็นห่วงเท่าใดนัก เพราะซอฟต์แวร์จาก OpenAI นี้ยังเป็นเพียงระบบทดลองชื่อว่า CLIP ที่ยังไม่ได้นำไปใช้ในผลิตภัณฑ์เชิงพาณิชย์ แต่ก็ถือว่าเป็นจุดอ่อนที่อาจทำให้การโจมตีลักษณะนั้นสำเร็จขึ้นมาได้ เพราะในตอนนี้ระบบยังแยกไม่ออกระหว่างแอปเปิ้ลกับกระดาษที่เขียนคำว่า “แอปเปิ้ล” ซึ่งเป็นความบกพร่องของระบบที่ยังเชื่อมโยงภาพกับคำในระดับนามธรรม อีกตัวอย่างหนึ่งก็คือ ระบบเข้าใจผิดว่าเครื่องมือในภาพเป็นกระปุกออมสินเมื่อมันเห็นข้อความ $$$ ที่สื่อถึงเงินในภาพ เป็นต้น

Image credit: OpenAI