นักวิจัยจากห้องแล็บระบบเรียนรู้ OpenAI ค้นพบว่า ระบบคอมพิวเตอร์วิทัศน์ (computer vision) ของตนถูกหลอกได้จากข้อความที่เขียนบนกระดาษดังปรากฏในภาพ แค่เขียนชื่อวัตถุแล้วแปะบนสิ่งอื่นก็หลอกซอฟต์แวร์ให้ระบุสิ่งของนั้นเป็นตามสิ่งที่เขียนไปได้ทันที
นักวิจัย OpenAI ระบุการกระทำเช่นนี้ว่าเป็น “typographic attacks” (การโจมตีด้วยการจัดวางและการออกแบบตัวอักษร) โดยใช้ความสามารถของระบบในการอ่านข้อความ นักวิจัยพบว่า แม้แต่ภาพข้อความลายมือก็สามารถหลอกระบบได้ ซึ่งการโจมตีในรูปแบบนี้ก็เหมือนกับ adversarial images ซึ่งก็คือชุดข้อมูลที่ได้รับการออกแบบมาเพื่อให้ระบบทำงานผิดพลาดอย่างจำเพาะ แต่การโจมตีแบบใช้ข้อความบนกระดาษนั้นทำได้ง่ายกว่า
Adversarial images นับว่าเป็นภัยต่อระบบที่ต้องอาศัย machine vision เห็นได้จากในกรณีของนักวิจัยที่หลอกซอฟต์แวร์ในรถขับเคลื่อนด้วยตัวเองของ Tesla ให้เปลี่ยนเลนโดยไม่แจ้งเตือน ด้วยการแปะสติกเกอร์บนถนน การโจมตีลักษณะนี้นับว่าเป็นอันตรายต่อการประยุกต์ใช้ AI ในหลายรูปแบบ ตั้งแต่ทางการแพทย์ไปจนถึงการทหาร
:no_upscale()/cdn.vox-cdn.com/uploads/chorus_asset/file/22353512/Screen_Shot_2021_03_08_at_1.11.48_PM.png)
แต่ typographic attacks นั้นยังไม่น่าเป็นห่วงเท่าใดนัก เพราะซอฟต์แวร์จาก OpenAI นี้ยังเป็นเพียงระบบทดลองชื่อว่า CLIP ที่ยังไม่ได้นำไปใช้ในผลิตภัณฑ์เชิงพาณิชย์ แต่ก็ถือว่าเป็นจุดอ่อนที่อาจทำให้การโจมตีลักษณะนั้นสำเร็จขึ้นมาได้ เพราะในตอนนี้ระบบยังแยกไม่ออกระหว่างแอปเปิ้ลกับกระดาษที่เขียนคำว่า “แอปเปิ้ล” ซึ่งเป็นความบกพร่องของระบบที่ยังเชื่อมโยงภาพกับคำในระดับนามธรรม อีกตัวอย่างหนึ่งก็คือ ระบบเข้าใจผิดว่าเครื่องมือในภาพเป็นกระปุกออมสินเมื่อมันเห็นข้อความ $$$ ที่สื่อถึงเงินในภาพ เป็นต้น
:no_upscale()/cdn.vox-cdn.com/uploads/chorus_asset/file/22353485/chain_saw_piggy_bank.jpg)