ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ในงาน NCSA and Nasdaq Cybersecurity Summit ได้ออกมาแชร์ถึงการประยุกต์ใช้เทคโนโลยีปัญญาประดิษฐ์กับความปลอดภัยทางไซเบอร์ ซึ่งเทคโนโลยีนี้อาจถูกนำไปใช้ทั้งในทางดี เสริมความปลอดภัยให้กับระบบ และทางที่ไม่ดี เช่นในการโจมตีทางไซเบอร์ต่างๆ เว็บไซต์ TechRepublic ได้สรุป 3 วิธีที่ AI ถูกใช้งานในการโจมตีทางไซเบอร์ ดังนี้
1. Data Poisoning
เมื่อการรักษาความปลอดภัยพึ่งพาความสามารถของเทคโนโลยี AI มากขึ้น ก็ย่อมพึ่งพาข้อมูลที่ใช้ในการเทรนโมเดลตาม ผู้ไม่ประสงค์ดีจึงอาจวางแผนปั่นป่วนข้อมูลที่ Input เข้าไปให้ AI และทำให้โมเดลนั้นๆทำงานผิดพลาดหรือใช้การไม่ได้ เทคนิคเช่นนี้เรียกว่า Data Poisoning
Data Poisoning อ้างอิงตามข้อเขียนของคุณ Ilja Moisejevs นั้นแบ่งออกเป็น 2 ประเภทด้วยกัน คือการโจมตี Availability ของโมเดล Machine Learning ซึ่งเป็นการป้อนข้อมูลให้กับโมเดลอย่างมหาศาลจนกระทั่งโมเดลนั้นใช้งานไม่ได้อีกต่อไป
ประเภทที่ 2 คือการโจมตี Integrity ของโมเดล หรือที่เรียกกันว่า Backdoor Attack ที่เป็นการแอบป้อนข้อมูลบางอย่างเข้าไปยังโมเดล ทำให้เกิด Backdoor ขึ้นในระบบ เช่น การสอนโมเดลว่าข้อมูลที่มีข้อความว่า abcdefg นั้นปลอดภัย เมื่อระบบเข้าใจเช่นนั้น ผู้โจมตีก็จะสามารถส่ง Malware ที่มีข้อความ abcdefg อยู่ในโค้ด และผ่านการตรวจสอบได้
ด้วยเหตุนี้ การตรวจสอบคุณภาพของข้อมูล และการพัฒนา AI ให้ได้มาตรฐานความแม่นยำ มีความปลอดภัย มีการจัดการอคติในข้อมูล ความเป็นส่วนตัว และสามารถตรวจสอบและเข้าใจได้จึงเป็นเรื่องที่จำเป็น
2. Generative Adversarial Networks
Generative Adversarial Networks หรือ GAN นั้นเป็นเทคนิคของการพัฒนา AI ที่ใช้โมเดล 2 ตัว ตัวหนึ่งคอยสร้างและพัฒนาระบบให้ดีขึ้นเรื่อยๆจนกว่าจะตอบโจทย์ และอีกตัวหนึ่งคอยประเมินการทำงานของโมเดลตัวแรกว่าผ่านเกณฑ์หรือไม่ เทคนิค GAN มีการประยุกต์ใช้ที่ก่อให้เกิดประโยชน์มากมาย แต่ก็มีการนำมาใช้เพื่อโจมตีทางไซเบอร์เช่นกัน
Tim Bandos หัวหน้าฝ่ายข้อมูลความปลอดภัยจาก Digital Guardian เล่าว่ามีการนำเทคนิค GAN นี้ไปใช้เพื่อลอกเลียนแบบ Traffic ที่ปกติเพื่อเบี่ยงเบนความสนใจของระบบออกจากการโจมตีหรือขโมยข้อมูล รวมไปถึงการสร้าง Malware ที่สามารถหลีกเลี่ยงการตรวจสอบจากระบบ AI ได้ และในขณะเดียวกันก็มีการใช้ GAN เพื่อเดาพาสเวิร์ดของระบบ ซึ่งก็มีตัวอย่างแล้วจากงานวิจัยหนึ่งที่พัฒนาระบบ PassGAN ขึ้นและสามารถเดาพาสเวิร์ดได้ดีกว่าเครื่องมืออื่นๆในชุดข้อมูลที่ใช้ทดสอบ
3. ป่วนอัลกอริทึม
อีกวิธีหนึ่งที่ AI จะถูกยกขึ้นมาใช้งาน คือการป่วนให้ AI ตัดสินใจผิดพลาด Greg Foss นักกลยุทธ์ด้านความปลอดภัยไซเบอร์จาก VMware Carbon Black เล่าถึงการโจมตีระบบซื้อขายเมื่อไม่นานมานี้ว่าผู้โจมตีได้เข้าไปทำความเข้าใจว่าบอททำการซื้อขายอย่างไร จากนั้นจึงใช้บอทเหล่านั้นในการล่อหลอกให้อัลกอริทึมตัดสินใจผิดพลาด
การป่วนเช่นนี้ไม่ใช่วิธีใหม่แต่อย่างใด แตในปัจจุบันที่ระบบพึ่งพาและยกหน้าที่การตัดสินใจที่สำคัญให้กับ AI และอัลกอริทึมมากขึ้นก็จะทำให้มีความเสี่ยงเพิ่มมากขึ้นตามเช่นกัน