รายงาน Tenable ชี้ Generative AI กำลังเปลี่ยนแปลงงานวิจัยด้าน Security

0

Tenable ผู้ให้บริการโซลูชันบริหารจัดการช่องโหว่ (Vulnerability Management) ล่าสุดได้เผยแพร่รายงานใหม่ที่แสดงให้เห็นว่าทีมงานวิจัยกำลังทดลองใช้งานโมเดล Large Language Model (LLMs) และ Generative AI เพื่อยกระดับงานวิจัยด้าน Security แล้ว

ภายในงานวิจัยนั้นมุ่งเน้นไปที่ 4 แบบใหม่ที่ออกแบบมาเพื่อช่วยให้ทีมนักวิจัยสามารถปรับปรุงกระบวนการต่าง ๆ ให้มีประสิทธิภาพมากขึ้น ไม่ว่าจะเป็นกระบวนการวิศวกรรมย้อนกลับ (Reverse Engineering) การวิเคราะห์ช่องโหว่ (Vulnerability Analysis) การดีบักโค้ดและความมั่นคงปลอดภัยของเว็บแอปพลิเคชัน (Code Debugging and Web Application Security) และการค้นหาการตั้งค่าบนคลาวด์ที่ผิดพลาด (Cloud-based Misconfiguration)

โดยเครื่องมือเหล่นี้ได้มีเปิดเผยไว้บน GitHub เป็นที่เรียบร้อย ซึ่งเป็นการแสดงให้เห็นถึงศักยภาพของเครื่องมือ Generative AI อย่าง ChatGPT นั้นสามารถดำเนินการในบทบาทที่สำคัญในกรณีเชิงป้องกัน (Defensive) โดยเฉพาะอย่างยิ่งเมื่อถึงขั้นตอนที่จะต้องวิเคราะห์โค้ด และแปลภาษาให้กลายเป็นภาษามนุษย์ที่อธิบายให้เข้าใจได้ ดังนั้นบรรดาผู้ป้องกันระบบจะสามารถเข้าใจว่าโค้ดทำงานอย่างไร และมีโอกาสที่จะเป็นช่องโหว่อย่างไรได้ดีขึ้นกว่าเดิม

“Tenable ได้ใช้งาน LLMs เพื่อสร้างเครื่องมือเหล่านี้ที่จะสามารถเร่งกระบวนการต่าง ๆ ได้เร็วขึ้น และช่วยให้การค้นหาช่องโหว่ได้เร็วขึ้นและมีประสิทธิภาพที่ดีขึ้น” รายงานกล่าว “ในขณะที่เครื่องมือเหล่านี้อาจจะยังไกลกว่าที่จะสามารถทดแทนวิศวกร Security ได้ แต่เครื่องมือก็สามารถเป็นเสมือนตัวช่วยสำคัญและช่วยลดงานที่ต้องใช้แต่แรงกายจำนวนมาก ๆ และงานซับซ้อนบางส่วนที่ต้องใช้นักวิจัยที่มีประสบการณ์”

ภายใน GitHub นั้นจะเห็นว่ามีเครื่องมือมากมายที่ทาง Tenable เริ่มเอา LLMs มาปรับใช้ในงานด้านต่าง ๆ ซึ่งเครื่องมือที่น่าสนใจนั้น เช่น

  • G-3PO สคริปต์สำหรับการทำ Reverse Engineering ใน Ghidra เครื่องมือที่ช่วยแยกส่วนโค้ดและ (Disassemble) แล้วถอดรหัส (Decompile) ให้กลายเป็น “อะไรบางอย่างคล้ายกับ Sourcecode” ในภาษา C Programming Language
  • BurpGPT Extension เสริมสำหรับ Burp Suite เครื่องมือสำหรับทดสอบแอปพลิเคชัน ที่ใช้ GPT ในการวิเคราะห์ HTTP Request และ Response ได้ ซึ่ง Tenable โน้ตว่า BurpGPT นี้สามารถช่วยค้นหาช่องโหว่ Cross Site Scripting (XSS) และการตั้งค่า HTTP Header ที่ผิดพลาดได้แล้วด้วย
  • EscalateGPT เครื่องมือภาษา Python ที่ใช้งาน GPT ค้นหาการตั้งค่า Identity Access and Management (IAM) Policy ที่ผิดพลาดบน AWS อันมีโอกาสที่จะทำให้เกิดช่องโหว่ Privilege Escalation ได้

ทั้งนี้ Tenable ยังมีเครื่องมือแบบอื่น ๆ อีกหลายตัวที่ปล่อยให้เข้ามาศึกษาในเชิงวิจัยได้บน GitHub และสำหรับผู้ที่สนใจรายงานฉบับเต็มจากทาง Tenable สามารถอ่านได้ที่นี่

ที่มา: https://venturebeat.com/security/tenable-report-shows-how-generative-ai-is-changing-security-research/