Generative AI กลายเป็นกระแสที่ได้รับความสนใจอย่างมาก แต่หลาย ๆ องค์กรอาจมองข้ามความเสี่ยงในการนำ AI มาใช้งานจริง เพราะโมเดล AI ไม่ได้เชื่อถือได้หรือมั่นคงปลอดภัยเสมอไป
ADPT ขอพาทุกท่านไปรู้จัก AI TRiSM คำสำคัญที่ Gartner ได้กล่าวถึงในช่วงไม่กี่ปีที่ผ่านมา
AI TRiSM คืออะไร? ทำไมองค์กรควรสร้าง AI TRiSM ในโมเดล AI ที่ใช้งาน? มาเรียนรู้แนวคิด AI TRiSM ได้ในบทความนี้ค่ะ
AI TRiSM คืออะไร?
AI TRiSM ย่อมาจากคำว่า Artificial Intelligence Trust, Risk & Security Management ซึ่งเป็นแนวทางเฟรมเวิร์กที่ออกแบบมาเพื่อจัดการเรื่องธรรมาภิบาลของโมเดล AI เพื่อให้องค์กรมั่นใจว่าระบบ AI ทำงานอย่างถูกต้อง มีความน่าเชื่อถือ โปร่งใส เป็นธรรม และมั่นคงปลอดภัย
เพราะการเข้าถึง AI แบบเสรีนำมาซึ่งความเสี่ยงต่าง ๆ ที่กระทบต่อองค์กร เช่น
- Hallucination หรือ การมโนข้อมูลขึ้นมาเองจากข้อมูลที่มีอคติ
- Deepfake หรือ การสร้างคอนเทนต์ปลอมขึ้นมาเพื่อบิดเบือนข้อมูล
- Data privacy หรือ ความเป็นส่วนตัวของข้อมูล
- Copyright issues หรือ ปัญหาด้านลิขสิทธิ์
- Cybersecurity concerns หรือ ข้อกังวลด้านความมั่นคงปลอดภัยไซเบอร์
ปัญหาเหล่านี้ทำให้ต้องมีการกำหนดกลยุทธ์สำหรับจัดการด้านความน่าเชื่อถือ ความเสี่ยง และการรักษาความปลอดภัยอย่างเร่งด่วนและชัดเจนมากยิ่งขึ้น นั่นจึงเป็นที่มาของ AI TRiSM เพื่อแก้ปัญหาความกังวลต่าง ๆ ที่เกิดจากการใช้งาน AI ในวงกว้าง
โดย Gartner คาดการณ์ว่า ภายในปี 2026 องค์กรที่ใช้การควบคุม AI TRiSM จะเพิ่มความแม่นยำในการตัดสินใจ โดยกำจัดข้อมูลผิดพลาดและผิดกฎหมายได้มากถึง 80%
ทำไมองค์กรควรมี AI TRiSM?
AI ที่องค์กรใช้งานอยู่อาจไม่ได้เชื่อถือได้เสมอไป และหากคุณเป็นหนึ่งในผู้ที่ยังไม่แน่ใจว่า AI TRiSM จำเป็นหรือไม่ Gartner ได้แนะนำให้พิจารณาถึง 6 ปัจจัย ดังต่อไปนี้
1. คนส่วนใหญ่อธิบายไม่ได้ว่า AI คืออะไร ช่วยงานอะไรได้บ้าง
ผู้ใช้ AI ควรเข้าใจรายละเอียดของโมเดลการทำงานของ AI เข้าใจจุดแข็งจุดอ่อนของโมเดล แนวโน้มพฤติกรรมและอคติที่อาจเกิดขึ้น
ดังนั้น ผู้พัฒนา AI จึงควรทำให้กระบวนการฝึกโมเดล AI โปร่งใส โดยการเปิดเผยแหล่งชุดข้อมูลที่ใช้ฝึกและวิธีการที่ใช้เลือกชุดข้อมูล ซึ่งช่วยลดอคติที่อาจจะเกิดขึ้นได้
2. ใคร ๆ ก็เข้าถึง ChatGPT และเครื่องมือ Generative AI อื่น ๆ ได้
เมื่อ GenAI เป็นเครื่องมือที่ใคร ๆ ก็ใช้ได้ นั่นย่อมนำมาซึ่งความเสี่ยงไซเบอร์รูปแบบใหม่ที่เครื่องมือ Cybersecurity เดิม ๆ อาจตรวจจับไม่พบ และความน่ากลัวคือ ความเสี่ยงที่มาจากแอปพลิเคชัน Generative AI บนระบบคลาวด์นับวันยิ่งทวีความรุนแรงมากขึ้น
3. เครื่องมือ AI จากภายนอกอาจนำมาซึ่งความเสี่ยงด้านการรักษาความลับของข้อมูล
เมื่อองค์กรรับนำโมเดล AI จากผู้ให้บริการภายนอกมาใช้ในองค์กร ก็อาจมีความเสี่ยงจากข้อมูลความลับองค์กรที่เข้าไปอยู่ในโมเดล AI ของผู้อื่นด้วยเช่นกัน
4. โมเดลและแอปพลิเคชัน AI ต้องได้รับการตรวจสอบอยู่สม่ำเสมอ
กระบวนการจัดการความเสี่ยงเฉพาะต้องเข้าไปผนวกรวมอยู่ใน AI Model Operations (ModelOps) เพื่อให้ AI ปฏิบัติตามแนวทางได้ถูกต้อง ปราศจากอคติ และมีจริยธรรม ซึ่งองค์กรเองจำเป็นต้องพัฒนาโซลูชันปรับแต่งขึ้นสำหรับ AI Pipeline ภายใน และต้องมีการควบคุมตรวจสอบอยู่อย่างต่อเนื่องผ่านการพัฒนาโมเดลและแอปพลิเคชัน การทดสอบและการนำไปใช้งานตลอดทั้งกระบวนการ
5. ต้องใช้วิธีการใหม่ ๆ ในการตรวจจับและหยุดการโจมตี AI จากผู้ไม่หวังดี
การโจมตีไซเบอร์ต่อ AI สร้างความเสียหายให้กับองค์กรได้หลายรูปแบบ ทั้งเรื่องการเงิน ชื่อเสียง หรือเกี่ยวข้องกับทรัพย์สินทางปัญญา ข้อมูลส่วนบุคคล หรือข้อมูลที่เป็นกรรมสิทธิ์
ดังนั้น องค์กรควรเพิ่มการควบคุมและแนวทางปฏิบัติเฉพาะทางสำหรับการทดสอบ ตรวจสอบ และปรับปรุงเวิร์กโฟลว์การใช้ AI ให้แข็งแกร่ง ให้พิเศษนอกเหนือจากการควบคุมที่ใช้สำหรับแอปอื่น ๆ โดยทั่วไป
6. จะมีการออกกฎระเบียบควบคุมการปฏิบัติตามข้อกำหนดในไม่ช้า
หลาย ๆ ประเทศอย่างในอเมริกาเหนือ จีน และอินเดีย เริ่มออกกฎระเบียบที่ใช้จัดการความเสี่ยงต่าง ๆ ของแอปพลิเคชัน AI แล้ว ดังนั้น องค์กรควรเตรียมความพร้อมที่จะปฏิบัติตามกฎระเบียบเหล่านั้น ไม่ใช่แค่เรื่องการปกป้องความเป็นส่วนตัวเท่านั้น แต่ควรเตรียมการตั้งแต่เนิ่น ๆ เพื่อให้สอดคล้องกับกฎระเบียบต่าง ๆ ที่อาจประกาศใช้งานในอนาคต
สรุป
AI TRiSM เป็นแนวทางการจัดการความน่าเชื่อถือ ความเสี่ยง และความมั่นคงปลอดภัยของปัญญาประดิษฐ์ ซึ่งจะช่วยรับประกันธรรมาภิบาลของโมเดล AI ความน่าเชื่อถือ ความเป็นธรรม ความแข็งแกร่ง ประสิทธิภาพ และการคุ้มครองข้อมูล
องค์กรที่มีการบริหารจัดการการใช้ AI ให้มีความโปร่งใส อธิบายได้ มั่นคงปลอดภัย และตรวจสอบได้ตลอดเวลานั้นจะส่งผลให้เกิดความเชื่อมั่นต่อ AI จากผู้ใช้งานทั้งภายในและนอกองค์กร ซึ่ง Gartner คาดว่า องค์กรทั่วโลกจะยกให้ AI TRiSM เป็นมาตรฐานใหม่ในอีก 2-5 ปีต่อจากนี้
แหล่งอ้างอิง
- Gartner: https://www.gartner.com/en/information-technology/glossary/ai-trism
- Gartner: https://www.gartner.com/en/newsroom/press-releases/2023-04-20-why-trust-and-security-are-essential-for-the-future-of-generative-ai
- Gartner: https://www.gartner.com/en/articles/what-it-takes-to-make-ai-safe-and-effective