ปัญญาประดิษฐ์ (Artificial Intelligence) สามารถทำหลายๆ สิ่งได้ดี แต่มันทำได้”อย่างไร”นั้นมักจะไม่ค่อยมีความชัดเจนเท่าไหร่ ซึ่งทำให้เหมือนกับเป็นปัญหา”กล่องดำ”อยู่ในปัจจุบัน โดยเฉพาะอย่างยิ่งในงานการประมวลผลภาษาธรรมชาติ (Natural Language Processing : NLP) นักวิจัยอาจต้องเสียเวลามหาศาลในการตรวจสอบว่าเกิดปัญหาอะไรขึ้นกับโมเดลที่ส่งผลลัพธ์ออกมาไม่ตรงกับที่คาดไว้ แต่ล่าสุด Google Research ได้ปล่อยงานตีพิมพ์ที่จัดการกับปัญหาดังกล่าวด้วยแพลตฟอร์มวิเคราะห์ open source ใหม่คือ Language Interpretability Tool (LIT)
LIT นั้นเป็นเครื่องมือและมีหน้าจอ User Interface (UI) ใช้งานผ่านเบราว์เซอร์เป็นหลักสำหรับทำความเข้าใจในโมเดล NLP โดยมีฟังก์ชันหลัก 5 อย่างคือ
- สามารถการอธิบายในระดับ local ต่างๆ เช่น salience map, attention และมี visualization การทำนายของโมเดลที่สวยงาม
- สามารถวิเคราะห์ผลสรุปรวบยอดออกมาเป็น metric, embedding space เป็นต้น
- สามารถปรับเปลี่ยนได้อย่างไร้รอยต่อระหว่างการทำทดสอบกับชุดที่มีสมมติฐาน ( local hypotheses) หรือว่าจะตรวจสอบกับทั้งชุด dataset เลย
- อนุญาตให้เพิ่มเติมข้อมูลเข้าไปได้ในทุกๆ เวลา และจะแสดง effect ที่เกิดขึ้นได้อย่างทันทีทันใด
- สามารถแสดงภาพเปรียบเทียบระหว่าง 2 โมเดลหรือ 2 จุดข้อมูลในหน้าจอเดียวกันได้
หน้าจอ UI ของ LIT นั้นเขียนด้วยภาษา TypeScript และสื่อสารกับ backend ที่เป็นภาษา Python ที่จะจัดการเรื่องโมเดล ชุดข้อมูล dataset และส่วนการจัดการอื่นๆ ใครสนใจเข้าไปดูรายละเอียดเพิ่มในงานตีพิมพ์และ GitHub ได้
Source : https://syncedreview.com/2020/08/17/google-introduces-nlp-model-understanding-tool/