นักวิจัยจาก University of Maine กำลังพยายามสร้าง AI ที่ตีความได้

0

AI ที่สามารถอธิบายการได้มาซึ่งคำตอบหรือการตัดสินใจนั้นเป็นหนึ่งโจทย์ใหญ่ที่ยังคงรอการค้นหา ด้วยการจะนำ AI หรือ Machine Learning ไปใช้ในเรื่องสำคัญๆนั้น ระบบจะต้องมีความโปร่งใส ตรวจสอบออดิทได้ ทั้งเพื่อป้องกันข้อผิดพลาด และในกรณีการสืบสวนความรับผิดชอบเมื่อเกิดความผิดพลาดขึ้น Chaofan Chen จาก University of Maine เป็นนักวิจัยรายหนึ่งที่สนใจศึกษาในประเด็นนี้

จุดมุ่งหมายของ Chaofan Chen คือการเพิ่มความโปร่งใสให้กับระบบ Deep Learning ด้วยการพัฒนาระบบที่สามารถตีความกระบวนการได้ Chen เริ่มการศึกษาเมื่อครั้งยังเป็นนักศึกษาปริญญาเอก ณ มหาวิทยาลัย Duke ด้วยการร่วมกับนักวิจัยรายอื่นๆพัฒนาสถาปัตยกรรม Machine Learning ที่ชื่อว่า ProtoPNet ที่สามารถจำแนกชนิดของนกจากภาพถ่าย และบอกเหตุผลได้ว่าทำไมภาพนั้นจึงเป็นภาพของนกชนิดนั้นๆ

ProtoPNet ทำงานด้วยการเปรียบเทียบส่วนประกอบของภาพถ่ายของนกในโจทย์กับภาพถ่ายตัวอย่างของนกชนิดต่างๆว่ามีความคล้ายคลึงกันหรือไม่ ทำให้เมื่อได้คำตอบมา ก็จะสามารถอธิบายคำตอบได้ว่าเป็นเพราะความคล้ายของลักษณะต่างๆที่ประกอบขึ้นเป็นตัวนกนั่นเอง

และเมื่อ Chen ได้เข้าร่วมงานกับทีมของ University of Maine หลังสำเร็จการศึกษา พวกเขาก็ได้ลองนำ ProtoPNet นี้มาใช้งานกับภาพเอ็กซ์เรย์ทรวงอก (Mammogram) ที่ใช้ในการตรวจสอบมะเร็งเต้านม ทว่า ProtoPNet กลับทำงานได้ไม่ดีนัก

Chen เชื่อว่า ProtoPNet ทำงานได้ไม่ดีเพราะระบบดังกล่าวขาดความรู้ความเข้าใจในแบบที่แพทย์มี เป้าหมายต่อไปของเขาและผู้ร่วมงานจึงเป็นการพัฒนาให้ระบบนี้สามารถจับจุดสำคัญในภาพที่เป็นสัญญาณบ่งบอกถึงมะเร็งเต้านม และประเมินภาพแมมโมแกรมแบบที่แพทย์ทำได้ โดยทีมวิจัยของ Chen ประกอบไปด้วยผู้เชี่ยวชาญด้านวิทยาศาสตร์คอมพิวเตอร์ และผู้เชี่ยวชาญด้านรังสีวิทยา

การจำแนกประเภทของสิ่งของและอธิบายเหตุผลนั้นเป็นหนึ่งในสิ่งที่มนุษย์สามารถทำได้อย่างไม่ยากเย็นและทำอยู่เสมอในชีวิตประจำวัน ทว่าเมื่อมาอยู่ในคอมพิวเตอร์แล้ว กลับกลายเป็นงานมีความซับซ้อนที่ต้องพัฒนาอีกมาก และงานของ Chaofan Chen ก็เป็นหนึ่งในก้าวเล็กๆในเส้นทางของเป้าหมายนี้