กว่าจะพัฒนา AI เพื่อการวินิจฉัยได้สักโมเดลหนึ่งนั้นไม่ใช่เรื่องง่าย เพราะต้องอาศัยข้อมูลมหาศาล และคนต้องมาเสียเวลาระบุ Label ข้อมูลเพื่อใช้ฝึก AI
แต่ล่าสุดมีโมเดล AI ตัวใหม่ชื่อ CheXzero ที่สามารถเรียนรู้ได้เองจากรายงานทางการแพทย์ที่ผู้เชี่ยวชาญได้เขียนเป็นภาษาธรรมชาติ โดยไม่ต้องลงแรงไปกับการระบุข้อมูลฝึกที่ทั้งเสียเวลาและเสียเงินทุนอีกต่อไป
ทีมนักวิจัยจาก Harvard Medical School ได้ฝึกโมเดล CheXzero จากชุดข้อมูลผลตรวจ X-ray มากกว่า 377,000 ชุด และผลรายงานที่เกี่ยวข้องอีกกว่า 227,000 ชุด ซึ่งทำให้ระบบเชื่อมโยงประเภทภาพ X-ray เข้ากับรายงานบันทึกที่มีอยู่แล้ว แทนที่จะเรียนรู้จากข้อมูลแบบมีโครงสร้างที่คนต้องมาระบุ Label เอง
โมเดล CheXzero ได้ถูกนำมาทดสอบร่วมกับชุดข้อมูลต่างกันจากสถาบัน 2 แห่งที่ไม่ได้อยู่ในประเทศเดียวกัน เพื่อตรวจสอบว่า โมเดลดังกล่าวสามารถจับคู่ผล X-ray กับบันทึกผลการตรวจได้หรือไม่แม้ว่ารายงานจะมีคำศัพท์ที่ใช้ต่างกันออกไป
ผลวิจัยพบว่า โมเดลนี้สามารถระบุโรคต่าง ๆ เช่น ปอดบวม ปอดแฟบ รอยโรค ได้มีประสิทธิภาพมากกว่า Self-supervised AI Model ซึ่งก็คือมีความแม่นยำใกล้เคียงกับนักรังสีวิทยาแล้ว
นี่จึงเป็นครั้งแรกที่โมเดล AI เรียนรู้จากข้อความแบบไม่มีโครงสร้างและทำงานได้อย่างมีประสิทธิภาพเช่นเดียวกับนักรังสีวิทยา อีกทั้งยังสามารถคาดการณ์โรคอื่น ๆ จากผล X-ray ได้ด้วยความแม่นยำระดับสูง
โค้ดของโมเดลนี้ได้เผยแพร่บน Github แก่นักวิจัยที่สนใจที่จะนำไปประยุกต์ใช้กับ CT Scan, MRI และการตรวจคลื่นไฟฟ้าหัวใจ เพื่อช่วยตรวจวินิจฉัยร่างกายส่วนอื่นได้ ไม่ใช่แค่เฉพาะผล X-ray ช่วงทรวงอกเท่านั้น
ผู้ที่สนใจสามารถดูโค้ดโมเดลดังกล่าวได้ที่นี่ และอ่านงานวิจัยฉบับเต็มได้ที่นี่