ทีมวิจัยม.โซล พัฒนา AI ระบายสีรูปภาพ สั่งผ่านตัวหนังสือ

0

สำหรับนักวาดคนไหนที่ประสบปัญหาวาดเส้นแล้วเกิดขี้เกียจลงสีขึ้นมากระทันหัน ระบบ AI “Tag2Pix” จากมหาวิทยาลัยโซลอาจช่วยคุณได้ ด้วยการสั่งการง่ายๆผ่านตัวอักษร

กลุ่มวิจัยจากมหาวิทยาลัยโซลได้ทำการพัฒนา AI ระบายสี Tag2Pix ขึ้นผ่านเทคโนโลยี Deep Learning ที่เรียกว่า Generative Adversarial Network (GAN) โดยในการใช้งาน ผู้ใช้สามารถป้อนคำสั่งตัวอักษรที่ประกอบไปด้วยแท็ก เช่น blonde_hair, purple_eyes, red_shirt เพื่อให้เจ้า AI ตัวนี้นำไปประมวลผลเพื่อระบายสีในส่วนต่างๆของลายเส้นที่วาดไว้

การทำงานตามคำสั่งตัวอักษรนี้นับเป็นวิธีการใหม่ในระบบ AI ระบายสี โดยก่อนหน้านี้เราได้เห็น AI ที่สามารถระบายสีตามที่มนุษย์ได้ระบาบางส่วนเป็นแนวทางไว้ (User-guided colorization) เช่นระบบใน PaintsChainer Project และ AI ที่สามารถระบายสีรูปใหม่โดยเรียนรู้จากโทนสีของภาพต้นแบบ (Style-transfer) เช่นระบบ Style2Paints

อย่างไรก็วิธีทั้งสองนั้นต้องการ Input ที่ค่อนข้างยุ่งยาก กล่าวคือ มนุษย์ต้องระบายสีเป็นตัวอย่างให้ AI ใน User-guided colorization และผู้ใช้ต้องหารูปต้นแบบเพื่อระบายสีอีกรูปหนึ่งใน Style-transfer อีกทั้งยังต้องใช้กำลังในการประมวลผลมาก Tag2Pix จึงเข้ามาเป็นทางเลือกที่ง่ายกว่า ใช้กำลังการประมวลผลน้อยกว่า และพร้อมไปด้วยกลไกเพิ่มเติมที่ทำให้ระบบทำงานได้เร็วและละเอียดยิ่งขึ้น

เปเปอร์ของ Tag2Pix สรุปผลลัพธ์ของระบบด้วยการสำรวจความคิดเห็นของผู้คน 20 คนต่อคุณภาพของงานที่ออกมาในด้านการแบ่งสี ความเป็นธรรมชาติ ความแม่นยำตามคำสั่ง และคุณภาพโดยรวม ผลปรากฏว่า Tag2Pix นั้นได้รับเสียงโหวตว่าทำงานได้ดีกว่า AI ตัวอื่นๆที่ยกมาเปรียบเทียบ

เปรียบเทียบการทำงานของ Tag2Pix กับระบบ PaintsChainer (User-guided colorization) และ Style2Paint (Style-transfer)

สำหรับผู้ที่สนใจ ทีมวิจัยก็ได้เปิด Open Source โค้ดทั้งหมดของระบบไว้ใน Github ให้เข้าไปศึกษากันได้