ปัญญา (Intelligence) นั้นอาจถูกนิยามด้วยความสามารถในการนำแพทเทิร์นการให้เหตุที่เรียนรู้มาจากสถานการณ์ในอดีตมาแก้ปัญหาตรงหน้า ภายใต้นิยามนี้ ความฉลาดของมนุษย์ก็สามารถถูกวัดได้ด้วยบททดสอบ IQ ที่เราคุ้นเคยกันดี แต่สำหรับปัญญาประดิษฐ์แล้ว เราสามารถวัดปัญญาของมันผ่านหลักการเดียวกันได้หรือไม่ AI ฉลาดจริงๆหรือแค่มีความจำที่ดีเลิศเท่านั้น? ระบบทดสอบใหม่ที่ถูกพัฒนาโดย DeepMind อาจตอบคำถามนี้ได้
Alpha Go ที่เป็นเลิศในเกมโกะ และระบบปัญญาประดิษฐ์ที่สามารถวินิจฉัยโรคได้อย่างแม่นยำคือ 2 ตัวอย่างของปัญญาประดิษฐ์ในปัจจุบันที่ถูกพัฒนาขึ้นเพื่อแก้ปัญหาที่เฉพาะเจาะจง ซึ่งแม้ AI สองตัวนี้จะเป็นเลิศในงานที่มันทำเพียงใด ก็อาจพูดได้ไม่เต็มปากนักว่ามัน”ฉลาด”และ”คิดเป็น” เพราะในขณะที่ระบบเหล่านี้สามารถวางแผนการเล่นล่วงหน้าได้หลายร้อยแบบ หรือค้นหาความผิดปกติได้ในไม่กี่พิกเซล มันอาจไม่สามารถตอบคำถามง่ายๆทั่วไปได้เลยด้วยซ้ำ
ก้าวต่อไปของการพัฒนาปัญญาประดิษฐ์จึงเป็นการพัฒนาปัญญาประดิษฐ์สารพัดประโยชน์ หรือที่เรียกกันว่า Artificial General Intelligence ที่สามารถอาศัยความเก่งจากการแก้ปัญหาหนึ่งไปใช้แก้อีกปัญหาหนึ่งได้ ซึ่งในช่วง 2-3 ปีให้หลัง เราได้เห็นระบบ AI ที่ทำงานได้เก่งและมีการให้เหตุผลเป็นของตัวเองกันมากขึ้นเรื่อยๆ อย่าง AI ที่ประดิษฐ์”ภาษา”ในการสื่อสารของตัวเองขึ้นเพื่อการทำงานภายใน หรือแม้แต่ปัญญาประดิษฐ์ที่สามารถโต้วาทีได้
คำถามก็คือ AI นั้นเก่งแค่ไหนในการยกแนวคิดจากปัญหาหนึ่งไปแก้ปัญหาอื่น (generalisation)
ทีม DeepMind พยายามตอบคำถามนี้ด้วยการพัฒนาระบบทดสอบที่จะวัดความสามารถในการสรุปแนวคิดและนำไปใช้ต่อยอดของ AI ซึ่งเป็นไปด้วยหลักการเดียวกับข้อสอบวัด IQ ของมนุษย์
เราอาจไม่รู้ตัวว่าในการทำแบบทดสอบ IQ อย่างการค้นหารูปที่ขาดหายไปในลำดับรูปที่เรียงกันอยู่ มนุษย์มีการใช้กระบวนการคิดขั้นสูงเพื่อค้นหาแบบแผน (pattern) และการให้เหตุผลเพื่อนำแบบแผนนั้นมาแก้ปัญหา เป็นต้นว่าจากรูปที่ 1 ไปยังรูปที่ 2 และ 3 นั้นมีรูปแบบความเปลี่ยนแปลงอย่างไร แล้วจึงนำแบบแผนนั้นมาจินตนาการถึงรูปที่ 4 ที่ขาดหายไป
ในทำนองเดียวกัน ระบบของ DeepMind ก็จะสร้างคำถามด้วยปัจจัยนามธรรม เช่น ความสัมพันธ์ (relationship เช่น ความเปลี่ยนแปลง – สามเหลี่ยมหมุน 90° ในทุกๆขั้นตอน) และองค์ประกอบ (attribute เช่น สี ขนาด) ซึ่งจะประกอบกันเป็นชุดคำถามเชาว์ เช่น การค้นหาภาพต่อไปในชุดภาพ ซึ่งมีความเปลี่ยนแปลงที่ขึ้นอยู่กับทั้งรูปร่าง สี ตัวเลข และ”สิ่งรบกวน” ดังภาพด้านล่าง
คำถามเหล่านี้มีลักษณะคล้ายคำถามในแบบทดสอบ IQ ของมนุษย์ ทว่ามีความซับซ้อนและปัจจัยให้คิด รวมไปถึงองค์ประกอบรบกวน(เช่นเส้นต่างๆ)มากกว่า เพื่อสร้างความมั่นใจว่าคำตอบที่ออกมานั้นจะออกมาจากการให้เหตุผลจริง ไม่ใช่เพียงเพราะความจำหรือความสามารถในการมองหาแพทเทิร์นรูปร่างที่ดีเยี่ยมของระบบ AI
จากการลองนำโมเดลปัญญาประดิษฐ์ที่โดดเด่นในปัจจุบันมาทดสอบในระบบวัดผลนี้ DeepMind พบว่าปัญญาประดิษฐ์ส่วนใหญ่นั้นทำได้ดี และโมเดลที่มีความแม่นยำในการทำงานสูงนั้นก็จะได้คะแนนสูงในแบบทดสอบนี้ด้วย
นอกจากนี้ ทีม DeepMind ยังได้เผยแพร่ชุดข้อมูลในการ train 1.2 ล้านคำถาม ที่จะสอนการให้เหตุผลให้แก่ AI ซึ่งพบว่าหลังจากที่โมเดล AI ได้เรียนรู้ด้วยวิธีดังกล่าวแล้ว พวกมันสามารถทำข้อสอบ IQ ได้ดีขึ้น
อย่างไรก็ตาม ผลงานระบบวัด IQ ปัญญาประดิษฐ์นี้ก็ได้ชี้ให้เห็นถึงปัญหาของ generalised AI ในปัจจุบัน ที่ยังไม่ฉลาดรอบด้านอย่างแท้จริง ดังเช่นในกรณีของ
Wild Relation Network (WReN) ระบบ neural network ที่มีผลงานดีที่สุดในปัจจุบัน แต่ประสบปัญหาในการตอบปัญหาวัด IQ ที่มีองค์ประกอบ (attribute) ที่ระบบไม่เคยพบมาก่อนในการ train ซึ่งการไม่สามารถให้เหตุผลอย่างรอบด้านเช่นนี้ ก็ยังคงเป็นความท้าทายที่นักวิจัยปัญญาประดิษฐ์จะต้องค้นหาวิธีที่ดีกว่าเดิมขึ้นมาต่อสู้กันต่อไปในอนาคต
ที่มา: