กว่า AI อย่าง ChatGPT จะสามารถเขียนภาษาอังกฤษเป็นภาษาที่พอเข้าใจได้ ต้องอาศัยชุดข้อมูลภาษานับล้านล้านคำ แต่ทำไมเด็ก ๆ ที่ได้รับข้อมูลภาษาเพียงแค่เสี้ยวเดียวนั้น พอถึงอายุ 3 ขวบ ก็สามารถใช้ภาษาที่ซับซ้อนขึ้นสื่อสารได้แล้ว?
ทีมนักวิจัยจาก New York University จึงตั้งคำถามว่า AI จะเรียนรู้แบบเด็กทารกได้หรือไม่ แล้วโมเดล AI จะเป็นอย่างไรถ้าได้รับชุดข้อมูลขนาดเล็กลง เหมือนที่เด็ก ๆ เจอในแต่ละวัน
ทีมนักวิจัยเก็บข้อมูลจากวิดีโอ 61 ชั่วโมง จากกล้องที่ติดตั้งบนหมวกนิรภัยสวมศีรษะเด็กน้อยชาวออสเตรเลียที่ชื่อ Sam โดย Sam ก็สวมกล้องตัวนี้ ถอดเข้าถอดออกอยู่ตลอดระยะเวลา 1 ปีครึ่ง ตั้งแต่ตอนอายุ 6 เดือน จนถึง 2 ขวบ
กล้องนี้จับภาพสิ่งที่ Sam กำลังจดจ้องมองและสนใจ เปรียบเสมือนหน้าต่างการเรียนรู้จากมุมมองของเด็ก โดยใช้เวลาเพียงแค่ 1% ในช่วงเวลาที่เขาตื่น
ทีมนักวิจัยใช้เฟรมวิดีโอ 600,000 ภาพ จับคู่กับประโยคที่พ่อแม่หรือบุคคลรอบข้างของ Sam พูด (ประมาณ 37,500 ประโยค) เพื่อฝึกโมเดลดังกล่าว ซึ่งวัตถุในภาพกับคำพูดก็จับคู่กันได้บ้างไม่ได้บ้าง
Credit: WAI KEEN VONG via MIT Technology Review
ความยากก็คือ ในเฟรมวิดีโอเดียวกัน อาจมีวัตถุหลายสิ่งในเฟรมเดียว ทำให้การจับคู่ความหมายกับภาพเป็นเรื่องยากขึ้นกว่าเดิม รวมไปถึงความยากในการสอนให้ AI มี Common sense ซึ่งเป็นสัญชาตญาณการเรียนรู้แต่กำเนิดของเด็ก แต่ AI ยังขาดอยู่
สิ่งที่ทีมนักวิจัยต้องศึกษาต่อไปคือ จะทำอย่างไรให้การเรียนรู้ของโมเดล AI ใกล้เคียงกับการเรียนรู้ภาษาแรกเริ่มของเด็ก เพื่อให้เทียบเท่ากับความสามารถของเด็กวัย 2 ขวบ ซึ่งนั่นก็อาจหมายถึงการป้อนข้อมูลมากขึ้นนั่นเอง หรืออาจเก็บข้อมูลอย่างอื่น เช่น การปฏิสัมพันธ์ของเด็กกับพ่อแม่ เป็นต้น
ท้ายที่สุดแล้ว คำถามที่แท้จริงอาจไม่ใช่วัดว่า ใครฉลาดกว่ากัน แต่เป็นการค้นหาความสามารถในการเรียนรู้ เข้าใจความหมาย ตอบสนองต่อประสบการณ์ใหม่ ๆ เพราะเป้าหมายที่แท้จริง คือ การพัฒนา AI ให้เข้าใกล้ความฉลาดของมนุษย์นั่นเอง
ผู้ที่สนใจสามารถอ่านงานวิจัยได้ที่นี่