AMD เปิดตัว “AMD Instinct MI300 Series” สำหรับงาน HPC และ Generative AI ได้สมรรถนะสูงขึ้น

0

จากงาน AMD Advancing AI วันนี้ทาง AMD ได้เปิดตัวชิปหน่วยประมวลผลสำหรับ Data Center ในกลุ่มผลิตภัณฑ์ AMD Instinct MI300 Series อย่างเป็นทางการแล้ว เพื่อที่จะเร่งความเร็วในการรันโซลูชัน AI ภายใน Data Center ได้อย่างมีประสิทธิภาพมากขึ้น โดย 2 รุ่นที่ AMD เปิดตัวจะทำให้การใช้งานระบบสมรรถนะสูง (HPC) หรืองานด้าน Generative AI หรือ LLM แบบต่าง ๆ ภายใน Data Center นั้นมีประสิทธิภาพสูงขึ้นอย่างมีนัยสำคัญ

Generative AI กำลังเป็นที่ต้องการใน Data Center อย่างมาก

หลังจาก ChatGPT ได้ทำให้ Generative AI เป็นกระแสหลักของโลกในช่วงปีที่ผ่านมา จึงได้ทำให้ Data Center ยุคใหม่มีความต้องการที่จะสนับสนุนการรัน Workload ที่เป็น Generative AI อย่างมหาศาล ซึ่ง AMD ที่มีผลิตภัณฑ์หน่วยประมวลผลในหลากหลายแบบ ได้เปิดตัวออกมาหน่วยประมวลผลใหม่ในกลุ่ม Instinct สำหรับ Data Center สำหรับงานด้าน AI ถึง 2 ตัว

โดย AMD Instinct คือหน่วยประมวลผลของ AMD สำหรับ Data Center ที่มีการใส่ GPU เข้าไปเพื่อสนับสนุนงาน HPC และ AI ได้ดีขึ้น ซึ่ง AMD ที่ได้เปิดตัวรุ่น MI100 และสถาปัตยกรรม CDNA ที่เป็น AI Accelerator ออกมาในปี 2020 เป็นครั้งแรก และล่าสุดภายในงาน AMD Advancing AI วันนี้ ทาง AMD ได้เปิดตัว Instinct และ CDNA ในรุ่นล่าสุด MI300 Series และ CDNA 3 โดย 2 รุ่นนี้จะมุ่งเน้นในงานที่แตกต่างกันไป ได้แก่ 

AMD Instinct MI300X มุ่งเน้นงาน Generative AI หรือ AI Workload หนัก ๆ  

AMD Instinct MI300X นั้นเป็นหน่วยประมวลผลที่ใช้สถาปัตยกรรม CDNA 3 เป็นแกนหลัก ซึ่งมีประสิทธิภาพสูงกว่ารุ่นก่อนหน้าราว 40% ในการประมวลผล และมีหน่วยความจำ (Memory) ที่จุได้มากขึ้นกว่าเดิมถึง 1.5 เท่า พร้อมกับรองรับแบนด์วิดท์หน่วยความจำ (Memory Bandwidth) ในทางทฤษฎีที่สูงสุด (Peak) ได้มากขึ้นกว่าเดิมถึง 1.7 เท่าอยู่ที่ 5.3 เทระไบต์ต่อวินาที (TB/s) 

ทั้งหมดนี้ออกแบบมาให้ Instinct MI300X สามารถสนับสนุนการรัน Generative AI หรือ โมเดล LLMs แบบต่าง ๆ ที่ขนาดทั้งใหญ่ขึ้นและซับซ้อนมากขึ้นเรื่อย ๆ ได้ดีขึ้นกว่าเดิม สามารถรับ AI Workload หนัก ๆ ได้ดี แถมด้วยการออกแบบที่เป็น Stack จะทำให้สามารถใช้พลังงานได้อย่างมีประสิทธิภาพดีขึ้นอีกด้วย

โดยตัวเลขที่ AMD แสดงให้เห็นถึงประสิทธิภาพผ่าน “AMD Instinct Platform” ที่ใช้ AMD Instinct MI300X จำนวน 8 ตัวเพื่อให้ได้หน่วยความจำ HBM3 ถึง 1.5 TB นั้น ได้ทำให้การรรันงาน Generative AI ไม่ว่าจะเป็นการ Training หรือ Inference ในหลากหลายรูปแบบนั้นมีประสิทธิภาพสูงกว่า NVIDIA H100 HGX ไปพอสมควรทีเดียว 

AMD Instinct MI300A ชิปตัวแรกที่มาพร้อม APU

สำหรับ AMD Instinct MI300A นั้นจะอิงสถาปัตยกรรม CDNA 3 เช่นกัน แต่เรียกได้ว่าเป็น Accelerated Processing Unit (APU) ตัวแรกของโลก ที่มุ่งเน้นเพื่องาน HPC โดยเฉพาะมากกว่า AI โดยมีจุดเด่นคือ “มีหน่วยความจำสำหรับ CPU และ GPU ใช้งานได้ร่วมกัน (Shared Memory)” ทำให้ไม่จำเป็นต้องคัดลอก (Copy) ข้อมูลเพื่อส่งต่อประมวลผลไปมาระหว่าง CPU และ GPU แบบรุ่นก่อนหน้า ซึ่งทำให้ประสิทธิภาพดีขึ้นในขณะที่เรื่องการใช้พลังงานยังคงมีประสิทธิภาพสูงสุดสำหรับงาน HPC ต่าง ๆ หรือการ Training โมเดล AI ด้วย

สำหรับ AMD Instinct MI300A จะเน้นในจุดเด่นที่ APU ที่จะได้เปรียบทั้งเรื่องหน่วยความจำสำหรับ CPU และ GPU ที่แชร์กัน และการใช้พลังงานได้อย่างมีประสิทธิภาพมากกว่า พร้อมทั้งเรื่องความง่ายในการเขียนโปรแกรมมากกว่าบนแพลตฟอร์ม GPU จึงทำให้สามารถเทรน AI ได้เร็วขึ้นและใช้พลังงานได้คุ้มค่ามากกว่า ซึ่ง El Capitan คือเครื่อง Supercomputer สำหรับงานวิจัยด้านวิทยาศาสตร์นั้นได้เลือกใช้ AMD Instinct MI300A APU อยู่ภายใน ซึ่งคาดว่าจะสามารถเป็นเครื่อง Supercomputer ที่เร็วระดับ 2 exaflop ตัวแรกของโลกได้

บทส่งท้าย

เรียกว่าเป็นช่วงเวลาของ Generative AI โดยแท้จริง ที่ตลาด Data Center ต้องรีบปรับตัวให้สามารถสนับสนุนรองรับ AI Workload ให้มีประสิทธิภาพที่ดีขึ้น โดยเฉพาะโมเดล Generative AI แบบต่าง ๆ ซึ่งหน่วยประมวลผลที่สามารถรองรับ AI Workload หนัก ๆ ได้อย่าง AMD ที่เปิดตัว AMD Instinct MI300 Series ออกมาวันนี้ น่าจะเป็นอีกกุญแจสำคัญที่จะพลิกโฉมหน่วยประมวลผลภายใน Data Center ไม่ว่าจะเป็น Cloud หรือว่า Enterprise Server ตลอดจน Supercomputer นั้นอาจจะต้องเปลี่ยนแปลงหรือเพิ่มเติมเข้าไปอย่างเร่งด่วนแล้ว