Hugging Face ประกาศจับมือกับ Amazon Web Services (AWS) เพื่ออำนวยความสะดวกในการใช้โมเดล Machine Learning (ML) ที่ Opensource ไว้ให้ง่ายขึ้นกว่าเดิม เพื่อลดความยุ่งยากในการ Set Up และ Run ใช้งานที่ต้องพึ่งพาความเชี่ยวชาญต่าง ๆ ที่มีองค์กรจำนวนน้อยเท่านั้นที่จะทำได้
ท่ามกลางความก้าวหน้าของ Large Language Model (LLMs) ที่ดูเหมือนจะกลายเป็นมาตรฐานใหม่ของอุตสาหกรรมและวงการ AI บรรดาบริษัทยักษ์ใหญ่ต่า งๆ ก็เริ่มนำเอา LLMs มาประยุกต์ใช้ในแทบทุกสิ่ง ตามที่จะเห็นระบบมากมายเกิดขึ้นเช่นระบบช่วยเขียนอีเมลไปจนถึงเขียนโค้ดโปรแกรมซอฟต์แวร์ หรือแต่งเพลงก็ได้แล้ว
อย่างไรก็ดี การใช้งาน LLMs ได้นั้นอาจจะต้องเป็นองค์กรเทคโนโลยียักษ์ใหญ่เท่านั้น ซึ่งสิ่งนี้อาจทำให้เกิดความเหลื่อมล้ำทางเทคโนโลยีได้ เหตุนี้เอง Hugging Face ที่เดินกลยุทธ์แตกต่างออกไปจึงต้องการทำให้ผู้คนสามารถเข้าถึงโมเดล AI ที่ Opensource อยู่ได้ง่ายขึ้น ด้วยการร่วมมือกับ AWS ที่จะทำให้โมเดลที่ล้ำสมัย ใช้งานได้ง่าย และ Opensource นั้นสามารถขยายตลาดการประยุกต์ใช้ในงาน Machine Learning ได้
โดยนักพัฒนาระบบจะสามารถใช้งานเครื่องมือและ Infrastructure บน Cloud ของ Amazon เพื่อปรับแต่ง (Fine-Tune) พร้อมทั้ง Deploy ใช้งานโมเดลที่เป็น State-of-the-art ล่าสุดจาก ML Repository ของทาง Huggine Face ได้อย่างรวดเร็ว
ทั้งนี้ ทั้งสองได้ทำงานร่วมกันมาตั้งแต่ปี 2021 แล้ว โดยมี Huggine Face Deep Learning Containers (DLCs) อยู่บน SageMaker แพลตฟอร์ม ML บน Cloud ของทาง Amazon หากแต่ความร่วมมือใหม่นี้จะเป็นการขยายความพร้อมใช้งาน (Availability) ของโมเดล Hugging Face ไปสู่ผลิตภัณฑ์อื่น ๆ ของ AWS และฮาร์ดแวร์ AI accelerator บน Cloud ของ Amazon ในการเร่งความเร็วสำหรับการฝึกฝน (Training) และการอนุมาน (Inference) ได้ดีขึ้น