หลังจากองค์กรเริ่มเร่งติดสปีดการปรับใช้ AI ในธุรกิจมากยิ่งขึ้น ล่าสุด Google และ Hugging Face ได้ประกาศความร่วมมือเชิงกลยุทธ์ (Strategic Partnership) ที่จะช่วยสนับสนุนให้นักพัฒนาระบบมีวิธีการที่คล่องตัวขึ้นในการเร่งพัฒนาแอป Generative AI ได้บนบริการของ Google Cloud
ภายใต้ความร่วมมือนี้ ทีมที่ใช้โมเดล Open Source จาก Hugging Face นั้นจะสามารถเทรน และให้บริการได้ผ่าน Google Cloud อย่างสะดวกยิ่งขึ้น นั่นหมายความว่า ผู้ใช้ Hugging Face จะสามารถเข้าถึงทรัพยากรต่าง ๆ ที่ Google Cloud มีในการสร้างต่อยอด AI ได้ ไม่ว่าจะเป็น Vertex AI, TPUs หรือว่า GPUs เป็นต้น
“จากงานตีพิมพ์ในเรื่องโมเดล Transformers ต้นฉบับ มาจนถึง T5 และ Vision Transformer ทาง Google ถือว่าอยู่ในระดับชั้นแนวหน้าของความคืบหน้าในเรื่อง AI รวมทั้งงานวิจัยด้านวิทยาศาสตร์ต่าง ๆ และด้วยความร่วมมือใหม่นี้ พวกเราจะทำให้ผู้ที่ใช้งาน Hugging Face และลูกค้า Google Cloud มีความสะดวกในการใช้ประโยชน์จากโมเดลที่ Open Source ล่าสุด ผ่านโครงสร้างพื้นฐาน AI และเครื่องมือต่าง ๆ ในการสร้างโมเดล AI ของตัวเอง” CEO แห่ง Hugging Face คุณ Clement Delangue กล่าว
โดยผู้ใช้ Hugging Face หลายพันรายที่ใช้งานอยู่บน Google Cloud อยู่แล้วนั้นจะสามารถเทรน (Train) ปรับจูน (Tune) และให้บริการ (Serve) โมเดลที่พัฒนาขึ้น ด้วย Vertex AI แพลตฟอร์ม MLOps แบบ End-To-End ในการสร้างแอปพลิเคชัน Generative AI แบบใหม่ ๆ ขึ้นมาได้อย่างสะดวกและคล่องตัว
ด้วยประสบการณ์การใช้งานที่ใช้ไม่กี่คลิกจากแพลตฟอร์ม Hugging Face ก็สามารถปรับเปลี่ยนตัวเลือกในการเทรนและใช้งาน (Deploy) โมเดยภายใน Google Kubernetes Engine (GKE) ได้เลย ซึ่งแนวทางนี้จะทำให้นักพัฒนาระบบสามารถนำ Workload ขึ้นโครงสร้างพื้นฐานที่สร้างขึ้นด้วยตัวเองและขยาย (Scale) โมเดลด้วย Deep Learning Container ที่ปรับแต่งมาเพื่อ Hugging Face โดยเฉพาะบน GKE
อย่างไรก็ดี ประสบการณ์ดังกล่าวทางบริษัทคาดว่าน่าจะเริ่มให้ผู้ใช้งาน Hugging Face Hub ใช้งานได้ภายในช่วงครึ่งปี 2024 นี้
ที่มา: https://venturebeat.com/ai/hugging-face-teams-up-with-google-to-accelerate-open-ai-development/