Anthropic ขยายขนาด Claude 2.1 รองรับได้ถึง 2 แสนโทเคน แซงหน้า GPT-4 ไปเกือบเป็นสองเท่า

0

ล่าสุด Anthropic ได้เปิดตัว Claude 2.1 ออกมา โดยเป็นการอัปเกรดโมเดล LLM ให้สามารถรองรับกรอบบริบท (Context Window) ที่สามารถประมวลผลได้ในเวลาหนึ่งได้ใหญ่ขึ้นกว่าเดิม โดยเวอร์ชันล่าสุดนี้ สามารถรองรับได้ถึง 2 แสนโทเคน (Token) ในขณะที่ GPT-4 ปัจจุบันรองรับได้ที่ 120,000 โทเคนเท่านั้น

ความสามารถใหม่นี้เกิดขึ้นได้จากความร่วมมือกับทาง Google ที่ทำให้ Anthropic สามารถเข้าถึงอุปกรณ์ฮาร์ดแวร์ที่มีประสิทธิภาพในการประมวลผลได้มากขึ้น จึงส่งให้ผลโมเดล Claude สามารถรองรับการจัดการบริบทได้กว้างขึ้นกว่าเดิมอย่างมีนัยสำคัญ

เบื้องต้น การขยาย Context Window ไปถึง 2 แสนโทเคนนี้ได้ทำให้ Claude 2.1 สามารถเข้าใจข้อมูล Prompt ได้ยาวขึ้นกว่า GPT-4 ราว 50% ก่อนที่ประสิทธิภาพจะค่อย ๆ ต่ำลงไป อีกทั้ง Anthropic ยังเผยว่าในเวอร์ชัน 2.1 นี้ได้พยายามลดอาการหลอน (hallucination) ลงไปราว ๆ 50% เมื่อเทียบกับเวอร์ชัน 2.0 ด้วย

คงต้องติดตามต่อไปว่าพัฒนาการของ Claude 2.1 นี้ จะทำให้สามารถแข่งขันกับ GPT-4 ทั้งเรื่องความถูกต้องแม่นยำ และเรื่องอาการหลอนได้มากน้อยแค่ไหน หากแต่ Claude 2.1 ณ ตอนนี้มีให้บริการเฉพาะลูกค้าที่ Subscribe ในเวอร์ชัน Claude Pro เท่านั้น หากใช้เวอร์ชันฟรีก็จะยังคงเป็น Claude 2.0 อยู่

ที่มา: https://www.artificialintelligence-news.com/2023/11/22/anthropic-upsizes-claude-2-1-to-200k-tokens-nearly-doubling-gpt-4/