เมื่อวันพุธที่ 1 พฤษภาคมที่ผ่านมา Anthropic ได้เปิดตัวแอปพลิเคชันบน iOS สำหรับใช้งาน Claude ซึ่งเป็นแชทบอท Generative AI ที่มีจุดขายอยู่ที่การพัฒนาที่มุ่งเน้นไปที่ความปลอดภัยของการใช้งาน โดยเปิดแอปนี้ให้ใช้งานสำหรับทั้งผู้ใช้ฟรีและจ่ายเงิน
Anthropic เป็นบริษัทเทคโนโลยี AI ที่ถูกก่อตั้งโดยพนักงานเก่าจาก OpenAI ที่ไม่พอใจกับแนวปฏิบัติด้านความปลอดภัยของ OpenAI ในขณะนั้น พวกเขามีโมเดล Generative AI ที่เผยมาสู่สายตาชาวโลกแล้ว 3 กลุ่ม ได้แก่ Claude Opus, Claude Sonnet, และ Claude Haiku ซึ่งแตกต่างกันไปตามความสามารถ ความเร็ว และการรองรับข้อมูลที่ประมวลผลได้
โดยในแอปพลิเคชัน Claude เวอร์ชัน iOS นี้ หากเป็นผู้ใช้ฟรีทั่วไปก็จะได้ใช้งาน Claude Sonnet และหากเป็นผู้ใช้ Pro ก็จะให้บริการโดย Calude Opus ซึ่งนอกจากแผนฟรีและ Pro แล้ว Anthropic ยังได้เปิดตัวแผน Team ที่สามารถใช้งานและแบ่งปันข้อมูลร่วมกันได้อีกด้วย
แล้วความปลอดภัยของ Claude ที่ Anthropic ใช้เป็นจุดขายคืออะไร? Anthropic นั้นวางกลยุทธ์ในการพัฒนา AI ที่เชื่อถือได้ อธิบายได้ และควบคุมได้ โดยพวกเขาใช้เครื่องมือที่เรียกว่า Constitutional AI ซึ่งประกอบไปด้วยหลักการด้านความปลอดภัย 77 ข้อ ที่จะคอยควบคุมการตอบกลับและการประมวลผลของ Claude หลักการเหล่านี้ถูกกลั่นกรองออกมาจากหลักการหลายๆอย่าง เช่น หลักการสิทธิมนุษยชนสากลและข้อกำหนดของอุตสาหกรรม
แอปพลิเคชัน Claude เปิดให้ดาวน์โหลดแล้ววันนี้สำหรับผู้ใช้ iOS ทั่วโลก โดย Anthropic กล่าวว่าเวอร์ชันแอนดรอยด์นั้นจะเปิดตัวเร็วๆนี้ตามหลังมา
ที่มา:
Cover Photo: Anthropic