Llama 3.3 70B พร้อมใช้งานบน AWS ผ่าน Amazon SageMaker JumpStart แล้ว
ขณะนี้ลูกค้า AWS สามารถเข้าถึง Llama 3.3 รุ่น 70B จาก Meta ได้ผ่าน Amazon SageMaker JumpStart Llama 3.3 รุ่น 70B ปรับให้ประสิทธิภาพที่สูงกับประสิทธิภาพในการคำนวณสมดุลกัน นอกจากนี้ยังให้คุณภาพเอาต์พุทที่เทียบได้กับ Llama เวอร์ชันขนาดใหญ่ แต่ใช้ทรัพยากรน้อยลงอย่างมีนัยสำคัญ ทำให้เป็นตัวเลือกที่ยอดเยี่ยมสำหรับการนำ AI ไปใช้จริงให้คุ้มทุน
Llama 3.3 70B มีกลไกการให้ความสนใจที่ปรับปรุงให้ดีกว่าเดิมซึ่งช่วยลดค่าใช้จ่ายในการอนุมานได้อย่างมาก โมเดลได้รับการฝึกโดยใช้โทเค็นประมาณ 15 ล้านล้านรายการ ซึ่งรวมถึงเนื้อหาที่คัดมาจากเว็บและตัวอย่างสังเคราะห์ต่างๆ ด้วย นอกจากนี้ยังได้รับการปรับแต่งอย่างละเอียดและได้รับการเรียนรู้แบบเสริมแรงจากข้อเสนอแนะของมนุษย์ (RLHF) อย่างครอบคลุม แนวทางนี้ช่วยปรับให้เอาต์พุทมีความใกล้เคียงกับความต้องการของมนุษย์ยิ่งขึ้น โดยที่ยังคงรักษามาตรฐานด้านประสิทธิภาพไว้ในระดับสูง จากข้อมูลของ Meta ประสิทธิภาพที่เพิ่มขึ้นนี้ส่งผลให้การดำเนินการอนุมานคุ้มทุนมากขึ้นเกือบ 5 เท่า ทำให้เป็นตัวเลือกที่น่าสนใจสำหรับการนำไปใช้จริงในการทำงานจริง
ลูกค้าสามารถนำ Llama 3.3 70B ไปใช้จริงผ่านอินเทอร์เฟซผู้ใช้ SageMaker JumpStart หรือด้วยการเขียนโปรแกรมโดยใช้ SageMaker Python SDK ความสามารถในการอนุมานขั้นสูงของ SageMaker AI ช่วยเพิ่มทั้งประสิทธิภาพในการทำงานและความคุ้มทุนสำหรับการนำไปใช้จริงของคุณ ช่วยให้คุณใช้ประโยชน์จากประสิทธิภาพที่ Llama 3.3 70B มีอยู่ได้อย่างเต็มที่ โดยในขณะเดียวกันก็ได้รับประโยชน์จากกระบวนการนำไปใช้จริงที่คล่องตัว
Llama 3.3 รุ่น 70B พร้อมให้บริการใน AWS Region ทุกแห่งที่มี Amazon SageMaker AI หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับการนำ Llama 3.3 70B ไปใช้จริงบน Amazon SageMaker JumpStart โปรดดูเอกสารประกอบหรืออ่านบล็อก