โมเดลพื้นฐานคืออะไร
โมเดลพื้นฐาน (FM) ที่ได้รับการฝึกฝนบนชุดข้อมูลขนาดใหญ่คือนิวรัลเน็ตเวิร์กแบบดีปเลิร์นนิงขนาดใหญ่ที่เปลี่ยนวิธีที่นักวิทยาศาสตร์ข้อมูลเข้าถึงแมชชีนเลิร์นนิง (ML) แทนที่จะพัฒนาปัญญาประดิษฐ์ (AI) ตั้งแต่เริ่มต้น นักวิทยาศาสตร์ข้อมูลจะใช้โมเดลพื้นฐานเป็นจุดเริ่มต้นในการพัฒนาแบบจำลอง ML ที่ขับเคลื่อนแอปพลิเคชันใหม่ได้รวดเร็วและคุ้มค่ายิ่งขึ้น นักวิจัยได้บัญญัติคำว่าโมเดลพื้นฐานเอาไว้เพื่ออธิบายโมเดล ML ที่ได้รับการฝึกฝนเกี่ยวกับข้อมูลทั่วไปและที่ไม่มีป้ายกำกับที่หลากหลาย และสามารถทำงานทั่วไปได้หลากหลายชนิด เช่น การทำความเข้าใจภาษา การสร้างข้อความและรูปภาพ และการสนทนาในภาษาธรรมชาติ
เอกลักษณ์ของโมเดลพื้นฐานคืออะไร
คุณลักษณะเฉพาะของโมเดลพื้นฐานคือความสามารถในการปรับตัวได้ โมเดลเหล่านี้สามารถทำงานต่างๆ ที่แตกต่างกันได้อย่างหลากหลาย โดยมีระดับความแม่นยำสูงโดยอิงตามพรอมต์อินพุต ตัวอย่างงานที่สามารถทำได้ ได้แก่ การประมวลผลภาษาธรรมชาติ (NLP) การตอบคำถาม และการจัดหมวดหมู่รูปภาพ ขนาดและลักษณะการใช้งานทั่วไปของ FM ทำให้มีความแตกต่างจากโมเดล ML แบบดั้งเดิม ซึ่งโดยทั่วไปจะทำงานเฉพาะ เช่น การวิเคราะห์ข้อความสำหรับความรู้สึก การจัดหมวดหมู่รูปภาพ และการคาดการณ์แนวโน้ม
คุณสามารถใช้โมเดลพื้นฐานเป็นโมเดลพื้นฐานสำหรับการพัฒนาแอปพลิเคชันดาวน์สตรีมเฉพาะทางเพิ่มเติมได้ โมเดลเหล่านี้เป็นผลงานชิ้นเอกของการทำงานมานานกว่าทศวรรษที่มีขนาดและความซับซ้อนเพิ่มขึ้นตามเวลา
ตัวอย่างเช่น BERT ซึ่งเป็นหนึ่งในโมเดลพื้นฐานแบบสองทิศทางรุ่นแรกๆ ที่เปิดตัวในปี 2018 ได้รับการฝึกฝนโดยใช้พารามิเตอร์ 340 ล้านตัวและชุดข้อมูลการฝึกขนาด 16 GB ในปี 2023 เพียงห้าปีต่อมา OpenAI ฝึกฝน GPT-4 โดยใช้พารามิเตอร์ 170 ล้านล้านพารามิเตอร์และชุดข้อมูลการฝึกฝน 45 GB จากข้อมูลของ OpenAI พลังการคำนวณที่จำเป็นสำหรับการสร้างโมเดลพื้นฐานเพิ่มขึ้นสองเท่าในทุกๆ 3.4 เดือนนับตั้งแต่ปี 2012 FM ในปัจจุบัน เช่น โมเดลภาษาขนาดใหญ่ (LLM) Claude 2 และ Llama 2 และโมเดลข้อความเป็นรูปภาพ Stable Diffusion จาก Stability AI สามารถทำงานด้านต่างๆ นอกกรอบซึ่งครอบคลุมไปหลายโดเมน เช่น การเขียนโพสต์ในบล็อก การสร้างภาพ การแก้ปัญหาทางคณิตศาสตร์ การมีส่วนร่วมในบทสนทนา และการตอบคำถามจากเอกสาร
เหตุใดการสร้างโมเดลพื้นฐานจึงมีความสำคัญ
โมเดลพื้นฐานมีแนวโน้มที่จะเปลี่ยนแปลงวงจรแมชชีนเลิร์นนิงอย่างมีนัยสำคัญ แม้ว่าในปัจจุบันการพัฒนาโมเดลพื้นฐานตั้งแต่เริ่มต้นจะมีค่าใช้จ่ายหลายล้านดอลลาร์ แต่ก็ถือว่ามีประโยชน์ในระยะยาว นักวิทยาศาสตร์ข้อมูลจะใช้ FM ที่ได้รับการฝึกฝนล่วงหน้าเพื่อพัฒนาแอปพลิเคชัน ML ใหม่ได้เร็วและถูกกว่า แทนที่จะฝึกโมเดล ML ที่เป็นเอกลักษณ์ตั้งแต่ต้นจนจบ
การใช้งานที่เป็นไปได้ประการหนึ่งคือการทำให้งานและกระบวนการเป็นอัตโนมัติ โดยเฉพาะอย่างยิ่งงานที่ต้องใช้ความสามารถในการให้เหตุผล ตัวอย่างการใช้งานบางส่วนสำหรับโมเดลพื้นฐานมีดังนี้
- การสนับสนุนลูกค้า
- การแปลภาษา
- การสร้างเนื้อหา
- การเขียนคำโฆษณา
- การจัดหมวดหมู่รูปภาพ
- การสร้างและแก้ไขภาพที่มีความละเอียดสูง
- การดึงข้อมูลเอกสาร
- วิทยาการหุ่นยนต์
- การดูแลสุขภาพ
- ยานยนต์อัตโนมัติ
โมเดลพื้นฐานทำอะไรได้บ้าง
แม้ว่าโมเดลพื้นฐานจะได้รับการฝึกฝนล่วงหน้ามาแล้ว แต่ก็ยังสามารถเรียนรู้ต่อไปได้จากการป้อนข้อมูลหรือพรอมต์ในระหว่างการอนุมาน ซึ่งหมายความว่าคุณจะสามารถพัฒนาผลลัพธ์ที่ครอบคลุมผ่านพรอมต์ที่ได้รับการดูแลจัดการอย่างระมัดระวัง งานที่ FM สามารถทำได้ ได้แก่ การประมวลผลภาษา ความเข้าใจด้วยภาพ การสร้างโค้ด และการมีส่วนร่วมที่มีมนุษย์เป็นศูนย์กลาง
การประมวลผลภาษา
โมเดลเหล่านี้มีความสามารถที่โดดเด่นในการตอบคำถามที่ใช้ภาษาธรรมชาติ และแม้กระทั่งความสามารถในการเขียนสคริปต์สั้นๆ หรือเขียนบทความเพื่อตอบสนองต่อคำแนะนำ นอกจากนี้ โมเดลเหล่านี้ยังสามารถแปลภาษาโดยใช้เทคโนโลยี NLP ได้อีกด้วย
ความเข้าใจภาพ
FM เก่งกาจในด้านคอมพิวเตอร์วิทัศน์ โดยเฉพาะอย่างยิ่งในเรื่องการระบุภาพและวัตถุทางกายภาพ อาจพบการใช้งานความสามารถเหล่านี้ได้ในแอปพลิเคชันต่างๆ เช่น การขับขี่อัตโนมัติและหุ่นยนต์ ความสามารถอีกอย่างหนึ่งคือการสร้างภาพจากการป้อนข้อความ ตลอดจนการแก้ไขรูปภาพและวิดีโอ
การสร้างโค้ด
โมเดลพื้นฐานสามารถสร้างโค้ดคอมพิวเตอร์ในภาษาการเขียนโปรแกรมต่างๆ ตามอินพุตภาษาธรรมชาติได้ นอกจากนี้ยังเป็นไปได้ที่จะใช้ FM เพื่อประเมินและแก้ไขโค้ด
การมีส่วนร่วมที่มีมนุษย์เป็นศูนย์กลาง
โมเดล AI ช่วยสร้างใช้อินพุตของมนุษย์เพื่อเรียนรู้และปรับปรุงการคาดการณ์ ความสามารถของโมเดลเหล่านี้ในการสนับสนุนการตัดสินใจของมนุษย์คือการปรับใช้ที่สำคัญและบางครั้งอาจถูกมองข้าม การใช้งานที่เป็นไปได้ ได้แก่ การวินิจฉัยทางคลินิก ระบบสนับสนุนการตัดสินใจ และการวิเคราะห์
ความสามารถอีกอย่างหนึ่งคือการพัฒนาแอปพลิเคชัน AI แบบใหม่โดยการปรับแต่งโมเดลพื้นฐานที่มีอยู่อย่างละเอียด
การแปลงคำพูดเป็นข้อความ
เนื่องจาก FM สามารถเข้าใจภาษา จึงสามารถใช้สำหรับงานข้อความจากคำพูดได้ เช่น การถอดเสียงและคำบรรยายวิดีโอในภาษาต่างๆ
โมเดลพื้นฐานมีการทำงานอย่างไร
โมเดลพื้นฐานเป็นรูปแบบหนึ่งของปัญญาประดิษฐ์ช่วยสร้าง (AI ช่วยสร้าง) พวกเขาสร้างเอาต์พุตจากอินพุตหนึ่งรายการขึ้นไป (พรอมต์) ในรูปแบบของคำสั่งภาษามนุษย์ โมเดลจะขึ้นอยู่กับนิวรัลเน็ตเวิร์กที่ซับซ้อน รวมถึง Generative Adversarial Network (GAN), Transformer และเครื่องเข้ารหัสแบบแปรผัน
แม้ว่าเครือข่ายแต่ละประเภทจะทำงานแตกต่างกัน แต่หลักการเบื้องหลังวิธีการทำงานก็คล้ายกันอยู่ โดยทั่วไปแล้ว FM จะใช้รูปแบบที่มีการเรียนรู้และความสัมพันธ์เพื่อทำนายรายการถัดไปในลำดับ ตัวอย่างเช่น ในการสร้างภาพ โมเดลจะวิเคราะห์รูปภาพและสร้างรูปภาพในเวอร์ชันที่คมชัดและชัดเจนยิ่งขึ้น ในทำนองเดียวกัน สำหรับข้อความ โมเดลจะคาดเดาคำถัดไปในสตริงข้อความโดยอิงตามคำก่อนหน้าและบริบทของคำนั้น จากนั้นเลือกคำถัดไปโดยใช้เทคนิคการแจกแจงความน่าจะเป็น
โมเดลพื้นฐานใช้การเรียนรู้แบบมีผู้ดูแลด้วยตนเองเพื่อสร้างป้ายกำกับจากข้อมูลอินพุต ซึ่งหมายความว่าจะไม่มีใครสอนหรือฝึกโมเดลด้วยชุดข้อมูลการฝึกแบบมีป้ายกำกับ คุณสมบัตินี้จะแยก LLM ออกจากสถาปัตยกรรม ML ก่อนหน้า ซึ่งใช้การเรียนรู้แบบมีผู้ดูแลหรือการเรียนรู้แบบไม่มีผู้ดูแล
ตัวอย่างของแบบจำลองพื้นฐานมีอะไรบ้าง
จำนวนและขนาดของโมเดลพื้นฐานในตลาดเพิ่มขึ้นอย่างรวดเร็ว ขณะนี้มีโมเดลหลายสิบรุ่นให้เลือกใช้งาน ต่อไปนี้คือรายการโมเดลพื้นฐานที่โดดเด่นซึ่งเปิดตัวตั้งแต่ปี 2018
BERT
BiDirectional Encoder Representations from Transformers (BERT) เปิดตัวในปี 2018 เป็นหนึ่งในโมเดลพื้นฐานรุ่นแรกๆ BERT เป็นโมเดลสองทิศทางที่วิเคราะห์บริบทของลำดับที่สมบูรณ์แล้วจึงทำการทำนาย ซึ่งได้รับการฝึกฝนเกี่ยวกับคลังข้อความธรรมดาและ Wikipedia โดยใช้โทเค็น (คำ) 3.3 พันล้านโทเค็น และพารามิเตอร์ 340 ล้านพารามิเตอร์ BERT สามารถตอบคำถาม คาดเดาประโยค และแปลข้อความได้
GPT
โมเดล Generative Pre-trained Transformer (GPT) ได้รับการพัฒนาโดย OpenAI ในปี 2018 ใช้ตัวถอดรหัส Transformer 12 เลเยอร์พร้อมกลไกดูแลตนเอง และได้รับการฝึกฝนเกี่ยวกับชุดข้อมูล BookCorpus ซึ่งมีนวนิยายฟรีมากกว่า 11,000 เล่ม คุณลักษณะเด่นของ GPT-1 คือความสามารถในการเรียนรู้แบบ Zero-Shot
GPT-2 เปิดตัวในปี 2019 OpenAI ฝึกฝนโดยใช้พารามิเตอร์ 1.5 พันล้านพารามิเตอร์ (เทียบกับพารามิเตอร์ 117 ล้านตัวที่ใช้ใน GPT-1) GPT-3 มีนิวรัลเน็ตเวิร์ก 96 เลเยอร์และพารามิเตอร์ 175 พันล้านพารามิเตอร์ และได้รับการฝึกโดยใช้ชุดข้อมูล Common Crawl ที่มีความยาว 500 พันล้านคำ Chatbot ChatGPT ยอดนิยมใช้ GPT-3.5 และ GPT-4 เวอร์ชันล่าสุดเปิดตัวช่วงไปแล้วปลายปี 2022 และผ่านการตรวจบาร์เครื่องแบบได้สำเร็จด้วยคะแนน 297 (76%)
Amazon Titan
Amazon Titan FM ได้รับการฝึกฝนล่วงหน้าโดยใช้ชุดข้อมูลขนาดใหญ่ ทำให้เป็นโมเดลอเนกประสงค์ที่ทรงพลัง ซึ่งสามารถใช้ได้ตามที่ตั้งค่ามาหรือจะปรับแต่งแบบส่วนตัวโดยอิงจากข้อมูลเฉพาะของบริษัทให้ทำงานแบบเฉพาะเจาะจง โดยไม่ต้องใส่คำอธิบายประกอบข้อมูลจำนวนมาก ในขั้นแรก Titan จะมีอยู่ด้วยกันสองรุ่น รุ่นแรกคือ LLM ช่วงสร้างสำหรับงานต่างๆ เช่น การสรุป การสร้างข้อความ การจัดหมวดหมู่ การถามตอบแบบปลายเปิด และการดึงข้อมูล รุ่นที่สองคือการฝัง LLM ที่แปลการป้อนข้อความซึ่งรวมถึงคำ วลี และหน่วยข้อความขนาดใหญ่ให้เป็นการแสดงตัวเลข (เรียกว่าการฝัง) ที่มีความหมายเชิงความหมายของข้อความ แม้ว่า LLM นี้จะไม่สร้างข้อความ แต่ก็ถือว่ามีประโยชน์สำหรับแอปพลิเคชัน เช่น การทำให้เป็นส่วนตัวและการค้นหา เนื่องจากโดยการเปรียบเทียบการฝัง โมเดลจะสร้างการตอบสนองที่เกี่ยวข้องและตามบริบทมากกว่าการจับคู่คำ เพื่อสนับสนุนแนวทางปฏิบัติที่ดีที่สุดในการใช้ AI อย่างมีความรับผิดชอบ Titan FM จึงถูกสร้างขึ้นเพื่อตรวจจับและลบเนื้อหาที่เป็นอันตรายในข้อมูล ปฏิเสธเนื้อหาที่ไม่เหมาะสมในอินพุตของผู้ใช้ และกรองเอาต์พุตของโมเดลที่มีเนื้อหาที่ไม่เหมาะสม เช่น คำพูดแสดงความเกลียดชัง คำหยาบคาย และความรุนแรง
AI21 Jurassic
Jurassic-1 เปิดตัวในปี 2021 เป็นโมเดลภาษาถอยหลังอัตโนมัติ 76 เลเยอร์พร้อมพารามิเตอร์ 178 พันล้านพารามิเตอร์ Jurassic-1 สร้างข้อความที่เหมือนมนุษย์และแก้ไขงานที่ซับซ้อน ประสิทธิภาพเทียบได้กับ GPT-3
ในเดือนมีนาคม 2023 AI21 Labs ได้เปิดตัว Jurassic-2 ซึ่งได้รับการปรับปรุงความสามารถด้านภาษาและการปฏิบัติตามคำสั่ง
Claude
Claude 3.5 Sonnet
โมเดลที่ชาญฉลาดและขั้นสูงที่สุดของ Anthropic คือ Claude 3.5 Sonnet แสดงให้เห็นถึงความสามารถที่ยอดเยี่ยมในงานและการประเมินที่หลากหลาย ในขณะเดียวกันก็มีประสิทธิภาพเหนือกว่า Claude 3 Opus
Claude 3 Opus
Opus เป็นโมเดลที่ชาญฉลาดสูงพร้อมประสิทธิภาพที่เชื่อถือได้ในงานที่ซับซ้อน โดยสามารถนำทางพร้อมท์แบบเปิดและสถานการณ์ที่ไม่แน่นอนด้วยความคล่องแคล่วที่น่าทึ่งและความเข้าใจที่เหมือนมนุษย์ ใช้ Opus เพื่อทำงานโดยอัตโนมัติ และเร่งการวิจัยและพัฒนาในกรณีการใช้งานและอุตสาหกรรมที่หลากหลาย
Claude 3 Haiku
Haiku เป็นโมเดลที่เร็วและกะทัดรัดที่สุดของ Anthropic เพื่อการตอบสนองที่เกือบจะทันที Haiku เป็นตัวเลือกที่ดีที่สุดสำหรับการสร้างประสบการณ์ด้าน AI ที่ราบรื่น ซึ่งเลียนแบบการมีปฏิสัมพันธ์ของมนุษย์ องค์กรต่างๆ สามารถใช้ Haiku เพื่อกลั่นกรองเนื้อหา เพิ่มประสิทธิภาพการจัดการสินค้าคงคลัง สร้างการแปลที่รวดเร็วและแม่นยำ สรุปข้อมูลที่ไม่มีโครงสร้าง และอื่นๆ อีกมาก
Cohere
Cohere มี LLM อยู่สองแบบได้แก่ แบบที่หนึ่งคือโมเดลรุ่นที่มีความสามารถคล้ายกันกับ GPT-3 และอีกแบบหนึ่งคือโมเดลการนำเสนอที่มีจุดประสงค์เพื่อการทำความเข้าใจภาษา แม้ว่า Cohere จะมีพารามิเตอร์เพียง 52 พันล้านพารามิเตอร์ แต่ก็มีประสิทธิภาพเหนือกว่า GPT-3 หลายประการ
Stable Diffusion
Stable Diffusion คือโมเดลการแปลงข้อความเป็นรูปภาพที่สามารถสร้างภาพที่ดูสมจริงและมีความละเอียดสูง ซึ่งเปิดตัวในปี 2022 และมีโมเดลการแพร่กระจายที่ใช้เทคโนโลยีการลดสัญญาณรบกวนและการลดสัญญาณรบกวนเพื่อเรียนรู้วิธีสร้างภาพ
โมเดลนี้มีขนาดเล็กกว่าเทคโนโลยีการแพร่กระจายของคู่แข่ง เช่น DALL-E 2 ซึ่งหมายความว่าไม่จำเป็นต้องใช้โครงสร้างพื้นฐานการประมวลผลที่กว้างขวาง Stable Diffusion จะทำงานบนการ์ดกราฟิกแบบปกติ หรือแม้แต่บนสมาร์ทโฟนที่มีแพลตฟอร์ม Snapdragon Gen2
อ่านเพิ่มเติมเกี่ยวกับ Stable Diffusion »
BLOOM
BLOOM คือโมเดลหลายภาษาที่มีสถาปัตยกรรมคล้ายกับ GPT-3 ซึ่งได้รับการพัฒนาในปี 2022 จากความร่วมมือระหว่างนักวิทยาศาสตร์กว่าพันคนและทีมงานของ Hugging Space โมเดลนี้มีพารามิเตอร์ 176 พันล้านพารามิเตอร์ และการฝึกฝนใช้เวลาสามเดือนครึ่งโดยใช้ GPU Nvidia A100 จำนวน 384 ตัว แม้ว่าจุดตรวจสอบของ BLOOM จะต้องใช้พื้นที่เก็บข้อมูล 330 GB แต่จะทำงานบนพีซีแบบสแตนด์อโลนที่มี RAM ขนาด 16 GB BLOOM สามารถสร้างข้อความใน 46 ภาษา และเขียนโค้ดในภาษาโปรแกรม 13 ภาษา
Hugging Face
Hugging Face คือแพลตฟอร์มที่มีเครื่องมีโอเพนซอร์สให้คุณใช้ในการสร้างและปรับใช้โมเดลแมชชีนเลิร์นนิง ซึ่งจะทำหน้าที่เป็นศูนย์กลางชุมชน และนักพัฒนาสามารถแบ่งปันและสำรวจโมเดลและชุดข้อมูลได้ คุณสามารถสมัครเป็นสมาชิกได้แบบไม่มีค่าใช้จ่าย แม้ว่าการสมัครสมาชิกแบบชำระเงินจะให้การเข้าถึงในระดับที่สูงกว่าก็ตาม คุณมีสิทธิ์เข้าถึงแบบจำลองเกือบ 200,000 รายการและชุดข้อมูล 30,000 ชุดแบบสาธารณะ
ความท้าทายของโมเดลพื้นฐานมีอะไรบ้าง
โมเดลพื้นฐานสามารถตอบสนองต่อพรอมต์ในหัวข้อที่ไม่ได้รับการฝึกฝนได้อย่างชัดเจนได้ แต่โมเดลเหล่านี้ก็ยังมีจุดอ่อนอยู่บ้าง ความท้าทายบางประการที่โมเดลพื้นฐานต้องเผชิญมีดังนี้
- ข้อกำหนดด้านโครงสร้างพื้นฐาน การสร้างโมเดลพื้นฐานตั้งแต่เริ่มต้นมีราคาสูงและต้องใช้ทรัพยากรมหาศาล และการฝึกฝนอาจใช้เวลาหลายเดือน
- การพัฒนาฟรอนต์เอนด์ นักพัฒนาจำเป็นต้องรวมโมเดลพื้นฐานเข้ากับชุดซอฟต์แวร์สำหรับการใช้งานจริง รวมถึงเครื่องมือสำหรับวิศวกรรมด้านพรอมต์ การปรับแต่งอย่างละเอียด และวิศวกรรมไปป์ไลน์
- ขาดความเข้าใจอย่างถ่องแท้ แม้ว่าโมเดลจะสามารถให้คำตอบที่ถูกต้องตามหลักไวยากรณ์และตามข้อเท็จจริงได้ แต่โมเดลพื้นฐานก็ยังคงมีปัญหาในการเข้าใจบริบทของพรอมต์อยู่ และโมเดลเหล่านี้จะไม่ได้ตระหนักถึงด้านสังคมหรือจิตใจ
- คำตอบที่ไม่น่าเชื่อถือ คำตอบสำหรับคำถามบางเรื่องอาจมีความไม่น่าเชื่อถือและอาจไม่เหมาะสม เป็นพิษภัย หรือไม่ถูกต้องในบางครั้ง
- มีอคติ โมเดลอาจมีอคติได้อย่างชัดเจน เนื่องจากโมเดลสามารถรับคำพูดแสดงความเกลียดชังและแฝงที่ไม่เหมาะสมจากชุดข้อมูลการฝึกฝนได้ เพื่อหลีกเลี่ยงปัญหานี้ นักพัฒนาควรกรองข้อมูลการฝึกฝนอย่างระมัดระวัง และเข้ารหัสบรรทัดฐานเฉพาะลงในโมเดลของตน
AWS สามารถช่วยคุณได้อย่างไร
Amazon Bedrock คือวิธีที่ง่ายที่สุดในการสร้างและปรับขนาดแอปพลิเคชันแบบใช้ AI ช่วยสร้างด้วยโมเดลพื้นฐาน Amazon Bedrock เป็นบริการที่มีการจัดการเต็มรูปแบบซึ่งทำให้โมเดลพื้นฐานจาก Amazon และบริษัทสตาร์ทอัพ AI ชั้นนำพร้อมใช้งานผ่าน API ดังนั้นคุณจึงสามารถเลือกจาก FM ต่างๆ เพื่อค้นหาโมเดลที่เหมาะสมที่สุดสำหรับกรณีการใช้งานของคุณ การใช้งาน Bedrock จะทำให้คุณสามารถเร่งการพัฒนาและปรับใช้แอปพลิเคชัน AI ช่วยสร้างที่ปรับขนาดได้ เชื่อถือได้ และปลอดภัย โดยไม่ต้องจัดการโครงสร้างพื้นฐาน
Amazon SageMaker JumpStart ซึ่งเป็นฮับ ML ที่มีโมเดล อัลกอริทึม และโซลูชัน จะมอบการเข้าถึงโมเดลพื้นฐานหลายร้อยโมเดล รวมถึงโมเดลพื้นฐานที่มีประสิทธิภาพสูงสุดที่เผยแพร่ต่อสาธารณะ มีการเพิ่มโมเดลพื้นฐานเข้ามาใหม่อย่างต่อเนื่อง ได้แก่Llama 2, Falcon และ Stable Diffusion XL 1.0