Модели Meta Llama 3.1 8B и 70B теперь доступны для тонкой настройки в Amazon Bedrock

Проведено: 28 окт. 2024 г.

Amazon Bedrock теперь поддерживает тонкую настройку моделей Meta Llama 3.1 70B и 8B, что позволяет компаниям настраивать эти модели генеративного искусственного интеллекта на основе собственных данных. Модели Llama 3.1 значительно улучшены по сравнению с предыдущими версиями, в том числе благодаря длине контекста 128K (в 16 раз больше, чем у Llama 3), что позволяет получать доступ к большим объемам информации из длинных отрывков текста и обрабатывать их. С помощью тонкой настройки можно адаптировать модели Llama 3.1 к задачам, специфичным для предметной области, что повысит производительность модели в специализированных случаях использования.

Согласно Meta, модели Llama 3.1 отлично подходят для многоязычного диалога на восьми языках и демонстрируют улучшенные рассуждения. Модель Llama 3.1 70B идеальна для создания контента, использования разговорного ИИ, понимания языков, проведения исследований и работы с корпоративными приложениями. Она отлично справляется с такими задачами, как суммирование текста, классификация текста, анализ настроений, тонкие рассуждения, языковое моделирование, диалоговые системы, генерация кода и следование инструкциям. Модель Llama 3.1 8B лучше всего подходит для сценариев с ограниченными вычислительными мощностями и ресурсами. Она отлично справляется с суммированием и классификацией текста, анализом настроений и переводом языка, обеспечивая при этом вывод с низкой задержкой. Выполнив тонкую настройку моделей Llama 3.1 в Amazon Bedrock, компании могут еще больше расширить свои возможности для работы со специализированными приложениями, повышая точность и релевантность без необходимости создавать модели с нуля.

Модели Llama 3.1 в Amazon Bedrock можно тонко настроить в регионе AWS Запад США (Орегон). Чтобы узнать цены, посетите страницу цен Amazon Bedrock. Для начала работы ознакомьтесь с руководством пользователя по Bedrock.