Образы AWS Deep Learning AMI

Быстро создавайте масштабируемые и безопасные приложения для глубокого обучения в предварительно настроенной среде

Масштабирование распределенного тренинга машинного обучения (ML) на тысячи ускоренных инстансов и беспрепятственное развертывание моделей для получения результатов в производстве.

Разрабатывайте на ускорителях, включая графические процессоры AWS Trainium, AWS Inferentia и NVIDIA, с использованием новейших драйверов, платформ, библиотек и инструментов.

Сокращение рисков с помощью настроенных, стабильных образов машин, регулярно исправляемых для устранения уязвимостей безопасности.

Как это работает

Глубокое обучение AWS AMI (DLAMI) предоставляет специалистам по машинному обучению и исследователям проверенные безопасные наборы платформ, зависимостей и инструментов для ускорения глубокого обучения на Amazon EC2. Образы машин Amazon (AMI), созданные для Amazon Linux и Ubuntu, предварительно сконфигурированы с использованием драйверов и библиотек TensorFlow, PyTorch и NVIDIA CUDA, а также Intel MKL, интерфейса эластичной матрицы (EFA) и плагина AWS OFI NCCL, что позволяет быстро развертывать и запускать эти платформы и инструменты в любом масштабе.

Схема, демонстрирующая как можно запустить DLAMI с помощью Консоли управления AWS, интерфейса командной строки (CLI) AWS, AWS SDK, AWS API, локального терминала или скриптов приложения

Примеры использования

Разработка автономных транспортных средств

Разрабатывайте расширенные модели машинного обучения в любом масштабе для безопасной разработки технологий автономных транспортных средств (AV), проверяя модели с использованием миллионов поддерживаемых виртуальных тестов.

Обработка естественного языка

Ускорьте установку и настройку инстансов AWS и ускорьте проведение экспериментов и оценки с помощью современных платформ и библиотек, в том числе преобразователей Hugging Face.

Анализ данных для здравоохранения

Используйте расширенную аналитику, машинное обучение и глубокое обучение, чтобы выявлять тенденции и составлять прогнозы на основе необработанных разрозненных данных о состоянии здоровья.

Ускоренное обучение моделей

DLAMI включает в себя новейшие возможности ускорения графического процессора NVIDIA с использованием предварительно настроенных драйверов, библиотеки Intel Math Kernel Library (MKL), пакетов Python и платформы Anaconda.

Истории успеха клиентов

Bazaarvoice

Компания Cimpress вкладывает средства в создание и развитие ориентированных на клиента предпринимательских компаний, занимающихся массовым изготовлением печатной продукции по индивидуальным заказам, в долгосрочной перспективе. Благодаря Cimpress заказчики могут легко и недорого произвести впечатление – на своих клиентов, организацию или близких. Неважно, идет ли речь о рекламных материалах, усиливающих бренд компании, или об извещении в честь рождения ребенка – Cimpress предлагает клиентам сочетать желаемую персонализацию с ощутимым впечатлением от физической продукции.

«Cimpress использует Глубокое обучение AWS AMI для быстрой настройки и развертывания наших сред машинного обучения. Благодаря использованию DLAMI снижаются производственные затраты, и мы можем быстрее выводить наши продукты на рынок, сосредоточившись на основной работе по обучению и внедрению наших моделей глубокого обучения для компьютерного зрения и генеративного ИИ».

Аджай Джоши, главный инженер-программист – Cimpress

Bazaarvoice

Flip AI – это первая встроенная платформа обеспечения наблюдаемости на базе генеративного искусственного интеллекта, которая работает независимо от данных и платформ, какими бы ни были их форма и формат, включая метрики, события, журналы и маршруты, а также выполняет прогнозную аналитику и анализ первопричин инцидентов за считанные секунды.

«Мы обучили большие языковые модели (LLM) для DevOps отлаживать инциденты, связанные с производительностью, для того чтобы предприятия могли предоставлять клиентам услуги наивысшего качества. Для этого обучения необходимо настроить параметры высокой производительности, что не вызывает затруднений. Благодаря глубокому обучению AWS AMI (DLAMI) не нужно прилагать усилий к управлению драйверами CUDA или средствами оптимизации Pytorch. Все просто работает. Повышение процентного коэффициента использования графического процессора указывает на то, что мы можем более эффективно обучать наши модели и экономить 10 миллисекунд на логический вывод».

Сунил Маллья, технический директор Flip AI

С чего начать

Научитесь ускорять обучение моделей

Узнайте о том, как DLAMI может ускорить разработку и обучение модели.

Изучите AMI

Выберите AMI и тип инстанса, наиболее подходящие для проекта.

Пройдите практическое обучение

Начните разработку с помощью 10-минутных учебных пособий.


Подробнее об AWS