Научитесь работать с Amazon EMR, Amazon Redshift, Amazon Kinesis, Amazon Athena и другими платформами AWS, предназначенными для обработки больших данных и создания сред для работы с ними

Учебный курс знакомит с облачными решениями AWS для больших данных, такими как Amazon EMR, Amazon Redshift, Amazon Kinesis и другие платформы AWS для работы с большими данными. Мы покажем, как использовать сервис Amazon EMR для обработки данных с помощью разнообразных инструментов Hadoop, например Hive и Hue. Вы научитесь создавать среды больших данных, работать с сервисами Amazon DynamoDB, Amazon Redshift, Amazon QuickSight, Amazon Athena и Amazon Kinesis, а также применять рекомендации по проектированию безопасных и экономичных сред больших данных.

Уровень

Средний

Форма проведения

обучение Classroom, практические занятия

Продолжительность

3 дня

Этот курс предназначен для:

  • архитекторов решений;
  • администраторов SysOps;
  • специалистов по работе с данными;
  • специалистов по анализу данных.

В этом курсе изучаются следующие темы.

  • Подбор решений AWS для использования в системах обработки больших данных
  • Использование Apache Hadoop в контексте Amazon EMR
  • Определение компонентов кластера Amazon EMR, запуск и настройка кластера Amazon EMR
  • Использование для сервиса Amazon EMR распространенных программных платформ, например Hive, Pig и Streaming
  • Повышение удобства использования Amazon EMR с помощью интерфейса Hadoop User Experience (Hue)
  • Использование анализа в памяти с помощью Apache Spark на Amazon EMR
  • Выбор подходящих решений для хранения данных на AWS
  • Определение преимуществ использования Amazon Kinesis для обработки больших данных в режиме, близком к реальному времени
  • Эффективное хранение и анализ данных с помощью Amazon Redshift
  • Анализ расходов и уровня безопасности решений в сфере больших данных, а также управление этими аспектами
  • Определение вариантов сбора, передачи и сжатия данных
  • Использование преимуществ Amazon Athena для спонтанных аналитических запросов
  • Использование AWS Glue для рабочих нагрузок по автоматическому извлечению, преобразованию и загрузке (ETL)
  • Использование ПО визуализации для отображения данных и очередей с помощью Amazon QuickSight.
Для прохождения данного курса рекомендуется иметь следующую подготовку.
 
  • Знакомство с технологиями работы с большими данными, включая Apache Hadoop, Hadoop Distributed File System (HDFS) и запросы SQL/NoSQL
  • Пройденный Digital-курс Big Data Technology Fundamentals или аналогичный опыт работы
  • Практический опыт работы с основными сервисами AWS и внедрения решений на основе публичного облака
  • Пройденный курс AWS Technical Essentials или аналогичный опыт работы
  • Понимание принципов хранения данных, систем реляционных баз данных и проектирования баз данных

Этот курс включает следующие формы обучения:

  • обучение Classroom;
  • практические занятия;

Этот курс позволяет применить новые навыки и знания в рабочей среде при выполнении разнообразных практических упражнений.

Big Data Thumbnail

Перейти на aws.training