Научитесь работать с Amazon EMR, Amazon Redshift, Amazon Kinesis, Amazon Athena и другими платформами AWS, предназначенными для обработки больших данных и создания сред для работы с ними.

Из настоящего курса вы узнаете об облачных решениях AWS для больших данных, таких как Amazon EMR, Amazon Redshift, Amazon Kinesis, и других возможностях платформы AWS для работы с большими данными. Мы покажем, как использовать сервис Amazon EMR для обработки данных с помощью разнообразных инструментов Hadoop, например Hive и Hue. Вы научитесь создавать среды больших данных, работать с сервисами Amazon DynamoDB, Amazon Redshift, Amazon QuickSight, Amazon Athena и Amazon Kinesis, а также применять рекомендации по проектированию безопасных и экономичных сред больших данных.

Уровень

Средний

Форма проведения

Аудиторное обучение и практикумы

Продолжительность

3 дня

Настоящий курс предназначен для:

  • архитекторов решений
  • администраторов SysOps
  • исследователей данных
  • аналитиков данных

Из настоящего курса вы узнаете, как:

  • встраивать решения AWS в систему для обработки больших данных
  • использовать Apache Hadoop в контексте Amazon EMR
  • определять компоненты кластера Amazon EMR с последующим запуском и настройкой кластера Amazon EMR
  • использовать для сервиса Amazon EMR распространенные программные платформы, например Hive, Pig и Streaming
  • повысить удобство использования Amazon EMR с помощью интерфейса Hadoop User Experience (Hue)
  • использовать анализ в памяти с помощью Apache Spark на Amazon EMR
  • выбрать подходящие решения для хранения данных на AWS
  • определить преимущества использования Amazon Kinesis для обработки больших данных в режиме, близком к реальному времени
  • использовать Amazon Redshift для эффективного хранения и анализа данных
  • понять и контролировать расходы и уровень безопасности решений в сфере больших данных
  • определить варианты сбора, передачи и сжатия данных
  • использовать Amazon Athena для аналитики специальных запросов
  • использовать AWS Glue для автоматизации рабочих нагрузок ETL (извлечение, преобразование и загрузка)
  • использовать ПО визуализации для отображения данных и запросов с помощью Amazon QuickSight
Рекомендуемые требования к слушателям курса:
 
  • знакомство с технологиями работы с большими данными, включая Apache Hadoop, Hadoop Distributed File System (HDFS) и запросы SQL/NoSQL
  • пройденный онлайн-курс Big Data Technology Fundamentals (Основы технологий больших данных) или аналогичный опыт работы
  • опыт работы с основными сервисами AWS и внедрение решений на основе публичного облака
  • пройденный курс AWS Technical Essentials (Технические основы AWS) или аналогичный опыт работы;
  • понимание принципов хранения данных, систем реляционных баз данных и проектирования баз данных

Настоящий курс включает следующие формы обучения:

  • аудиторное обучение
  • практикумы

Настоящий курс позволяет опробовать полученные навыки и знания в рабочей среде при выполнении разнообразных практических заданий.

Big Data Thumbnail

Перейти на aws.training