Category: Events*


Amazon FreeRTOS 소개 – 마이크로콘트롤러 기반 IoT 운영 체제

ReadWrite.com에서 “IoT 디바이스의 수가 2021년에는 200%까지 급증“한다는 제목의 뉴스 기사에서 두 가지 사실이 고무적이었습니다. 첫 번째는 “연구자들은 IoT 기술의 급증으로 새로운 문제가 발생한다고 경고했습니다. 특히 최종 사용자와 공급업체 모두에 대한 대규모 IoT 배포가 문제가 될 것입니다.” 두 번째는 보안 문제가 증가할 수 있다는 대목이었습니다.

이 기사에서 언급한 이슈를 해결 하기 위해 AWS 클라우드에 손쉽게 연결할 수 있는 안전한 운영 체제를 갖춘 저비용의 효율적인 마이크로컨트롤러를 사용하여 멋진 IoT 솔루션을 만들 수 있다는 아이디어를 통해 기술 개발 단계에 있는 Amazon FreeRTOS를 소개합니다.

Amazon FreeRTOS는 마이크로컨트롤러 기반 엣지 디바이스의 개발, 보안, 배포 및 유지 관리를 간소화하는 IoT 마이크로컨트롤러 운영 체제입니다. Amazon FreeRTOS는 인기 있는 운영 체제인 FreeRTOS 커널을 확장하며, 로컬 및 클라우드 연결, 보안, 무선 업데이트(추가 예정)를 지원하는 라이브러리를 포함합니다.

이 운영 체제의 주요 이점은 다음과 같습니다.

  • 손쉽게 저전력 커넥티드 디바이스에 대한 솔루션 개발: 디바이스에 대한 공통 IoT 기능 개발을 손쉽게 하는 공통 운영 체제(OS)와 라이브러리를 제공합니다. 예를 들어 무선(OTA) 업데이트(지원 예정)와 디바이스 구성을 들 수 있습니다.
  • 안전한 데이터 및 디바이스 연결: 디바이스는 Code Signing 서비스를 사용하여 신뢰할 수 있는 소프트웨어만을 실행합니다. Amazon FreeRTOS는 TLS를 사용한 안전한 AWS 연결은 물론 디바이스에 키와 민감한 데이터를 안전하게 저장하는 기능을 제공합니다.
  • 광범위한 개발 생태계: 광범위한 하드웨어와 기술 에코시스템이 포함되어 Texas Instruments, Microchip, NXP Semiconductors 및 STMicroelectronics와 같은 다양한 공인된 칩셋을 선택할 수 있습니다.
  • 클라우드 또는 로컬 연결: 디바이스를 AWS 클라우드에 직접 또는 AWS Greengrass를 통해 연결할 수 있습니다. Amazon FreeRTOS 콘솔을 통해 솔루션에 필요한 소프트웨어를 선택하고 다운로드할 수 있습니다. 선택한 마이크로컨트롤러가 여러 하드웨어 옵션에 걸쳐 지속적으로 실행되도록 하는 데 도움을 주는 자격 프로그램이 있습니다. Amazon FreeRTOS 커널은 GitHub에서 무료 다운로드할 수 있는 오픈 소스 FreeRTOS 운영 체제입니다.

Amazon FreeRTOS 콘솔의 스냅샷 몇 장을 안 보여드리고 넘어갈 수는 없겠네요. 콘솔 내에서 사용하고자 하는 사전 정의된 소프트웨어 구성을 선택할 수 있습니다.

더욱 사용자 지정된 소프트웨어 구성을 원한다면 Amazon FreeRTOS를 통해 라이브러리를 추가 또는 삭제하여 실제 사용을 대상으로 하여 솔루션을 사용자 지정할 수 있습니다.

요약

Amazon FreeRTOS 제품 페이지를 방문하시면, 자세한 정보와 고객 사례등을 살펴 보실 수 있습니다. 이를 통해 더 새롭고 뛰어난 IoT 시스템이 지원 및 개발되기를 기대합니다! 즐겁게 코딩합시다.

Tara;

이 글은 AWS re:Invent 2017 신규 서비스 소식으로 New- AWS IoT Device Management의 한국어 번역입니다.

 

AWS IoT Device Management 출시 – 대량 디바이스 관리 및 모니터링 서비스

AWS IoTAWS Greengrass는 IoT 디바이스 및 애플리케이션을 위한 견고한 토대와 프로그래밍 환경을 제공합니다.

IoT의 성격상, 대규모 디바이스 배포는 종종 수백 또는 수천 군데에 수백만 또는 수천만 개의 장치가 배포되는 것을 의미합니다. 이러한 규모에서 각 디바이스를 개별적으로 취급하는 것은 불가능합니다. 대량으로 또한 집합적으로 디바이스를 설정, 모니터링, 업데이트 및 최종적으로 사용 중지하면서도 다양한 배포 구성, 디바이스 모델 등을 수용하는 유연성도 유지할 수 있어야 합니다.

AWS IoT Device Management 출시
오늘 Amazon에서는 이 과제를 해결해 줄 AWS IoT Device Management를 출시합니다. 이 서비스는 제조에서 사용 중지까지 디바이스 수명 주기의 각 단계를 지원합니다. 다음은 제공되는 기능입니다.

  • 온보딩 – 제조 상태의 디바이스에서 시작하여 프로비저닝 워크플로를 제어할 수 있습니다. IoT Device Management 템플릿을 사용하여 몇 번의 클릭으로 전체 디바이스 집합을 빠르게 온보딩할 수 있습니다. 템플릿은 디바이스 인증서 및 액세스 정책에 대한 정보를 포함할 수 있습니다.
  • 조직 – 막대한 수의 디바이스를 처리하기 위해, AWS IoT Device Management는 기존 IoT Device Registry를 확장하고 사용자가 디바이스 집합의 계층 모델을 생성하고 계층을 기반으로 정책을 설정할 수 있게 해줍니다. 개별 디바이스를 찾기 위해 계층을 따라 드릴다운할 수 있습니다. 또한 디바이스 집합에 대해 다비이스 유형 또는 펌웨어 버전과 같은 속성을 쿼리할 수도 있습니다.
  • 모니터링 – 디바이스로부터 원격 측정을 사용하여 실시간 연결, 인증 및 상태 지표를 수집하며, 이들 지표는 Amazon CloudWatch에 게시됩니다. 지표를 검사하고 추가 조사를 위해 특이값의 위치를 확인할 수 있습니다. IoT Device Management는 각 디바이스 그룹에 대해 로그 수준을 구성하도록 해주며, 사용자는 모니터링을 위해 Registry 및 Jobs의 변경 이벤트를 게시할 수도 있습니다.
  • 원격 관리AWS IoT Device Management를 사용하면 디바이스를 원격으로 관리할 수 있습니다. 디바이스에 새 소프트웨어 및 펌웨어를 푸시하고, 공장 기본값으로 재설정하고, 리재부팅하고, 대량 업데이트를 원하는 속도로 설정할 수 있습니다.

AWS IoT Device Management 살펴보기
AWS IoT Device Management 콘솔이 둘러보기를 통해 서비스의 각 기능에 액세스하는 방법을 소개했습니다.

저에게는 이미 대규모의 디바이스 세트(압력 게이지)가 있습니다.

이들 게이지는 새로운 온도 기반 대량 등록 기능을 사용해 생성된 것입니다. 다음은 제가 템플릿을 생성하는 방법입니다.

게이지는 그룹으로 정리됩니다(이 경우 미국 주).

다음은 콜로라도 주에 위치한 게이지입니다.

AWS IoT 그룹 정책을 통해 특정 IoT 리소스와 그룹의 모든 멤버에 대한 작업에 대한 액세스 권한을 제어할 수 있습니다. 이 정책은 IAM 정책과 거의 동일하게 구성되며 콘솔에서 생성할 수 있습니다.

작업은 선택적으로 디바이스를 업데이트하는 데 사용됩니다. 다음은 작업을 생성하는 방법입니다.

위의 [Job type]에 표시되었듯이, 작업은 한 번만 또는 지속적으로 실행될 수 있습니다. 다음은 업데이트할 디바이스를 선택하는 방법입니다.

Lambda 함수를 사용하는 사용자 지정 권한 부여자를 생성할 수 있습니다.

이 게시물에서는 AWS IoT Device Management의 사용 방법을 자세히 보여드렸습니다. 더 자세한 사항은 AWS 관리 콘솔설명서를 참고하세요.

Jeff;

이 글은 AWS re:Invent 신규 서비스 출시 소식으로 New- AWS IoT Device Management의 한국어 번역입니다.

AWS IoT Device Defender 출시 예고 – 대량 디바이스 공격 방어 및 모니터링 서비스

서물 인터넷에서 대량 기기를 배포하는 것은 흥미로운 경험입니다. 얼마 전 평균 제곱 미터당 1개의 환경 센서를 보유한 거대한 공장을 방문할 기회가 있었는데, 센서들은 온도, 습도 및 공기 순도를 초당 수 차례 측정하고, 오염의 초기 경고 시스템 역할을 했습니다.

고객에게 있어 지리적으로 분산된 곳에 대량 디바이스가 배포되는 가운데 보안 관리 문제는 매우 중요합니다. 제한적인 로컬 컴퓨팅 파워와 메모리의 양으로 인해 암호화와 기타 다른 형태의 데이터 보호 기능에 제한이 걸릴 때가 있습니다.

이러한 문제를 해결하고 고객이 규모에 따라 IoT 디바이스를 안심하고 배포할 수 있도록 새롭게 AWS  IoT Device Defender를 개발하고 있습니다.

세부 사항은 출시 전 변경될 수 있기는 하지만, 아래는 몇 가지 고객에게 장점이 되는 설계 계획입니다.

  • 지속적인 감사AWS IoT Device Defender는 디바이스 관련 정책을 모니터링하여 원하는 보안 설정이 적용되도록 합니다. 모범 사례로부터 벗어나는 것을 찾고 사용자 지정 감사 규칙을 지원하여 배포에 관련된 조건을 확인할 수 있습니다. 예를 들어 손상된 디바이스가 다른 디바이스로부터 센서 데이터를 구독했는지 여부를 확인할 수 있습니다. 일정에 따라 또는 필요에 따라 감사를 실행할 수 있습니다.
  • 실시간 감지 및 알림AWS IoT Device Defender는 손상된 디바이스로부터 발생할 수 있는 비정상적인 동작을 감지 후 빠르게 알림을 보냅니다. 시간에 따라 유사한 디바이스의 동작을 모니터링하고, 권한이 없는 액세스 시도와 연결 패턴의 변화 및 트래픽 패턴의 변화(인바운드 또는 아웃바운드)를 찾음으로써 이를 수행합니다.
  • 빠른 조사와 완화 – 비정상적인 무언가가 일어나고 있다는 알림을 받을 경우 AWS IoT Device Defender가 컨텍스트 정보를 포함한 도구를 제공하여 문제 조사 및 완화에 도움을 줍니다. 디바이스 정보, 디바이스 통계, 진단 로그 및 이전 알림을 모두 손끝에서 확인할 수 있습니다. 디바이스 재부팅, 권한 취소, 공장 기본값으로의 재설정, 보안 픽스 푸시와 같은 옵션이 있습니다.

출시 예고
곧 더 많은 정보를 알려드릴 예정입니다. 더 자세한 것은 제품 페이지를 참고해 주시기 바랍니다!

Jeff

AWS IoT Analytics 소개: 신속한 대규모 IoT 데이터 분석 기능 제공

최근 각광 받고 있는 기술 분야 중 하나가 사물인터넷(IoT)입니다. 하지만, IoT 디바이스 및 솔루션에서 수집되는 모든 데이터에서 변칙적으로 발생하는 수 많은 이상 데이터를 검색하고 쿼리할 수 있는 능력이 매우 중요해진 상황입니다. 기업이 정확한 의사 결정 및 예측을 바탕으로 조직의 방향을 설정하기 위한 분석의 중요성은 사물 인터넷 분야에서도 마찬가지이며, 누구나 IoT 메시지와 디바이스 데이터를 보다 쉽게 처리하고 분석할 수 있는 기능이 필요합니다.

AWS IoT Analytics는 IoT 디바이스로부터 수집되는 데이터에 대한 고급 데이터 분석을 제공하는 AWS IoT의 완전 관리형 서비스입니다.  AWS IoT Analytics 서비스를 사용하면 메시지를 처리하고, 대량의 디바이스 데이터를 수집 및 저장하고, 데이터를 쿼리할 수 있습니다. 또한 새로운 AWS IoT Analytics 서비스 기능은 데이터 시각화를 위해 Amazon Quicksight와 통합되며, Jupyter Notebooks과 통합을 통해 기계 학습을 활용합니다.

AWS IoT Analytics의 이점

  • 사전 빌드된 분석 함수에 대한 액세스를 제공하여 예측적 데이터 분석을 지원
  • 서비스의 분석 출력을 시각화하는 기능을 제공
  • 데이터 정리 도구를 제공
  • 수집된 데이터에서 패턴 식별을 지원

살펴보기: IoT Analytics 개념

  • 채널: 처리되지 않은 원시 메시지를 보관하고 MQTT 주제로부터 데이터를 수집합니다.
  • 파이프라인: 채널로부터 메시지를 사용하고 메시지 처리를 허용합니다.
    • 작업: 속성 필터링, Lambda 함수 고급 처리 기능 호출 등 메시지에 대한 변환을 수행합니다.
  • 데이터 스토어: 처리된 메시지의 쿼리 가능한 리포지토리로 사용됩니다. 다양한 디바이스 또는 위치에서 전송되는 메시지 또는 메시지 속성으로 필터링되는 메시지를 저장하기 위해 복수의 데이터 스토어를 사용할 수 있습니다.
  • 데이터 세트: 데이터 스토어의 데이터 검색 보기로, 반복되는 일정으로 생성될 수 있습니다. 

AWS IoT Analytics 시작하기

먼저 들어오는 메시지를 수신할 채널을 생성합니다.  이 채널을 사용하여 MQTT를 통한 채널로 전송되는 데이터 또는 Rules Engine으로부터 유도되는 메시지를 사용할 수 있습니다. 채널을 생성하기 위해 [Channels] 메뉴 옵션을 선택하고 [Create a channel] 버튼을 클릭합니다.

채널 이름으로 [TaraIoTAnalyticsID]를 지정하고 채널에 [MQTT topic filter]로 [Temperature]를 지정하겠습니다. [Create Channel] 버튼을 클릭하여 채널 생성을 완료합니다.

이제 채널을 생성했으므로 IoT 디바이스로부터 채널을 통해 수신되는 메시지를 수신 및 저장할 데이터 스토어를 생성해야 합니다. 보다 복잡한 솔루션에는 복수의 데이터 스토어를 설정할 수 있지만, 이 예제에서는 데이터 스토어를 하나만 생성하겠습니다. 메뉴 패널에서 [Data Stores]를 선택하고 [Create a data store]를 클릭합니다.

데이터 스토어 이름으로 TaraDataStoreID를 지정하고 [Create the data store]를 클릭하면 제 채널에서 들어오는 메시지를 저장할 데이터 스토어가 설정됩니다.

이제 채널데이터 스토어를 생성했으므로 파이프라인을 사용해 둘을 연결해야 합니다. 여기서는 그냥 채널과 데이터 스토어를 연결하는 간단한 파이프라인을 생성할 텐데, Lambda 작업 같은 파이프라인 작업을 추가하여 메시지를 처리하고 필터링하는 보다 강력한 파이프라인을 생성할 수 있습니다.

파이프라인을 생성하기 위해 [Pipelines] 메뉴 옵션을 선택하고 [Create a pipeline] 버튼을 클릭합니다.

이 파이프라인에 속성은 추가하지 않겠습니다. [Next ] 버튼을 클릭합니다.

앞서 설명했듯이 메시지 처리 및 변환을 위해 파이프라인에 추가할 수 있는 파이프라인 작업이 있지만, 첫 번째 파이프라인은 간단하게 유지할 생각이므로 [Next] 버튼을 클릭합니다.

파이프라인을 생성하기 위한 마지막 단계는 앞서 생성한 데이터 스토어를 선택하고 [Create Pipeline]을 클릭하는 것입니다.

이제 남은 작업은 AWS IoT Analytics 서비스를 활용하여 AWS IoT Analytics 채널로 데이터를 전송하는 IoT 규칙을 생성하는 것입니다. IoT 디바이스용 분석을 설정하는 과정이 정말 쉽지 않나요?

만약 Amazon Quicksight를 사용한 시각화를 위해 데이터에 대해 실행한 쿼리의 결과로 데이터 세트를 생성하거나 Jupyter Notebooks 와 통합하여 더 많은 고급 분석 기능을 수행하기를 원한다면 [Analyze] 메뉴 옵션을 선택하여 데이터 세트를 생성하고 Juypter Notebook 인스턴스에 액세스하기 위한 화면을 불러올 수 있습니다.

요약

이제 AWS IoT용으로 고급 데이터 분석을 설정하는 과정은 매우 간단합니다. AWS IoT Analytics를 사용하면 AWS IoT 연결 디바이스로부터 생성되는 대량의 데이터를 수집, 시각화, 처리, 쿼리, 저장할 수 있습니다. 또한 AWS 명령줄 인터페이스(AWS CLI), AWS IoT API, 언어별 AWS SDK, AWS IoT Device SDK 등 매우 다양한 방법으로 AWS IoT Analytics 서비스에 액세스할 수 있습니다.

지금 AWS IoT Analytics를 이용하여 IoT 데이터 분석을 탐색할 수 있습니다. AWS IoT와 AWS IoT Analytics를 사용하시려면, 미리 보기에 등록하시면 됩니다. 더 자세히 알아보려면 AWS IoT Analytics 제품 페이지를 참조하세요.

Tara;

이 글은 AWS re:Invent 2017의 신규 서비스 소식으로 Presenting AWS IoT Analytics: Delivering IoT Analytics at Scale and Faster than Ever Before의 한국어 번역입니다.

Amazon Comprehend – 딥러닝 기반 실시간 자연어 인식 서비스 출시

몇년 전 메릴랜드 대학교 CS 도서관을 돌아다니다가 컴퓨터가 할 수 없는 일(What Computers Can’t Do)과 그 후속작인 컴퓨터가 여전히 할 수 없는 일(What Computers Still Can’t Do)이라는 오래된 책을 발견했습니다. 이것은 컴퓨터 공학이 관심을 가지고 연구할 만한 분야라는 사실을 깨달았습니다. 이 게시물을 준비하는 동안 저는 첫 번째 책의 복사본을 찾았고, 아래와 같은 흥미로운 의견을 발견했습니다.

자연 언어의 문장을 사용하고 이해하는 인간에게는 문장의 맥락 의존성의 사용에 대한 암시적 지식이 필요합니다. 이는 Turing의 의문대로 컴퓨터가 자연 언어를 이해하고 번역할 수 있는 컴퓨터를 만드는 유일한 방법이자 세상을 학습하도록 프로그래밍하는 유일한 방법일 것입니다.

이는 통찰력 있는 의견이었고, 텍스트로 부터 새로운 의미와 가치를 발견할 수 있는 신규 서비스인 Amazon Comprehend 소개합니다.

Amazon Comprehend 소개
Amazon Comprehend는 영어 또는 스페인어 텍스트에서 다양한 유형의 엔터티(사람, 장소, 브랜드, 제품 등), 핵심 구절, 감정(긍정, 부정, 혼재 또는 중립)을 식별하고, 핵심 구절을 추출합니다. Comprehend의 주제 모델링 서비스는 분석 및 주제 기반 그룹화용 대량의 문서로부터 주제를 추출합니다.

이상 4개의 기능(언어 감지, 엔터티 범주화, 감정 분석 및 핵심 구절 추출)은 수백 밀리초 내에 응답이 가능한 대화식 사용을 위해 설계되었습니다. 주제 추출은 작업 기반 모델에서 작동하며, 응답은 컬렉션의 크기와 비례합니다.

Comprehend는 지속적으로 데이터 훈련을 하는 자연 언어 처리(NLP) 서비스입니다. AWS 엔지니어 및 데이터 과학자 팀이 계속해서 훈련 데이터를 확장 및 정제합니다. 시간이 흐름에 따라 서비스가 더욱 정확해지고 더욱 폭넓게 적용 가능하도록 하는 것이 목표입니다.

Amazon Comprehend 둘러보기
AWS 관리 콘솔을 사용하여 Amazon Comprehend를 둘러보고 Comprehend API를 사용하는 애플리케이션을 빌드할 수 있습니다. Direct Connect에 관한 제 최신 게시물의 첫 문단을 사용하여 Amazon Comprehend API 탐색기를 연습해 보겠습니다. 상자에 텍스트를 붙여넣고 [Analyze]를 클릭합니다.

Comprehend가 빠르게 텍스트를 처리하고, 식별한 엔터티(위에 나와 있습니다)를 강조 표시한 다음 모든 기타 정보를 클릭 한 번으로 사용할 수 있습니다.

결과의 각 부분을 살펴보겠습니다. Comprehend가 제가 입력한 텍스트의 엔터티의 여러 범주를 감지할 수 있습니다.

텍스트에서 발견된 모든 엔터티입니다(목록으로 또는 원시 JSON 형식으로도 표시될 수 있습니다).

첫 핵심 구절입니다(나머지는 [Show all]을 클릭하면 확인할 수 있습니다).

언어와 감정도 간단하게 파악할 수 있습니다.

그렇습니다. 이것은 대화형 함수입니다. 그럼 배치를 살펴보겠습니다. 이미 하나의 S3 버킷에는 수천 개의 제 이전 블로그 게시물이 포함되어 있고, 결과를 위해 마련한 빈 버킷, 그리고 Comprehend가 두 버킷 모두에 액세스할 수 있도록 하는 IAM 역할이 있습니다. 입력을 한 다음 [Create job]을 클릭하여 시작합니다.

콘솔에서 제 최근 작업을 볼 수 있습니다.

작업이 완료되면 버킷에 결과가 표시됩니다.

시연을 목적으로 저는 데이터를 다운로드하고 내부를 들여다 볼 수 있습니다(대부분의 경우 이를 시각화 또는 분석 도구에 저장합니다).

$ aws s3 ls s3://comp-out/348414629041-284ed5bdd23471b8539ed5db2e6ae1a7-1511638148578/output/
2017-11-25 19:45:09     105308 output.tar.gz
$ aws s3 cp s3://comp-out/348414629041-284ed5bdd23471b8539ed5db2e6ae1a7-1511638148578/output/output.tar.gz .
download: s3://comp-out/348414629041-284ed5bdd23471b8539ed5db2e6ae1a7-1511638148578/output/output.tar.gz to ./output.tar.gz
$ gzip -d output.tar.gz
$ tar xf output.tar
$ ls -l
total 1020
-rw-r--r-- 1 ec2-user ec2-user 495454 Nov 25 19:45 doc-topics.csv
-rw-rw-r-- 1 ec2-user ec2-user 522240 Nov 25 19:45 output.tar
-rw-r--r-- 1 ec2-user ec2-user  20564 Nov 25 19:45 topic-terms.csv
$

공통 주제 번호(첫 번째 열) 내에 있는 용어와 관련이 있는 topic-terms.csv 파일 클러스터입니다. 처음 25개의 행입니다.

topic,term,weight
000,aw,0.0926182
000,week,0.0326755
000,announce,0.0268909
000,blog,0.0206818
000,happen,0.0143501
000,land,0.0140561
000,quick,0.0143148
000,stay,0.014145
000,tune,0.0140727
000,monday,0.0125666
001,cloud,0.0521465
001,quot,0.0292118
001,compute,0.0164334
001,aw,0.0245587
001,service,0.018017
001,web,0.0133253
001,video,0.00990734
001,security,0.00810732
001,enterprise,0.00626157
001,event,0.00566274
002,storage,0.0485621
002,datar,0.0279634
002,gateway,0.015391
002,s3,0.0218211

doc-topics.csv 파일은 어떤 파일이 최초 파일의 주제를 참조하는지 나타냅니다. 이번에도 처음 25개의 행입니다.

docname,topic,proportion
calillona_brows.html,015,0.577179
calillona_brows.html,062,0.129035
calillona_brows.html,003,0.128233
calillona_brows.html,071,0.125666
calillona_brows.html,076,0.039886
amazon-rds-now-supports-sql-server-2012.html,003,0.851638
amazon-rds-now-supports-sql-server-2012.html,059,0.061293
amazon-rds-now-supports-sql-server-2012.html,032,0.050921
amazon-rds-now-supports-sql-server-2012.html,063,0.036147
amazon-rds-support-for-ssl-connections.html,048,0.373476
amazon-rds-support-for-ssl-connections.html,005,0.197734
amazon-rds-support-for-ssl-connections.html,003,0.148681
amazon-rds-support-for-ssl-connections.html,032,0.113638
amazon-rds-support-for-ssl-connections.html,041,0.100379
amazon-rds-support-for-ssl-connections.html,004,0.066092
zipkeys_simplif.html,037,1.0
cover_art_appli.html,093,1.0
reverse-dns-for-ec2s-elastic-ip-addresses.html,040,0.359862
reverse-dns-for-ec2s-elastic-ip-addresses.html,048,0.254676
reverse-dns-for-ec2s-elastic-ip-addresses.html,042,0.237326
reverse-dns-for-ec2s-elastic-ip-addresses.html,056,0.085849
reverse-dns-for-ec2s-elastic-ip-addresses.html,020,0.062287
coming-soon-oracle-database-11g-on-amazon-rds-1.html,063,0.368438
coming-soon-oracle-database-11g-on-amazon-rds-1.html,041,0.193081

애플리케이션 구축하기
대부분의 경우 Amazon Comprehend API를 사용하여 자연 언어 처리를 자체 애플리케이션에 추가할 것입니다. 주요 대화형 함수는 다음과 같습니다.

  • DetectDominantLanguage – 텍스트의 중심 언어를 감지합니다. 다른 함수들 가운데 이 정보를 입력해야 하는 경우도 있으니 이 함수를 먼저 호출해야 합니다.
  • DetectEntities – 텍스트의 엔터티를 감지하고 JSON 형식으로 이를 반환합니다.
  • DetectKeyPhrases – 텍스트의 핵심 구절을 감지하고 JSON 형식으로 이를 반환합니다.
  • DetectSentiment – 텍스트의 감정을 감지하고 POSITIVE, NEGATIVE, NEUTRAL 또는 MIXED로 반환합니다.

또한 이러한 함수에 4개의 변수가 있습니다(각각 다음 접두사가 포함됩니다). Batch따라서 최대 25개의 문서를 동시에 처리할 수 있습니다. 이들을 사용하여 처리량이 높은 데이터 처리 파이프라인을 빌드할 수 있습니다.

  • 주제 감지 작업을 생성 및 관리하는 데 사용할 수 있는 함수는 다음과 같습니다.
  • StartTopicsDetectionJob – 작업을 생성하고 실행을 시작합니다.
  • ListTopicsDetectionJobs – 현재 및 최근 작업의 목록을 가져옵니다.
  • DescribeTopicsDetectionJob – 단일 작업에 관한 세부 정보를 가져옵니다.

정식 출시
Amazon Comprehend는 현재 사용 가능하며, 오늘부터 이를 사용하여 애플리케이션에 적용할 수 있습니다! 자세한 사항은 요금 페이지고객 사례, 기술 문서를 참고하세요.

Jeff;

이 글은 AWS re:Invent 2017 신규 서비스 소식으로 Amazon Comprehend – Continuously Trained Natural Language Processing의 한국어 번역입니다.

Amazon Transcribe – 딥러닝 기반 자동 음성 인식 서비스 출시

오늘 음성을 인식하여 텍스트로 변환하는 기능을 애플리케이션에 쉽게 추가할 수 있도록 하는 ASR(자동 음성 인식) 서비스인 Amazon Transcribe 미리 보기 기능을 출시합니다.

인터넷 연결 및 사용량이 대역폭과 연결성이 개선되면서 점점 많은 비디오 및 오디오 형식이 만들어지고 유통되고 있습니다. 기업들이 이처럼 풍부한 멀티미디어 콘텐츠에서 가치를 도출하는 몇 가지 수단을 확보하는 건 중요합니다. Amazon Transcribe 서비스는 효율적이고 확장 가능한 API를 사용해 많은 비용이 소요되는 수동 텍스트 추출 업무를 생략할 수 있게 해줍니다.

API로 작업을 시작하여 다양한 일반 형식(WAV, MP3, Flac 등)으로 Amazon Simple Storage Service(S3)에 저장된 오디오 파일을 분석할 수 있습니다. 각 단어, 그리고 추론된 구두점에 대해 타임스탬프를 포함하여 세부적이고 정확한 트랜스크립션을 받게 됩니다. 미리 보기 기간 동안 비동기 트랜스크립션 API를 사용해 영어 또는 스페인어 음성을 트랜스크립션할 수 있습니다.

기업들은 기존의 음성 데이터로부터 가치를 도출하고자 합니다. 이러한 저장된 미디어를 트랜스크립션하여 기업은 다음 작업을 수행할 수 있습니다.

  • 고객 통화 데이터를 분석
  • 자막 생성을 자동화
  • 콘텐츠 기반 광고를 타겟팅
  • 오디오 및 비디오 콘텐츠의 아카이브에 대해 풍부한 검색 기능을 구현

AWS 명령줄 인터페이스(CLI), AWS SDK 또는 Amazon Transcribe 콘솔을 사용하여 간편하게 트랜스크립션 작업을 시작할 수 있습니다.

Amazon Transcribe는 현재 3가지 API 작업을 사용합니다(이름에서 기능을 알 수 있음).

  • StartTranscriptionJob
  • GetTranscriptionJob
  • ListTranscriptionJobs

다음은 작업을 시작하여 작업이 종료될 때까지 폴링하는 빠른 파이톤 스크립트입니다.

from __future__ import print_function
import time
import boto3
transcribe = boto3.client('transcribe')
job_name = "RandallTest1"
job_uri = "https://s3-us-west-2.amazonaws.com/randhunt-transcribe-demos/test.flac"
transcribe.start_transcription_job(
    TranscriptionJobName=job_name,
    Media={'MediaFileUri': job_uri},
    MediaFormat='flac',
    LanguageCode='en-US',
    MediaSampleRateHertz=44100
)
while True:
    status = transcribe.get_transcription_job(TranscriptionJobName=job_name)
    if status['TranscriptionJob']['TranscriptionJobStatus'] in ['COMPLETED', 'FAILED']:
        break
	print("Not ready yet...")
    time.sleep(5)
print(status)

완료된 작업의 결과는 트랜스크립션을 JSON 형식으로 저장하는 Amazon Simple Storage Service (S3) 미리 서명된 url로 연결됩니다.

{
  "jobName": "RandallTest1",
  "results": {
  	"transcripts": [{"transcript": "Hello World", "confidence": 1}],
    "items": [
      {
      	"start_time": "0.880", "end_time": "1.300",
        "alternatives": [{"confidence": 0.91, "word": "Hello"}]
      },
      {
        "start_time": "1.400", "end_time": "1.620",
        "alternatives": [{"confidence": 0.84, "word": "World"}]
      }
  	]
  },
  "status": "COMPLETED"
}

보시다시피 각 단어에 대해 타임스탬프와 신뢰도 점수가 표시됩니다.

단독으로 사용되든 다른 Amazon AI 서비스와 결합하든 이 서비스는 강력한 서비스이며, 고객들이 이 서비스를 사용하여 어떤 애플리케이션을 빌드하지 빨리 보고 싶습니다!

여러분은 AWS Lambda와 AWS Step Functions을 통해 다양한 Amazon AI 서비스와 연동할 수 있습니다. 예를 들어 아래 작업은 파일이 들어올 경우 Transcribe 서비스로 보내 작업이 완료되면 Amazon Elasticsearch Service로 보낼 수 있는 간단한 작업입니다.

Amazon Transcribe는 프리티어의 일환으로 12 개월 동안 매월 60분을 무료로 사용할 수 있습니다. 일반 요금은 API는 초당 $0.0004가 청구되며 최소 요청 당 15초입니다. 현재 Amazon Transcribe는 미리 보기로 제공하고 있으며, 좀 더 자세한 사항은 기술 문서를 참고하세요.

– Randall;

이 글은 AWS re:Invent 2017의 신규 서비스 소식으로Amazon Transcribe – Accurate Speech To Text At Scale 의 한국어 번역입니다.

 

Amazon Translate 출시 – 딥러닝 기반 실시간 언어 번역 서비스

인터넷과 함께 세계는 더욱 작아졌습니다. 눈 깜짝할 사이에 문화와 국가의 경계 사이에서 막대한 정보가 저장 및 전송되기 때문에 서로 학습하고 성장할 수 있는 능력을 얻게 되었습니다. 지식과 데이터 공유라는 강력한 수단을 모두 활용하려면 우선 정보 공유와 소통을 가로막을 수 있는 언어 장벽을 허물어야 합니다.

다국어를 학습하는 것 외에 이러한 장벽을 허물 수 있는 방법 중 하나가 있다면 기계 번역과 관련 기술을 활용하여 여러 언어를 자동으로 번역하는 것입니다. 기계 번역 기술은 소프트웨어를 활용하여 한 언어에서 다른 언어로 텍스트 또는 스피치를 번역하는 데 집중하는 컴퓨팅 언어 연구 분야입니다. 기계 번역의 개념은 1949년으로 거슬러 올라갑니다. 당시 미국의 과학자이자 수학자인 Warren Weaver는 언어 번역 아이디어를 공유하자는 록펠러 재단의 자연과학부 동료들의 요청에 따라 Memorandum on Translation이라는 책을 저술했습니다.

60년이 지난 최근에는 인공 신경망을 사용하여 번역 메서드의 효율성과 품질을 높이면서 기계 번역 분야는 눈부시게 발전시켰습니다. 따라서 이 분야의 최근의 기술적 진보로 인해 일반 개발자들도 이러한 혜택을 얻어 사용자들에게 멋진 언어 번역 서비스에 이르게 되었습니다.

Amazon Translate 서비스 출시

일반 개발자들에게 인공 지능을 통한 스마트 애플리케이션 개발에 도움이 되고자 Amazon Translate 서비스를 출시합니다. 고급 기계 학습 기술을 사용하여 텍스트 기반 콘텐츠의 빠른 번역을 제공하고 다국어 사용자 환경을 제공하는 애플리케이션의 개발을 지원하는 고품질 신경망 기계 번역 서비스입니다. 이 서비스는 현재 미리 보기로 제공되며, 영어에서 지원되는 언어로 텍스트를 번역하는 데 사용할 수 있습니다.

Translate를 통해 기업  내 비즈니스에서 고객이 자동 언어 번역을 사용하여 선호하는 언어로 웹 사이트, 정보 및 리소스에 액세스하도록 허용함으로써, 글로벌 기반 제품 및 서비스를 손쉽게 확장할 수 있는 능력을 보유하게 됩니다. 추가로 고객들은 멀티 플레이어 채팅에 참여하고, 고객 포럼으로부터 정보를 수집하고, 교육 문서를 파악할 수 수 있습니다.

Amazon Translate가 어떻게 작동하여 양질의 기계 언어 번역을 제공하는지 궁금할 것입니다. 바로 딥 러닝 기술을 바탕으로 Translate는 신경망 네트워크를 사용하여 언어 쌍 사이를 번역하도록 훈련된 모델을 표현합니다. 언어 모델에는 소스 언어의 문장을 읽고 제공된 텍스트의 의미를 포착하는 심볼을 생성하는 인코더 구성 요소가 포함되어 있습니다. 또한, 소스 언어에서 대상 언어로의 텍스트 번역을 생성할 때 사용되는 의미 심볼을 형성하는 디코더 구성 요소가 있습니다. 추가로 제공된 소스 텍스트의 각 단어로부터 컨텍스트를 생성하는 서비스가 주의 메커니즘을 사용하여 어떤 단어가 다음 대상 단어 생성에 있어 적절한지를 결정합니다. 딥 러닝에서 주의 메커니즘이란 개념은 이전에 생성했던 모든 것은 물론 소스 문장의 전체 컨텍스트를 고려하여 소스 입력의 관련 컨텍스트에 초점을 맞추는 신경망 네트워크를 의미합니다. 이러한 프로세스가 더욱 정확하고 유창한 번역을 생성하는 데 도움이 됩니다.

Amazon Translate는 다른 AWS 서비스와 함께 사용하여 다국어 환경을 빌드하거나 언어에 구애받지 않는 프로세스를 실행할 수 있습니다. 예를 들어 다음 서비스와 함께 Translate 서비스를 사용할 수 있습니다.

  • Amazon Polly: 번역된 텍스트를 이용하고 생생한 음성을 입력하여 말하는 애플리케이션을 만들도록 합니다.
  • Amazon S3: 번역된 문서의 리포지토리를 생성하는 기능을 제공합니다.
  • AWS Elasticsearch: 관리형 Elasticsearch 엔진을 사용하여 다국어 검색을 생성합니다.
  • Amazon Lex: 텍스트 및 음성을 사용하여 번역 챗봇을 빌드합니다.
  • AWS Lambda: 동적 웹 사이트 콘텐츠의 현지화를 활성화합니다.

예시는 몇 가지이지만 Translate를 다른 AWS 서비스와 연결할 수 있는 많은 솔루션이 있습니다. 콘솔을 잠시 살펴보고 서비스 미리 보기 기능을 테스트 해 보겠습니다.

콘솔에 로그인하면 많은 정보가 표시됩니다. 서비스와 API 관련 예제, 지침 및 리소스를 포함한 Amazon Translate 서비스가 어떻게 작동하는지 세부적으로 설명하는 정보를 검토할 수 있습니다.

[Try Translate] 버튼을 클릭하여 서비스의 [API Explorer] 섹션으로 이동하겠습니다.

[Source Language]를 프랑스어(fr), [Target Language]를 영어(en)로 변경하겠습니다. 몇 주 전에 벨기에에서 묵었던 호텔의 프랑스어 웹 사이트에서 문장을 가져오겠습니다.

웹 사이트에서 프랑스어 텍스트를 가져와 Translate 서비스에 붙여넣은 다음 영어로 번역하고 나니 번역이 빠를 뿐만 아니라 정확하기까지 해서 정말 놀랐습니다.

요약

새로운 신경망 기계 번역 서비스인 Amazon Translate를 통해 실시간으로 영어는 물론 폭넓은 지원 언어로 텍스트를 번역할 수 있습니다. 미리 보기에서는 Arabic, Chinese (Simplified), French, German, Portuguese, Spanish 언어가 지원되며, 향후 계속 추가될 예정입니다. 번역 서비스는 AWS API, CLI 및 SDK를 통해 직접 사용할 수 있을 것입니다.

Amazon Translate 미리 보기에 가입하고 번역 서비스를 사용해 보세요. 미리 보기 제품 페이지를 확인하거나 AWS 설명서에 제공된 기술 가이드를 검토하면 더 많은 내용을 알아볼 수 있습니다.

Tara;

이 글은 AWS re:Invent 2017 신규 서비스 소식으로 Introducing Amazon Translate – Real-time Language Translation 의 한국어 번역입니다.

AWS DeepLens – 딥러닝 실습을 위한 동영상 카메라

개발자에게 평생 학습은 매우 중요합니다. 기술 변화는 빠르게 일어나고 있으며, 그러한 변화에 뒤쳐지지 않으려면 학습은 필수적입니다.과거 오랜 기간 동안 인공 지능은 학문적인 주제였지만, 지금은 실질적인 적용과 실제 배포가 중요한 시대가 되었습니다.

컴퓨터 비전딥 러닝을 비롯하여 머신 러닝의 실제 적용 사례를 고려했을 때, 기술적인 성숙 단계에 들어섰으며, 이제 실제 경험을 쌓고 기술을 연마하기 시작할 때라고 말할 수 있습니다. 컴퓨터 비전과 딥 러닝은 모두 최신 기술이고 구상하는 데 시간이 훨씬 덜 걸리지만, IoT서버리스 컴퓨팅은 개발의 일부이므로 반드시 고려해야 합니다.

새로운 AWS DeepLens
오늘은 현장에서 사용하는 인터넷 디바이스에서 직접 딥 러닝 모델을 실행하는 새로운 비디오 카메라인 AWS DeepLens에 대해 살펴보고자 합니다. 이를 통해 실전 앱을 구축함과 동시에 AI, IoT 및 서버리스 컴퓨팅에 대한 실제 경험을 쌓을 수 있습니다. AWS DeepLens는 최첨단 하드웨어와 정교한 온보드 소프트웨어를 결합하여 앱에서 AWS Greengrass, AWS Lambda 및 여러 AWS AI와 인프라 서비스를 활용할 수 있게 합니다.

먼저 하드웨어 구성에 대해 많은 노력을 쏟았습니다. 1080P 비디오를 캡처할 수 있는 4메가픽셀 카메라와 함께 2D 마이크, Intel Atom® Processor는 100기가플롭 이상의 컴퓨팅 파워를 제공하며, 온보드 딥 러닝 모델을 통해 1초에 수십 개의 수신 비디오 프레임을 실행할 수 있습니다. DeepLens는 이중 밴드 Wi-Fi, USB 및 마이크로 HDMI 포트를 통해 잘 연결됩니다. 요약하면 사전 훈련을 받은 모델과 코드를 위한 8기가바이트 메모리가 이를 강력하면서도 간단한 디바이스입니다.

소프트웨어를 살펴보면 AWS DeepLens는 Ubuntu 16.04를 실행하며, Greengrass Core(Lambda 런타임, 메시지 관리자 )가 미리 로드되어 있습니다. 또한 디바이스에 최적화된 MXNet 버전이 있고, TensorFlowCaffe2 등의 기타 프레임워크를 사용할 수도 있습니다. Intel® clDNN 라이브러리는 컴퓨터 비전 및 기타 AI 워크로드를 위한 딥 러닝 프리미티브 세트를 제공하며, Intel Atom® 프로세서의 특수 기능을 활용하여 추론 기능을 가속화합니다.

테스트를 진행 할 수 있는 데이터도 제공합니다. AWS DeepLens에서 실행되는 앱을 구축할 때 이미지 감지 및 인식을 위한 사전 훈련을 받은 모델 세트를 활용할 수 있습니다. 이러한 모델을 통해 고양이와 개, 얼굴, 가정 및 일상에서 사용하는 다양한 물체, 모션과 동작은 물론 심지어 핫도그까지 감지할 수 있습니다. 이러한 모델을 계속 훈련하여 앞으로 점점 더 진화되도록 만들 예정입니다. 다음은 초기 모델 세트입니다.

이러한 모든 하드웨어, 소프트웨어 및 데이터가 한데 모여 AWS DeepLens를 엣지 디바이스  사례로 활용 가능합니다. 현장에서 다양한 외부 행동을 감지하여 온보드 딥 러닝 모델을 통해 수신 비디오와 오디오를 지연 시간이 거의 없이 신속하게 실행할 수 있으며, 보다 컴퓨팅 집약적인 높은 수준의 처리를 위해 클라우드를 활용할 수 있습니다. 예를 들어, DeepLens에서 얼굴 감지를 수행한 후 Amazon Rekognition에서 얼굴 감지를 처리하게 할 수 있습니다.

수많은 샘플 코드(Lambda 함수)를 통해 실제 서비스 환경에서 배포할 수 있습니다. AWS DeepLens는 디바이스별 고유 인증서와 IAM으로 구동되는 AWS 서비스 및 리소스에 대한 세분화된 액세스 제어를 제공하는 강력하고 안전한 디바이스입니다.

사용 절차 1 – 디바이스 등록
여러분이 디바이스를 가지고 있다면 어떻게 사용 가능한지 절차를 알아봅니다. 먼저 DeepLens 콘솔에서 디바이스를 등록을 시작하는 프로세스를 살펴보겠습니다. 콘솔에서 [Register device]를 클릭합니다.

그런 다음 카메라 이름을 입력하고 [Next]를 클릭합니다.

그런 다음 [Download certificate]를 클릭하고 이를 안전한 곳에 저장합니다.

다음으로 필요한 IAM 역할을 만들고(콘솔에서 쉽게 할 수 있음), 적절한 메뉴에서 각 역할을 선택합니다.

이제 DeepLens를 실습할 준비가 됩니다. 랩톱 전원을 켜고 디바이스의 네트워크에 연결한 후, 내장 포털에 액세스하여 프로세스를 완료합니다. 콘솔에서 다음 단계를 간략히 설명합니다.

이때 DeepLens는 완전히 작동하는 엣지 디바이스입니다. 디바이스의 인증서를 통해 AWS에 서명된 안전한 호출을 할 수 있습니다. Greengrass Core가 실행 중이고, 수락할 준비가 되었으며, Lambda 함수를 실행합니다.

DeepLens 프로젝트 생성
모두 연결 및 설정되었으면 첫 번째 프로젝트를 생성할 수 있습니다. [Projects]로 이동하고 [Create new project]를 클릭합니다.

그런 다음 프로젝트 템플릿을 선택하거나 빈 프로젝트로 시작합니다. [cat and dog recognition]을 선택해 보겠습니다. 선택한 후 [Next]를 클릭합니다.

콘솔에서 프로젝트의 이름을 지정하고 사용자 지정할 수 있습니다. 보시다시피 이 프로젝트는 Lambda 함수와 위에서 나열한 사전 훈련을 받은 모델 중 하나를 참조합니다. 기본값이 모두 괜찮으므로 [Create]를 클릭합니다.

이제 카메라에 프로젝트를 배포합니다.

개와 고양이 학습 데이터 처리
이 함수는 카메라에서 실행되고, MQTT 주제에 출력이 게시됩니다. 다음은 cat and dog recognition 함수의 내부 루프에서 발췌한 것입니다(처리 중인 일부 오류 제거).

while doInfer:
    # Get a frame from the video stream
    ret, frame = awscam.getLastFrame()
    numFrames += 1

    # Resize frame to fit model input requirement
    frameResize = cv2.resize(frame, (224, 224))

    # Run model inference on the resized frame
    inferOutput = model.doInference(frameResize)

    # Publish a message to the cloud for every 100 frames
    if numFrames >= 10:
        msg = "Infinite inference is running. Sample result of the last frame is\n"
        # Output inference result of the last frame to cloud
        # The awsca module can parse the output from some known models
        outputProcessed = model.parseResult(modelType, inferOutput)

        # Get top 5 results with highest probiblities
        topFive = outputProcessed[modelType][0:2]
        msg += "label    prob"
        for obj in topFive:
            msg += "\n{}   {}".format(outMap[obj["label"]], obj["prob"])

        client.publish(topic=iotTopic, payload=msg)
        numFrames = 0;

말한 바와 같이 이를 수정하거나 처음부터 시작할 수 있습니다. 보시다시피 매우 손쉽게 시작할 수 있습니다.

여러분이 직접 DeepLens를 사용해 보면 어떤 결과가 나올지 정말 궁금합니다. 자세히 알아보고 집에서 AWS DeepLens를 연습해 보려면 AWS re:Invent에서 16개의 DeepLens 워크숍 중 하나에 꼭 참석하십시오.

사전 주문하기
2018년에 미국에서 처음으로 AWS DeepLens 배송을 시작할 예정입니다. 가격 및 구매 가능 여부에 대해 자세히 알아보거나 사전 주문하려면 DeepLens 페이지를 참조하십시오.

Jeff;

이 글은 AWS re:Invent 2017 신규 서비스 소식으로 AWS DeepLens – Get Hands-On Experience with Deep Learning With Our New Video Camera의 한국어 번역입니다.

Amazon Rekognition Video 출시 – 딥 러닝 기반 동영상 장면 인식 기능

작년 이맘때 쯤 re:Invent 2016에서 Amazon Rekognition 서비스를 발표했습니다. 당시 공개된 Amazon Rekognition Image는 딥 러닝을 사용하여 확장 가능한 이미지 인식 및 분석을 제공하는 클라우드 서비스입니다. Amazon Rekognition Image를 통해 객체 및 장면 감지, 실시간 얼굴 인식, 유명 인사 인식, 이미지 조정은 물론 텍스트 인식을 구축하고 애플리케이션과 시스템에 통합할 수 있습니다.

Amazon Rekognition 이미지 서비스는 딥 러닝 신경망 모델을 사용하여 만들어졌고, Prime Photos에서 매일 수십억 개의 이미지를 분석할 수 있도록 하는 것과 동일한 기술을 기반으로 합니다. Rekognition을 공개할 당시 일차적으로 역점을 둔 것은 이미지에 대한 확장 가능한 자동화된 분석, 검색 및 분류를 제공하는 것이었습니다. 그러한 기본 기능을 바탕으로 추가적인 기능을 발표합니다.

Amazon Rekognition Video 공개

Amazon Rekognition Video는 확장 가능한 컴퓨터 비전 분석을 S3에 저장된 비디오는 물론 라이브 비디오 스트림에 도입하는 새로운 비디오 분석 서비스 기능입니다.

Rekognition video를 통해 비디오에서 수천 개의 객체, 얼굴 및 콘텐츠를 정확하게 감지, 추적, 인식, 추출 및 조정할 수 있습니다. 이 새로운 기능은 비디오 내의 객체에 대한 정확한 정보를 제공할 뿐만 아니라, 비디오의 시각적 개체, 시간 및 모션 등의 맥락을 사용하여 활동 감지와 인물 추적을 수행하는 최초의 비디오 분석 서비스를 구현한다는 점에서 더욱 돋보입니다.

이러한 딥 러닝 기반 기능을 사용하여 비디오에서 수행되는 활동에 대한 더 완벽한 통찰을 이끌어낼 수 있습니다. 예를 들어 이 서비스 기능은 비디오에 사람, 차, 나무가 있음을 식별할 수 있을 뿐만 아니라, 비디오에서 사람이 차 쪽으로 달리고 있음을 추론할 수 있습니다. 이 기능을 통해 사용자에게 제공할 수 있는 다양한 서비스 시나리오를 상상해 볼 수 있습니다.

비동기식 Amazon Rekognition Video API를 사용하여 비디오 분석을 수행하는 프로세스는 다음과 같습니다.

  1. Rekognition Video Start 작업 API는 .mp4 또는 .mov 비디오에서 호출됩니다. 비디오는 H.264 코덱으로 인코딩해야 합니다. Start 작업 API는 다음과 같습니다.
    • StartPersonTracking
    • StartFaceDetection
    • StartLabelDetection
    • StartCelebrityRecognition
    • StartContentModeration
  2. Amazon Rekognition Video는 비디오를 처리하고, Amazon SNS 주제에 start 작업 API 요청의 완료 상태를 게시합니다.
  3. Amazon SQS 대기열 또는 AWS Lambda 함수에서 지정한 SNS 주제를 구독하여 API 완료 결과에 대한 알림을 검색합니다.
  4. SNS 알림에 제공된 JobID를 사용하여 비디오를 처리한 Start 작업 API와 연결된 Get 작업 API를 호출합니다. 이 JobID는 Start API 응답의 일부로도 제공됩니다. Get 작업 API는 다음과 같습니다.
    • GetPersonTracking
    • GetFaceDetection
    • GetLabelDetection
    • GetCelebrityRecognition
    • GetContentModeration
  5. Get 작업 API에서 반환된 JSON을 통해 비디오 분석 결과와 해당되는 경우 다음 번 결과 모음에 대한 페이지 매김 토큰을 검색합니다.

AWS CLI, AWS SDK 및/또는 REST API를 사용하여 Amazon Rekognition Video의 비디오 분석 기능을 활용할 수 있습니다. 새로운 서비스에 대해 배우려면 직접 뛰어들어 해보는 것보다 더 좋은 방법은 없습니다. 그런 의미에서 직접 해보겠습니다.

우선, Run by Foo Fighters와 Wild Thoughts by DJ Khaled라는 .mp4 파일 형식의 뮤직 비디오 두 개를 제 S3 노래 버킷에 업로드하여 시작하겠습니다. 이 노래들은 재생 목록에서 돌아가면서 재생됩니다. 제 음악적 취향은 폭넓고 다양합니다.

Rekognition Video의 알림에 대한 SNS 주제와 SNS 주제에서 알림을 받을 SQS 대기열을 만들겠습니다.


이제 내 SQS 대기열 RekognitionVideoQueue에서 내 SNS 주제 SNS-RekogntionVideo-Topic을 구독할 수 있습니다.


이제 AWS CLI를 사용하여 내 비디오 DJ_Khaled-Wild_Thoughts.mp4에 대해 start-face-detection API 작업을 호출하고, 이 API 응답에서 내 JobId를 가져오겠습니다.

SNS 주제에서 내 RekognitionVideoQueue SQS 대기열로 메시지가 수신되었다는 알림을 받고 해당 메시지의 StatusSUCCEEDED이면, get-face-detection API 작업을 호출하여 JobId로 비디오 분석 결과를 가져올 수 있습니다.


또한 start-label-detectionget-label-detection API 작업을 호출하고 내 다른 비디오인 Foo_Fighters-Run.mp4에 대한 비디오 분석을 수행하여 해당 비디오의 프레임에서 감지된 객체에 대한 정보를 가져올 수 있습니다.

요약

이제 Rekognition Video를 통해 휴대폰, 카메라, IoT 비디오 센서 및 실시간 라이브 스트림 비디오 처리로 캡처된 비디오를 사용하여 확장 가능하고 정확도가 높은 비디오 분석 솔루션을 만들 수 있습니다. 이 새로운 딥 러닝 비디오 기능은 비디오에서 객체, 얼굴 및 활동을 감지하는 데 필요한 모든 작업을 자동화하며, 다른 AWS 서비스 통합을 통해 다양한 워크로드에 적합한 강력한 미디어 애플리케이션을 구축할 수 있습니다.

Amazon Rekognition 및 새로운 Rekognition Video 기능에 대해 자세히 알아보려면 해당 제품 페이지의 시작하기 단원 또는 AWS 설명서의 Rekognition 개발자 안내서를 확인하십시오.

Tara;

이 글은 AWS re:Invent 2017 신규 서비스 소식으로 Welcoming Amazon Rekognition Video: Deep-Learning Based Video Recognition 의 한국어 번역입니다.

T2 무제한(Unlimited) 기능 – 피크에도 고성능 컴퓨팅 활용하기

2014년 여름에 T2 인스턴스에 대해 처음으로 소개하고, 대부분 IT 업무에서 지속적인 컴퓨팅 파워가 크게 요구되지 않고 가끔 더 많은 컴퓨팅이 필요할 때 사용할 수 있는 이제 버스팅 모델을 선보였습니다. T2 인스턴스는 현재 인기가 매우 높아져서 마이크로 서비스, 지연 시간이 짧은 대화형 애플리케이션, 가상 데스크톱, 빌드 및 스테이징 환경, 프로토타입 등을 호스팅하는 데 사용되고 있습니다.

신규 T2 무제한(Unlimited) 기능 출시
오늘 T2에서 제공하는 버스트 모델을 확장하여, 이제 최대한 낮은 비용으로 원하는 기간 동안 높은 CPU 성능을 유지할 수 있는 기능을 추가합니다. 사용하시려면 인스턴스를 시작할 때, 이 기능을 활성화하면 되고, 이미 실행 중인 인스턴스에 대해 이 기능을 활성화할 수도 있습니다. 24시간 동안 평균 CPU 사용률이 기준선보다 낮을 경우, 중간에 급증하는 모든 사용량이 시간당 T2 인스턴스 가격에 포함됩니다. 인스턴스가 장기간에 걸쳐 높은 CPU 사용률로 실행될 경우 소액의 시간당 요금이 청구됩니다. 예를 들어, t2.micro 인스턴스를 평균 15% 사용률(기준선보다 5% 높음)로 24시간 동안 실행할 경우 6센트(vCPU-시간당 5센트 * 1 vCPU * 5% * 24시간)의 추가 요금이 청구됩니다.

EC2 콘솔에서 T2 Unlimited 인스턴스를 시작하려면 T2 인스턴스를 선택한 다음 [T2 Unlimited] 옆에 있는 [Enable]을 클릭합니다.

T2 Standard에서 실행 중인 인스턴스를 T2 Unlimited로 전환하는 방법은 다음과 같습니다.

CPU 크레딧 계산 기준
원래 T2 인스턴스는 실행될 때마다 CPU 크레딧을 누적하였다가 최대 코어 속도로 실행할 때 CPU 크레딧을 사용합니다. 이때 크레딧 공급이 고갈되면 기준 레벨로 속도가 느려집니다. 하지만, T2 Unlimited 인스턴스에서는 하루 분량의 크레딧을 미리 빌려서 추가 버스팅을 수행할 수 있습니다. 이 값은 CloudWatch에 CPUSurplusCreditBalance라는 신규 측정치로 기록합니다. 잔여 크레딧 레벨이 하루 분량으로 증가하면 인스턴스에서는 전체 코어 성능을 계속 제공합니다. vCPU별로 시간당 $0.05(Linux) 또는 $0.096(Windows)의 요금이 청구됩니다. 청구되는 이 초과 크레딧은 새 CPUSurplusCreditsCharged 측정치에 의해 기록합니다. 지정된 시간 내에 초과 크레딧을 다 쓴 경우 한 시간 미만의 버스팅 시간에 대해 밀리초 단위로 요금이 청구됩니다. 따라서, 추가적으로 비용을 절감할 수 있습니다.

나머지 CPUSurplusCreditBalance에 대한 요금은 인스턴스를 종료하거나 T2 Standard로 구성할 때 처리됩니다. 누적된 CPUCreditBalance는 T2 Standard로 전환하는 동안 유지됩니다.

T2 Unlimited 모델은 CloudWatch 측정치를 조회하는 수고를 덜어주기 위해 설계되었지만, 원하는 경우 직접 확인해도 됩니다. 예를 들어, t2.nano의 시간의 흐름에 따른 크레딧에 대해 알아보겠습니다. 먼저 CPU 사용률이 100%로 증가하면 인스턴스에서는 5분마다 5크레딧을 소비합니다(1크레딧은 1 VCPU 분에 해당).

크레딧이 생성과 동시에 소비되고 있으므로 CPU 크레딧 잔고는 0으로 유지됩니다. 이 때, CPUSurplusCreditBalance 측정치에 의해 추적되는 초과 크레딧 잔고가 72까지 증가합니다. 이 초과 크레딧 잔고는 향후 크레딧에서 임차한 크레딧을 나타냅니다.

초과 크레딧 잔고가 72가 되면 더 이상 크레딧을 임차할 수 없으며, 추가 CPU 사용량에 대해서는 시간이 끝날 때 청구되며 이는 CPUSurplusCreditsCharged 측정치에 의해 추적됩니다. 인스턴스에서는 5분마다 5크레딧을 소비하고 0.25크레딧을 획득합니다. 따라서 5분의 버스팅당 4.75 VCPU 분의 순수 요금이 청구됩니다.

원한다면 언제든지 T2 Standard 및 T2 Unlimited 간에 각 인스턴스를 전환할 수 있습니다. CPUSurplusCreditsCharged를 제외한 모든 크레딧 잔고는 유지되며 이월됩니다. T2 Unlimited 인스턴스는 언제든지 버스팅할 수 있으므로 새로 시작된 T2 Standard 인스턴스에 제공되는 30분 크레딧이 제공되지 않습니다. 각 AWS 계정에서 매일 초기 CPU 크레딧을 사용하여 제한된 수의 T2 Standard 인스턴스를 시작할 수 있으므로, T2 Unlimited 인스턴스는 자동 스케일링 그룹과 다수의 인스턴스를 매일 동작하는 시나리오용으로 더 적합합니다.

정식 출시
T2 Unlimited 인스턴스는 현재 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 캐나다(중부), 남아메리카(상파울루), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(도쿄), 아시아 태평양(뭄바이), 아시아 태평양(서울), EU(프랑크푸르트), EU(아일랜드)EU(런던) 리전에서 시작할 수 있습니다.

Jeff;

이 글은 AWS re:Invent 2017 신규 서비스 소식으로 T2 Unlimited – Going Beyond the Burst with High Performance 의 한국어 번역입니다.