고급 영상 이해를 위한 TwelveLabs의 Marengo Embed 3.0, 이제 Amazon Bedrock에서 사용 가능
이제 TwelveLabs의 Marengo Embed 3.0이 Amazon Bedrock에서 제공되어, 영상 콘텐츠를 다루는 개발자와 조직에 고급 비디오 네이티브 멀티모달 임베딩 기능을 제공합니다. Marengo 임베딩 모델은 영상, 이미지, 오디오, 텍스트를 단일 표현 공간으로 통합하여, 업계 최고의 성능으로 모든 유형 검색, 추천 시스템 및 기타 멀티모달 작업을 위한 정교한 영상 검색 및 콘텐츠 분석 애플리케이션을 구축할 수 있게 합니다.
Marengo 3.0은 다음과 같은 주요 개선 사항을 제공합니다. 확장된 영상 처리 용량: 이전 버전의 두 배에 달하는 최대 4시간 분량의 영상 및 오디오 콘텐츠와 최대 6GB 크기의 파일을 처리할 수 있어, 전체 스포츠 이벤트, 장시간 교육 영상, 그리고 전체 영화 제작물을 분석하는 데 적합합니다. 향상된 스포츠 분석: 경기 역학, 선수 움직임, 이벤트 탐지에 대한 더 나은 이해를 통해 모델이 상당한 개선을 이루었습니다. 글로벌 다국어 지원: 지원 언어 범위가 12개에서 36개로 확장되어, 글로벌 기업이 다양한 지역과 시장에서 원활하게 작동하는 통합된 검색 및 검색 시스템을 구축할 수 있도록 지원합니다. 멀티모달 검색 정밀도: 단일 임베딩 요청에서 이미지와 설명 텍스트를 결합하여, 시각적 유사성과 의미론적 이해를 융합함으로써 더욱 정확하고 맥락적으로 관련성 높은 검색 결과를 제공합니다.
AWS는 TwelveLab의 Marengo 3.0 모델을 제공하는 최초의 클라우드 공급자로, 현재 미국 동부(버지니아 북부), 유럽(아일랜드), 아시아 태평양(서울)에서 사용할 수 있습니다. 이 모델은 저지연 텍스트 및 이미지 임베딩을 위한 동기식 추론과 영상, 오디오, 대규모 이미지 파일 처리를 위한 비동기식 추론을 지원합니다. 시작하려면 Amazon Bedrock 콘솔로 이동하세요. 자세한 내용은 제품 페이지와 설명서에서 확인하세요.