Amazon Web Services 한국 블로그
Amazon Transcribe Call Analytics, 고객 대화에서 인사이트 추출 기능 출시
2017년에 AWS에서는 개발자가 애플리케이션에 음성 텍스트로 변환 기능을 쉽게 추가할 수 있는 자동 음성 인식(ASR) 서비스인 Amazon Transcribe를 출시했습니다. 오늘부로, 단일 API 호출로 고객 대화에서 귀중한 인사이트를 쉽게 추출할 수 있는 새로운 기능인 Amazon Transcribe Call Analytics를 이용할 수 있다는 소식을 발표하게 되어 매우 기쁩니다.
잠재 고객 또는 기존 고객과의 모든 의논은 고객의 요구와 기대에 대해 배울 수 있는 기회입니다. 예를 들어, 고객 서비스 팀은 고객이 전화를 거는 주된 이유를 파악하고 이러한 통화 중 고객 만족도를 측정하는 것이 중요합니다. 마찬가지로 영업 사원은 고객의 관심과 특정 판매 설득에 대한 반응을 측정하려고 노력합니다.
따라서 많은 고객과 파트너는 고객 센터 공급자와 상관없이 다양한 애플리케이션에 통화 분석 기능을 추가하고자 합니다. 이럴 때는 웹 기반 오디오 및 화상 통화처럼 일반 전화 외의 내용을 분석해야 하는 경우가 많습니다. 그동안은 AI 서비스와 전용 기계 학습 모델을 함께 연결하여 이러한 작업을 수행했으며, 이제 보다 간단한 솔루션이 필요해졌습니다.
Amazon은 노력했고, Transcribe의 새로운 추가 기능이자 AWS Contact Center Intelligence에 핵심 개선이 될 Amazon Transcribe Call Analytics를 구축했습니다. 지금 바로 사용해 보고 싶다면 AWS 콘솔로 이동하세요. 더 자세히 알아보려면 이 문서의 내용을 계속 읽어보세요.
Amazon Transcribe Call Analytics 소개
Transcribe에서 구현된 ASR을 기반으로, Transcribe Call Analytics는 자연어 처리(NLP) 기능을 추가합니다. 고객 통화에 대해 특별히 훈련되었으며, 매우 정확한 통화 내용 전사와 실행 가능한 통찰력을 제공하도록 최적화되었습니다. 간단한 API 호출을 통해 개발자는 AI 파이프라인을 구축이나 사용자 지정 기계 학습 모델을 교육하지 않고도 모든 애플리케이션에 쉽게 통화 분석을 추가하고 대화에서 고객 인사이트를 추출할 수 있습니다.
Transcribe Call Analytics의 주요 기능은 다음과 같습니다.
- 21개 언어를 지원하는 타임스탬프가 찍힌 턴바이턴 통화 녹음.
- 문제 감지: 고객이 전화하는 이유를 나타내는 대화 턴에서 가장 짧은 연속 단어 집합을 선택합니다. 구성 또는 교육 없이 바로 사용할 수 있습니다.
- 다음의 대화 특성에 기반해 통화를 분류합니다.
- 특정 단어와 구문 일치시키기,
- 비대화 시간 감지,
- 중단 감지,
- 고객 및 에이전트에 대한 감정 분석
- 통화 특성에는 다음과 같은 것이 있습니다.
- 고객이나 상담원이 얼마나 빠르고 큰 소리로 말하고 있는지,
- 비대화 시간 감지,
- 중단 감지
- 텍스트 대본 및 해당 오디오 파일에서 민감한 데이터를 편집합니다.
예를 들어 고객이 상담원의 말을 끊고 부정적인 감정을 나타내며 “관리자와 대화하고 싶습니다”라고 말하는 통화에 플래그를 지정하는 규칙을 만들 수 있습니다. 이러한 통화는 원활히 진행되지 않기 마련이며 자세히 분석 할 가치가 있습니다! 상담원이 미리 정의된 인사말을 사용하지 않는 통화를 찾을 수도 있습니다(“ACME 지원에 오신 것을 환영합니다. 무엇을 도와드릴까요?”). 처음 15초 이내에 스크립트 규정 준수를 측정하고 감독자가 에이전트 코칭 기회를 식별할 수 있도록 지원합니다. 또 다른 인기있는 시나리오는, 사용자가 알아야 할 새로운 트렌드를 선택하기 위해 특정 제품 및 서비스(“ACME Turbo 2000 진공 청소기가 제대로 작동하지 않습니다”)에 대해 언급하는 규칙을 만드는 것입니다.
마지막으로, Amazon Translate와 같은 다른 AI 서비스 또는 Amazon SageMaker로 빌드된 사용자 지정 NLP 모델을 사용하여 텍스트 대본을 추가로 처리할 수 있습니다.
간단한 데모를 보여드리겠습니다.
Amazon Transcribe Call Analytics로 인사이트 추출
한 여성이 은행에 전화하여 신용 카드 및 직불 카드를 분실했다고 신고하는 지원 통화가 있다고 가정합시다. 사운드 파일은 스테레오 WAV 파일(16비트, 8kHz) 입니다.
Transcribe Call Analytics에서는 에이전트와 고객이 각자의 채널에서 녹음되어야 합니다. 또한 어느 쪽이 에이전트 채널인지 알려야 합니다. 스테레오 파일에서 왼쪽 채널이 일반적으로 첫 번째 채널(채널 #0)이고 오른쪽 채널은 두 번째 채널(채널 #1)입니다. 이 통화의 경우도 그렇습니다.
어느 쪽인지 확실하지 않다면 다양한 ffmpeg
오픈 소스 도구를 사용하여 각 채널을 별도의 오디오 파일로 쉽게 추출할 수 있습니다.
$ ffmpeg -i demo-call.wav -map_channel 0.0.0 channel0.wav -map_channel 0.0.1 channel1.wav
동일한 기술을 사용하여 비디오 파일과 같은 다른 파일 형식에서 오디오 채널을 추출하고 스테레오 오디오 파일에 다시 결합할 수 있습니다. ffmpeg
설명서에서 자세한 내용을 확인할 수 있습니다.
에이전트가 채널 #1 에 있다고 확신했으므로 AWS CLI를 사용하여 오디오 파일을 S3 버킷에 업로드합니다.
$ aws s3 cp launch-call.wav s3://jsimon-transcribe-useast1/demo-call.wav --region us-east-1
Transcribe Call Analytics 콘솔을 열면 통화 범주 템플릿을 사용할 수 있습니다.
감독자 에스컬레이션용 범주를 하나 만들기로 결정했습니다. 에이전트가 적절한 환영으로 통화를 시작하는지 확인할 용도로, 몇 번의 클릭만으로 welcome-message
라는 사용자 지정 통화 범주를 만듭니다. 필요하면 확인하기 위해 여러 구문을 추가 할 수 있습니다. 짧은 문장을 사용하여 단순 추임새가 튀어 나올 가능성을 최소화하는 것이 좋습니다(‘음음’, ‘어-‘ 등).
그런 다음 Transcribe에서 사용할 수 있는 일반 모델을 사용하여 통화 분석 작업을 생성합니다. 자동 언어 감지도 활성화합니다.
그런 다음 S3에서 오디오 파일의 위치를 정의하여 채널 #1을 에이전트 채널로 플래그를 지정합니다.
내 계정의 Transcribe에서 만든 기본 S3 버킷에 대본을 저장하기로 결정했습니다. 필요한 경우 자체 버킷을 사용할 수도 있습니다. 그런 다음 충분한 권한을 가진 AWS Identity and Access Management(IAM) 역할을 선택하고 작업을 시작합니다.
잠시 후 작업이 완료됩니다. 콘솔에는 텍스트 대본의 미리 보기와 전체 JSON 대본에 대한 링크가 포함되어 있습니다.
에이전트가 처음 15초 동안 적절한 환영 문장을 사용했으므로 통화에 앞 단계에서 만든 범주로 태그가 지정됩니다.
JSON 대본을 다운로드하면 대화의 각 문장에는 단어 당 음량에 대한풍부한 메타 데이터가 포함되어 있으며 이 값은 0~100 범위에서 측정됩니다(100이 최대). 첫 번째 문장은 다음과 같습니다.
"BeginOffsetMillis":440,"EndOffsetMillis":4960,
"Sentiment":"NEUTRAL",
"ParticipantRole":"AGENT",
"LoudnessScores":[78.68,80.4,81.91,78.95,82.34],
"Content":"안녕하세요. 전화 주셔서 감사합니다. 저는 애슐리라고 합니다. 무엇을 도와 드릴까요?“
다음 문장을 살펴보면, Transcribe 통화 분석이 고객 문제를 자동으로 감지한 것을 알 수 있습니다. 해당 텍스트는 굵게 표시됩니다.
"Content": "안녕하세요. 어, 카드를 취소하고 싶습니다. 음 직불 카드와 신용 카드가 있습니다.“,
"IssuesDetected":
[
{
"UnredactedCharacterOffsets":
{
"Begin": 26,
"End": 40
}}. . .
대본 끝에 글로벌 통화 통계(전체 시간, 대화 시간, 분당 단어 수, 일치하는 범주)가 표시됩니다. Transcribe는 또한 -5(매우 부정적)에서 +5(매우 긍정적)까지 전반적인 감정 정보를 제공합니다. 또한 4분기로 나눠진 분석을 받게 됩니다.
"Sentiment":{"OverallSentiment":{"AGENT":2.6,"CUSTOMER":0.2},
"SentimentByPeriod":{"QUARTER":
{"AGENT":[
{"Score":1.9,"BeginOffsetMillis":0,"EndOffsetMillis":68457},
{"Score":-0.7,"BeginOffsetMillis":68457,"EndOffsetMillis":136915},
{"Score":5.0,"BeginOffsetMillis":136915,"EndOffsetMillis":205372},
{"Score":3.0,"BeginOffsetMillis":205372,"EndOffsetMillis":273830}],
"CUSTOMER":[
{"Score":-1.7,"BeginOffsetMillis":0,"EndOffsetMillis":68165},
{"Score":0.0,"BeginOffsetMillis":68165,"EndOffsetMillis":136330},
{"Score":0.0,"BeginOffsetMillis":136330,"EndOffsetMillis":204495},
{"Score":2.1,"BeginOffsetMillis":204495,"EndOffsetMillis":272660}]}}}
고객이 부정적인 감정으로 전화를 시작했고 중립적인 감정으로 빠르게 전환하다 긍정적인 감정으로 전화를 종료하는 것을 알 수 있습니다. 이는 통화가 만족스럽게 처리되었고 고객 문제가 해결되었다는 좋은 신호입니다.
대본을 추가로 시각화할 수 있는 Word 문서로 변환하고 싶다면 제 동료 Andrew Kane이 멋진 도구를 만들어 Github에서 사용할 수있게했습니다. 다음은 그 도구로 만든 샘플 보고서입니다.
AWS 고객 및 파트너가 Amazon Transcribe Call Analytics를 사용
Talkdesk의 제품 및 엔지니어링, 인공 지능, 자동화 및 인력 부문 글로벌 책임자인 Ben Rigby는 다음과 같이 말했습니다. “우리 고객은 매년 고객 센터에서 수백만 건의 고객 서비스 통화를 처리하고 으며, 긍정적인 비즈니스 성과를 보장하기 위해 실행 가능한 대화 인사이트를 추출해야 하는 필요성이 대두되었습니다. AWS 고객 센터 인텔리전스 파트너로서 Amazon Transcribe를 통해 통화 기록 기능을 더욱 강화했습니다. Amazon Transcribe Call Analytics 출시와 함께 음성 분석 및 QM 어시스트 제품에 더 많은 AI 기능을 추가하게 되어 기쁩니다. 이러한 심층적인 인사이트를 통해 에이전트와 감독자에게 고객 서비스의 속도와 품질을 향상시키면서 인력 생산성을 높이는 데 필요한 데이터를 제공할 수 있습니다.”
SuccessKPI의 최고 제품 책임자인 Praphul Kumar는 다음과 같이 덧붙입니다. “Amazon Transcribe 통화 분석 API를 통해 기계 학습 기반 기능을 플랫폼에 더 빠르고 저렴한 비용으로 추가할 수 있습니다. 이 새로운 API는 여러 AI 서비스를 통합하거나 특정 영역에서 맞춤형 기계 학습 러닝 모델을 개발할 필요가 없습니다. Transcribe Call Analytics를 사용하면 감정, 비대화 시간 및 통화 범주와 같은 대화 인사이트를 제공하여 에이전트 성과를 측정할 수 있습니다. 이를 통해 통화 결과를 개선하고 에이전트 이직률을 줄이며 에이전트 코칭 기회를 파악하고 통화 스크립트 규정 준수를 측정할 수 있습니다. AWS 서비스를 SuccessKPI의 경험 분석 플랫폼에 결합하는 것은 쉬운 일이었습니다. 우리는 대기업 및 정부 기관에게 이렇게 귀중한 역량을 제공하기를 기대하고 있습니다.”
시작하기
단일 API 호출만으로 고객 대화에서 풍부한 인사이트를 추출할 수 있습니다. 다음 리전에서 바로 Amazon Transcribe Call Analytics를 사용할 수 있습니다.
- 미국 서부(오레곤), 미국 동부(버지니아 북부),
- 캐나다(중부),
- 유럽(런던), 유럽(프랑크푸르트),
- 아시아 태평양(뭄바이), 아시아 태평양(싱가포르), 아시아 태평양(서울), 아시아 태평양(도쿄), 아시아 태평양(시드니).
AWS 콘솔에서 이 새로운 기능을 사용해 보고 어떻게 생각하는지 알려주세요. 항상 그렇듯이, 여러분의 피드백을 기다리고 있습니다. 일반 AWS Support 담당자를 통해 보내거나, Amazon Transcribe의 AWS 포럼을 통해 보내실 수 있습니다.
마지막으로, 사용하기 쉬운 옴니 채널 클라우드 고객 센터를 찾고 계신다면 Amazon Connect와 기계 학습 분석이 제공되는 Contact Lens에 대해 알아보세요.