AWS 기술 블로그

Amazon Kendra, LangChain 및 대규모 언어 모델(LLM)을 사용하여 엔터프라이즈 데이터에서 높은 정확도의 생성형 AI 애플리케이션을 빠르게 구축하기

이번 게시글은 영문 게시글(Quickly build high-accuracy Generative AI applications on enterprise data using Amazon Kendra, LangChain, and large language models by Abhinav Jawadekar, Abhishek Maligehalli Shivalingaiah, Firaz Akmal, Jean-Pierre Dodel, and Mithil Shah) 의 한글 번역글입니다.

2023년 6월부터 LangChain이 정식으로 Amazon Kendra 검색 API를 빌트인으로 지원하면서 별도의 사용자 정의 클래스 및 함수 없이 Kendra를 적용할 수 있게 되었습니다. 이에 이 게시물과 AWS 샘플 깃허브 코드가 2023년 6월 27일에 개정판으로 업데이트되었습니다.

Amazon BedrockAmazon Titan을 통해 제공될 예정인 생성형 AI(GenAI; Generative AI)와 대규모 언어 모델(LLM; Large Language Model)은 개발자와 기업이 자연어 처리 및 이해와 관련된 전통적으로 복잡했던 문제를 해결하는 방식을 변화시키고 있습니다. LLM이 제공하는 몇 가지 이점으로는 고객 서비스 애플리케이션에서 더 강력하고 매력적인 대화형 AI 환경을 구축하고, 더 직관적이고 정확한 응답 결과를 통해 직원 생산성을 향상시킨다는 것입니다.

그러나 이러한 유스케이스를 위해서는 대화형 경험을 구현하는 GenAI 애플리케이션이 회사 데이터에 대한 응답을 제한하여 모델 환각(hallucinations, 잘못된 진술)을 완화하고 최종 사용자의 콘텐츠 액세스 권한에 따라 응답 결과를 필터링하는 두 가지 주요 기준을 충족하는 것이 중요합니다.

GenAI 애플리케이션 응답을 회사 데이터로만 제한하려면 검색 증강 생성(RAG; Retrieval Augmented Generation)이라는 기법을 사용해야 합니다. RAG 접근 방식을 사용하는 애플리케이션은 기업 지식 기반 또는 콘텐츠에서 사용자의 요청과 가장 관련성이 높은 정보를 검색하고, 이를 사용자의 요청과 함께 컨텍스트로 묶어 프롬프트로 표시한 다음, 이를 LLM으로 전송하여 GenAI 응답 결과를 얻습니다. LLM에는 입력 프롬프트의 최대 단어 수에 대한 제한이 있으므로 기업 내 수천 또는 수백만 개의 문서 중에서 올바른 구문을 선택하는 것이 LLM의 정확도에 직접적인 영향을 미칩니다.

효과적인 RAG를 설계할 때 콘텐츠 검색은 LLM이 엔터프라이즈 콘텐츠에서 가장 관련성이 높고 간결한 컨텍스트를 수신하여 정확한 응답을 생성할 수 있도록 하는 중요한 단계입니다. 바로 이 단계에서 Amazon Kendra의 정확한 기계 학습(ML) 기반 지능형 검색이 중요한 역할을 합니다. Amazon Kendra는 문서와 구절의 최신 순위를 매기는 시맨틱 검색 기능을 곧바로 사용할 수 있는 완전 관리형 서비스입니다. Amazon Kendra의 정확도 높은 검색 기능으로 가장 관련성이 높은 콘텐츠와 문서를 소싱하여 RAG 페이로드의 품질을 극대화함으로써, 기존 솔루션이나 키워드 기반 검색 솔루션을 사용할 때보다 더 나은 LLM 응답 결과를 얻을 수 있습니다. Amazon Kendra는 14개 도메인에 대해 사전 훈련되고 ML 전문 지식이 필요하지 않은 고편의성의 딥러닝 검색 모델을 제공하므로, 단어 임베딩, 문서 청킹, 그리고 일반적으로 RAG 구현에 필요한 기타 하위 수준의 복잡성을 처리할 필요가 없습니다. Amazon Kendra는 RAG 유스케이스를 위해 설계된 검색(Retrieve) API를 제공합니다. 검색 API를 사용하면 각각 최대 200개의 토큰 단어로 구성된 의미적으로 연관성이 높은 구절을 관련성 순으로 최대 100개까지 검색할 수 있습니다. 또한 Amazon Kendra는 Amazon Simple Storage Service (Amazon S3), SharePoint, Confluence, 웹사이트 등 널리 사용되는 데이터 소스에 대한 사전 구축된 커넥터를 제공하며 HTML, Word, PowerPoint, PDF, Excel 및 일반 텍스트 파일과 같은 일반적인 문서 형식을 지원합니다. 최종 사용자 권한이 허용하는 문서만을 기준으로 응답을 필터링하기 위해 Amazon Kendra는 액세스 제어 목록(ACL; Access Control List)을 지원하는 커넥터를 제공합니다. 또한 Amazon Kendra는 Okta 및 Azure AD (Azure Active Directory)와 같은 고객 ID 공급자와 사용자 그룹 정보를 동기화하기 위해 AWS Identity and Access Management (IAM) 및 AWS IAM Identity Center (AWS Single Sign-On 후속 제품)와의 통합을 제공합니다.

이 게시물에서는 Amazon Kendra의 기능과 LLM을 결합하여 엔터프라이즈 콘텐츠에 대화형 경험을 제공하는 최첨단 GenAI 애플리케이션을 생성함으로써 RAG 워크플로를 구현하는 방법을 보여드립니다. Amazon Bedrock이 출시되면 Amazon Bedrock을 사용하여 유사한 GenAI 애플리케이션을 구현하는 방법을 보여주는 후속 포스팅을 게시할 예정이니 기대해 주세요.

솔루션 개요

다음 다이어그램은 RAG 접근 방식을 사용하는 GenAI 애플리케이션의 아키텍처입니다.

Amazon Kendra 인덱스를 사용하여 위키 페이지, MS SharePoint 사이트, Atlassian Confluence, Amazon S3와 같은 문서 리포지토리와 같은 데이터 소스에서 엔터프라이즈 비정형 데이터를 수집합니다. 사용자가 GenAI 앱과 상호 작용할 때의 과정은 아래와 같습니다.

  1. 사용자가 GenAI 앱에 요청을 합니다.
  2. 앱이 사용자 요청에 따라 Amazon Kendra 인덱스에 검색 쿼리를 실행합니다.
  3. 인덱스는 수집된 엔터프라이즈 데이터에서 관련 문서를 발췌하여 검색 결과를 반환합니다.
  4. 앱이 사용자 요청과 함께 인덱스에서 검색된 데이터를 LLM 프롬프트의 컨텍스트로 전송합니다.
  5. LLM은 검색된 데이터를 기반으로 사용자 요청에 대한 간결한 응답을 반환합니다.
  6. LLM의 응답이 사용자에게 다시 전송됩니다.

이 아키텍처를 사용하면 유스케이스에 가장 적합한 LLM을 선택할 수 있습니다. LLM 옵션에는 Amazon SageMaker 엔드포인트에서 제공되는 파트너인 허깅페이스(Hugging Face), AI21 Labs, Cohere 및 기타 파트너뿐만 아니라 AnthropicOpenAI와 같은 회사의 모델도 포함됩니다. Amazon Bedrock을 사용하면 데이터가 AWS 에코시스템을 떠나지 않고도 API를 통해 Amazon의 자체 LLM인 Amazon Titan 또는 AI21 Labs 및 Anthropic과 같은 파트너사의 LLM을 보안 보장하에 선택할 수 있습니다. Amazon Bedrock이 제공하는 추가 혜택으로는 서버리스 아키텍처, 지원되는 LLM을 호출하는 일원화된 API, 개발자 워크플로를 간소화하는 관리형 서비스 등이 있습니다.

최상의 결과를 얻으려면 GenAI 앱은 사용자 요청과 사용 중인 특정 LLM을 기반으로 프롬프트 엔지니어링을 수행해야 합니다. 대화형 AI 앱은 채팅 기록과 컨텍스트도 관리해야 합니다. GenAI 앱 개발자는 선택한 LLM과 통합할 수 있는 모듈을 제공하는 LangChain과 같은 오픈 소스 프레임워크와 채팅 기록 관리 및 프롬프트 엔지니어링과 같은 작업을 위한 오케스트레이션 툴을 사용할 수 있습니다. LangChain은 2023년 6월 말에 릴리스된 0.0.213 버전부터 AmazonKendraRetriever 클래스를 제공합니다. 이 클래스는 애플리케이션이 Amazon Kendra 인덱스에서 데이터를 검색하기 위해 체인(Chain) 등 다른 LangChain 인터페이스와 함께 사용할 수 있는 LangChain 검색기 인터페이스를 구현합니다. AmazonKendraRetriever 클래스는 Amazon Kendra의 검색 API를 사용하여 Amazon Kendra 인덱스에 대한 쿼리를 수행하고 쿼리와 가장 관련성이 높은 발췌 구절로 결괏값을 얻습니다. 이에 관련된 몇 가지 샘플 애플리케이션을 깃허브 리포지토리에 공개했습니다. 또한 본 포스팅의 스텝-바이-스텝 가이드를 사용하여 여러분의 AWS 계정에 해당 솔루션을 배포할 수 있습니다.

사전 요구 사항

본 튜토리얼을 수행하려면 리눅스, 맥 또는 리눅스용 윈도우즈 서브시스템에 파이썬 3.9 이상이 설치된 bash 터미널과 AWS 계정이 필요합니다. AWS Cloud9 인스턴스 또는 Amazon Elastic Compute Cloud (Amazon EC2) 인스턴스 사용을 권장합니다.

RAG 워크플로 구현

RAG 워크플로를 구성하려면 다음 단계를 완료합니다.

  1. 제공된 AWS CloudFormation 템플릿을 사용하여 신규 Amazon Kendra 인덱스를 생성합니다.
    이 템플릿에는 Amazon Kendra, Amazon LexAmazon SageMaker에 대한 AWS 온라인 설명서가 포함된 샘플 데이터가 포함되어 있습니다. 혹은 Amazon Kendra 인덱스가 있고 자체 데이터 세트를 인덱싱한 경우 이를 사용해도 됩니다. 스택을 시작하는 데 약 30분이 소요되고, 스택을 동기화하고 인덱스의 데이터를 수집하는 데 약 15분이 소요됩니다. 따라서 스택을 시작한 후 약 45분 정도 기다리세요. 스택의 출력 탭에서 인덱스 ID와 AWS 리전을 확인합니다.
  2. 생성형 AI 환경을 개선하려면 더 많은 양의 문서 요약본을 반환하도록 요청하는 것이 좋습니다. AWS 관리 콘솔에 사용 중인 브라우저 창에서 Service Quota로 이동하여 한도(quota) 증가 요청을 선택하고 한도 값을 최대 750까지의 숫자로 변경합니다. (필수는 아닙니다.)
  3. 이 튜토리얼에 사용된 샘플 애플리케이션을 사용하려면 Flan-T5-XL, Flan-T5-XXL, Anthropic Claude-V1 및 OpenAI-text-davinci-003의 LLM에 하나 이상의 액세스 권한이 있어야 합니다.
    1. Flan-T5-XL 또는 Flan-T5-XXL을 사용하려면 Amazon SageMaker Studio Jumpstart를 사용하여 SageMaker 추론 엔드포인트에 배포합니다. (옮긴이: 단일 GPU 인스턴스로 배포가 가능한 Flan-T5-XL 모델의 배포를 권장합니다. Flan-T5-XXL 모델 배포는 다중 GPU 인스턴스인 ml.g5.12xlarge가 요구되기에 많은 비용이 발생합니다.)
    2. Anthropic Claude-V1 또는 OpenAI-davinci-003으로 작업하려면 각각 https://www.anthropic.com/https://openai.com/ 에서 관심 있는 LLM의 API 키를 확보하세요.
  4. 깃허브 리포지토리의 지침에 따라 KendraIndexRetriever 인터페이스와 샘플 애플리케이션을 설치합니다.
  5. 샘플 애플리케이션을 실행하기 전에 Flan-T5-XL 또는 Flan-T5-XXL 중 여러분이 선호하는 LLM 또는 SageMaker 엔드포인트의 Amazon Kendra 인덱스 세부 정보 및 API 키로 환경 변수를 설정해야 합니다. 다음은 환경 변수를 설정하는 샘플 스크립트입니다. (FLAN_XL_ENDPOINT, FLAN_XXL_ENDPOINT, OPENAI_API_KEY 또는 ANTHROPIC_API_KEY 중 하나만 있어도 충분합니다.)
    export AWS_REGION="<YOUR-AWS-REGION>"
    export KENDRA_INDEX_ID="<YOUR-KENDRA-INDEX-ID>"
    export FLAN_XL_ENDPOINT="<YOUR-SAGEMAKER-ENDPOINT-FOR-FLAN-T-XL>"
    export FLAN_XXL_ENDPOINT="<YOUR-SAGEMAKER-ENDPOINT-FOR-FLAN-T-XXL>"
    export OPENAI_API_KEY="<YOUR-OPEN-AI-API-KEY>"
    export ANTHROPIC_API_KEY="<YOUR-ANTHROPIC-API-KEY>"
  6. 커맨드 라인 창에서 깃허브 리포지토리를 복제한 위치의 samples 하위 디렉터리로 변경합니다. 커맨드 라인에서 python <sample-file-name.py>로 커맨드 라인 앱을 실행할 수 있습니다. 디렉터리를 samples로 변경하고 streamlit run app.py <anthropic|flanxl|flanxxl|openai>를 실행하여 streamlit 웹 앱을 실행할 수 있습니다.
  7. 여러분이 선호하는 편집기에서 샘플 파일 kendra_retriever_flan_xl.py 를 엽니다.
    result = run_chain(chain, "What's SageMaker?") 문을 살펴보세요. 이 코드의 의미는 Flan-T5-XL 모델을 LLM으로 사용하고 Amazon Kendra를 검색기로 사용하는 체인을 통해 실행되는 사용자 쿼리(“What’s SageMaker?”)입니다. 이 파일을 실행하면 아래와 같은 출력이 표시됩니다. 이 체인은 사용자 쿼리를 Amazon Kendra 인덱스로 전송하고, 상위 3개의 결과 요약문을 검색하여 쿼리와 함께 프롬프트의 컨텍스트로 전송했으며, 이에 대해 LLM은 적절한 답변을 출력합니다. 아울러 소스(답변을 생성하는 데 사용된 문서의 URL)도 같이 출력합니다.

    ~. python3 kendra_retriever_flan_xl.py
    Amazon SageMaker is a machine learning service that lets you train and deploy models in the cloud.
    Sources:
    https://docs.aws.amazon.com/sagemaker/latest/dg/data-parallel-intro.html
    https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-projects-whatis.html
    https://docs.aws.amazon.com/sagemaker/latest/dg/whatis.html
  8. 이제 app.pystreamlit run app.py flanxl 커맨드로 실행합니다. 실행 시 Flan-T5-XL 모델을 LLM으로 사용합니다. (옮긴이: 원문은 Flan-T5-XXL을 사용하지만, Flan-T5-XL로 실행해도 무방하며, 보다 비용 효율적입니다.)웹 인터페이스가 있는 브라우저 창이 열립니다. 쿼리를 입력할 수 있는데, “What is Amazon Lex?”를 입력해 봅니다. 다음 스크린샷과 같이 애플리케이션에서 응답 결과가 출력되고, 소스(Sources) 절에는 Amazon Kendra 인덱스에서 발췌한 문서가 검색되어 쿼리와 함께 컨텍스트로 프롬프트에서 LLM으로 전송된 문서의 URL이 제공됩니다.
  9. (선택 사항) 이제 app.py를 다시 실행하고 streamlit run app.py anthropic 커맨드를 사용하여 대화형 환경을 느껴보겠습니다. 여기서 사용된 기본 LLM은 Anthropic Claude-V1입니다.

LLM은 Amazon Kendra 인덱스에서 검색한 문서를 기반으로 사용자의 쿼리에 대한 자세한 답변을 제공한 다음, 답변을 생성하는 데 사용된 소스 문서의 URL과 함께 답변을 제공합니다. 후속 쿼리에는 Amazon Kendra가 명시적으로 언급되어 있지 않지만, ConversationalRetrievalChain (LangChain 프레임워크의 일부이며 retriever 인스턴스에서 검색된 대화형 애플리케이션 기반 정보를 쉽게 개발할 수 있는 메커니즘을 제공하는 체인의 한 유형으로 본 LangChain 애플리케이션에 사용됩니다.) 이 채팅 기록과 컨텍스트를 관리하여 적절한 응답을 생성합니다. 다음 링크의 동영상에서 내용을 확인 할 수 있습니다.

또한, 다음 스크린샷에서 Amazon Kendra는 쿼리에 대한 추출 답변을 찾아서 발췌한 상위 문서들을 후보 목록에 추가합니다. 그런 다음 LLM은 이렇게 검색된 요약문을 기반으로 보다 간결한 답변을 생성할 수 있습니다.

다음 절에서는 Amazon Kendra에서 생성형 AI를 사용하는 두 가지 유스케이스를 살펴봅니다.

유스케이스 1: 금융 서비스 기업 대상의 생성형 AI

금융 조직은 재무 보고서, 법률 문서, 백서 등 다양한 데이터 리포지토리에 데이터를 생성하고 저장합니다. 엄격한 정부 규정과 감독을 준수해야 하므로 직원들은 관련성 있고 정확하며 신뢰할 수 있는 정보를 신속하게 찾아야 합니다. 뿐만 아니라, 다양한 데이터 소스에서 인사이트를 검색하고 집계하는 작업은 번거롭고 오류가 발생하기 쉽습니다. AWS의 생성형 AI를 사용하면 다양한 데이터 소스와 유형에서 신속하게 답변을 생성하여 엔터프라이즈 규모에서 정확한 답변을 합성할 수 있습니다.

저희는 Amazon Kendra와 AI21 Lab의 Jurassic-2 Jumbo Instruct LLM을 사용하는 솔루션을 선택했습니다. Amazon Kendra를 사용하면 Amazon S3, 웹사이트, ServiceNow와 같은 여러 데이터 소스에서 데이터를 쉽게 수집할 수 있습니다. 그런 다음 Amazon Kendra는 AI21 Lab의 Jurassic-2 Jumbo Instruct LLM을 사용하여 데이터 요약, 보고서 생성 등과 같은 엔터프라이즈 데이터에 대한 추론을 수행합니다. Amazon Kendra는 최종 사용자에게 정확하고 검증 가능한 정보를 제공하기 위해 LLM을 보강하여 LLM의 환각 문제를 경감합니다. 제안된 솔루션을 통해 재무 분석가는 정확한 데이터를 사용하여 더 빠른 의사 결정을 내리고 상세하고 포괄적인 포트폴리오를 신속하게 구축할 수 있습니다. 이 솔루션은 조만간 오픈 소스 프로젝트로 공개할 예정입니다.

예시

재무 분석가와 감사자는 Kendra 챗봇 솔루션을 사용하여 엔터프라이즈 데이터(재무 보고서 및 계약서)와 상호 작용하여 감사 관련 질문에 대한 신뢰할 수 있는 답변을 찾을 수 있습니다. Kendra 챗봇은 소스 링크와 함께 답변을 제공하며, 긴 답변을 요약하는 기능도 갖추고 있습니다. 다음 스크린샷은 Kendra 챗봇과의 대화 예시입니다.

아키텍처 개요

다음 다이어그램은 솔루션 아키텍처를 보여줍니다.

워크플로는 다음 단계로 구성됩니다:

  1. 재무 문서와 계약서를 Amazon S3에 저장하고, S3 데이터 소스 커넥터를 사용하여 Amazon Kendra 인덱스에 수집합니다.
  2. LLM은 SageMaker 엔드포인트에서 호스팅됩니다.
  3. Amazon Lex 챗봇은 Amazon Lex web UI를 통해 사용자와 상호 작용하는 데 사용됩니다.
  4. 이 솔루션은 LangChain과 함께 AWS Lambda 함수를 사용하여 Amazon Kendra, Amazon Lex 및 LLM 간에 오케스트레이션을 수행합니다.
  5. 사용자가 Amazon Lex 챗봇에게 재무 문서에 대한 답변을 요청하면, Amazon Lex는 LangChain 오케스트레이터를 호출하여 요청을 이행합니다.
  6. 쿼리에 따라 LangChain 오케스트레이터는 Amazon Kendra에서 관련 재무 기록과 단락을 가져옵니다.
  7. LangChain 오케스트레이터는 필요한 활동을 수행하기 위해 쿼리 및 관련 프롬프트와 함께 이러한 관련 기록을 LLM에 제공합니다.
  8. LLM은 LangChain 오케스트레이터의 요청을 처리하고 결과를 반환합니다.
  9. LangChain 오케스트레이터는 LLM에서 결과를 가져와 Amazon Lex 챗봇을 통해 최종 사용자에게 전달합니다.

유스케이스 2: 의료 연구자 및 임상의 대상의 생성형 AI

임상의와 연구자들은 연구의 일환으로 의학 저널이나 정부 보건 웹사이트에서 수천 개의 논문을 분석하는 경우가 많습니다. 더 중요한 것은 연구 결과를 검증하고 입증하는 데 사용할 수 있는 신뢰할 수 있는 데이터 소스를 원한다는 것입니다. 이러한 과정에는 몇 시간의 집중적인 연구, 분석, 데이터 합성이 필요하므로 가치 창출과 혁신까지의 시간이 늘어납니다. AWS의 생성형 AI를 사용하면 신뢰할 수 있는 데이터 소스에 연결하고 자연어 쿼리를 실행하여 이러한 신뢰할 수 있는 데이터 소스 전반에서 몇 초 만에 인사이트를 생성합니다. 또한 응답을 생성하는 데 사용된 소스를 검토하고 그 정확성을 검증할 수도 있습니다.

저희는 Amazon Kendra와 허깅페이스의 Flan-T5-XXL을 사용하는 솔루션을 선택했습니다. 먼저 Amazon Kendra를 사용하여 전체 말뭉치에서 의미적으로 관련성이 있는 문서에서 텍스트 스니펫(text snippets)을 식별합니다. 그런 다음 Flan-T5-XXL과 같은 LLM의 강력한 성능을 활용하여 Amazon Kendra의 텍스트 스니펫을 컨텍스트로 사용하고 간결한 자연어 답변을 얻습니다. 이 접근 방식에서 Amazon Kendra 인덱스는 RAG 메커니즘에서 구절 검색기(passage retriever) 구성 요소로 작동합니다. 마지막으로 Amazon Lex를 사용하여 프런트엔드를 구동함으로써 최종 사용자에게 원활하고 반응이 빠른 경험을 제공합니다. 이 솔루션은 가까운 시일 내에 오픈 소스 프로젝트로 공개할 예정입니다.

예시

다음 스크린샷은 깃허브에서 제공하는 템플릿을 사용하여 솔루션용으로 구축된 웹 UI에서 발췌한 것입니다. 분홍색 텍스트는 Amazon Kendra LLM 시스템의 응답 결과이며, 파란색 텍스트는 사용자 질문입니다.

아키텍처 개요

이 솔루션의 아키텍처 및 솔루션 워크플로는 유스케이스 1과 유사합니다.

리소스 정리

비용을 절약하려면 튜토리얼의 일환으로 배포한 모든 리소스를 삭제합니다. CloudFormation 스택을 시작한 경우 AWS CloudFormation 콘솔을 통해 삭제할 수 있습니다. 마찬가지로 SageMaker 콘솔을 통해 만들었던 모든 SageMaker 엔드포인트를 삭제할 수 있습니다.

결론

대규모 언어 모델을 기반으로 하는 생성형 AI는 사람들이 정보에서 인사이트를 얻고 적용하는 방식을 바꾸고 있습니다. 그러나 엔터프라이즈 유스케이스의 경우, 검색 증강 생성 접근 방식을 사용하여 도메인 내 답변을 유지하고 환각을 완화하기 위해 엔터프라이즈 콘텐츠를 기반으로 인사이트를 생성해야 합니다. RAG 접근 방식에서 LLM이 생성하는 인사이트의 품질은 그 기반이 되는 검색된 정보의 의미론적 관련성에 따라 달라지므로, 정확도가 높은 의미론적 검색 결과를 즉시 제공하는 Amazon Kendra와 같은 솔루션의 필요성이 점점 더 커지고 있습니다. 검색 API(RAG용으로 특별히 설계된 검색 API, 포괄적인 데이터 소스 커넥터 에코시스템, 표준 파일 포맷 지원, 보안 기능을 갖춘 Amazon Kendra를 검색 메커니즘으로 사용하여 엔터프라이즈 유스케이스에 생성형 AI 솔루션을 빠르게 도입할 수 있습니다. AWS에서 생성형 AI로 작업하는 것에 대한 자세한 내용은 Announcing New Tools for Building with Generative AI on AWS 블로그를 참조하세요. 이 블로그에 설명된 방법을 사용하여 엔터프라이즈 GenAI 앱에 대한 RAG PoC를 실험하고 구축할 수 있습니다. 앞서 언급했듯이, Amazon Bedrock이 정식 출시되면 Amazon Bedrock을 사용하여 RAG를 구축하는 방법을 보여주는 후속 블로그를 게시할 예정입니다.

Daekeun Kim

Daekeun Kim

김대근 AI/ML 전문 솔루션즈 아키텍트는 다년간 스타트업, 제조 및 금융 업계를 거치며 컴퓨터 비전 엔지니어로서 다수의 1저자 특허를 등록하고 제품 양산에 기여했으며, 데이터 과학자로서 다양한 PoC와 현업 프로젝트를 수행했습니다. 현재는 고객들이 AWS 인프라 상에서 AI/ML 서비스를 더욱 효율적으로 사용할 수 있도록 기술적인 도움을 드리면서 AI/ML 생태계 확장에 기여하고 있습니다. 머신러닝을 공부하기 시작했을 때 접한 톰 미첼(Tom M. Mitchell)의 명언, “머신러닝으로 문제를 해결하려면 해결하고자 하는 문제를 명확히 정의해야 한다”라는 말을 상기하며 항상 초심을 잃지 않으려 합니다.