LLM 생성 모델 - 챗봇 구축 전략 (HelpNow)
페이지 정보
작성자 bryanai 작성일 24-09-12 10:21 조회 1,176 댓글 0본문
https://www.youtube.com/watch?v=4zRc-k2KNKQ&t=392s
LLM 생성 모델 - 챗봇 구축 전략 (HelpNow)
이 발표는 LLM(대규모 언어 모델)과 챗봇 구축 전략에 대해 설명합니다. 발표자는 클라우드 기반 LLM과 자체 구축의 차이점을 논의하며, 기업들이 어떤 방식으로 챗봇을 도입할 수 있을지 설명합니다. 특히 GPT-4, PaLM-2, 그리고 오픈소스 모델인 라마 2와 같은 LLM이 기업 환경에서 어떻게 사용될 수 있는지, 그리고 이를 기반으로 한 서비스 구축 방법을 소개합니다.
주요 내용은 다음과 같습니다:
1. **LLM의 급속한 발전**: 기업은 자체 모델 구축과 클라우드 LLM 사용 중 선택해야 하며, 클라우드 기반 LLM을 추천합니다. 자체 모델을 구축하려면 상당한 리소스가 필요하지만, 클라우드를 활용하면 비용과 시간을 절감할 수 있습니다.
2. **LLM Ops 방법론**: 기초 모델의 선정, 프롬프트 관리, 배포, 모니터링 등 LLM 운영을 위한 체계적인 방법론이 필요합니다. 클라우드 서비스는 이미 이러한 기능을 제공하고 있어 이를 활용하는 것이 유리합니다.
3. **Fine-Tuning과 RAG**: 기업은 자신만의 데이터를 사용해 LLM을 파인튜닝하거나, RAG(검색 기반 모델)를 사용해 더 정확한 답변을 제공하는 챗봇을 만들 수 있습니다.
4. **가드레일과 캐싱**: LLM이 안전하게 작동하도록 가드레일을 설정하고, 시스템의 성능을 유지하기 위해 캐싱 메커니즘을 도입해야 합니다.
5. **챗봇 구축 패턴**: LLM을 기반으로 한 챗봇을 만들 때 고객사의 요구에 맞는 다양한 기술 패턴을 활용해야 하며, 이를 통해 고객의 요구를 충족하는 맞춤형 챗봇을 구축할 수 있습니다.
마지막으로, HelpNow 솔루션을 통해 안전한 챗봇 서비스를 제공할 수 있으며, 음성 봇, 상담원 보조 기능, AI 컨택센터 등 다양한 AI 서비스를 통합적으로 제공할 수 있다고 설명합니다.
LLM 생성 모델 - 챗봇 구축 전략 (HelpNow) - YouTube
Transcript:
(00:02) [박수] 안녕하세요 헬프나우 개발팀장 박희철입니다네 이번 발표회 주제는 llm 생성 모델 그리고 챗봇 구축 전략입니다 아무래도 제가 개발자라서 좀 개발 스택으로 좀 얘기를 해야 되는데 지루하니깐 좀 빠르게 진행하도록 하겠습니다 목차는 다음과 같습니다 그 csp 클라우드 언어 모델 사용에 대한 설명과 그리고 클라우드 ll의 문영을 위한 엘레베 웍스 그리고 고객사에서 개발해야 될 서비스 패턴이 어떤 건지 알아보고요 그리고 마지막으로 help Now 데모 순으로 진행하겠습니다 내 앞에 세션에서 보여드린 그 클라우드 csp사에서 제공하고 있는 GPT 4라던가 팜투 그리고 왓슨 x 등 바이브로 llm의 춘추전국시대인데요 조만간에 이미 공개된 그 라마 2 하고 클로바 x 등도 이제 기업에서 많이 활용될 예정입니다 에덴m 서비스 개발을 하고 고객을 도와주는 일을 하는 저희 베스핀 글로벌은 굉장히 지금 많은 일들을 하고 있는데요
(01:05) 실제로 학계에서 llm은 프리트레인 태스크의 변경 없이도 매우 높은 제로샷 성능 및 언어 능력을 보이고 있기 때문에 다양한 태스크에 대해서 일반화 성능 및 체포 가능성을 현재 검증 완료한 사항입니다 그리고 엔터프라이즈 기업에서는 아마 랭코드 라마 인덱스 등으로 이제 에저 gpt4라던가 gcp에 있는 팜투를 이용해서 프로토타입 형태로 이제 파이썬 개발을 많이 진행해 보셨을 것이고요 아마 업무 도입에 충분한 가능성은 이미 확인한 상태일 겁니다 그런데 저희가 이제 고객사를 만나면 이제 적극적으로 이제 미리 도입하려는 고객분들도 계시지만 아직까지는 이제 LM 기술이 완벽하지 않아 기업에서도 도입은 아직 아닌 것 같아 혹은 질문하면 답변 잘 못하던데 뭐라 하마 2 나오면 직접 구축해서 한번 해 볼 거야 뭐 이렇게 주저하는 고객사도 덜어 있습니다 하지만 제가 추천드리고 싶은 방법은 현재의 ln만을 보지 마시고 llm이 지금 엄청나게 급속하게
(02:09) 성장을 하고 있고 또 가까운 미래에 아마 이번 연말이라던가 아마 내년 초가 되면 정말 많은 서비스들이 지금 현재 오픈을 기다리고 있고요 그리고 우선 가볍게라도 이제 클라우드 기반으로 시작해 보시라고 추천을 드리고 있습니다 네 이제 기업에서는 자체 llm을 구축을 할 것이냐 아니면 클라우드 llm을 사용을 할 것이냐 굉장히 고민이 많은데 우선 뭐 gpt3와 같은 다빈치 모델을 이제 기업에서 직접 내가 구축을 해 볼 거야라고 한다면 이제 만개 정도 되는 이제 GPU 서버가 필요하고 그리고 이제 모델 학습 예산은 한 2억 달러 그리고 시간은 보통 이제 데이터를 수집을 하는데 한 12개월 정도 소요가 되고요 그리고 저희도 학습을 해보고 있는데 한 9개월 정도 반복적으로 재학습을 시켜야 됩니다 그리고 가장 주로 중요한이 추론 서버인데요 대부분 이제 모델을 만들어 놓고 이거를 뭐 내부 직원이라던가 아니면 고객들한테 서빙을 해야 되는데 정말 이게 24365 급의 그런 GPU 시스템이 구축이 돼야 되고
(03:12) 그리고 그거를 관리할 수 있는 대복스 인력도 필요하게 됩니다 그리고 최근에 이제 소규모 오픈소스로 이제 lm을 구축하는 시도가 있는데요 오픈소스 이제 기초 모델 기반의 그런 파인토닝을 진행해서 산업에도 적용이 가능한데 아까 이제 와이파이 BM 쪽에서 라마 2를 이제 9월 달에 이제 지원을 한다고 하니까 ibmys x를 통해 가지고 라마 2도 한번 사용을 해 볼 수 있는 기회가 있을 겁니다 그리고 제가 설명드리고 싶으면 장표는 이제 애들의 몹스인데요 실제로이 기초 모델을 구축을 하고 운영을 해야 되는데 운영을 하기 위한 그 llm 옵스 방법론이 필요합니다 아마 이제 최근에 많이 들어보셨을 건데 우선 자기가 원하는 기초 모델을 선정을 하고 이제 프롬포트를 이제 인더레이션 방법으로 관리를 해야 되고 그리고 계속적으로 평가도 해야 되고 디플로이먼트도 해야 되고 모니터링도 해야 됩니다 그리고 성능을 계속적으로 강화시켜야 되는데요
(04:15) fm웍스는 이제 ml 그처럼이 프레임워크가 굉장히 많이 발달이 되어 있는데 이제 그런 것처럼 이제 파운데이션 모델에서도 데이터 준비하고 배포하는 것까지 이제 정 과정을 이제 적합하게 지원하기 위한 기술과 이런 도구들이 많이 필요한데요 클라우드에는 이미 aws 세일즈 메이커라든가 구글에 이제 버텍스 AI 그리고 에저의 그런 AI 스튜디오 같은 프레임워크 안에 이런 llm 옵스가 이미 다 기능이 들어가 있으니까 그런 기능들을 굉장히 체계적으로 이용을 할 수 있다는 장점이 있습니다 그래서 클라우드에서 이렇게 이미 에덴옵스라고 하는 기능들이 잘 구현이 되어 있는데 그럼 이제 고객은 뭘 해야 되냐 이제 고객은이 llm 옵스 클라우드를 가지고 이제 개발을 하셔야 됩니다 그 예를 들어서 클라우드 llm을 이용을 해 가지고 우리 내부 직원 5천명을 대상으로 하는 어시스턴트 지식 챗봇을 개발을 하거나 아니면 이제 상담 조직을 어시스트 해줄 수 있는 그 llm 챗봇을 구축을 만들고 싶다라고 하면 이제 왼쪽에 보시는
(05:20) 것처럼 lnox 환경 설정을 위한 그런 것들을 이제 클라우드에서 진행을 하고요 그리고 옆에 보시는 것처럼 파인토닝을 위한 데이터 세트를 만들어야 되고 그리고 reg라고 하는 아키텍처를 구축을 하셔야 됩니다 고객사 분들께서 그리고 실제로이 시스템이 정말 잘 돌아가는지 이드레이션하게 평가도 하셔야 되고요 그리고 캐싱하고 이제 가드레일 그리고 첫 인터페이스 그리고 유저 피드백 부분도 다 개발을 하셔야 될 부분입니다 그래서 7가지에 대해서 고객사가 만약 클라우드를 도입을 했을 때 어떤 기능들을 직접 개발을 해야 되는지 한번 자세하게 설명드리도록 하겠습니다 일단 거기에 앞서서 지금 현재 저희 그 헬프 나우 개발팀은 2023년도에 현재 21개 정도의 그런 고객사를 저희가 보유를 하고 있고 지금 보시는 것처럼 구글 포함하고 이용을 해 가지고 공공하고 금융 교육 통신 언론사 엔터프라이즈 고객들하고 현재 21개의 프로젝트를
(06:25) 하고 있고요 그리고 아마 poc라든가 시범사업을 하면 이거보다 훨씬 더 많은 사업을 할 건데 대부분 10월 달 11월 달 12월 달에 지금 오픈을 할 예정입니다 그래서 아까 그 고객들이 해야 될 그 서비스 패턴 중에서 이제 첫 번째로 이제 파인 튜닝을 고객사에서 직접 하셔야 됩니다 지금 제일 먼저 기업이 보유하고 있는 컨텐츠로 그 기초 모델을 파인트닝을 해야 되는데 이제 파인토닝 자체가 이제 시간과 비용이 굉장히 많이 드는 방법이지만 실제로 파인 튜닝을 하고 나면 가장 효과를 볼 수는 있습니다 그래서 일반인에게 공개된이 채취피티 수준의 챗봇을 우리 회사에서 나는 구축을 할 거야라고 하면 기초 모델을 구하고 그리고 슈퍼바이즈 파인 튜닝하고 아래 HP f라고 하는 강화 학습 그리고이 모델을 이제 계속적으로 반복 개인적으로 이제 평가를 하셔야 되고요 특히 챗봇과 같은 이런 qa 태스크의 특화된 대화 챗봇을 구축을 하려면 그 대화 데이터 세트도 준비를 하셔야 됩니다
(07:27) 근데 반면에 이제 클라우드에서는 이미 그 GPT 3.5 다빈치 모델이라던가 팜투가 s&pt 라던가 강화학습 그리고 모듈레이션이라든가 컨텐트 필터 등이 이미 다 달려서 나온 검증된 최신 버전이기 때문에 그냥 api를 통해서 바로 사용할 수 있다는 장점이 있습니다 그리고 이런 모델들을 튜닝을 시키기 위해서는 이제 셀프 인터랙션이라고 하는 방법을 써야 되는데 저희도이 파인 튜닝을 이제 500개에서 한 1000개 정도 데이터 세트를 만들어야 되는데 이거를 사람이 만들 수 없으니까 gpt4를 통해 가지고 우리이 파인 튜닝을 위한이 학습 데이터를 생성을 하고 있고요 그 생성된 데이터 세트를 가지고 gcp에 있는 버텍스 ai에 있는 그 v10이라고 하는 클러스터에다가 파인 튜닝을 시 한 3시간에서 6시간이면 고객사가 원하는 파이팅 모델을 생성을 할 수가 있습니다 물론 그 파인 튜닝은 그 기초 모델을 새로 지식을 주입을 하는 거는 아니고 이제 입력이라든가 출력 스타일만
(08:31) 변경이 되고 그리고 실제로 ln 입력시 그 조정대 컨텍스트를 얼마큼 또 잘 주입해주느냐가 관건인데 그 부분을 이제 뒤에서 한번 설명드리도록 하겠습니다 두 번째 장은 이제 rag구요 최근에이 아랫이라는 방식이 굉장히 관심을 받고 있는데 기업 내부에 이제 지식을 저장을 하고 그 질의가 들어오면 관련된 정보를 검색해서 이제 해당 정보가 담긴 문서 내용들을 프롬프트를 통해 가지고 adm에 전달하는 방식이고요 실제로 기업에서 뭐 poc 형태로 뭐 quats를 위해 가지고 클라우드에 있는이 gpt4라든가 팜투 api를 써가지고 일반적으로 그냥 사전 학습된 언어 모델한테 질문을 하면 생각보 답변이 잘 안 나올 거예요 아마 질문을 하게 되면 야 이거 gpt4 팜투 뭐 쓸 것 같은데라고 말씀을 하시는 경우가 많습니다 뭐 예로 우리 회사에 있는 뭐 일반적인 뭐 답변은 가능하겠지만 우리 회사의 규정이라든가 내부 지식에 물어보게 되면
(09:34) 당연히 학습되어 있지 않기 때문에이 plm을 그대로 사용할 수는 없고요 그래서 reg라고 하는 우측에 있는 그 논문의 방법을 많이 쓰고 있는데 이제 뭐 논문에서는 리트리버라고 하는 바이엔코더라는 걸 쓰고 또 프리 트렌드 모델은 뭐 예전에 만들었던 그 바트 라지를 사용을 해가지고 그 위키피디아에 있는 문서를 이제 인덱싱을 해가지고 그 결과를 이제 llma한테 이제 던지는 형태로 이제 개발을 많이 했는데 이제 최근에는 보시는 것처럼 이제 구글 클라우드라던가 아니면 MS 해제에서 제공하는이 rag 검색기를 통해 가지고 구축을 하실 수 있습니다 그래서 기존의 그 plm이 가지고 있지 비슷한 그 날리지 베이스에 대한 질문들에 대해서 조금 더 한 단계 그 답변이 잘 나올 수 있도록 하게 하는 것들이 저 아이들에게 기법이고요 그래서 아래지를 쓰게 되면 뭐 환각을 제거를 한다던가 그리고 또 고객의 그런 문서에 대해서 사실성을 높일 수도 있고 그리고 실제로이 문서를 계속적으로
(10:36) 넣기 위해서는 프리 트레이닝이라든가 튜닝을 거쳐야 되는데 차라리 그냥 검색 인덱스를 그냥 최신 상태로 유지하는 것이 훨씬 더 비용 대비 효과적입니다 그래서 reg를 통해 가지고 최신 데이터도 액세스를 하고 있고 또 혹시라도 그 올려놓은 문서 내에서 그 편향되거나 유해 문서가 있다면 그냥 그 문서를 그냥 삭제만 하시면 되고요 근데 만약에 이제 이미 그 학습된 모델에 이미 편향되거나 이제 유해한 문서들이 있어 가지고 이미 프린트레인이 돼 버리면 그걸 이제 다시 또 학습을 시켜야 되는 그런 번거로움을 줄일 수 있는 아키텍처입니다 그리고 이제 rag 라던가 이런 파이토닉을 거쳐서 고객이 llm을 구축을 하면 평가를 해보셔야 됩니다 실제로스에서 그 llm을 평가하는 방법은 이제 허깅 페이스에 그 리더보드에 있는 그 평가 한복처럼 약간 전통적인 방법으로 이제 측정을 하고 있는데요 아마 언어 모델 분야에서는 많은 벤치마크가 존재를
(11:39) 하는데 이제 허깅 페이스에 있는 그 arc라든가 헬라스 외기라든가 mmlu 그리고 트러스플 qa 등은 영어 기반으로 이제 수학하고 역사 온라인 글 그리고 상식 문제를 가지고 테스트를 진행하고 있기 때문에 여러분의 그 llm 구축한 거랑은 평가를 할 수가 없습니다 그래서 고객사가 원하는 그 성능 지표의 경우에는 그 예전부터 번역이라든가 요약에 쓰이고 있는이 태스크에 사용하고 있는 bleu 로고 등이 아니라 우측에 보시는 것처럼 예를 들어서 reg 기반으로 챗봇 시스템을 구축한 경우에는 그 결과값을 생성된 답변에 대해서 신뢰도와 정확도를 평가해야 되는 것을 고민해야 되고요 그리고 아마 기업에서 이런 llm 시스템을 평가하기가 많이 힘들기 때문에 저희 같은 경우에도 논문에 나오는 gel이라든가 비트나 논문에서 나온 것처럼 gpt4한테 너가 직접 한번이 시스템을 평가해 봐라라고 저희는 GPT 4를 통해 가지고 그 해당
(12:43) 모델을 다시 평가를 하고 있습니다 그래서 평가 방법은 GPT 4를 이용을 해서 그 COT 프롬프트를 통해 가지고 그 평가 태스크 항목에 대해서 설명을 하고 평가 기준 그리고 평가 스텝을 설정을 하면 gpt가 그 고객이 질문한 것과 그리고 답변을 요약을 해 가지고 실제로이 답변이 틀렸다 좋았다 도움이 됐다 유용성 없다 이런 것들을 이제 gpt4가 평가를 하는 방법을 저희도 쓰고 있습니다 그리고 이번 장은 가드레일 설명입니다 매우 중요한 서비스 패턴인데요 ln 모델만으로 이제 qa 태스크를 이제 구현하시는 분들이 있는데 아마 그런 챗봇들을 만들어 놓으면 정말 그 고속도로를 질주하는 것 같은 그 챗봇 대화를 느낄 수가 있습니다 그 생성형 답변은 이제 어떠한 답변이 나올지 모르기 때문에 예를 들어서 관리자가이 api를 통해 가지고 챗봇을 만들어서 이제 직원이나 고객한테 서비스를 오픈을 한다고 하면 이거는 굉장히 큰 리스크가 될 거고요 그래서 우측에 보시는 것처럼이
(13:47) 가드레일 장치를 개발을 하셔야 됩니다 그래서 자체적으로 이제 클라우드에서 서빙되는 요런 그 llm은 sft라든가 rhf 튜닝 이미 된 상태이고 그리고 모델의 시험과 이제 컨텐트 필터가 적용이 되어서 그 llm 모델이 안전하다라고 할 수는 있지만 우측에 보시는 것처럼 고객은 이제 혹시 모를 그 사고에 대비해서이 가드레일 장치를 개발하셔야 되는데 우측에 구림처럼 실제로 직원이라던가 아니면 고객이 어떤 질문을 하는지 그 관련된 주제에 대해서 질문을 하는지 그 쿼리 검증을 다 하셔야 되고요 그리고 실제로 그 검증한 것들을 입력 표준으로 다 변환을 시켜야 됩니다 그리고 실제로 답변을 했을 때 정말 이게 팩트 체크가 된 답변인지 아니면이 출력에 제한을 걸었던 그 프롬프트대로 답변이 나왔는지도 한번 체크를 하고 고객이라든가 직원들한테 답변을 출력을 하셔야 되고요 요런 것들을 통해 가지고 이제 고객들의 그런 그
(14:50) 리스크를 굉장히 많이 줄일 수 있습니다 그리고 실제로 뭐 예를 들어서 뭐 그 신용평가서를 출력을 하는 이런 챗봇들을 이제 구축을 했다라고 하면 그 신용평가서가 이제 0에서 100점이라고 하면 실제로 0에서 100점이 나왔는지 그런 유해성 체크도 해야 되는데요 이런 것들을 다 준비를 하셔야지만 실제적으로 이제 운영 환경에 보다 나온 이런 세포들을 이제 구축을 하실 수 있습니다 그리고 캐싱입니다 캐싱은 잘 아시겠지만 이제 채취 빛이라든가 이제 llm이 매우 그 유연한 태스크에서 사용을 할 수가 있는데 아무래도 이게 시스템이 인기를 얻으면이 트래픽 수준이 굉장히 많이 올라가요 고객들이라든가 내부 직원들이 엄청나게 질문을 많이 하게 됩니다 그렇게 되면 이제 lnm 서비스가 이제 대기 시간이 길어지고 보통 GPT 3.
(15:47) 5를 쓰게 되면 고객이라든가 직원이 질문을 하면 4초 후에 답변이 나오고요 그리고 10초 이상 걸리기도 합니다 그런데 잘 아시겠지만 또이 클라우드 서비스를 쓰게 되면이 쿼터라는 할당 문제가 있는데 대부분 1분 안에 500개 있는이 쿼리를 다 받아들이지 못해요 그래서 실제로 [음악] 서비스를 오픈을 했을 때 인기를 얻고 직원들이 많이 질문을 한다고 하면 더 이상이 클라우드에 있는 api는 받아들일 수가 없습니다 그래서 지금 보시는 것처럼 메커니즘이 반드시 필요한데요 우측에 보시는 것처럼 이렇게 캐시 매니지 이런 캐시 메커니즘을 도입을 하게 된다면 이제 비용 절감이라든가 응답 시간이 향상되고 그리고 쿼리에 대한 그 쿼터에 대한 그런 제한 사항도 풀리게 되고요 그리고 가용성도 보장을 하게 됩니다 그리고 답변 일관성을 위해서 반드시 필요하고요 그리고 클라우드에서는 이미 제공하고 있는 뭐 레디스 등으로 굉장히 쉽게 구축을 할 수 있기 때문에
(16:49) 굉장히 쉽게 구축을 할 수 있지만 굉장히 더 높은 효과를 얻을 수 있으니 반드시이 캐싱 서버 개발을 진행을 하셔야 됩니다 [음악] 아니라
(18:01) 버추얼 어시스턴트라든가 아니면 좀 답변을 잘하는 챗봇을 구축을 하고 싶으면 우측에 보시는 것처럼 그 책 오케스트레이션과 그 멀티테네시도 개발을 해야 되고요 오케스트라이트는 아까 그 ms에도 말씀을 했지만 그 단순히 그 어플리케이션 스택 아래 위치하면서 이런 다른 모듈들 rag라든가 프롬프트 체인이라든가 다큐멘트라든가 API db를 함께 연결해주는 구성을 하게 하면 되고요 그리고이 멀티태넌씨는 아마 박기철이라고 하는 사람이 질문하는 거 그리고 또 다른 직원들이 질문하는 것들이 전부 다 이제 개인화 있기 때문에 그 개인화 데이터 그리고 또 개인정보에 대한 그 프라이버시 준수를 위해서는 그 세션에다가 그 히스토리라든가 컨텍스트 문맥들을 개입별로 이제 검색이 돼야 되는데 그런 이제 멀티 테너시티도 구축이 가능해야 됩니다 그리고 마지막으로 유저 피드백인데요 이제 llm 서비스를 구축을 하고 나서 이제 사용자 피드백을 수집하셔야 되는데 아무래도이
(19:06) 답변이 정말 나에게 도움이 됐는지 도움이 되지 않았는지 그 사용자의 선호도를 알 수가 있고 그리고 LM 파인 튜닝 할 때 아까 그 평가 세트가 필요하고 또 튜닝을 하기 위한 그런 데이터 세트가 필요한데 그런 것들을 수집하기 위한 굉장히 좋은 시스템입니다 그래서 평가 고충이라든가 가드레일 그리고 성능 개선에 대해서 매우 큰 기여를 할 수 있는 중요한 패턴 전략이구요 우측에 보시는 것처럼 저희 헬프나우도 최종 답변에 대해서 사용자 피드백을 받고 실시간으로 로그인을 해서 실제로 고객이 질문했을 때이 답변이 정말 좋은 답변이야 안 좋은 답변이면 gpt4가 다시 한번 더 생각을 해서 다른 답변을 내도록 그렇게 설계가 되어 있습니다 그래서 세션 시작 과 끝에 질문 세트를 이제 gpt가 다시 평가를 하고 내보야 된다는 점 그런 것들을 명심하고 개발을 하시면 됩니다 그리고 추가적으로 이런 유저 피드백을 통해 가지고 관리자에게 리포팅하고 관리자는 또 프롬프트를 수정을 할
(20:10) 수도 있고 또 잘못 나간 답변에 대해서는 그 감사록인 기능을 하고 있기 때문에 굉장히 좋은 시스템 구축이라고 보실 수 있을 것 같습니다 일단 고객사가 구축을 해야 될이 부분들 7가지를 이제 구축을 하시고 클라우드에 있는 좋은 그 팜이라고 하는 그리고 또 gpt라고 하는 것들을 이용해서 고객사가 원하는 그런 어시스턴트라든가 아니면 그램 서비스를 한번 직접적으로 구축을 해 보시고요 마지막으로 저희가이 help now라고 하는 솔루션을 개발을 했는데 저희 헬프 Now 솔루션에 대해서 간단하게 소개해 드리도록 하겠습니다 저희 헬프 나오는 이제 고객사 내부망의 설치가 가능하고요 그리고 사스 형태에도 바로 사용을 해 볼 수 있습니다 그리고 아까 보셨던 그 7가지 서비스 패턴이 다 들어가 있는 제품이기 때문에 혹시라도 고객사가 정말 그 리스크 없는 챗봇 아까 말씀드렸던 것처럼 직원들한테 서비스할 수 있는 지식 챗봇이라든가 아니면 고객들한테
(21:13) 서비스 할 수 있는 챗봇을 만들기 위해서면 저희 헬프 나와 같은이 표준화된 모듈 구성으로 다양한 생성형 AI 서비스 연기를 하실 수가 있고요 그리고 왼쪽에 보시는 것처럼 체포뿐만 아니라 음성봇 그리고 상담원 어시스트 그리고 실제로 그 lm을 통해 가지고 고객의 분석하는 것들 그리고 AI 컨택센터까지도 구축이 가능한 많은 기능들이 현재 통합적으로 제공을 하고 있으니 앞서 보여드린 그런 서비스 패턴 구축에 조금 어려움을 겪으시면 저희 쪽에 문의하시면 요런 help 나와 있는 모듈을 저희가 제공을 한다던가 아니면 통화 환경으로도 제공을 드릴 수 있을 것 같습니다
관련링크
- 이전글 요즘 가장 뜨거운 #CrewAI #Autogen #Langgraph 를 활용한 Agentic RAG 에 대해서 배워보겠습니다!, LangChain Quick Start - RAG 직접 코딩하면 확실하게 배웁니다. 제 소스코드 가져가셔서 맘껏 활용하세요.,
- 다음글 What are quantum sensors? And how do they enable precision measurements of gravity, inertial forces, and magnetic fields? Watch the Q&A (exclusively for members) here: • Q&A: The future of mea... Subscribe for regular science videos
댓글목록 0
등록된 댓글이 없습니다.