Statistics
  • 현재 접속자 205 명
  • 오늘 방문자 1,436 명
  • 어제 방문자 4,004 명
  • 최대 방문자 11,031 명
  • 전체 방문자 1,217,461 명
  • 전체 회원수 90 명
  • 전체 게시물 3,024 개
  • 전체 댓글수 7 개
AI강의동영상

LLMCompiler : 한국인이 만든 추론 방법론으로 AI Agent를 만듭니다. 역시 '빨리빨리'

작성자 정보

  • 작성자 bryanai
  • 작성일

컨텐츠 정보

  • 조회 259

본문

 

https://www.youtube.com/watch?v=PSTsSCvuoMk

✅ 요약: LLM 컴파일러 튜토리얼 & 논문 설명 영상의 핵심 요약

  • 주제: LLM 컴파일러 (LLM Compiler)라는 추론 방법론 소개

  • 특징:

    • 한국인이 주도한 논문 기반 (김세훈, 문수홍, 라이언 니콜라스 리 등)

    • 기존 LLM 추론 방식(React 등)이 순차적인 함수 호출에 의존 → 지연 시간과 비용 발생

    • LLM 컴파일러는 DAG (Directed Acyclic Graph) 기반 병렬 처리로 효율을 높임

  • 주요 구성 요소:

    1. Planner: 함수 호출 계획 수립

    2. Task Fetching Unit: 작업 간 의존성 분석 → 병렬 실행 가능한 작업 분리

    3. Executor / Joiner: 병렬 실행 및 최종 결과 통합 (튜토리얼에선 Joiner로 명명)

  • 튜토리얼 구성:

    • 논문 설명 + 랭그레프(LangGraph) 코드 구현 예시 제공

    • Google Colab에 한글 번역, 코드 실행 환경까지 구성

    • ChatGPT를 활용한 프롬프트 기반 병렬 처리 추론 예시

  • 핵심 메시지:
    → 출론 방식의 병렬화를 통해 LLM 사용 속도·정확도·비용 측면에서 모두 개선 가능
    → 프롬프트 설계가 성능을 좌우함 → 프롬프트 엔지니어링 중요성 강조


✅ “무료인가?” / “ChatGPT 키만 있으면 되나?” 답변

항목 내용
✅ 튜토리얼 접근 무료입니다 (YouTube 영상 + 공개된 Colab 코드 포함)
✅ 실행 조건 본인의 OpenAI API 키 필요
⛔ ChatGPT 무료 플랜 실행 불가 (API 호출이 필요해서)
✅ 필요한 것 OpenAI 계정 → API 키 발급 → Colab에 키 입력

✅ 결론 요약

  • ???? 튜토리얼/코드 자체는 무료

  • ???? OpenAI API 키 필요 (유료 계정 사용자가 발급 가능)

  • ✅ **ChatGPT Pro (GPT-4 사용자)**라도 별도의 API 키 없이는 Colab 실행 불가


필요하시면 API 키 발급 및 Colab 연동 방법도 안내드릴게요.
또는 저 튜토리얼 기반으로 실제 코드를 줄여서 드릴 수도 있습니다.

궁금한 점 있으면 편하게 이어서 질문 주세요!

[음악] 안녕하세요 오늘 배울 초론 방법론은 l램 컴파일러라고 하는 출론 방법론인데요 이것은 한국인이 주식이 대해서 작성한 논문입니다 만세 만 오늘도 마찬가지로이 튜토리얼에 있는 내용을 저의 콜랩 페이지로 옮겼습니다 여기에 한글로 번역을 해 놨고요 소스 코드도이 페이지 내에서 직접 실행할 수 있도록 만들었습니다.이 소스 코드를 분석하기 이전에이 논문에 대해서 좀 살펴보도록 하죠 처음에 들어가는 말을 보면요 이것은 힘등이 작성한 LLM 컴파일러를 구현하는 방법을 보여줍니다 바로 랭그래프로 구현하는 방법을 보여주죠 lm 러는 D 내에서 실행되는 작업에 의한 에이전트 작업의 실행 속도를 높이기 위해 설계된 에이전트 아키텍처입니다 여기서 DH란 directedyc라는 용어의 줄임말인데요 우리나라 말로는 방향성 비순환 그래프라고 합니다 이것은 방향성은 있지만 순환은 없는 그런 그래프를 말합니다 그래서 DAG는 병렬 실행이 가능하게 해서 에이전트의 작업 실행 속도를 높이는 그런 구조를 가지고 있죠 또한 LLM의 호출 비용을 줄이는데도 기여를 합니다 즉 어떻게 소스 코드로

구현하느냐에 따라서 효율성을 증대시킬 수 있다는 것이죠 그럼 논문을 보면서이 내용을 좀 더 자세하게 알아보도록 하겠습니다.이 링크를 클릭하면 해당 논문으로 갈 수가 있는데요.이 논문은 김세훈 문수홍 뭐 라이언 니콜라스 리 이렇게 한국인이 앞에 나온 걸로 봐서 한국인이 주측이 돼서 만든 논문인 거 같습니다 지금까지 저희들이 공부했던이 다른 추론 방법론들은 주로 중국 친구들이 주측이 돼서 작성한 논문들이 많았는데요 이번에 처음으로 한국인이 주책에 대해서 작성한 출론 방법론을 배우는 시간입니다 여기서 뷰 PDF를 누르시고요 보시면 해당 논문을 보실 수가 있어요 처음에 보실 부분은요 부분을 보시면 됩니다 기존의 함수 호출 방식은 순차적으로 이루어져 있어서 높은 지연 시간 비용 증가 부정확한 결과가 일어나죠 이런 문제를 해결하기 위해서이 LM 컴파일러가 제한 내용이 있는데요 바로 LLM 컴파일러 함수 호출을 병렬로 수행하라는 겁니다.

이 LLM 컴파일러는이 병렬 수행을 통해서 성능을 최적화하는 그런 프레임워크입니다 이전에 리액트 방식을 보면요 처음에 유저의 질문이 들어오면 LLM에게 어떤 툴을 사용하면 좋을지 판단을 받죠 그리고 그 툴을 사용을 하고요 그다음 단계도 마찬가지로 LM에게 어떤 툴을 사용하면 좋을지 판단을 받고 그 툴을 사용하고 이러는 식으로 순차적으로 진행이 됩니다 여기서 LN 컴파일러가 하는 일은 병렬로 처리될 수 있는 일들을 파악해서 그것을 병렬로 처리하게끔 만드는 작업을 합니다 처음에 펑션 콜링 플래너가 함수 호출 계획을 세우죠 그다음에이 계획을 파악을 해서 테스크 간의 의전성을 분석해서 병렬로 실행 가능한 테스크들을 따로 모읍니다 그게이 단계에서 이루어지는 것이고요 계획을 수립하고 그 계획 속에서 병렬 처리할 작업들을 다 파악을 했으면 그다음에 실행을 하는 거죠 이렇게 동시에 작업을 진행할 수 있으면 이것을 동시에 작업을 진행하도록 익스큐터가 작업을 하는 겁니다 그래서 그 작업들을 하나로 모아서 최종 결과를 아웃풋 하는게 바로 lm 컴파일러의 주요 개념입니다 들 통해서

지연 시간 단축 비용 절감 정확도 향상의 효과를 가져왔다고 합니다 여기서는 우선 LLM 컴파일러의 구조를 알고 넘어가야 되는데요.이 LLM 컴파일러는 크게 이런 세 가지 컴포넌트로 구성이 됩니다 일단 펑션 콜링 플래너에서는 사용자의 입력을 분석해서 함수 호출 계획을 수립해요 그리고 이것을 병렬로 처리할 수 있는 형태인 그런 테스크들로 분해를 하고요 그리고 테스크 패칭 유닛에서는 D를 기반으로 의전성을 분석해서 병렬로 실행할 수 있는 테스크를 식별하는 작업을 합니다.이 두 단계가 계획을 세우는 단계이고요 계획이 완료됐으면 그 계획을 실행하는 단계가 바로 익스큐터에서 이루어지는 것이죠 병렬로 호출할 수 있는 테스크를 동시에 처리를 하는 작업이 여기서 구현을 하는 겁니다 그리고 병렬로 처리된 작업들의 결과들을 통합해서 최종 응답을 반환하는 작업도이 익스큐터에서 담당을 하는 것이고요 왼쪽 논문에서 예를들은 것은 이렇습니다 마이크로소프트의 마켓캡이 애플의 마켓캡만큼 되려면 얼마나 더 인크리즈해야 합니까라는 질문을 했다고 치면이 펑션 컬링 플랜에서 이렇게

작업을 하죠 마이크로소프트의 마켓 케블을 서치하는 작업이 하나의 테스크이고요 애플의 마켓 케이블 서치하는 작업이 하나의 테스크입니다 그래서 두 회사의 마켓 케이블 가지고 왔다면 그걸 가지고 계산을 하는 거죠 계산한 결과를 LLM에 보내서 최종 답변을 가지고 온다 이게 바로 펑션 콜링 플래너에서 세운 계획입니다 그다음에 테스크 세칭 유닛에서는 어떤 작업을 하냐면이 테스크들 중에서 병렬로 처리할 수 있는 작업이 어떤 것인지 판단을 하는 것이죠 여기서는 마이크로소프트의 마켓캡하고 애플의 마켓캡을 서치하는 작업이 동시에 이루어질 수 있는 작업이죠 나머지 작업들은 이전 단계가 모두 완료돼야지 실행할 수 있는 그런 테스크들입니다 이렇게 테스크 패칭 유닛에서 병렬 처리할 수 있는 작업을 다 파악을 했다면 그다음엔 익스큐터에서 그 작업을 실행을 하는 거죠.

이 이 서치 부분을 동시에 실행을 하고 두 가지 작업에서 모두 결과가 모아졌다면 그것을 세 번째 단계로 전달을 하는 그런 역할을 하고요 그리고 그것을 통해서 최종 답변을 생성하도록 하는 것까지이 익스큐터에서 작업을 하는 겁니다 ln 컴파일러의 핵심 기능이 바로이 세 개의 컴포넌트에서 구현이 되는 겁니다 명렬 처리할 수 있는 예로는 요런 것이 있겠죠 방금 전에 살펴본 애플과 마이크로소프트 두 회사의 비교를 할 경우에는이 두 개의 테스크를 병렬 처리를 할 수 있겠죠 근데 이것과 같이 스탠포드와 UC LA가 합병한다면 UC 버클리보다 노벨상 수상자가 많을까요라는 질문을 할 경우에는이 세 개의 작업을 병렬 처리를 할 수 있습니다 그리고 그다음 질문은 공공 및 민간 부문을 모두 고려할 때이 플로리다와 뉴욕 중 총의료비가 더 높은 곳은 어디일까요라는 질문을 하게 되면네 가지의 테스크를 동시에 병렬 처리할 수 있게 돼서 훨씬 더 효율성을 높일 수가 있겠죠 다양한 병렬 수행의 예시를 통해서 쓰럼을 했는데요 모든 경우에서 다 속도 개선과 효율성 증가를 얻었다고 합니다 각각의

벤치마크마다 어떤 실험 결과가 나왔는지는 여기에 표시돼 있고요 여러분들도이 논문을 다운받아서피트에 올려서 궁금하신 부분을 질문을 하면 이렇게 잘 요약을 해 줄 겁니다.이 논문에서 밝힌 lm 컴파일러의 한계와 향후 과제는 이렇습니다 일단 병렬화를 위해서 테스크를 분해하는 이런 플래너 로직이 너무 복잡하면 오버헤드가 될 수가 있고요 그다음에 병렬 테스크 중 일부가 오래 걸리면 전체 테스크를 기다려야 되는 병력 현상이 여기서도 발생을 하고요 그리고 병렬화 구조 자체는 효율적이지만 그 테스크를 실행하는이 도구에서 뭔가 문제가 발생하면 결국은 최종 답도 틀리게 되는 그런 한계가 있습니다 여기에서 툴만 정확하고 적절한 인콘텍스트 예시를 제공하면이 플래너 오류율은 더 낮게 유지될 수 있다고 얘기합니다 다음은 다시 튜토리얼로 돌아오도록 하겠습니다 방금 전 논문을 바탕으로 어떻게이 LM 컴파일러를 랭그래프로 구현을 했는지 살펴볼 건데요.

이 랭그래프로 구현한 소스 코드의이 그래프 개는 이렇습니다 유저가 먼저 질문을 하게 되면 플래너가 계획을 세우죠 이것은 다른 출론 방법론에서도 동일하게 이루어지는 과정이죠 여기서 LLM 컴파일러의 그 특징은이 부분이죠 dag를 사용해서이 부분을 병렬 가능 여부를 판단할 수 있는 테스크로 나누게 됩니다 그래서 테스크 패칭 유닛 단계에서 병렬로 처리할 수 있는 테스크들을 따로 확정을 짓게 되는 거죠 여기서 lm 컴파일러의 플랜이 모두 완료가 되는 겁니다 랭그래프에서는이 단계에서 계획을 세우고 실행하는 단계까지 병렬로 가능한 빨리 처리를 하게 됩니다 그리고 그 처리한 값을 토대로이 스테이블 업데이트를 하고요 그게 결과값으로 조이너에게 전달이 되죠.

이 이 조이너는 그 결과값을 바탕으로 유조의 질문에 답변할 최종 답변을 만들 수 있는지 여부를 판단을 합니다 뭔가 부족하다고 하한다면 여기서 다시 리플랜을 하고요 필요한 테스크들을 더 추가를 해서 테스트 패칭 유닛으로 보내게 되죠 여기서는 다시 한번 lm 컴파일러의 컨셉에 맞게 일들을 병렬 처리할 수 있는 부분은 병렬 처리하면서 처리를 하고요 그 결과를 다시 스테에 업데이트를 해서 조이너에게 보냅니다.이 조이너는 흥분한 답변이 됐다고 판단을 하면 그 답변을 루저에게 반환을 하는 것이죠 그래서 lm 컴파일러 출론 방법론을 랭그래프에서는 이런 식으로 구현을 했습니다 다음 내용을 한번 보도록 할까요 여기서도 세 개의 주요한 컴퍼넌트가 있죠 플래너와 테스크 패칭 유닛과 조이너인이다 구현할 때 사용하는 세 가지 주역 컴퍼넌트는이 논문에서 제공된 그 컴포넌트와 약간 다르죠 논문에서는 플래너가 있었고 테스크 패칭 유닛이 있었고 그다음에 익스큐터가 있었습니다 근데이 튜토리얼에서 구현한 소스코드에서는 플래너와 테스크 패칭 유닛 조이너이 세 가지로 나누죠 테스크 패칭

유닛에서 바로이 익스큐터의 역할까지 같이 하게 되는 겁니다 플랜을 세우고요 테스크 패칭 유닛에서 병렬 처리할 작업들을 구분을 하고 나서 곧바로 작업을 실행을 하죠 실행된 값을 바탕으로 스테이를 업데이트해서 조이너에게 넘겨 줍니다 그럼 조이너는이 답변이 회정 답변으로서 충분한가를 판단해서 충분하지 않다면 리플랜을 해서 새로운 테스크를 추가해서 다시 테스크 패칭 유닛에 전달을 하게 되는 거죠 이런 과정을 계속 반복하면서 회정 답변을 하기에 충분하다고 판단되면 그 내용을 유저에게 반환을 하게 되는 겁니다.이 랭그래프 튜토리얼에서는이 세 가지 컴포넌트로 구성이 되어 있고요 그 아래 소스 코드가 작성이 되어 있는데요.

이 소스 코드를 실행을 한다면 어떤 식으로 동작을 하는지는 바로 랭미스의 그 로그들을 보면은 쉽게 이해할 수 있습니다.이 링크를 클릭해서 랭스미스의 로그를 한번 먼저 살펴보고 넘어가도록 하겠습니다 네 이게 바로 그 로고인데요 질문은 이렇습니다 가장 나이 많은 앵무새는 무엇이며 평균 수명보다 얼마나 길까요 이런 질문인데요.이 질문을 처리하는 과정은 이렇죠 처음에 플래앤 스케줄이라고 되어 있고이 부분에서 lm 컴파일러의 단계가 다 모두 실행이 됩니다 계획을 세우고요 그다음에 스케줄을 세우자마자 작업을 하죠 태블릿 서치 엔진을 사용해서 검색을 합니다 그 검색이 동시에 페롤러로 진행이 됩니다 그리고 그로부터 받은 답변을 가지고 조인해서 판단을 하죠.

요 요 부분은 랭그래프에서 구현이 되는 부분입니다.이 조인에서 판단을 해서 답변이 충분하지 않다면 새로 리플랜을 해서 플랜앤 스케줄로 다시 보내죠 그럼 플랜앤 스케줄에서는 다시 LN 컴파일러 로직에 맞춰서 작업을 하고요 그 작업을 끝마치면 조인에게 다시 보냅니다 이때이 조인이 유저에게 답변을 하기에 충분하다라고 판단되면이를 마치고 이것을 유저에게 보고를 하게 되는 거죠 여기서 랭그래프가 어떻게 L랭 컴파일러의 컨셉을 구현하는지 알아보려면요 부분을 보면 되는데요 처음에 질문은 가장 나이 많은 액문세는 무엇이며 평균 수명보다 얼마나 길까요 이것이었습니다.이 질문을 LLM에 보내서 계획을 세워야 됩니다 그 계획을 세우는 프롬프트가 어떤 건지 보시려면요 부분을 살펴보면 되는데요 바로이 부분이 전달이 되죠 랭그래프에서 미리 만들어 놓은 LLM 컴파일러를 구현하기 위한 인스트럭션입니다 바로이 인스트럭션 프롬프트에서 LLM 컴파일러를 구현할 수 있는 지어 개념들이 다 명시가 되어 있는데요 사용자 코리가 주어지면 최대한 병렬화 가능한 방식으로이를 해결할 계획을

만듭니다 그다음에이 첫 번째 방법으로서는 그 예를 하나 들어 주는 거죠 어떤 수학 문제가 들어왔을 때이 액션의 수를 최소화합니다 이렇게 어떤 경우에는 어떤 식으로 처리를 하고 또 어떤 식으로는 처리를 하지 말고 뭐 요런 인스트럭션을 주어 주죠 출론 방법론을 소스 코드로 구현하는 방법은 그 출론 방법론의 핵심 개념을 어떻게 프롬프트로 잘 설명을 할 것인가가 첫 번째 핵심 과자이고요 그다음에는이 프롬프트 내용을 잘 처리할 수 있도록 로직을 만드는 것이 바로 두 번째 중요한 요소입니다.이 첫 번째 프롬프트 방법은 바로 AI에 특화된 그 방법이고요.이 로직을 만드는 방법은 트래디셔널 프로그래밍에 해당하는 방법입니다 그렇기 때문에 AI 에이전트 어플리케이션을 만들 때에는이 AI에 관련된 지식과 기존에 트레디셔널 프로그래밍에 관련된 지식 모두 갖추고 있어야 됩니다 아니면이 지식을 가지고 있는 사람과이 지식을 가지고 있는 사람을 별도로 하이어를 해서 업무 처리할 수 있는 프로세스를 만들어서 진행을 해야 되는 거고요 그럼이 인스트럭션에서이 조인 부분은

아직 보지 못했는데 조인 부분을 한번 살펴보도록 하죠.이 이 밑에 조인 부분도 길게 나와 있습니다.이 조인 부분에서는 이런 일들을 수행하죠 lm 에이전트는 조인을 호출하여 사용자 코리를 마무리하거나 계획이 실행될 때까지 기다리기 위해 호출됩니다.이 두 가지 작업을 하는 거고요 조인는 항상 계획의 마지막 작업이어야 되며 두 가지 시나리오가 있습니다 하나는 최정 응답을 생성하기 위해서 작업의 출력을 수집하여 답을 결정하는 경우가 있고요.이 답이 완벽하지 않다면 계획을 실행하기 전에 계획 단계에서 답을 결정할 수 없는 그런 경우 이런 경우에는 아래와 같이 해라라는 지침이 주어지죠 교인 부분에서도 어떤 일을 해야 되고 어떤 일을 하지 말아야 되고 어 그러한 인스트럭션을 주고요.

이 플랜이 병렬화를 극대화하도록 만들어야 된다 뭐 이런 침도 주어서이 에이전트가 LLM 컴파일러 출론 방법론을 잘 따르도록 유도를 하죠.이 이 인스트럭션을 살펴보니까 프롬프트를 작성하는 일이 그렇게 쉬운 일은 아닌 거 같습니다 굉장한 전문성이 요구되는 작업이 될 거 같고요 그래서 이런 방법론을 적용을 하든가 아니면 아키텍트가 디자인한 그 디자인을 제대로 AI 에이전트 어플리케이션이 따르도록 하기 위해서이 프롬프트를 잘 작성하는 그런 엔지니어가 반드시 필요한 그런 세상이 올 것 같습니다 그다음 단계는 어떻게 진행이 되는지 한번 볼까요 lm 컴파일러 플랜 파서라는 곳에서는 테스크를 나눴습니다 가장 오래 살았던 앵문세는 무엇인가라는 테스크가 있고요 앵문세의 평균 수명은 어떻게 되나라는 두 가지 테스크가 있습니다.

이 두 가지를 다 검색을 해야 되는 거겠죠 그래서 그것을 스케줄화하죠 스케줄화 하면서 곧바로 실행도 합니다 태블릿치 리트를 사용해서 검색을 합니다 그래서 첫 번째 테스크에 대해서는 검색어가스 Par지라고 해서 세계에서 가장 나이 많은 앵무세는 몇 살인가요라는 질문을 했죠 그리고 거기에 대한 답변을 받아왔습니다 그리고 두 번째 테스크에서는 앵무세 평균 수명은 얼마나 됩니까라는 질문을 했고 그 작업이 이루어졌습니다 여기에서는이 랭그래프 소스 코드 내에서요 두 가지 테스크가 병렬 처리되도록 코딩이 되어 있을 겁니다 그 부분은 나중에 소스 코드를 분석할 때 살펴볼 것이고요 여기서이 두 번째 테스크에 대해서 실패를 했죠 2인 서버 에러가 나왔습니다.

이 경우에 조인에서 판단을 해야 되겠죠 유저의 질문에 대해서 최종 답변을 하기 위해서는이 두 가지 정보가 필요한데 가장 나이 많은 페럿과이 패럿의 평균 수명이 필요한데이 평균 수명이 없기 때문에 최종 답변을 만들 수가 없죠 그래서 리플랜을 해서 다시 보내게 될 겁니다 그래서 여기서 조인에서는 이런 작업이 이루어집니다 가장 오래 산 앵무새는 핑크색 앵무새 쿠키로 83세까지 살았습니다 하지만 앵무새의 평균 수명을 가져오는데 오류가 발생했습니다 그래서 앵무새의 평균 수명을 찾기 위해 다시 검색해야 됩니다 이렇게 판단을 했죠 이렇게 판단할 수 있었던 근거는 바로 마찬가지로 프롬프트에 있습니다 그 프롬프트가 어떤 것인지 알아보려면요 챗 오픈이를 누르시면 되고요 바로이 프롬프트죠 한번 살펴보도록 하겠습니다 여기서 지침을 내리죠 사용자의 질문에 답하기 위해 실행된 기획의 결과가 제공됩니다 생각은 한두 문장의 관찰에 따라 질문에 대해 출론해야 됩니다 그다음은요 번역이 약간 이상한데요 왼쪽을 보면요 1번 2번 센스에 대한 업저베이션을 근거로 질문에 대한 출연을 생각을 해야 됩니다라고 되어

있고요 작업 결과 중에 관련이 없는 것은 무시합니다 런 인스트럭션이 제공이 됩니다 그리고 여기에 만족스러운 마무리 답변을 제공할 수 없는 경우 필요한 정보를 얻기 위해 다시 계획을 합니다라고 되어 있죠 이게 바로 조인에서 하게 되는 핵심적인 일 두 가지 중에 하나죠 그 출력 형식은 이런 식으로 되 있습니다 제목을 달고요 작업 결과에 대한 이유와 질문에 대한 답할 충분한 정보가 있는지 여부에 대해서 설명을 하고 그다음에 어떤 일을 해야 되는지 수행할 작업을 명시를 하라라고 되어 있죠 교인에서 할 일은 충분한 정보가 있는 경우 완료를 하고 충분한 정보가 있지 않은 경우 다시 리플랜을 해라라고 여기에 지시가 되어 있는 겁니다.

이 조인을 구현하기 위한 프롬프트는 바로 이렇습니다.이 두 프롬프트는 L 컴파일러 출론 방법론을 구현하기 위해서 랭그래프에서 미리 만든 프롬프트이고요 경우에 따라서 프로젝트만의 다른 방법론을 사용해야 될 경우에는 프롬프트를 AI 에이전트 어플리케이션 개발자가 직접 만들어야 됩니다 그러기 위한 자질도 길러야 될 것 같습니다 일단 AI인 경우에는 영어로 하든지 한글로 다 알아들을 수 있기 때문에 굳이 영어 부분에 너무 부담을 갖지는 않아도 될 거 같고요 일단 한국어로라도 이렇게 출연을 잘할 수 있게 일을 할 있는 프롬프트 엔지니어링 능력이 필요하게 되겠죠 바로이 지시에 따라서 맨 처음에 봤던이 아웃풋이 나오게 된 거죠 그래서 리플랜을 하고 다시 작업을 해야 됩니다 그 작업이 이루어지는 곳이 바로이 플랜앤 스케줄이죠 첫 번째 여기서의 작업이 완료가 되지 않았기 때문에 다시 반복을 하는 겁니다 여기서도 마찬가지로이 챗 오픈 AI 부분을 보면 처음에 사용됐던 프롬프트를 동일하게 사용을 해서 작업을 할 수 있도록 하죠 그리고 LM 컴파일러 플랜파스에서 테스크를 마련하고요

이전에는이 두 가지의 테스크가 있었는데요 가장 나이 많은 앵무세가 있었고 일반 앵무세의 평균 수명을 구하는 두 가지의 테스크가 있었는데요 여기에서는 가장 나이 많은 앵무세는 이미 답변이 왔죠 그래서 그것은 딱 추가로 작업을 할 필요가 없고 앵무세의 평균 나이를 알아봐라라는 테스크 하나만 남아 있습니다 그래서 그 테스크를 태블릿 서치 리트를 사용해서 검색을 하죠 그래서 이번에는 제대로 답변이 나왔습니다.이 내용을 보면은 앵문의 평균 수명 average life span over parot이라는 검색어로 검색을 한 결과 웹페이지에서이 내용들을 가지고 왔죠 그래서 거기서 해당 문장이 여기에 있습니다 평균 수명은 약 5년에서 15년인 반면 뭐뭐와 같은 큰 앵무세의 평균 수명은 5년에서 15년 똑같은 내용이네요 5년에서 15년이 평균 수명이라고 해당 정보를 가지고 왔습니다 그러면이 정보가 다시 조인으로 들어가겠죠 그럼 이제 조인에서는 두 가지 정보가 다 완료가 된 겁니다 첫 번째 단계에서 만든이 두 가지 테스크에 대한 모든 답변이 다 완료가 됐습니다 여기에서

첫 번째 부분은 여기에서는 모든 히스토리가 다 표현이 되는 건데요.이 첫 번째 나오는 부분은 첫 단계에서 실행이 됐던 부분이고 그래서 평균 수명을 가지어 올 때 에러가 발생했다는 부분이 여기 있는 거고요 두 번째 단계에서는 바로요 부분이죠 여기서는 평균 수명을 가지고 왔죠 그래서 가장 오래 산 앵무세는 83세까지 살았고 평균 수명은 5년에서 15년이다.이 모든 정보가 다 수집이 됐습니다 그러면이 정보들을 가지고 다시 렐램에게 질문을 해야 되겠죠 이거는 마찬가지로 이전에 조인문에서 사용됐던 그 프롬프트가 그대로 사용이 됩니다.이 작업과 휴먼 메시지 즉 질문과 그리고 지금까지 받아온 가장 오래 산 앵무세 정보 그리고 앵무세의 평균 수명이 정보를 lm에게 보내서 최종 답변을 만들려고 지시를 합니다 그렇게 할 수 있는 이유는이 조인이 지금까지 수된 정보가 유저의 질문에 답변하기 충분하다라고 판단을 했기 때문이죠 그래서이 프롬프트와 함께 전달이 됩니다 여기에서는 이전 작업을 사용해서 다시 계획할지 완료할지 여부를 결정을 하고요 필요한 정보가 있는 경우

완료할 수 있습니다 바로요 부분이 적용이 되겠죠 필요한 정보가 모두 있는지 없는지는이 LLM이 판단을 합니다.이 경우에는 GPT4 터보 프리뷰라는 모델이 판단을 하는 것이고요 lm이 판단을 해서 마지막 답변을 가지고 옵니다 그래서이 모든 정보들을 바탕으로 LLM이 그럴듯한 답변을 만들어내죠 최종 답변을 잃었습니다 기록상 가장 오래 산 앵무새는 핑크색 앵무새 쿠키로 여살까지 살았고이 액무새들은 평균 수명이 5년에서 15년이고 이것을 비교했을 때 쿠키는 훨씬 오래 살았습니다 난이 쿠키의 앵무새 종이 어떤 것이고 그 평균 수명이 따로 명시가 돼 있지 않았기 때문에 다른 앵무세보다 얼마나 더 오래 살았는지 잘 모르지만 83년보다는 훨씬 짧을 가능성이 있다는 것이 암시되어 있습니다 뭐요 정도 선에서 답변을 완료를 했네요 그래서이 랭미스에서는 lm 컴파일러 논문을 바탕으로 구현한 랭그래프의 소스 코드를 실행을 했을 때 어떤 식으로 동작이 되는지 그 흐름을 자세히 볼 수가 있습니다 그다음은 소스 코드를 실행을 하면 되는데요 일단 필요한 모듈들을

인스톨을 하고요 여기에서 원본 튜토리얼에서는이 랭체인 커뮤니티 없어서 에러가 나더라고요 그래서 제가요 부분을 다시 추가했으니까 참고하시고요 필요한 모듈들이 다 인스톨리 됐다면 자신의 오픈 AI API 키를 입력을 하시면 됩니다 그러면은 그 아랫 부분을 실행하실 수 있는 준비가 된 것이고요 그 아랫 부분은이 소스 코드가 조금 깁니다 그래서이 소스 코드를 분석하는 부분은 다음 시간에이어서 자세하게 설명드리도록 하겠습니다 감사합니다


관련자료

댓글 0
등록된 댓글이 없습니다.
Member Rank