MSTY: Ollama, Groq, OpenAI와 호환되는 새로운 무료 데스크톱 채팅 인터페이스, ChatGPT보다 더 나음 , MSTY: This NEW & FREE Desktop Chat Interface is better than ChatGPT (works w/ Ollama, Groq & OpenAI)
작성자 정보
- 작성자 bryanai
- 작성일
컨텐츠 정보
- 조회 195
본문
MSTY: This NEW & FREE Desktop Chat Interface is better than ChatGPT (works w/ Ollama, Groq & OpenAI)
요약: MSTY: 새롭고 무료인 데스크톱 채팅 인터페이스
이 비디오는 기술 지식 없이도 쉽게 설정할 수 있는 데스크톱 앱 MSTY를 소개합니다.
주요 특징:
-
다양한 플랫폼 지원
- OpenAI, Ollama, Claude, Groq 등의 모델과 호환.
- Windows, MacOS, Linux에서 사용 가능.
-
주요 기능
- 스플릿 채팅: 동일 메시지를 여러 모델에 보내어 비교.
- 반응 수정: 답변 편집, 재생성, 대화 가지(branch) 생성.
- 프롬프트 라이브러리: 미리 만들어진 프롬프트 제공 및 사용자 지정 프롬프트 저장 가능.
- 모델 혼합 사용: 이미지 분석에는 특정 모델, 일반 대화에는 다른 모델을 활용 가능.
-
설치 및 설정 간소화
- 복잡한 명령어나 Docker 없이 쉽게 설치.
- API 키를 사용하거나 로컬 모드로 실행 가능.
-
호환성 및 속도
- API 키를 추가해 Groq, OpenAI, Gemini 등 다양한 모델 활용 가능.
- Groq API의 빠른 속도 강조.
-
부족한 점
- 현재 RAG(검색 기반 생성) 지원이 없지만, 개발 중 가능성 언급.
이 앱은 직관적이고 간편하며, 여러 AI 모델을 한 플랫폼에서 통합적으로 사용할 수 있다는 장점이 있습니다.
MSTY: 이 새롭고 무료 데스크톱 채팅 인터페이스는 ChatGPT보다 뛰어납니다(Ollama, Groq 및 OpenAI와 함께 작동) https://www.youtube.com/watch?v=GwcawRn5Cjs 안녕하세요, AI 코드 킹에 다시 오신 것을 환영합니다. 저는 제 채널에서 많은 로컬 채팅 GPT 대안을 다루었지만, 이 모든 대안에는 한 가지 문제가 있습니다. 터미널 코딩 등에 대한 심층적인 지식 없이는 설정할 수 없습니다. 예를 들어, olama 오픈 웹 UI를 설정하려면 Docker를 사용한 다음 다양한 명령을 통해 터미널을 통해 설치해야 하는데, 이는 기술에 익숙하지 않은 사람들에게는 큰 번거로움이지만 최근에 MTI라는 도구를 알게 되었습니다. 이 도구는 Alama 오픈 AI Claude Gro와 생각할 수 있는 대부분의 플랫폼에서 작동합니다. 이것은 Windows Mac OS 및 Linux에서 작동하는 데스크톱 앱입니다. 이 프로젝트는 오픈 소스가 아니지만 완전히 로컬이며 누구나 원하는 대부분의 기능을 갖추고 있습니다. 또한 더 나은 응답을 확인하기 위해 동일한 메시지를 다른 모델에 보낼 수 있는 분할 채팅과 같은 기능도 있습니다. 또한 생성된 응답을 수정하고 응답을 재생성하고 이를 통해 통신 브랜치를 만들 수 있습니다. 또한 미리 만들어진 프롬프트를 얻을 수 있는 프롬프트 라이브러리가 있으며 여기에서 자신의 프롬프트를 저장할 수도 있습니다. 특정 작업에 대해 모델을 혼합하고 일치시킬 수 있습니다.이미지 분석의 경우 lav와 같은 것을 사용할 수 있고 일반 채팅의 경우 llama 3를 사용할 수 있습니다.꽤 멋지죠.이것은 모든 API와 로컬 모델을 한곳에서 구성할 수 있으며 각 모델을 사용하기 위해 다른 플랫폼으로 이동할 필요가 없습니다.이제 설치하는 방법을 알려드리겠습니다.꽤 쉽습니다.AMA와 Gro에서 사용하는 방법을 알려드리겠습니다.하지만 Open Ai Claude를 구성하는 것도 마찬가지로 쉽습니다.알겠습니다.먼저 AMA를 설치해 보겠습니다.어쨌든 다른 공급자의 API 키를 사용하는 경우 이 단계는 필요하지 않습니다.alama 사이트로 이동하여 다운로드 버튼을 클릭하고 설치 파일을 다운로드하여 설치하면 백그라운드에서 실행되기 시작합니다.꽤 쉽습니다.알겠습니다.이제 misti 사이트로 이동하여 다운로드 버튼을 클릭하고 운영 체제를 선택하고 설치하면 이 화면이 표시됩니다.여기에는 두 가지 옵션이 있습니다.첫 번째는 오프라인 모드용이고 두 번째는 API 키용입니다.나중에 둘 중 하나를 추가할 수 있으므로 이에 대해 많이 생각할 필요가 없지만 AMA를 사용할 것이므로 로컬 텍스트 AI 설정을 선택하면 이 화면이 나타납니다. 기본적으로 사용할 수 있는 tiny dolphin이 설치됩니다. Mage에게 메시지를 보내고 제대로 작동하는지 확인할 수 있습니다. 이제 작동합니다. 먼저 llama 3을 설치합니다. 이 옵션으로 이동하면 여기에 나열된 모든 Alama 모델이 표시됩니다. Llama 3 모델을 클릭합니다. 설치될 때까지 기다립니다. 이제 설치가 완료되었습니다. 메인 페이지로 돌아가서 여기에서 llama 3을 선택합니다. 지금 여기에서 메시지를 보냅니다. 이제 응답을 받습니다. 이제 각 응답에 여러 옵션이 있습니다. 편집할 수 있습니다. 대화를 새 지점으로 옮깁니다. 응답을 다시 생성하거나 삭제합니다. 편집하고 새 응답으로 분기하지 않도록 합니다. 이제 여기에 다른 메시지를 보냅니다. 라마가 무엇인지 물었습니다.잘못된 응답을 주므로 편집하여 지금 응답을 수정하고 저장하는 동안 새 분기 옵션을 선택하여 다음 응답을 이 분기로 분기합니다.그러면 대화가 분기된 메시지 아래에 이것이 표시됩니다.이 화살표 버튼을 클릭하여 이전 분기로 돌아갈 수 있습니다.이제 끝났습니다.분할 채팅 옵션을 시도해 보겠습니다.클릭하면 화면 오른쪽에 다른 채팅 인터페이스가 팝업됩니다.여기로 메시지를 보내면 두 곳에서 동기화됩니다.동기화를 원하지 않으면 이 동기화 옵션의 선택을 취소하세요.좋습니다.지금은 잘 작동합니다.사용하기 위해 제공하는 프롬프트 라이브러리를 확인하겠습니다.여기 이 아이콘을 클릭하세요.많은 프롬프트가 표시됩니다.이 커버레터 프롬프트를 사용해 보겠습니다.좋습니다.이제 프롬프트가 여기에 붙여넣어졌습니다.여기를 클릭하여 프롬프트에 대한 값을 입력합니다.예를 들어 이것은 커버레터 프롬프트이므로 여기에 관심 주제로 데이터 과학을 입력하겠습니다.좋습니다.이제 메시지를 보내 보겠습니다.좋습니다.여기에 자신의 프롬프트를 추가하는 것이 꽤 잘 작동합니다.이 옵션으로 이동하여 여기에 프롬프트를 추가하세요.이것이 주요 기능입니다. 이제 gr의 API와 함께 사용하여 초고속 속도를 시도해 보겠습니다. 속도 제한 사용에 대해 무료이므로 GPU가 없으면 API를 얻는 데 사용할 수 있습니다. gr 웹사이트로 이동하여 가입하고 여기에서 API 키를 받으세요. API 키를 복사하세요. MTI를 열고 설정으로 가서 API 키 옵션에서 추가를 클릭하고 Gro를 선택하여 API 키를 붙여넣으세요. 이제 홈페이지로 돌아가세요. Gro 모델이 팝업되면 모델을 선택하고 메시지를 보내면 얼마나 빠른지 확인할 수 있습니다. 그래서 비슷한 방식으로 Gro와 함께 사용할 수 있습니다. Open AI CLA Gemini API 키를 추가할 수도 있습니다. 꽤 멋지죠. 제가 이것에 대해 좋아하는 가장 큰 부분은 사용 및 설치가 훨씬 간단하다는 것입니다. 사용에 문제가 없습니다. 꽤 매끄럽습니다. 또한 Rag 지원과 같이 여기에 수용되기를 바랐던 몇 가지 기능이 있지만 이 프로젝트는 비교적 새롭고 개발자가 앞으로 추가할 것이라고 생각합니다. 그게 전부였습니다. 사용할지 여부를 댓글에 알려주세요. 또한 이 동영상이 마음에 들었다면 좋아요를 눌러주시고 제 채널을 구독하세요. 다음 영상에서 뵙겠습니다. 그때까지 안녕히 계세요아이콘 여기 수많은 프롬프트가 있습니다. 이 커버레터 프롬프트를 사용해 보겠습니다. 이제 프롬프트가 여기에 붙여넣어졌습니다. 여기를 클릭하여 프롬프트에 대한 값을 입력합니다. 예를 들어 이것은 커버레터 프롬프트이므로 관심 주제로 데이터 과학을 입력하겠습니다. 이제 메시지를 보내 보겠습니다. 여기에 자신의 프롬프트를 추가하는 것이 아주 잘 됩니다. 이 옵션으로 이동하여 여기에 프롬프트를 추가합니다. 이것이 이 프로그램의 주요 기능입니다. 이제 초고속 속도를 위해 gr의 API와 함께 사용해 보겠습니다. 속도 제한 사용은 무료이므로 GPU가 없으면 API를 얻는 데 사용할 수 있습니다. gr 웹사이트로 이동하여 가입하고 여기에서 API 키를 받으세요. API 키를 복사하세요. MTI를 열고 설정으로 이동하여 API 키 옵션에서 추가를 클릭합니다. Gro를 선택하고 API 키를 붙여넣습니다. 이제 홈페이지로 돌아갑니다. 여기서 Gro 모델이 팝업됩니다. 모델을 선택하고 메시지를 보내면 얼마나 빠른지 확인할 수 있습니다. 그래서 그렇죠. Gro와 함께 사용할 수도 있습니다. 비슷한 방식으로 Open AI CLA Gemini API 키를 추가할 수도 있습니다. 꽤 멋지죠. 제가 좋아하는 가장 큰 부분입니다. 이것에 대한 것은 사용 및 설치가 훨씬 간단하다는 것입니다. 사용에 문제가 없습니다. 매우 매끄럽습니다. 또한 래그 지원과 같이 여기에 수용되기를 바랐던 몇 가지 기능이 있지만 이 프로젝트는 비교적 새롭고 개발자가 앞으로 추가할 것이라고 생각합니다. 그래서 그게 전부였습니다. 또한 이 비디오를 사용하려는 경우 댓글에 알려주십시오. 또한 이 비디오가 마음에 들었다면 좋아요를 눌러주시고 제 채널을 구독해주십시오. 다음 비디오에서 뵙겠습니다. 그때까지 안녕히 계십시오.아이콘 여기 수많은 프롬프트가 있습니다. 이 커버레터 프롬프트를 사용해 보겠습니다. 이제 프롬프트가 여기에 붙여넣어졌습니다. 여기를 클릭하여 프롬프트에 대한 값을 입력합니다. 예를 들어 이것은 커버레터 프롬프트이므로 관심 주제로 데이터 과학을 입력하겠습니다. 이제 메시지를 보내 보겠습니다. 여기에 자신의 프롬프트를 추가하는 것이 아주 잘 됩니다. 이 옵션으로 이동하여 여기에 프롬프트를 추가합니다. 이것이 이 프로그램의 주요 기능입니다. 이제 초고속 속도를 위해 gr의 API와 함께 사용해 보겠습니다. 속도 제한 사용은 무료이므로 GPU가 없으면 API를 얻는 데 사용할 수 있습니다. gr 웹사이트로 이동하여 가입하고 여기에서 API 키를 받으세요. API 키를 복사하세요. MTI를 열고 설정으로 이동하여 API 키 옵션에서 추가를 클릭합니다. Gro를 선택하고 API 키를 붙여넣습니다. 이제 홈페이지로 돌아갑니다. 여기서 Gro 모델이 팝업됩니다. 모델을 선택하고 메시지를 보내면 얼마나 빠른지 확인할 수 있습니다. 그래서 그렇죠. Gro와 함께 사용할 수도 있습니다. 비슷한 방식으로 Open AI CLA Gemini API 키를 추가할 수도 있습니다. 꽤 멋지죠. 제가 좋아하는 가장 큰 부분입니다. 이것에 대한 것은 사용 및 설치가 훨씬 간단하다는 것입니다. 사용에 문제가 없습니다. 매우 매끄럽습니다. 또한 래그 지원과 같이 여기에 수용되기를 바랐던 몇 가지 기능이 있지만 이 프로젝트는 비교적 새롭고 개발자가 앞으로 추가할 것이라고 생각합니다. 그래서 그게 전부였습니다. 또한 이 비디오를 사용하려는 경우 댓글에 알려주십시오. 또한 이 비디오가 마음에 들었다면 좋아요를 눌러주시고 제 채널을 구독해주십시오. 다음 비디오에서 뵙겠습니다. 그때까지 안녕히 계십시오.또한 이 영상이 마음에 들었다면 댓글로 남겨주시고 제 채널을 구독해주세요. 다음 영상에서 뵙겠습니다. 그때까지 안녕히 계세요또한 이 영상이 마음에 들었다면 댓글로 남겨주시고 제 채널을 구독해주세요. 다음 영상에서 뵙겠습니다. 그때까지 안녕히 계세요
Summary: MSTY: A new, free desktop chat interface
This video introduces MSTY, a desktop app that is easy to set up without technical knowledge.
Key features:
Supports multiple platforms
Compatible with models such as OpenAI, Ollama, Claude, and Groq.
Available for Windows, MacOS, and Linux.
Key features
Split chat: Send the same message to multiple models to compare them.
Response editing: Edit replies, regenerate them, create conversation branches.
Prompt library: Provides pre-made prompts and allows you to save your own.
Mix models: Use a specific model for image analysis, another model for general conversation.
Simplified installation and setup
Easy to install without complex commands or Docker.
Use an API key or run in local mode.
Compatibility and speed
Add an API key to use a variety of models such as Groq, OpenAI, and Gemini.
Highlights the speed of the Groq API.
Disadvantages
Currently no RAG (search-based generation) support, but mentions the possibility in development.
관련자료
-
링크
-
다음