로컬 대규모 언어 모델(LLM)의 세계는 프라이버시, 제어 및 맞춤화의 최전선을 나타냅니다. 수년 동안 개발자와 애호가들은 클라우드 기반 서비스의 제약과 비용 없이 자체 하드웨어에서 강력한 모델을 실행해 왔습니다. 그러나 이러한 자유에는 종종 상당한 제약, 즉 고립이 따랐습니다. 로컬 모델은 추론할 수 있었지만, 행동할 수는 없었습니다. 버전 0.3.17의 출시와 함께 LM Studio는 Model Context Protocol(MCP) 지원을 도입하여 이 장벽을 허물었습니다. MCP는 로컬 LLM이 외부 도구 및 리소스와 연결할 수 있도록 하는 혁신적인 기능입니다.

이 가이드는 이 강력한 기능을 구성하고 사용하는 방법에 대한 포괄적이고 심층적인 내용을 제공합니다. 우리는 기본 개념부터 고급 실용적인 예시에 이르기까지, 로컬 LLM을 상호작용적이고 효과적인 에이전트로 전환하는 방법에 대한 완전한 그림을 제공할 것입니다.
최대 생산성으로 개발팀이 함께 작업할 수 있는 통합된 올인원 플랫폼을 원하십니까?
Apidog는 모든 요구 사항을 충족하며, Postman을 훨씬 더 저렴한 가격으로 대체합니다!
MCP 서버란 무엇인가요?
서버를 구성하기 전에 작업할 아키텍처를 이해하는 것이 중요합니다. Model Context Protocol(MCP)은 원래 Anthropic에서 도입한 오픈 소스 사양으로, LLM과 외부 도구 간의 보편적인 언어를 만들기 위해 설계되었습니다. 이를 특히 AI 소비를 위한 표준화된 "API를 위한 API"라고 생각할 수 있습니다.
MCP 시스템은 두 가지 주요 구성 요소로 이루어져 있습니다:
- MCP 호스트: LLM이 상주하는 애플리케이션입니다. 호스트는 도구 검색을 관리하고, 추론 과정에서 모델에 사용 가능한 도구를 제시하며, 도구 호출의 전체 수명 주기를 처리합니다. 이 가이드에서는 LM Studio가 MCP 호스트입니다.
- MCP 서버: HTTP 엔드포인트를 통해 도구(함수) 모음을 노출하는 프로그램입니다. 서버는 사용자 컴퓨터에서 실행되는 간단한 스크립트일 수도 있고, 웹상의 견고한 엔터프라이즈급 서비스일 수도 있습니다. 예를 들어, Stripe와 같은 회사는 결제 처리를 위한 MCP 서버를 제공할 수 있고, 개발자는 스마트 홈 장치와 상호 작용하기 위한 개인 서버를 작성할 수 있습니다.
이 프로토콜의 장점은 단순성과 표준화에 있습니다. 어떤 개발자든 도구를 노출하는 서버를 구축할 수 있으며, 호스트 역할을 하는 어떤 애플리케이션이든 해당 서버에 연결하여 벤더에 구애받지 않는 생태계를 만들 수 있습니다.
단계별 가이드: 원격 MCP 서버 추가하기
LM Studio에서 MCP 서버를 추가하고 관리하는 주요 방법은 중앙 구성 파일인 mcp.json
을 편집하는 것입니다.
mcp.json
찾기 및 편집하기
이 파일은 LM Studio 인터페이스에서 직접 접근할 수 있으며, 이것이 권장되는 방법입니다.
- LM Studio를 실행하고 오른쪽 사이드바를 확인합니다.
- 터미널 프롬프트 아이콘(
>_
)으로 표시된 프로그램 탭을 클릭합니다. - "설치" 섹션 아래에서 mcp.json 편집 버튼을 클릭합니다.

이 작업은 LM Studio의 인앱 텍스트 편집기 내에서 구성 파일을 직접 엽니다. 애플리케이션은 이 파일의 변경 사항을 자동으로 감시하므로, 서버를 추가하거나 수정하는 즉시 다시 로드됩니다.

예시 구성: Hugging Face 서버
이 과정을 설명하기 위해 공식 Hugging Face MCP 서버에 연결할 것입니다. 이 도구는 LLM이 Hugging Face Hub에서 모델과 데이터셋을 검색할 수 있는 기능을 제공하며, 이는 도구 사용의 완벽한 첫걸음이 됩니다.
먼저, Hugging Face에서 액세스 토큰이 필요합니다.
- Hugging Face 계정의 액세스 토큰 설정으로 이동합니다.
- 새 토큰을 생성합니다. 설명적인 이름(예:
lm-studio-mcp
)을 지정하고, 검색에 충분한read
역할을 할당합니다. - 생성된 토큰(
hf_...
)을 복사합니다.
다음으로, `mcp.json` 파일에 다음 구조를 추가합니다.
{
"mcpServers": {
"hf-mcp-server": {
"url": "<https://huggingface.co/mcp>",
"headers": {
"Authorization": "Bearer <YOUR_HF_TOKEN>"
}
}
}
}
이제 플레이스홀더 <YOUR_HF_TOKEN>
을 Hugging Face에서 복사한 실제 토큰으로 바꿉니다. 파일을 저장합니다 (Ctrl+S 또는 Cmd+S).
그게 전부입니다. 이제 LM Studio 인스턴스가 연결되었습니다.
확인 및 테스트
연결이 활성화되었는지 확인하려면 함수 호출에 능숙한 모델을 사용해야 합니다. Llama 3, Mixtral, Qwen의 변형과 같은 많은 최신 모델들이 이 기능을 가지고 있습니다. 적합한 모델을 로드하고 새 채팅을 시작합니다.
도구가 필요한 프롬프트를 발행합니다. 예를 들어:
"Hugging Face에서 70억 개 미만의 매개변수를 가진 인기 있는 LLM 모델을 찾아줄 수 있나요?"
모든 것이 올바르게 구성되었다면, 모델은 도구의 필요성을 인식할 것입니다. 직접 답변하는 대신, 도구 호출을 트리거할 것이고, LM Studio는 이를 가로채서 확인을 위해 사용자에게 제시할 것입니다.
LM Studio의 도구 호출 확인
LLM을 외부 도구에 연결하는 기능에는 상당한 책임이 따릅니다. MCP 서버는 설계상 로컬 파일에 접근하고, 네트워크 요청을 하고, 코드를 실행할 수 있습니다. LM Studio는 중요한 안전 기능인 도구 호출 확인을 통해 이러한 위험을 완화합니다.
모델이 도구를 사용하려고 할 때, 채팅 인터페이스에 대화 상자가 나타납니다. 이 상자는 보류 중인 작업에 대한 완전하고 사람이 읽을 수 있는 개요를 제공합니다:
- 호출되는 도구의 이름.
- 모델이 도구에 보내려는 특정 인수.
완전히 제어할 수 있습니다. 의심스러운 부분이 있는지 인수를 검사한 다음, 해당 호출을 한 번 허용하거나, 거부하거나, 또는 전적으로 신뢰하는 도구의 경우 해당 특정 도구를 항상 허용하도록 선택할 수 있습니다.
경고: 완전히 신뢰하지 않는 소스에서 MCP 서버를 설치하거나 권한을 부여하지 마십시오. 새로운 서버로부터의 첫 번째 도구 호출은 항상 면밀히 검토하십시오. "항상 허용" 권한은 앱 설정 > 도구 및 통합에서 언제든지 관리하고 취소할 수 있습니다.
LM Studio를 로컬 MCP 서버에 연결하기
원격 서버에 연결하는 것도 유용하지만, 많은 사용자에게 MCP의 진정한 힘은 로컬 머신에서 서버를 실행할 수 있는 능력에 있습니다. 이를 통해 LLM은 로컬 파일, 스크립트 및 프로그램에 접근할 수 있으며, 모든 데이터를 완전히 오프라인 상태로 유지할 수 있습니다.
LM Studio는 로컬 및 원격 MCP 서버를 모두 지원합니다. 로컬 서버를 구성하려면 `mcp.json` 파일에 로컬 URL을 가리키는 항목을 추가해야 합니다.
예를 들어, 컴퓨터에서 8000번 포트에서 서버를 실행하고 있다면, 구성은 다음과 같을 수 있습니다:
{
"mcpServers": {
"my-local-server": {
"url": "http://localhost:8000"
}
}
}
최대 생산성으로 개발팀이 함께 작업할 수 있는 통합된 올인원 플랫폼을 원하십니까?
Apidog는 모든 요구 사항을 충족하며, Postman을 훨씬 더 저렴한 가격으로 대체합니다!
미래는 로컬이며 연결되어 있습니다
LM Studio에 MCP가 통합된 것은 단순한 점진적 업데이트 이상입니다. 이는 근본적인 변화입니다. 이는 LLM의 순수한 지능과 소프트웨어 애플리케이션의 실용적인 유용성 사이의 간극을 메웁니다. 이를 통해 AI가 단순한 대화 상대가 아니라, 사용자 자신의 하드웨어에서 안전하게 작동하는 개인화된 비서가 되는 미래를 만듭니다.
로컬 MCP 서버를 가진 작가가 요약, 개인 문서 라이브러리에 대한 사실 확인, 스타일 분석을 위한 맞춤형 도구를 제공하며, 이 모든 것이 단 한 단어도 클라우드로 보내지 않고 이루어지는 것을 상상해 보십시오. 또는 LLM이 로컬 서버와 상호 작용하여 테스트를 실행하고, 컴파일러 출력을 읽고, 내부 코드베이스를 검색할 수 있는 개발자를 상상해 보십시오.
이러한 비전을 촉진하기 위해 LM Studio 팀은 개발자들이 자신의 창작물을 쉽게 공유할 수 있도록 했습니다. 사용자 지정 lmstudio://
딥링크를 사용하는 "LM Studio에 추가" 버튼은 새로운 MCP 서버를 한 번의 클릭으로 설치할 수 있게 합니다. 이는 진입 장벽을 낮추고 활기찬 커뮤니티 주도형 도구 생태계를 위한 길을 열어줍니다.
오픈 표준을 수용하고 사용자 제어를 우선시함으로써, LM Studio는 차세대 개인 AI를 위한 강력한 프레임워크를 제공했습니다.