Apidog

올인원 협업 API 개발 플랫폼

API 설계

API 문서

API 디버깅

API 모킹

API 자동화 테스트

MCP를 올라마와 함께 사용하는 방법 (클로드 없이, 돌핀 MCP와 함께)

Young-jae

Young-jae

Updated on March 14, 2025

언어 모델과 외부 데이터 소스를 연결하는 것은 강력하고 지능적인 애플리케이션을 구축하는 데 중요합니다. 모델 컨텍스트 프로토콜 (MCP)은 AI 모델과 외부 시스템 간의 컨텍스트 및 데이터 교환을 간소화하는 표준화된 프레임워크입니다. 챗봇, 검색 엔진 또는 데이터 분석 도구를 구축하든, MCP는 다양한 모델과 API 간의 격차를 연결하여 정보의 원활한 흐름을 보장합니다.

가벼운 로컬 모델 추론을 위해 Ollama를 사용하고, 최첨단 자연어 이해를 위해 OpenAI를 사용하며, 강력한 검색 기능을 위해 Deepseek를 사용하는 시스템을 상상해 보십시오. 이제 이 통합을 간소화하는 오픈 소스 파이썬 라이브러리이자 CLI 도구인 Dolphin MCP를 추가하세요. Dolphin MCP는 여러 MCP 서버에 동시에 연결할 수 있을 뿐만 아니라, 자연어 쿼리를 통해 언어 모델에 도구를 제공합니다.

이 튜토리얼에서는 Dolphin MCP 설치부터 Ollama 및 OpenAI와의 통합까지 모든 과정을 안내하겠습니다.

💡
시작하기 전에 빠른 안내를 드리겠습니다: API 테스트 프로세스를 간소화하기 위해 오늘 Apidog를 무료로 다운로드하세요. 이는 최첨단 AI 모델을 테스트하려는 개발자에게 적합하며 API 테스트 프로세스를 간소화합니다!
button

1. MCP란 무엇인가요? (기본부터 시작하기)

모델 컨텍스트 프로토콜 (MCP)은 AI 모델과 외부 애플리케이션 간의 상호작용을 표준화하기 위해 설계된 프레임워크입니다. 이는 서로 다른 모델이 컨텍스트를 공유하고 데이터를 교환하며 도구를 통합하여 회화식으로 호출할 수 있게 해줍니다. MCP를 사용하면 다음과 같은 작업을 수행할 수 있습니다:

  • 다양한 쿼리에 걸쳐 원활한 대화 기록을 유지합니다.
  • 동적으로 외부 도구나 API를 발견하고 호출합니다.
  • 단일 표준화된 프로토콜 아래 여러 AI 제공자를 통합합니다.

MCP를 사용함으로써 개발자는 모델 간의 복잡한 통신을 걱정하지 않고 혁신적인 솔루션을 구축하는 데 집중할 수 있습니다. MCP와 그 전반에 대한 더 심층적인 튜토리얼을 원하시면 여기를 클릭하세요.

2. 왜 Dolphin MCP를 사용해야 하나요?

Dolphin MCP 는 여러 MCP 서버와 상호작용을 매우 간단하게 만드는 오픈 소스 파이썬 라이브러리 및 CLI 도구입니다(원하는 만큼 사용할 수 있습니다). 이 도구는 모듈성을 강조하며 사용의 용이성을 제공합니다. OpenAI, Anthropic, Ollama와 같은 다양한 언어 모델 및 Deepseek과 같은 외부 데이터 소스와 통합하기 위한 깔끔한 API를 제공합니다. 작업의 필요에 따라 모델을 간단히 전환할 수 있습니다!

주요 기능:

  • 다중 제공자 지원: Ollama, OpenAI, DeepSeek 등과 원활히 작동합니다.
  • 이중 인터페이스: 파이썬 라이브러리로 사용하거나 명령 줄 도구를 통해 사용할 수 있습니다.
  • 도구 탐지: MCP 서버에서 제공하는 도구를 자동으로 감지하고 사용합니다.
  • 모듈식 아키텍처: 제공자별 모듈로 깔끔하게 분리하여 작업합니다.
  • 유연한 구성: JSON 및 환경 변수를 사용하여 모델과 MCP 서버를 쉽게 구성할 수 있습니다.
  • 재사용성: 신속하게 새로운 요구 사항에 적응할 수 있는 확장 가능하고 재사용 가능한 통합을 구축합니다.

Dolphin MCP는 데이터 조작을 위한 회화형 인터페이스를 구축하는 과정을 간소화하여 모든 개발자에게 강력한 자산이 됩니다.

3. 필수 조건 및 환경 설정

설치 및 통합 단계를 진행하기 전에 Dophin MCP와 함께 작업할 수 있도록 환경이 적절히 준비되었는지 확인합시다.

시스템 요구 사항:

  • Python 3.8 이상: Python이 설치되어 있는지 확인하세요. python.org에서 다운로드할 수 있습니다.
  • SQLite: 샘플 데이터를 저장하기 위해 데모 데이터베이스에서 사용됩니다(선택 사항).
  • uv/uvx: 빠른 파이썬 패키지 설치기 및 해결기입니다.
  • Node.js 18+ (CLI 통합을 사용하는 경우): 일부 추가 도구에 필요합니다.

플랫폼별 설정:

Windows:

  • Python: python.org에서 다운로드하고 "Add Python to PATH"를 선택하는 것을 잊지 마세요.
  • SQLite: SQLite 웹사이트에서 미리 컴파일된 바이너리를 다운로드하고 압축을 풀어 해당 폴더를 PATH에 추가합니다.
  • uv/uvx: Windows PowerShell을 관리자 권한으로 열고 다음을 실행합니다:
curl -sSf https://install.ultraviolet.rs/windows
  • 설치 확인:
python --version
sqlite3 --version
uv --version

macOS:

  • Python: Homebrew를 사용하여 설치합니다:
brew install python
  • SQLite: macOS에 미리 설치되어 있거나 다음 명령으로 업데이트할 수 있습니다:
brew install sqlite
  • uv/uvx: Homebrew 또는 공식 설치 프로그램을 사용하여 설치합니다:
brew install ultraviolet/uv/uv

또는

curl -sSf https://install.ultraviolet.rs/mac
  • 설치 확인:
python3 --version
sqlite3 --version
uv --version

Linux (Ubuntu/Debian):

  • Python:
sudo apt update
sudo apt install python3 python3-pip
  • SQLite:
sudo apt install sqlite3
  • uv/uvx:
curl -sSf https://install.ultraviolet.rs/linux
  • 설치 확인:
python3 --version
sqlite3 --version
uv --version

모든 파일이 다운로드되고 시스템이 준비되면 Dolphin MCP 설치를 진행할 수 있습니다.

4. Dolphin MCP 설치

Dolphin MCP는 PyPI에서 패키지로 설치하거나 소스에서 직접 설치하는 두 가지 방법이 있습니다.

옵션 1: PyPI에서 설치 (추천)

가장 간단한 방법은 pip를 통해 Dolphin MCP를 설치하는 것입니다:

pip install dolphin-mcp

이 명령은 라이브러리와 명령줄 도구 dolphin-mcp-cli를 모두 설치하며, 이를 통해 터미널에서 도구를 직접 사용할 수 있습니다.

옵션 2: 소스에서 설치

소스 코드를 직접 작업하거나 프로젝트에 기여할 의도가 있는 경우, 다음 단계를 따라야 합니다:

저장소 복제:

git clone https://github.com/cognitivecomputations/dolphin-mcp.git
cd dolphin-mcp

개발 모드로 설치:

pip install -e .

환경 변수 설정:

예제 환경 파일(.env.example 파일)을 복사하고 API 키로 업데이트합니다. 모델의 기본 URL을 지정할 수도 있습니다:

cp .env.example .env

OpenAI API 키(및 필요한 다른 키)를 포함하도록 .env 파일을 자유롭게 수정하십시오.

(선택 사항) 데모 데이터베이스 설정:

샘플 데이터를 사용하여 시스템을 테스트하여 Dophin MCP가 모델을 MCP에 성공적으로 연결했는지 확인하려면 다음을 실행합니다:

python setup_db.py

이 명령은 데모 목적으로 돌고래 종에 대한 정보를 포함하는 샘플 SQLite 데이터베이스를 생성합니다. 새로 생성된 SQLite 데이터베이스가 저장될 출력 경로를 주의 깊게 확인하세요. 데이터베이스에는 Dolphin에 대한 일부 모의 데이터가 포함되어 있습니다. 확인해보세요!

5. 구성 및 환경 변수

Dolphin MCP는 설정 관리를 위해 두 가지 주요 구성 파일을 사용합니다: .env 파일과 mcp_config.json 파일입니다.

.env 파일

.env 파일에는 민감한 API 자격 증명이 저장됩니다. 예를 들어:

OPENAI_API_KEY=your_openai_api_key_here
OPENAI_MODEL=gpt-4o
# OPENAI_ENDPOINT=https://api.openai.com/v1  # 필요 시 주석을 해제하고 업데이트하세요

mcp_config.json

이 JSON 파일은 클라이언트가 연결할 MCP 서버를 정의합니다. 예제 구성은 다음과 같을 수 있습니다:

{
  "mcpServers": {
    "server1": {
      "command": "server 시작 명령",
      "args": ["arg1", "arg2"],
      "env": {
        "ENV_VAR1": "value1",
        "ENV_VAR2": "value2"
      }
    },
    "server2": {
      "command": "다른 서버 명령",
      "args": ["--option", "value"]
    }
  }
}

이 파일들을 구성함으로써, Dolphin MCP는 안전하게 API 키를 저장하고 여러 MCP 서버에 동시에 연결할 수 있습니다.

6. Dolphin MCP 테스트 및 사용

Dolphin MCP는 CLI 명령, Python 통합 또는 레거시 스크립트의 선호 여부에 관계없이 MCP 서버를 테스트하고 상호작용하는 유연한 방법을 제공합니다.

CLI 명령 사용하기

MCP 서버와 상호작용하는 가장 간단한 방법은 CLI 명령을 사용하는 것입니다. 환경이 설정되고 MCP 서버가 실행 중인 경우, 터미널에서 직접 쿼리를 보낼 수 있습니다. 예:

dolphin-mcp-cli "어떤 돌고래 종이 멸종 위기인가요?"  

주요 옵션:

  • --model <이름>: 모델을 지정합니다 (예: gpt-4o).
  • --quiet: 중간 출력을 숨깁니다.
  • --config <파일>: 맞춤 구성 파일을 사용합니다.

예시:

dolphin-mcp-cli --model gpt-4o "대서양에 있는 돌고래 목록"  

이로 인해 연결된 MCP 서버(Ollama, OpenAI 등)로 쿼리가 전송되고 구조화된 결과가 반환됩니다.

Python 라이브러리 사용하기

Dolphin MCP를 Python 코드에 직접 통합하려는 경우, 라이브러리는 run_interaction라는 편리한 함수를 제공합니다. 이를 통해 MCP 상호작용을 대형 애플리케이션의 일부분으로 포함할 수 있습니다. 다음은 라이브러리를 프로그램적으로 사용하는 예제 스크립트입니다:

import asyncio  
from dolphin_mcp import run_interaction  

async def main():  
    result = await run_interaction(  
        user_query="어떤 돌고래 종이 멸종 위기인가요?",  
        model_name="gpt-4o",  
        quiet_mode=False  
    )  
    print(result)  

asyncio.run(main())  

이것은 서버 연결, 도구 탐지 및 모델 호출을 자동으로 처리합니다.

레거시 스크립트

빠른 테스트를 위해 (보다 간단한 접근 방식을 선호하는 분들을 위해) 커맨드 라인에서 원본 스크립트를 직접 실행하세요. 이 방법은 CLI와 동일한 기능을 제공하지만 더 간단한 형태입니다:

python dolphin_mcp.py "돌고래 이동 패턴 분석"  

서버에 연결하고, 도구를 나열하며, 추가 옵션 없이 대화식 결과를 반환합니다.

예제 쿼리 및 데모 데이터베이스

다음 쿼리를 시도해 보세요:

  • 일반: dolphin-mcp-cli "돌고래 진화를 설명하세요"
  • 모델 특정: dolphin-mcp-cli --model ollama "양자 물리학 정의"
  • 조용한 모드: dolphin-mcp-cli --quiet "멸종 위기 종 목록"

데모 데이터베이스:
샘플 SQLite 데이터베이스를 생성하기 위해 setup_db.py를 실행하세요. 이를 통해 다음과 같은 쿼리를 테스트 할 수 있습니다:

dolphin-mcp-cli "어떤 돌고래가 심각한 위기인가요?"  

출력:

{  
  "species": "마우이 돌고래",  
  "status": "심각한 멸종 위기"  
}  

이 도구들을 통해 Dolphin MCP는 디버깅, 스크립팅 또는 복잡한 AI 시스템 구축 중에도 귀하의 작업 흐름에 적응합니다. GitHub 리포지토리도 방문해 보시기 바랍니다.

7. 결론


Dolphin MCPOllamaOpenAI와 같은 도구를 통합된 작업 흐름으로 원활하게 연결하여 AI 통합의 혁신을 일으킵니다. 자연어 쿼리를 위한 CLI, 프로그램 제어를 위한 Python 라이브러리 및 테스트를 위한 데모 데이터베이스를 통해, 이는 개발자들이 복잡한 AI 에이전트를 보일러플레이트 코드 없이 생성할 수 있게 합니다. 보존 데이터 분석, 보고서 생성 또는 로컬 LLM 실험과 관계없이, Dolphin MCP는 복잡한 작업을 간소화하면서도 유연성을 유지합니다. 다중 모델 지원 및 직관적인 구성은 빠른 프로토타입에서 생산 시스템까지 이상적입니다.

AI 프로젝트를 간소화할 준비가 되셨나요? 귀하의 MCP 서버의 API를 테스트하고 더 스마트한 작업 흐름을 구축하기 위해 Apidog를 다운로드하세요!

button