다음 단계의 에이전트 작업을 위해 Qwen 3 30B-A3B의 힘을 발휘할 준비가 되셨습니까? Ollama를 사용하여 로컬에서 실행할 때, 이 강력한 모델은 mcp(Model Context Protocol) 및 도구 호출에 있어 판도를 바꾸는 역할을 하며, 전문가처럼 추론하는 스마트 에이전트를 구축할 수 있게 해줍니다. 저는 Reddit에서 파일 작업이나 데이터베이스 쿼리와 같은 작업에 대한 속도와 스마트함에 대해 사람들이 극찬하는 것을 보고 그 기능 탐색에 빠져들었습니다. 이 튜토리얼에서는 Qwen 3를 로컬에 설정하고, 도구 사용을 위해 mcp를 구성하며, Qwen 3의 추론 마법을 사용하여 파일에 시를 작성하는 에이전트를 만드는 방법을 보여드리겠습니다. 코딩을 하든 자동화를 하든, Qwen 3를 여러분의 새로운 절친으로 만들어 보세요!
Qwen 3는 무엇이며 MCP에 왜 적합할까요?
Qwen 3는 Alibaba의 최신 오픈 가중치 대규모 언어 모델 시리즈이며, 30B-A3B(Mixture-of-Experts) 변형은 mcp 및 에이전트 작업에 탁월합니다. 총 300억 개의 매개변수를 가지고 있지만 추론당 30억 개만 활성화되므로 빠르고 효율적이며 단일 RTX 3090 또는 4090에서 잘 실행됩니다. mcp 지원을 통해 JSON으로 정의된 인터페이스를 통해 도구(예: 파일 시스템, 데이터베이스)를 호출할 수 있으며, 하이브리드 사고 모드(... 블록)는 코딩 또는 다단계 논리와 같은 복잡한 작업에 대한 추론을 향상시킵니다. r/LocalLLLaMA의 Reddit 사용자들은 도구 호출 정확성을 칭찬하며, 한 테스트에서는 먼저 디렉토리를 쿼리하여 파일에 시를 작성하는 데 성공했음을 보여주었습니다. Ollama를 사용하여 이 강력한 기능을 로컬에서 활용해 봅시다!
Qwen 3 환경 설정하기
mcp 및 에이전트 관련 재미에 뛰어들기 전에 Ollama를 사용하여 Qwen 3 30B-A3B를 실행하도록 시스템을 준비해 봅시다. 초보자도 쉽게 따라 할 수 있습니다! 약속드립니다!
1. 시스템 요구 사항 확인:
- OS: macOS, Linux (Ubuntu 20.04 이상) 또는 Windows (WSL2 사용).
- 하드웨어: 16GB+ RAM, 24GB+ VRAM GPU (예: RTX 3090/4090), 20GB+ 저장 공간. 더 작은 모델(0.6B, 1.7B, 8B)은 더 적은 사양 필요: 4GB+ VRAM, 8GB+ RAM.
- 소프트웨어:
- Python 3.10 이상 (
python3 --version
). - Git (
git --version
). - Ollama
2. Ollama 설치:
공식 웹사이트를 방문하여 운영 체제와 호환되는 버전을 다운로드하세요.

또는 다음을 실행하세요:
curl -fsSL https://ollama.com/install.sh | sh
버전 확인:
ollama --version
0.3.12 (2025년 5월)와 유사한 결과가 예상됩니다. 실패하면 Ollama가 PATH에 있는지 확인하세요.
3. Qwen 3 모델 가져오기:
Qwen Affiliate 30B (대용량, 고성능 PC 전용):
ollama pull qwen3:30b
약 18GB를 다운로드합니다. 간식을 챙기세요! 경고: 리소스 소모가 많고 강력한 GPU가 필요합니다.
보통 사양 하드웨어에서 테스트하려면 더 작은 Qwen Affiliate 모델을 사용해 보세요. 이 모델들도 mcp 및 도구에 대해 매우 뛰어난 성능을 제공합니다:
ollama pull qwen3:0.6b # ~0.4GB
ollama pull qwen3:1.7b # ~1GB
ollama pull qwen3:8b # ~5GB

설치 확인:
ollama list
qwen3:30b (또는 qwen3:0.6b 등)를 찾으세요.
4. 모델 테스트:
실행:
ollama run qwen3:30b
또는 더 작은 모델의 경우: ollama run qwen3:0.6b, qwen3:1.7b, 또는 qwen3:8b.
- 프롬프트(>>>)에서 "Tell me a joke about computers."라고 입력하세요. "Why did the computer go to therapy? It had an identity crisis after a reboot!"와 같은 결과가 예상됩니다. /bye로 종료합니다.

- 저는 노트북에서 qwen3:8b를 테스트했는데 몇 초 만에 괜찮은 농담을 했습니다. Qwen Affiliate 모델은 절대 느리지 않습니다!
MCP와 도구를 사용하여 Qwen 3 에이전트 만들기
이제 **Qwen 3**의 **mcp** 및 **도구** 기능을 활용하여 **Qwen-Agent** GitHub 저장소의 코드를 사용하여 PDF를 읽고 질문에 답변하는 에이전트를 구축해 봅시다. 또한 시간이나 날씨와 같은 실시간 데이터를 가져오는 **mcp** 기능도 테스트할 것입니다. 어떤 PDF든 사용할 수 있습니다. 연구 논문, 레시피, 심지어 사용자 매뉴얼까지!
1. 새 프로젝트 설정:
프로젝트 폴더를 만들고 이동합니다:
mkdir qwen-agent-test
cd qwen-agent-test
2. 가상 환경 만들기:
설정 및 활성화:
python3 -m venv venv
source venv/bin/activate # macOS/Linux
venv\Scripts\activate # Windows
3. Qwen-Agent 설치:
mcp 및 도구 종속성과 함께 설치:
pip install -U "qwen-agent[gui,rag,code_interpreter,mcp]"
4. 에이전트 스크립트 만들기:
testagent.py
파일을 만들고 github 저장소에서 **Qwen-Agent** 예제 코드를 복사한 다음 Ollama에 맞게llm_cfg
를 수정합니다:
# 2단계: 사용할 LLM 구성.
llm_cfg = {
# DashScope에서 제공하는 모델 서비스 사용:
#'model': 'qwen-max-latest',
#'model_type': 'qwen_dashscope',
# 'api_key': 'YOUR_DASHSCOPE_API_KEY',
# 여기에 'api_key'가 설정되지 않으면 'DASHSCOPE_API_KEY' 환경 변수를 사용합니다.
# vLLM 또는 Ollama와 같이 OpenAI API와 호환되는 모델 서비스 사용:
'model': 'qwen3:0.6b',
'model_server': 'http://localhost:11434/v1', # base_url, api_base라고도 함
'api_key': 'ollama',
# (선택 사항) 생성을 위한 LLM 하이퍼파라미터:
'generate_cfg': {
'top_p': 0.8
}
}
- PDF를 다운로드하여(저는 연구 사이트에서 “로봇 자동화에서의 객체 인식 및 위치 파악을 위한 AI 기반 비전 시스템”이라는 제목의 논문을 사용하여 테스트했습니다) 프로젝트 폴더에
AI-paper.pdf
로 저장합니다. 선호한다면 어떤 PDF든 사용할 수 있습니다. 예를 들어 레시피, 가이드 등 여러분의 흥미를 끄는 어떤 것이든 좋습니다!
5. Ollama API 시작:
별도의 터미널에서 실행:
ollama serve
이렇게 하면 http://localhost:11434
에서 API가 호스팅됩니다. 계속 실행 상태를 유지하세요.
6. 에이전트 실행:
프로젝트 폴더에서 실행:
python testagent.py

- **Qwen 3**가 PDF를 읽고 요약할 것입니다. 제 AI 비전 논문의 경우 다음과 같이 출력되었습니다: “이 논문은 로봇 공학에서의 객체 인식을 다루며, 실시간 위치 파악을 위한 CNN 기반 비전 시스템에 초점을 맞추고 95%의 정확도를 달성했습니다.” 여러분의 응답은 PDF에 따라 달라집니다. 레시피의 재료나 매뉴얼의 단계에 대해 질문해 보세요!

7. MCP 기능 테스트:
- **Qwen 3**의 **mcp** 기능(PDF 읽기와 같은 도구 외)을 테스트하려면
testagent.py
를 수정하여 **mcp** 서버를 사용하도록 합니다.bot
초기화를 다음과 같이 업데이트합니다:
tools = [
'my_image_gen',
'code_interpreter',
{
'mcpServers': {
'time': {
'type': 'python',
'module': 'mcp.server.time',
'port': 8080
},
'fetch': {
'type': 'python',
'module': 'mcp.server.fetch',
'port': 8081
}
}
}
] # `code_interpreter`는 코드 실행을 위한 내장 도구입니다.
files = ['./AI-paper.pdf'] # 봇에게 읽을 PDF 파일을 제공합니다.
- 저장하고 다시 실행:
python testagent.py
- "뉴욕 시간은 몇 시입니까?" 또는 "시드니 날씨는 어떻습니까?"와 같은 질문을 하세요. **Qwen 3**는 웹 또는 시스템에서 실시간 데이터를 검색하기 위해 적절한 **mcp** 서버(
time
또는fetch
)를 지능적으로 선택합니다. 예를 들어, 저는 "뉴욕 시간은 오후 3시 47분입니다."라는 응답을 받았습니다. 더 자세한 내용은 github 저장소에 있으니 확인해 보세요.
Qwen 3의 MCP 및 도구 호출 기능 탐색하기
Qwen 3는 mcp 및 에이전트 작업에 탁월합니다. 다음은 이를 더욱 발전시키는 방법입니다:
- 더 많은 도구 추가: **Qwen-Agent**의
tools
모듈을 통해 데이터베이스 쿼리 또는 웹 검색을 위한 도구로 에이전트를 확장하세요. Reddit에서는 브라우저 작업이 **mcp**와 잘 작동한다고 제안합니다. - 사고 모드 전환: 복잡한 추론을 위해 프롬프트에 /think를 사용하거나(예:
curl http://localhost:11434/api/chat -d '{"model": "qwen3:30b", "messages": [{"role": "user", "content": "Plan a project /think"}]}'
) 빠른 응답을 위해/no_think
를 사용하세요. - 더 작은 모델 테스트: 30B가 너무 무겁다면
qwen3:8b
도 **mcp** 작업에 훌륭합니다. 노트북에 적합합니다. - 성능 최적화: Reddit에서 언급된 것처럼 속도를 위해 Unsloth의 Q8_XL 양자화를 사용하세요.
저는 레시피 PDF로 qwen3:8b
를 테스트했는데 재료 목록을 완벽하게 작성했습니다. **Qwen 3**의 도구 호출은 다재다능합니다!
마무리: Qwen 3 및 MCP 마스터하기
이제 **Qwen 3** 30B를 **mcp** 및 **도구**와 함께 활용하여 PDF 읽기 에이전트를 구축하고 실시간 쿼리를 위한 **mcp** 기능을 테스트했습니다! Ollama 설치 및 **Qwen 3** 모델 테스트부터 연구 논문을 요약하거나 날씨를 가져오는 **Qwen-Agent** 생성까지, 여러분은 에이전트 관련 놀라운 작업을 수행할 준비가 되었습니다. 새로운 PDF를 시도하고, 도구를 추가하거나, Apidog로 API 문서를 작성해 보세요!
개발 팀이 최대 생산성으로 함께 작업할 수 있는 통합 올인원 플랫폼을 원하십니까?
Apidog는 여러분의 모든 요구 사항을 충족하며, Postman을 훨씬 저렴한 가격으로 대체합니다!