Pronto para liberar o poder do Qwen 3 30B-A3B para tarefas de agente de próximo nível? Esta fera de modelo, quando rodada localmente com o Ollama, é um divisor de águas para mcp (Model Context Protocol) e chamada de ferramentas, permitindo construir agentes inteligentes que raciocinam como profissionais. Fiquei viciado explorando suas capacidades no Reddit, onde as pessoas estão elogiando muito sua velocidade e inteligência para tarefas como operações de arquivo ou consultas a banco de dados. Neste tutorial, mostrarei como configurar o Qwen 3 localmente, configurar o mcp para uso de ferramentas e criar um agente que escreve um poema em um arquivo—tudo com a magia de raciocínio do Qwen 3. Quer você esteja codificando ou automatizando, vamos fazer do Qwen 3 seu novo melhor companheiro!
O que é Qwen 3 e Por Que Ele É Ótimo para MCP?
Qwen 3 é a mais recente série de modelos de linguagem grandes de peso aberto da Alibaba, e a variante 30B-A3B (Mixture-of-Experts) é um destaque para mcp e tarefas de agente. Com 30 bilhões de parâmetros totais, mas apenas 3 bilhões ativos por inferência, ele é rápido e eficiente, rodando bem em uma única RTX 3090 ou 4090. Seu suporte a mcp permite que ele chame ferramentas (por exemplo, sistemas de arquivos, bancos de dados) via interfaces definidas por JSON, enquanto seu modo de pensamento híbrido (... blocks) aumenta o raciocínio para tarefas complexas como codificação ou lógica multi-etapas. Usuários do Reddit em r/LocalLLLaMA elogiam sua precisão na chamada de ferramentas, com um teste mostrando que ele acertou em cheio ao escrever um poema em um arquivo consultando um diretório primeiro. Vamos aproveitar esse poder localmente com o Ollama!
Configurando Seu Ambiente Qwen 3
Antes de mergulharmos na diversão com mcp e agentes, vamos preparar seu sistema para rodar o Qwen 3 30B-A3B com o Ollama. Isso é fácil para iniciantes, eu prometo!
1. Verifique os Requisitos do Sistema:
- Sistema Operacional: macOS, Linux (Ubuntu 20.04+), ou Windows (com WSL2).
- Hardware: 16GB+ RAM, GPU com 24GB+ VRAM (por exemplo, RTX 3090/4090), 20GB+ de armazenamento. Modelos menores (0.6B, 1.7B, 8B) precisam de menos: 4GB+ VRAM, 8GB+ RAM.
- Software:
- Python 3.10+ (
python3 --version
). - Git (
git --version
). - Ollama
2. Instale o Ollama:
Visite o site oficial e baixe uma versão compatível com seu sistema operacional.

Alternativamente, execute:
curl -fsSL https://ollama.com/install.sh | sh
Verifique a versão:
ollama --version
Espere algo como 0.3.12 (Maio de 2025). Se falhar, garanta que o Ollama esteja no seu PATH.
3. Baixe um Modelo Qwen 3:
Para Qwen Affiliate 30B (grande, apenas para PCs de alta performance):
ollama pull qwen3:30b
Isso baixa ~18GB—pegue um lanche! Aviso: É pesado em recursos e precisa de uma GPU potente.
Para testar em hardware modesto, experimente modelos Qwen Affiliate menores, que ainda são altamente capazes para mcp e ferramentas:
ollama pull qwen3:0.6b # ~0.4GB
ollama pull qwen3:1.7b # ~1GB
ollama pull qwen3:8b # ~5GB

Verifique a instalação:
ollama list
Procure por qwen3:30b (ou qwen3:0.6b, etc.).
4. Teste o Modelo:
Execute:
ollama run qwen3:30b
Ou, para modelos menores: ollama run qwen3:0.6b, qwen3:1.7b, ou qwen3:8b.
- No prompt (>>>), digite: “Conte-me uma piada sobre computadores.” Espere algo como: “Por que o computador foi à terapia? Ele teve uma crise de identidade depois de reiniciar!” Saia com /bye.

- Testei o qwen3:8b em um laptop, e ele contou uma piada boa em segundos—modelos Qwen Affiliate não são lentos!
Criando um Agente Qwen 3 com MCP e Ferramentas
Agora, vamos aproveitar os poderes de mcp e ferramentas do Qwen 3 para construir um agente que lê um PDF e responde a perguntas, usando código do repositório GitHub do Qwen-Agent. Também testaremos funções mcp para buscar dados em tempo real, como hora ou clima. Você pode usar qualquer PDF—um artigo de pesquisa, uma receita ou até mesmo um manual do usuário!
1. Configure um Novo Projeto:
Crie e navegue até uma pasta de projeto:
mkdir qwen-agent-test
cd qwen-agent-test
2. Crie um Ambiente Virtual:
Configure e ative:
python3 -m venv venv
source venv/bin/activate # macOS/Linux
venv\Scripts\activate # Windows
3. Instale o Qwen-Agent:
Instale com dependências de mcp e ferramentas:
pip install -U "qwen-agent[gui,rag,code_interpreter,mcp]"
4. Crie o Script do Agente:
- Crie um arquivo
testagent.py
e copie o código de exemplo do Qwen-Agent do repositório github, então modifiquellm_cfg
para Ollama:
# Step 2: Configure the LLM you are using.
llm_cfg = {
# Use the model service provided by DashScope:
#'model': 'qwen-max-latest',
#'model_type': 'qwen_dashscope',
# 'api_key': 'YOUR_DASHSCOPE_API_KEY',
# It will use the `DASHSCOPE_API_KEY' environment variable if 'api_key' is not set here.
# Use a model service compatible with the OpenAI API, such as vLLM or Ollama:
'model': 'qwen3:0.6b',
'model_server': 'http://localhost:11434/v1', # base_url, also known as api_base
'api_key': 'ollama',
# (Optional) LLM hyperparameters for generation:
'generate_cfg': {
'top_p': 0.8
}
}
- Baixe um PDF (testei usando um artigo intitulado “AI-driven Vision Systems for Object Recognition and Localization in Robotic Automation” de um site de pesquisa) e salve-o como
AI-paper.pdf
na pasta do projeto. Preferencialmente, você pode usar qualquer PDF—por exemplo, uma receita, um guia, o que despertar seu interesse!
5. Inicie a API do Ollama:
Em um terminal separado, execute:
ollama serve
Isso hospeda a API em http://localhost:11434.
Mantenha-o rodando.
6. Execute o Agente:
Na pasta do projeto, execute:
python testagent.py

- Qwen 3 lerá o PDF e o resumirá. Para meu artigo sobre visão de IA, ele produziu: “O artigo discute o reconhecimento de objetos em robótica, focando em sistemas de visão baseados em CNN para localização em tempo real, alcançando 95% de precisão.” Sua resposta variará com base no seu PDF—tente perguntar sobre os ingredientes de uma receita ou os passos de um manual!

- Para testar as capacidades mcp do Qwen 3 (além de ferramentas como leitura de PDF), modifique
testagent.py
para usar servidores mcp. Atualize a inicialização dobot
com:
tools = [
'my_image_gen',
'code_interpreter',
{
'mcpServers': {
'time': {
'type': 'python',
'module': 'mcp.server.time',
'port': 8080
},
'fetch': {
'type': 'python',
'module': 'mcp.server.fetch',
'port': 8081
}
}
}
] # `code_interpreter` is a built-in tool for executing code.
files = ['./AI-paper.pdf'] # Give the bot a PDF file to read.
- Salve e execute novamente:
python testagent.py
- Faça perguntas como: “Que horas são em Nova York?” ou “Como está o clima em Sydney?” Qwen 3 seleciona inteligentemente o servidor mcp apropriado (
time
oufetch
) para buscar dados em tempo real da web ou do sistema. Por exemplo, obtive: “São 15:47 em Nova York.” Mais detalhes estão no repositório github deles, confira.
Explorando as Funcionalidades de MCP e Chamada de Ferramentas do Qwen 3
Qwen 3 se destaca em mcp e tarefas de agente. Veja como levá-lo mais longe:
- Adicione Mais Ferramentas: Estenda o agente com ferramentas para consultas a banco de dados ou buscas na web via módulo
tools
do Qwen-Agent. O Reddit sugere que tarefas de navegador funcionam bem com mcp. - Alterne o Modo de Pensamento: Use /think nos prompts para raciocínio complexo (por exemplo,
curl http://localhost:11434/api/chat -d '{"model": "qwen3:30b", "messages": [{"role": "user", "content": "Plan a project /think"}]}'
ou/no_think
para respostas rápidas. - Teste Modelos Menores: Se o 30B for muito pesado, o
qwen3:8b
ainda manda bem em tarefas mcp—ótimo para laptops. - Otimize a Performance: Use a quantização Q8_XL do Unsloth para velocidade, como observado no Reddit.
Testei o qwen3:8b
com um PDF de receita, e ele listou os ingredientes perfeitamente—a chamada de ferramentas do Qwen 3 é versátil!
Concluindo: Domine o Qwen 3 e o MCP
Agora, você liberou o Qwen 3 30B com mcp e ferramentas para construir um agente leitor de PDF e testou funções mcp para consultas em tempo real! Desde a instalação do Ollama e o teste de modelos Qwen 3 até a criação de um Qwen-Agent que resume artigos de pesquisa ou busca o clima, você está pronto para a maravilha agentiva. Experimente novos PDFs, adicione ferramentas ou documente suas APIs com o Apidog!
Quer uma plataforma integrada, Tudo-em-Um para sua Equipe de Desenvolvedores trabalhar junta com produtividade máxima?
O Apidog atende a todas as suas demandas e substitui o Postman por um preço muito mais acessível!