Apidog

Plataforma Colaborativa All-in-one para Desenvolvimento de API

Design de API

Documentação de API

Depuração de API

Mock de API

Testes Automatizados

Como Usar Qwen 3 30B para MCP e Tarefas Agênticas

Ashley Goolam

Ashley Goolam

Updated on maio 29, 2025

Pronto para liberar o poder do Qwen 3 30B-A3B para tarefas de agente de próximo nível? Esta fera de modelo, quando rodada localmente com o Ollama, é um divisor de águas para mcp (Model Context Protocol) e chamada de ferramentas, permitindo construir agentes inteligentes que raciocinam como profissionais. Fiquei viciado explorando suas capacidades no Reddit, onde as pessoas estão elogiando muito sua velocidade e inteligência para tarefas como operações de arquivo ou consultas a banco de dados. Neste tutorial, mostrarei como configurar o Qwen 3 localmente, configurar o mcp para uso de ferramentas e criar um agente que escreve um poema em um arquivo—tudo com a magia de raciocínio do Qwen 3. Quer você esteja codificando ou automatizando, vamos fazer do Qwen 3 seu novo melhor companheiro!

💡
Trabalhando com APIs ou documentando projetos? Pegue o APIdog para uma maneira elegante de projetar, testar e compartilhar documentação de API—perfeito para seus fluxos de trabalho com Qwen 3!
botão

O que é Qwen 3 e Por Que Ele É Ótimo para MCP?

Qwen 3 é a mais recente série de modelos de linguagem grandes de peso aberto da Alibaba, e a variante 30B-A3B (Mixture-of-Experts) é um destaque para mcp e tarefas de agente. Com 30 bilhões de parâmetros totais, mas apenas 3 bilhões ativos por inferência, ele é rápido e eficiente, rodando bem em uma única RTX 3090 ou 4090. Seu suporte a mcp permite que ele chame ferramentas (por exemplo, sistemas de arquivos, bancos de dados) via interfaces definidas por JSON, enquanto seu modo de pensamento híbrido (... blocks) aumenta o raciocínio para tarefas complexas como codificação ou lógica multi-etapas. Usuários do Reddit em r/LocalLLLaMA elogiam sua precisão na chamada de ferramentas, com um teste mostrando que ele acertou em cheio ao escrever um poema em um arquivo consultando um diretório primeiro. Vamos aproveitar esse poder localmente com o Ollama!

Configurando Seu Ambiente Qwen 3

Antes de mergulharmos na diversão com mcp e agentes, vamos preparar seu sistema para rodar o Qwen 3 30B-A3B com o Ollama. Isso é fácil para iniciantes, eu prometo!

1. Verifique os Requisitos do Sistema:

  • Sistema Operacional: macOS, Linux (Ubuntu 20.04+), ou Windows (com WSL2).
  • Hardware: 16GB+ RAM, GPU com 24GB+ VRAM (por exemplo, RTX 3090/4090), 20GB+ de armazenamento. Modelos menores (0.6B, 1.7B, 8B) precisam de menos: 4GB+ VRAM, 8GB+ RAM.
  • Software:
  • Python 3.10+ (python3 --version).
  • Git (git --version).
  • Ollama

2. Instale o Ollama:

Visite o site oficial e baixe uma versão compatível com seu sistema operacional.

ollama

Alternativamente, execute:

curl -fsSL https://ollama.com/install.sh | sh

Verifique a versão:

ollama --version

Espere algo como 0.3.12 (Maio de 2025). Se falhar, garanta que o Ollama esteja no seu PATH.

3. Baixe um Modelo Qwen 3:

Para Qwen Affiliate 30B (grande, apenas para PCs de alta performance):

ollama pull qwen3:30b

Isso baixa ~18GB—pegue um lanche! Aviso: É pesado em recursos e precisa de uma GPU potente.

Para testar em hardware modesto, experimente modelos Qwen Affiliate menores, que ainda são altamente capazes para mcp e ferramentas:

ollama pull qwen3:0.6b  # ~0.4GB
ollama pull qwen3:1.7b  # ~1GB
ollama pull qwen3:8b    # ~5GB
modelos qwen 3

Verifique a instalação:

ollama list

Procure por qwen3:30b (ou qwen3:0.6b, etc.).

4. Teste o Modelo:

Execute:

ollama run qwen3:30b

Ou, para modelos menores: ollama run qwen3:0.6b, qwen3:1.7b, ou qwen3:8b.

  • No prompt (>>>), digite: “Conte-me uma piada sobre computadores.” Espere algo como: “Por que o computador foi à terapia? Ele teve uma crise de identidade depois de reiniciar!” Saia com /bye.
testar qwen 3
  • Testei o qwen3:8b em um laptop, e ele contou uma piada boa em segundos—modelos Qwen Affiliate não são lentos!
É novo no Ollama? Confira este tutorial para ajudar você a começar!

Criando um Agente Qwen 3 com MCP e Ferramentas

Agora, vamos aproveitar os poderes de mcp e ferramentas do Qwen 3 para construir um agente que lê um PDF e responde a perguntas, usando código do repositório GitHub do Qwen-Agent. Também testaremos funções mcp para buscar dados em tempo real, como hora ou clima. Você pode usar qualquer PDF—um artigo de pesquisa, uma receita ou até mesmo um manual do usuário!

1. Configure um Novo Projeto:

Crie e navegue até uma pasta de projeto:

mkdir qwen-agent-test
cd qwen-agent-test

2. Crie um Ambiente Virtual:

Configure e ative:

python3 -m venv venv
source venv/bin/activate  # macOS/Linux
venv\Scripts\activate     # Windows

3. Instale o Qwen-Agent:

Instale com dependências de mcp e ferramentas:

pip install -U "qwen-agent[gui,rag,code_interpreter,mcp]"

4. Crie o Script do Agente:

  • Crie um arquivo testagent.py e copie o código de exemplo do Qwen-Agent do repositório github, então modifique llm_cfg para Ollama:
# Step 2: Configure the LLM you are using.
llm_cfg = {
    # Use the model service provided by DashScope:
    #'model': 'qwen-max-latest',
    #'model_type': 'qwen_dashscope',
    # 'api_key': 'YOUR_DASHSCOPE_API_KEY',
    # It will use the `DASHSCOPE_API_KEY' environment variable if 'api_key' is not set here.

    # Use a model service compatible with the OpenAI API, such as vLLM or Ollama:
    'model': 'qwen3:0.6b',
    'model_server': 'http://localhost:11434/v1',  # base_url, also known as api_base
    'api_key': 'ollama',

    # (Optional) LLM hyperparameters for generation:
    'generate_cfg': {
        'top_p': 0.8
    }
}
  • Baixe um PDF (testei usando um artigo intitulado “AI-driven Vision Systems for Object Recognition and Localization in Robotic Automation” de um site de pesquisa) e salve-o como AI-paper.pdf na pasta do projeto. Preferencialmente, você pode usar qualquer PDF—por exemplo, uma receita, um guia, o que despertar seu interesse!

5. Inicie a API do Ollama:

Em um terminal separado, execute:

ollama serve

Isso hospeda a API em http://localhost:11434. Mantenha-o rodando.

6. Execute o Agente:

Na pasta do projeto, execute:

python testagent.py
executar testagent.py
  • Qwen 3 lerá o PDF e o resumirá. Para meu artigo sobre visão de IA, ele produziu: “O artigo discute o reconhecimento de objetos em robótica, focando em sistemas de visão baseados em CNN para localização em tempo real, alcançando 95% de precisão.” Sua resposta variará com base no seu PDF—tente perguntar sobre os ingredientes de uma receita ou os passos de um manual!
saída de testagent.py
  • Para testar as capacidades mcp do Qwen 3 (além de ferramentas como leitura de PDF), modifique testagent.py para usar servidores mcp. Atualize a inicialização do bot com:
tools = [
    'my_image_gen', 
    'code_interpreter',
    {
        'mcpServers': {
            'time': {
                'type': 'python',
                'module': 'mcp.server.time',
                'port': 8080
            },
            'fetch': {
                'type': 'python',
                'module': 'mcp.server.fetch',
                'port': 8081
            }
        }
    }
    ]  # `code_interpreter` is a built-in tool for executing code.
files = ['./AI-paper.pdf']  # Give the bot a PDF file to read. 
  • Salve e execute novamente:
python testagent.py
  • Faça perguntas como: “Que horas são em Nova York?” ou “Como está o clima em Sydney?” Qwen 3 seleciona inteligentemente o servidor mcp apropriado (time ou fetch) para buscar dados em tempo real da web ou do sistema. Por exemplo, obtive: “São 15:47 em Nova York.” Mais detalhes estão no repositório github deles, confira.

Explorando as Funcionalidades de MCP e Chamada de Ferramentas do Qwen 3

Qwen 3 se destaca em mcp e tarefas de agente. Veja como levá-lo mais longe:

  • Adicione Mais Ferramentas: Estenda o agente com ferramentas para consultas a banco de dados ou buscas na web via módulo tools do Qwen-Agent. O Reddit sugere que tarefas de navegador funcionam bem com mcp.
  • Alterne o Modo de Pensamento: Use /think nos prompts para raciocínio complexo (por exemplo, curl http://localhost:11434/api/chat -d '{"model": "qwen3:30b", "messages": [{"role": "user", "content": "Plan a project /think"}]}' ou /no_think para respostas rápidas.
  • Teste Modelos Menores: Se o 30B for muito pesado, o qwen3:8b ainda manda bem em tarefas mcp—ótimo para laptops.
  • Otimize a Performance: Use a quantização Q8_XL do Unsloth para velocidade, como observado no Reddit.

Testei o qwen3:8b com um PDF de receita, e ele listou os ingredientes perfeitamente—a chamada de ferramentas do Qwen 3 é versátil!

Concluindo: Domine o Qwen 3 e o MCP

Agora, você liberou o Qwen 3 30B com mcp e ferramentas para construir um agente leitor de PDF e testou funções mcp para consultas em tempo real! Desde a instalação do Ollama e o teste de modelos Qwen 3 até a criação de um Qwen-Agent que resume artigos de pesquisa ou busca o clima, você está pronto para a maravilha agentiva. Experimente novos PDFs, adicione ferramentas ou documente suas APIs com o Apidog!

💡
Quer uma ótima ferramenta de Teste de API que gera Documentação de API bonita?

Quer uma plataforma integrada, Tudo-em-Um para sua Equipe de Desenvolvedores trabalhar junta com produtividade máxima?

O Apidog atende a todas as suas demandas e substitui o Postman por um preço muito mais acessível!
botão