Apidog

Plataforma de desarrollo de API colaborativa todo en uno

Diseño de API

Documentación de API

Depuración de API

Simulación de API

Prueba automatizada de

Cómo usar Qwen 3 30B para tareas MCP y Agentic

Ashley Goolam

Ashley Goolam

Updated on May 29, 2025

¿Listo para liberar el poder de Qwen 3 30B-A3B para tareas de agente de siguiente nivel? Esta bestia de modelo, cuando se ejecuta localmente con Ollama, cambia las reglas del juego para el mcp (Protocolo de Contexto del Modelo) y la llamada a herramientas, permitiéndote construir agentes inteligentes que razonan como profesionales. Me enganché explorando sus capacidades en Reddit, donde la gente elogia su velocidad e inteligencia para tareas como operaciones de archivos o consultas a bases de datos. En este tutorial, te mostraré cómo configurar Qwen 3 localmente, configurar mcp para el uso de herramientas y crear un agente que escribe un poema en un archivo, todo con la magia de razonamiento de Qwen 3. Ya sea que estés codificando o automatizando, ¡hagamos de Qwen 3 tu nuevo mejor amigo!

💡
¿Trabajando con APIs o documentando proyectos? Obtén APIdog para una forma elegante de diseñar, probar y compartir documentación de API, ¡perfecto para tus flujos de trabajo de Qwen 3!
button

¿Qué es Qwen 3 y por qué es genial para MCP?

Qwen 3 es la última serie de modelos de lenguaje grande de peso abierto de Alibaba, y la variante 30B-A3B (Mezcla de Expertos) es destacada para mcp y tareas de agente. Con 30 mil millones de parámetros totales, pero solo 3 mil millones activos por inferencia, es rápido y eficiente, funcionando bien en una sola RTX 3090 o 4090. Su soporte para mcp le permite llamar a herramientas (por ejemplo, sistemas de archivos, bases de datos) a través de interfaces definidas en JSON, mientras que su modo de pensamiento híbrido (bloques ...) impulsa el razonamiento para tareas complejas como la codificación o la lógica de varios pasos. Los usuarios de Reddit en r/LocalLLLaMA elogian su precisión en la llamada a herramientas, con una prueba que muestra que logró escribir un poema en un archivo consultando primero un directorio. ¡Aprovechemos este poder localmente con Ollama!

Configurando tu Entorno Qwen 3

Antes de sumergirnos en la diversión de mcp y los agentes, preparemos tu sistema para ejecutar Qwen 3 30B-A3B con Ollama. ¡Es fácil para principiantes, lo prometo!

1. Verifica los Requisitos del Sistema:

  • SO: macOS, Linux (Ubuntu 20.04+), o Windows (con WSL2).
  • Hardware: 16GB+ RAM, 24GB+ VRAM en GPU (por ejemplo, RTX 3090/4090), 20GB+ de almacenamiento. Los modelos más pequeños (0.6B, 1.7B, 8B) necesitan menos: 4GB+ VRAM, 8GB+ RAM.
  • Software:
  • Python 3.10+ (python3 --version).
  • Git (git --version).
  • Ollama

2. Instala Ollama:

Visita el sitio web oficial y descarga una versión compatible con tu sistema operativo.

ollama

Alternativamente, ejecuta:

curl -fsSL https://ollama.com/install.sh | sh

Verifica la versión:

ollama --version

Espera algo como 0.3.12 (Mayo 2025). Si falla, asegúrate de que Ollama esté en tu PATH.

3. Descarga un Modelo Qwen 3:

Para Qwen Affiliate 30B (grande, solo para PCs de gama alta):

ollama pull qwen3:30b

Esto descarga ~18GB, ¡tómate un refrigerio! Advertencia: consume muchos recursos y necesita una GPU potente.

Para probar en hardware modesto, prueba modelos Qwen Affiliate más pequeños, que aún son muy capaces para mcp y herramientas:

ollama pull qwen3:0.6b  # ~0.4GB
ollama pull qwen3:1.7b  # ~1GB
ollama pull qwen3:8b    # ~5GB
qwen 3 models

Verifica la instalación:

ollama list

Busca qwen3:30b (o qwen3:0.6b, etc.).

4. Prueba el Modelo:

Ejecuta:

ollama run qwen3:30b

O, para modelos más pequeños: ollama run qwen3:0.6b, qwen3:1.7b, o qwen3:8b.

  • En el indicador (>>>), escribe: “Tell me a joke about computers.” (Cuéntame un chiste sobre ordenadores). Espera algo como: “Why did the computer go to therapy? It had an identity crisis after a reboot!” (¿Por qué fue el ordenador a terapia? ¡Tuvo una crisis de identidad después de un reinicio!). Sal con /bye.
test qwen 3
  • Probé qwen3:8b en un portátil y contó un chiste sólido en segundos. ¡Los modelos Qwen Affiliate no se quedan atrás!
¿Nuevo en Ollama? ¡Consulta este tutorial para empezar!

Creando un Agente Qwen 3 con MCP y Herramientas

Ahora, aprovechemos los poderes de mcp y herramientas de Qwen 3 para construir un agente que lea un PDF y responda preguntas, usando código del repositorio de GitHub de Qwen-Agent. También probaremos funciones de mcp para obtener datos en tiempo real como la hora o el clima. ¡Puedes usar cualquier PDF: un artículo de investigación, una receta o incluso un manual de usuario!

1. Configura un Nuevo Proyecto:

Crea y navega a una carpeta de proyecto:

mkdir qwen-agent-test
cd qwen-agent-test

2. Crea un Entorno Virtual:

Configura y activa:

python3 -m venv venv
source venv/bin/activate  # macOS/Linux
venv\Scripts\activate     # Windows

3. Instala Qwen-Agent:

Instala con dependencias de mcp y herramientas:

pip install -U "qwen-agent[gui,rag,code_interpreter,mcp]"

4. Crea el Script del Agente:

  • Crea un archivo testagent.py y copia el código de ejemplo de Qwen-Agent del repositorio de github, luego modifica llm_cfg para Ollama:
# Paso 2: Configura el LLM que estás usando.
llm_cfg = {
    # Usa el servicio de modelo proporcionado por DashScope:
    #'model': 'qwen-max-latest',
    #'model_type': 'qwen_dashscope',
    # 'api_key': 'YOUR_DASHSCOPE_API_KEY',
    # Usará la variable de entorno `DASHSCOPE_API_KEY` si 'api_key' no está configurada aquí.

    # Usa un servicio de modelo compatible con la API de OpenAI, como vLLM u Ollama:
    'model': 'qwen3:0.6b',
    'model_server': 'http://localhost:11434/v1',  # base_url, también conocido como api_base
    'api_key': 'ollama',

    # (Opcional) Hiperparámetros del LLM para la generación:
    'generate_cfg': {
        'top_p': 0.8
    }
}
  • Descarga un PDF (lo probé usando un artículo titulado “AI-driven Vision Systems for Object Recognition and Localization in Robotic Automation” de un sitio de investigación) y guárdalo como AI-paper.pdf en la carpeta del proyecto. Preferiblemente, puedes usar cualquier PDF, ¡por ejemplo, una receta, una guía, lo que despierte tu interés!

5. Inicia la API de Ollama:

En una terminal separada, ejecuta:

ollama serve

Esto aloja la API en http://localhost:11434. Mantenla ejecutándose.

6. Ejecuta el Agente:

En la carpeta del proyecto, ejecuta:

python testagent.py
run testagent.py
  • Qwen 3 leerá el PDF y lo resumirá. Para mi artículo sobre visión con IA, la salida fue: “El artículo discute el reconocimiento de objetos en robótica, centrándose en sistemas de visión basados en CNN para localización en tiempo real, logrando un 95% de precisión.” Tu respuesta variará según tu PDF. ¡Intenta preguntar sobre los ingredientes de una receta o los pasos de un manual!
testagent.py output

7. Prueba las Funciones de MCP:

  • Para probar las capacidades de mcp de Qwen 3 (más allá de herramientas como la lectura de PDF), modifica testagent.py para usar servidores mcp. Actualiza la inicialización del bot con:
tools = [
    'my_image_gen', 
    'code_interpreter',
    {
        'mcpServers': {
            'time': {
                'type': 'python',
                'module': 'mcp.server.time',
                'port': 8080
            },
            'fetch': {
                'type': 'python',
                'module': 'mcp.server.fetch',
                'port': 8081
            }
        }
    }
    ]  # `code_interpreter` es una herramienta incorporada para ejecutar código.
files = ['./AI-paper.pdf']  # Dale al bot un archivo PDF para leer. 
  • Guarda y vuelve a ejecutar:
python testagent.py
  • Haz preguntas como: “What is the time in New York?” (¿Qué hora es en Nueva York?) o “What is the weather in Sydney?” (¿Qué tiempo hace en Sídney?). Qwen 3 selecciona inteligentemente el servidor mcp apropiado (time o fetch) para recuperar datos en tiempo real de la web o del sistema. Por ejemplo, obtuve: “It’s 3:47 PM in New York.” (Son las 3:47 PM en Nueva York). Hay más detalles en su repositorio de github, échale un vistazo.

Explorando las Características de MCP y Llamada a Herramientas de Qwen 3

Qwen 3 destaca en mcp y tareas de agente. Aquí te mostramos cómo llevarlo más allá:

  • Añade Más Herramientas: Extiende el agente con herramientas para consultas a bases de datos o búsquedas web a través del módulo tools de Qwen-Agent. Reddit sugiere que las tareas del navegador funcionan bien con mcp.
  • Alterna el Modo de Pensamiento: Usa /think en los prompts para un razonamiento complejo (por ejemplo, curl http://localhost:11434/api/chat -d '{"model": "qwen3:30b", "messages": [{"role": "user", "content": "Plan a project /think"}]}') o /no_think para respuestas rápidas.
  • Prueba Modelos Más Pequeños: Si 30B es demasiado pesado, qwen3:8b sigue siendo genial para tareas de mcp, ideal para portátiles.
  • Optimiza el Rendimiento: Usa la cuantización Q8_XL de Unsloth para mayor velocidad, como se menciona en Reddit.

Probé qwen3:8b con un PDF de receta, y listó los ingredientes perfectamente. ¡La llamada a herramientas de Qwen 3 es versátil!

Conclusión: Domina Qwen 3 y MCP

¡Ahora has desatado Qwen 3 30B con mcp y herramientas para construir un agente lector de PDF y has probado funciones de mcp para consultas en tiempo real! Desde instalar Ollama y probar modelos Qwen 3 hasta crear un Qwen-Agent que resume artículos de investigación o obtiene el clima, estás listo para la genialidad de los agentes. ¡Prueba nuevos PDFs, añade herramientas o documenta tus APIs con Apidog!

💡
¿Quieres una excelente herramienta de Prueba de API que genere hermosa Documentación de API?

¿Quieres una plataforma integrada y todo en uno para que tu Equipo de Desarrolladores trabaje junto con máxima productividad?

¡Apidog cumple todas tus demandas y reemplaza a Postman a un precio mucho más asequible!
button