Cómo usar DeepSeek R1 para construir una alternativa de operador de ChatGPT de código abierto

Combinando DeepSeek R1 con herramientas como Browser Use, puedes crear una alternativa de código abierto a ChatGPT Operator. Aquí el tutorial:

Daniel Costa

Daniel Costa

3 July 2025

Cómo usar DeepSeek R1 para construir una alternativa de operador de ChatGPT de código abierto

El auge de los modelos de lenguaje grandes (LLM) de código abierto ha facilitado más que nunca la creación de herramientas impulsadas por IA que rivalizan con soluciones propietarias como ChatGPT Operator de OpenAI. Entre estos modelos de código abierto, DeepSeek R1 destaca por sus sólidas capacidades de razonamiento, su accesibilidad gratuita y su adaptabilidad. Al combinar DeepSeek R1 con herramientas como Browser Use, puedes construir una alternativa potente y totalmente de código abierto a ChatGPT Operator sin gastar cientos de dólares en suscripciones premium.

Este artículo te guiará a través del proceso de configuración de DeepSeek R1 y Browser Use para crear un agente de IA capaz de realizar tareas complejas, incluyendo la automatización web, el razonamiento y las interacciones en lenguaje natural.

Tanto si eres un principiante como un desarrollador experimentado, esta guía paso a paso te ayudará a empezar.


¿Qué es ChatGPT Operator y por qué necesitas una alternativa de código abierto?

ChatGPT Operator es una función premium ofrecida por OpenAI que permite a los usuarios crear agentes de IA avanzados capaces de realizar tareas complejas como el razonamiento, la automatización web y la resolución de problemas en varios pasos.

ChatGPT Operator cuesta 200 $ al mes, lo que lo hace menos accesible para particulares, pequeñas empresas u organizaciones con presupuestos limitados.

ChatGPT Operator estaba reservando un billete de avión en el vídeo anterior

Por qué necesitas una alternativa de código abierto

Aunque ChatGPT Operator es potente, tiene varias limitaciones que hacen que una alternativa de código abierto sea atractiva:

Al optar por herramientas de código abierto como DeepSeek R1 y Browser Use, puedes superar estos desafíos y desbloquear varios beneficios:

Un enfoque de código abierto no solo reduce la dependencia de las plataformas propietarias, sino que también te permite construir una solución adaptada a tus necesidades, manteniendo el control sobre los costes y los datos.

💡
¿Cansado de Postman? ¿Quieres encontrar una alternativa a Postman más barata y mejor, que esté totalmente equipada?

Tienes que echar un vistazo a Apidog, la herramienta de prueba de API todo en uno que te guía a través de todo el ciclo, desde el diseño de la API hasta la documentación de la API, ¡y turbo-carga la productividad de tu equipo de desarrollo!
button

Componentes clave: DeepSeek R1 y Browser Use

DeepSeek R1

DeepSeek R1 es un LLM de código abierto optimizado para tareas de razonamiento. Destaca en la resolución de problemas de cadena de pensamiento, la asistencia a la codificación y la comprensión del lenguaje natural. Está disponible en varios tamaños (por ejemplo, 1.5B, 7B parámetros), lo que lo hace adaptable a diferentes capacidades de hardware.

Browser Use

Browser Use es una herramienta de código abierto que permite a los agentes de IA realizar tareas basadas en el navegador, como el web scraping, el relleno de formularios y la navegación automatizada. Proporciona una interfaz fácil de usar y puede integrarse con LLM como DeepSeek R1 para mejorar la funcionalidad.


Paso 1: Configurar tu entorno

Requisitos de hardware

Sistema operativo

Entorno de Python

Crea un entorno virtual de Python para aislar las dependencias:

python -m venv venv
source venv/bin/activate  # On Linux/macOS
# On Windows:
# venv\Scripts\activate

Instala las bibliotecas necesarias:

pip install torch torchvision transformers sentencepiece

Paso 2: Ejecutar DeepSeek con API o localmente con Ollama

Uso de la API de DeepSeek

Para interactuar con la API de DeepSeek, sigue estos pasos actualizados:

Obtén una clave de API:

Realiza tu primera llamada a la API:
La API de DeepSeek es compatible con el formato de API de OpenAI, lo que facilita la integración con los SDK o el software de OpenAI existentes. A continuación, se muestra un ejemplo de una implementación de Python:

from openai import OpenAI

client = OpenAI(api_key="<Your_DeepSeek_API_Key>", base_url="https://api.deepseek.com")

response = client.chat.completions.create(
    model="deepseek-reasoner",  # Use 'deepseek-reasoner' for DeepSeek-R1
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain quantum entanglement."}
    ],
    stream=False  # Set to True if you want streaming responses
)

print(response.choices[0].message.content)

Ejemplo de cURL:
Si prefieres usar cURL, aquí tienes cómo puedes hacer una solicitud:

curl https://api.deepseek.com/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer <Your_DeepSeek_API_Key>" \
-d '{
    "model": "deepseek-reasoner",
    "messages": [
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "What is the capital of France?"}
    ],
    "stream": false
}'

Selección de modelo:

La base_url también se puede establecer en https://api.deepseek.com/v1 para configuraciones compatibles con OpenAI, aunque la ruta /v1 no tiene relación con las versiones del modelo.


Ejecutar DeepSeek localmente con Ollama

Ollama simplifica la ejecución de modelos de lenguaje grandes como DeepSeek-R1 en tu máquina local. Aquí tienes cómo configurarlo y usarlo correctamente:

Instala Ollama:

Extrae el modelo deseado:
Usa los siguientes comandos para descargar versiones específicas de DeepSeek-R1:

# Para el modelo 7B (predeterminado):
ollama pull deepseek-r1:7b

# Para un modelo 1.5B más pequeño:
ollama pull deepseek-r1:1.5b

# Para modelos más grandes como 70B:
ollama pull deepseek-r1:70b

Ejecuta el modelo localmente:
Una vez descargado, ejecuta el modelo usando:

ollama run deepseek-r1:7b

Esto iniciará una sesión interactiva donde podrás interactuar directamente con el modelo.

Variantes de modelo:
DeepSeek ofrece varias versiones destiladas basadas en las arquitecturas Qwen y Llama, optimizadas para diferentes casos de uso:

DeepSeek-R1-Distill-Qwen-7B:

ollama run deepseek-r1:7b-qwen-distill

DeepSeek-R1-Distill-Llama-70B:

ollama run deepseek-r1:70b-llama-distill

Consideraciones de hardware:

Chat interactivo a través de la API:
Ollama proporciona una API para integrar modelos que se ejecutan localmente en tus aplicaciones:

curl http://localhost:11434/api/chat -d '{
    "model": "deepseek-r1:7b",
    "messages": [
        {"role": "user", "content": "Write a short poem about the stars."}
    ]
}'

Paso 3: Instalar Browser Use

Browser Use permite a tu agente de IA interactuar con navegadores web. Sigue estos pasos:

Instalación

Clona el repositorio de Browser Use desde GitHub:

git clone https://github.com/browser-use/browser-use.git
cd browser-use
pip install -r requirements.txt

Configuración

Configura la WebUI de Browser Use:

python webui.py

Abre la WebUI en tu navegador para configurar los ajustes del agente. Puedes especificar:


Paso 4: Combinar DeepSeek R1 y Browser Use

Para crear un agente de IA funcional que integre ambas herramientas:

Configuración del agente

Modifica la configuración del agente en Browser Use para conectarlo con DeepSeek R1:

{
  "model": "deepseek-r1",
  "base_url": "http://localhost:5000",
  "browser_settings": {
    "window_height": 1080,
    "window_width": 1920,
    "keep_browser_open": true
  }
}

Ejecutar el agente

Inicia tanto DeepSeek R1 como Browser Use:

# Start DeepSeek R1 API server
python -m deepseek.api_server

# Start Browser Use WebUI
python webui.py

Una vez que ambos servicios estén en funcionamiento, el agente puede realizar tareas como rellenar formularios, extraer datos o navegar por sitios web de forma autónoma.


Paso 5: Ingeniería de prompts para obtener mejores resultados

Para optimizar el rendimiento de tu agente de IA, utiliza técnicas de ingeniería de prompts. Por ejemplo:

Plantilla de prompt general

<instructions>
Eres un asistente de IA encargado de automatizar tareas web utilizando Browser Use.
Sigue estos pasos:
1. Navega a [sitio web].
2. Realiza [tarea específica].
3. Devuelve los resultados en un formato estructurado.
</instructions>
<example>
Navega a https://example.com y extrae todos los hipervínculos.
</example>

Esta estructura garantiza la claridad y mejora la precisión en la ejecución de tareas.

Aquí tienes algunas demostraciones que puedes probar ejecutando:

uv pip install gradio

python examples/gradio_demo.py

Ejemplo 1.

Prompt: Escribe una carta en Google Docs a mi papá, agradeciéndole todo, y guarda el documento como PDF.

Ejemplo 2.

Prompt: Encuentra vuelos en kayak.com de Zúrich a Pekín del 25.12.2024 al 02.02.2025.

Ejemplo 3.

Prompt: Lee mi CV y encuentra trabajos de ML, guárdalos en un archivo y luego empieza a solicitarlos en nuevas pestañas, si necesitas ayuda, pregúntame.

0:00/1×


Conclusión

Al combinar DeepSeek R1 con Browser Use, puedes construir una alternativa a ChatGPT Operator totalmente funcional que es gratuita, de código abierto y altamente personalizable. Esta configuración no solo ahorra costes, sino que también te da control total sobre la privacidad de los datos y el comportamiento del sistema.

Tanto si estás automatizando tareas web, construyendo agentes conversacionales o experimentando con funciones avanzadas de IA como la Generación Aumentada por Recuperación, esta guía te proporciona todo lo que necesitas para empezar. ¡Aprovecha el poder del código abierto y crea tu propio asistente inteligente hoy mismo!

💡
¿Cansado de Postman? ¿Quieres encontrar una alternativa a Postman más barata y mejor, que esté totalmente equipada?

Tienes que echar un vistazo a Apidog, la herramienta de prueba de API todo en uno que te guía a través de todo el ciclo, desde el diseño de la API hasta la documentación de la API, ¡y turbo-carga la productividad de tu equipo de desarrollo!
button

Explore more

Cómo usar Ollama: Guía Completa para Principiantes sobre LLMs Locales con Ollama

Cómo usar Ollama: Guía Completa para Principiantes sobre LLMs Locales con Ollama

El panorama de la inteligencia artificial evoluciona constantemente, y los Grandes Modelos de Lenguaje (LLM) se vuelven cada vez más potentes y accesibles. Aunque muchos interactúan con estos modelos a través de servicios basados en la nube, existe un movimiento creciente enfocado en ejecutarlos directamente en computadoras personales. Aquí es donde entra Ollama. Ollama es una herramienta potente pero fácil de usar, diseñada para simplificar drásticamente el complejo proceso de descargar, config

28 April 2025

¿Dónde Descargar Swagger UI en Español Gratis?

¿Dónde Descargar Swagger UI en Español Gratis?

¿Necesitas Swagger UI en español? Este artículo explica por qué no existe una descarga oficial gratuita y cómo habilitar la traducción. Explora las características de Swagger y por qué Apidog es la alternativa superior para diseño, pruebas y documentación API integrados.

23 April 2025

¿Dónde Descargar Postman en Español Gratis?

¿Dónde Descargar Postman en Español Gratis?

¿Puedes descargar Postman en español gratis? Aunque Postman carece de soporte nativo en español, existen soluciones. Explóralas y descubre Apidog, una potente alternativa unificada a Postman diseñada para optimizar todo tu flujo de trabajo de API, sin importar el idioma.

22 April 2025

Practica el diseño de API en Apidog

Descubre una forma más fácil de construir y usar APIs