Apidog

Plataforma de desarrollo de API colaborativa todo en uno

Diseño de API

Documentación de API

Depuración de API

Simulación de API

Prueba automatizada de

Cómo Ejecutar Osmosis-Structure-0.6B Localmente con Ollama

Mark Ponomarev

Mark Ponomarev

Updated on May 30, 2025

OK, entonces cómo obtiene su nombre osmosis-structure-0.6b?

El modelo que le interesa, osmosis/osmosis-structure-0.6b, está disponible a través de la plataforma Ollama. El nombre en sí ofrece algunas pistas valiosas:

  • osmosis/: Esto indica el editor o espacio de nombres en Ollama, sugiriendo que es proporcionado por un grupo o individuo conocido como "Osmosis".
  • osmosis-structure: La parte "Structure" (Estructura) implica fuertemente que este modelo está ajustado o diseñado específicamente para tareas que involucran datos estructurados. Esto podría variar desde generación de código, texto a SQL, manipulación de JSON, hasta otras formas de salida de texto estructurado.
  • 0.6b: Esto significa que el modelo tiene aproximadamente 600 millones de parámetros. Esto lo sitúa en la categoría de modelos de lenguaje más pequeños y eficientes.
  • Tamaño: Los resultados de búsqueda indican que este modelo tiene alrededor de 350 MB en formato GGUF. Este tamaño compacto significa que está altamente cuantizado y optimizado para ejecutarse eficientemente en hardware de consumo, requiriendo menos RAM y espacio en disco que los modelos más grandes.

Si bien las especificaciones exactas, los datos de entrenamiento, los puntos de referencia específicos y los casos de uso principales previstos se encuentran mejor en su tarjeta de modelo oficial en el sitio web de Ollama (el enlace que tiene), podemos inferir expectativas generales para un modelo de 0.6B de parámetros centrado en la "estructura":

Su pequeño tamaño permite tiempos de carga rápidos y menor consumo de recursos (CPU, RAM) en comparación con modelos de miles de millones de parámetros.

Su designación "Structure" (Estructura) sugiere que funcionaría mejor en tareas como:

  • Generar o comprender consultas SQL.
  • Crear o analizar datos JSON, XML o YAML.
  • Ayudar con la generación de código en lenguajes de programación comunes.
  • Seguir instrucciones que requieren una salida de texto con formato específico.

Rendimiento: Para un modelo de este tamaño, buscaría un rendimiento sólido en sus tareas especializadas, en lugar de intentar ser una potencia de conocimiento generalista como modelos mucho más grandes. Sus puntos de referencia (que debe verificar en su tarjeta de modelo) probablemente reflejarían sus capacidades en estos dominios estructurados.

Ejecutemos osmosis-structure-0.6b con Ollama

Ollama es una herramienta que simplifica radicalmente la ejecución de modelos de lenguaje grandes de código abierto en su máquina local. Empaqueta los pesos del modelo, las configuraciones y un mecanismo de servicio, lo que permite una configuración e interacción sencillas.

Ollama le permite aprovechar el poder de los LLM como osmosis/osmosis-structure-0.6b sin depender de API basadas en la nube. Esto garantiza la privacidad, permite el uso sin conexión y proporciona una forma rentable de experimentar y crear aplicaciones. Está disponible para macOS, Windows y Linux.

Primero, necesita instalar Ollama

El procedimiento de instalación difiere ligeramente según su sistema operativo.

Para macOS: Típicamente, descargaría la aplicación Ollama desde su sitio web oficial. La descarga suele ser un archivo .zip que contiene Ollama.app. Extráigalo y mueva Ollama.app a su carpeta /Applications. Al iniciar la aplicación se inicia el servicio en segundo plano de Ollama, a menudo indicado por un icono en la barra de menú.

Para Windows: Hay un ejecutable de instalación disponible en el sitio web de Ollama. Descárguelo y ejecútelo, siguiendo las indicaciones en pantalla. Ollama en Windows a menudo se integra con el Subsistema de Windows para Linux (WSL 2), que el instalador puede ayudar a configurar si aún no está configurado. Una vez instalado, Ollama se ejecuta como un servicio en segundo plano.

Para Linux: La forma común de instalar Ollama en Linux es a través de un comando curl proporcionado en su sitio web, que obtiene y ejecuta un script de instalación:

curl -fsSL [<https://ollama.com/install.sh>](<https://ollama.com/install.sh>) | sh

Este comando configura Ollama, y generalmente se ejecuta como un servicio systemd.

Después de la instalación, abra su terminal (o PowerShell/Símbolo del sistema en Windows) y ejecute el siguiente comando:

ollama --version

Esto debería mostrar la versión instalada de Ollama, confirmando que la CLI funciona correctamente.

Ejecutando osmosis/osmosis-structure-0.6b Localmente con Ollama

Con Ollama instalado y en ejecución, ahora puede descargar e interactuar con el modelo osmosis/osmosis-structure-0.6b.

Consideraciones de Hardware:

  • RAM: Para un modelo de ~350MB, probablemente necesitará al menos 1-2 GB de RAM libre para que cargue y se ejecute sin problemas, aunque la gestión de memoria de Ollama y el formato GGUF del modelo son eficientes.
  • CPU/GPU: Ollama usará automáticamente su CPU. Si tiene una GPU compatible (Apple Metal, NVIDIA CUDA, AMD ROCm en Linux), Ollama la aprovechará para una inferencia significativamente más rápida. El tamaño de 0.6B debería ser bastante receptivo incluso en CPUs modernas.
  • Almacenamiento: El modelo en sí es pequeño (~350MB), por lo que el espacio en disco no es una preocupación importante.

Paso 1. Obteniendo el Modelo

Para descargar el modelo a su sistema local, use el comando ollama pull con el identificador completo del modelo:

ollama pull osmosis/osmosis-structure-0.6b

Ollama entonces:

  • Se conectará a su registro de modelos.
  • Descargará el manifiesto del modelo y sus capas (verá indicadores de progreso).
  • Almacenará el modelo localmente, dejándolo listo para usar. Dado su tamaño de ~350MB, esta debería ser una descarga relativamente rápida.

Si bien ollama pull le proporciona la configuración predeterminada, puede personalizar el comportamiento del modelo creando un Modelfile personalizado si desea cambiar parámetros como temperature (aleatoriedad), num_ctx (tamaño de la ventana de contexto) o el prompt del sistema. Luego usaría ollama create your-custom-osmosis -f ./YourModelfile (usando el modelo original como base FROM osmosis/osmosis-structure-0.6b). Consulte la documentación oficial de Ollama para la sintaxis de Modelfile. Es probable que la configuración predeterminada para osmosis/osmosis-structure-0.6b ya esté optimizada por su editor.

Paso 2. Chat Interactivo a través de la Línea de Comandos

La forma más sencilla de interactuar con su modelo recién descargado es a través del comando ollama run:

ollama run osmosis/osmosis-structure-0.6b

Esto carga el modelo en la memoria y le proporciona un prompt interactivo (por ejemplo, >>>). Puede escribir sus preguntas o instrucciones, presionar Enter, y el modelo generará una respuesta.

Por ejemplo, si desea probar sus capacidades SQL (asumiendo que esta es una de sus fortalezas basada en su enfoque en "Structure"):

>>> Given a table 'users' with columns 'id', 'name', 'email', and 'signup_date', write a SQL query to find all users who signed up in the year 2024.

El modelo entonces proporcionaría su consulta SQL generada.

Para salir de esta sesión interactiva, normalmente puede escribir /bye, /exit o presionar Ctrl+D.

Paso 3. Interactuando a través de la API de Ollama

Ollama sirve modelos a través de una API REST local, típicamente disponible en http://localhost:11434. Esto le permite integrar osmosis/osmosis-structure-0.6b en sus propias aplicaciones y scripts.

Aquí hay un ejemplo en Python usando la librería requests para interactuar con la API. Primero, asegúrese de que requests esté instalado:

pip install requests

Ahora, el script de Python:

import requests
import json

OLLAMA_ENDPOINT = "<http://localhost:11434/api/generate>"
MODEL_NAME = "osmosis/osmosis-structure-0.6b" # Correct model name

def generate_response(prompt_text, stream_output=False):
    """
    Sends a prompt to the Ollama API for the specified model.
    Returns the consolidated response text.
    Set stream_output=True to print parts of the response as they arrive.
    """
    payload = {
        "model": MODEL_NAME,
        "prompt": prompt_text,
        "stream": stream_output
    }

    full_response_text = ""
    try:
        response = requests.post(OLLAMA_ENDPOINT, json=payload, stream=stream_output)
        response.raise_for_status()

        if stream_output:
            for line in response.iter_lines():
                if line:
                    decoded_line = line.decode('utf-8')
                    json_object = json.loads(decoded_line)
                    chunk = json_object.get('response', '')
                    print(chunk, end='', flush=True)
                    full_response_text += chunk
                    if json_object.get('done'):
                        print("\\\\n--- Stream Complete ---")
                        break
        else:
            response_data = response.json()
            full_response_text = response_data.get('response', '')
            print(full_response_text)

        return full_response_text

    except requests.exceptions.RequestException as e:
        print(f"\\\\nError connecting to Ollama API: {e}")
        if "connection refused" in str(e).lower():
            print("Ensure the Ollama application or service is running.")
        return None
    except json.JSONDecodeError as e:
        print(f"\\\\nError decoding JSON response: {e}")
        print(f"Problematic content: {response.text if 'response' in locals() else 'No response object'}")
        return None

if __name__ == "__main__":
    # Ensure Ollama is running and the model is loaded or available.
    # Ollama typically loads the model on the first API request if not already loaded.

    prompt1 = "Write a Python function to serialize a dictionary to a JSON string."
    print(f"--- Sending Prompt 1: {prompt1} ---")
    response1 = generate_response(prompt1)
    if response1:
        print("\\\\n--- Model Response 1 Received ---")

    print("\\\\n" + "="*50 + "\\\\n") # Separator

    prompt2 = "Explain how a LEFT JOIN in SQL differs from an INNER JOIN, in simple terms."
    print(f"--- Sending Prompt 2 (Streaming): {prompt2} ---")
    response2 = generate_response(prompt2, stream_output=True)
    if response2:
        # The full response is already printed by the streaming logic
        pass
    else:
        print("\\\\nFailed to get response for prompt 2.")

Este script define una función para enviar prompts al modelo osmosis/osmosis-structure-0.6b. Puede manejar respuestas tanto en streaming como no en streaming. Recuerde que el servicio Ollama debe estar ejecutándose para que este script funcione.

  • Si tiene errores, verifique que el servicio/aplicación Ollama esté en ejecución. Revise la configuración del firewall si está accediendo desde una máquina diferente (aunque el valor predeterminado es localhost). Consulte los logs de Ollama para ver errores (~/.ollama/logs en macOS/Linux).

Paso 4. Pruebe Algunos Prompts

Las fortalezas específicas de osmosis/osmosis-structure-0.6b se entienden mejor revisando su tarjeta de modelo en el sitio web de Ollama. Sin embargo, para un modelo de 0.6B centrado en "Structure", podría probar prompts como estos:

Texto a SQL:

  • Prompt: "Consider a table inventory with columns item_id (INT), item_name (VARCHAR), quantity (INT), last_stocked_date (DATE). Generate a SQL query to find all items with a quantity less than 10 that were last stocked before '2024-01-01'."
  • (Observe la precisión y sintaxis del SQL generado.)

Manipulación/Generación de JSON:

  • Prompt: "Create a JSON object for a book titled 'The Local LLM Handbook', authored by 'AI Community', published in 2025, with ISBN '978-0-LOCAL-LLM-0'."
  • (Verifique si la salida es JSON bien formado y refleja con precisión el prompt.)

Generación de Código Simple (ej. Python):

  • Prompt: "Write a Python script that defines a class Rectangle with a constructor for width and height, and a method to calculate its area."
  • (Evalúe la corrección y completitud del código generado.)

Seguimiento de Instrucciones para Salida Formateada:

  • Prompt: "List three advantages of using local language models. Present them as a bulleted list, with each point starting with 'Advantage:'."
  • (Evalúe qué tan bien se adhiere a las instrucciones de formato.)

¡La experimentación es clave! Pruebe diferentes tipos de prompts relacionados con datos estructurados para descubrir las fortalezas y debilidades del modelo. Consulte su tarjeta de modelo de Ollama para obtener orientación sobre sus funciones de diseño principales.

Probando la API Local de Ollama con Apidog

Apidog es una herramienta de prueba de API que combina bien con el modo API de Ollama. Le permite enviar solicitudes, ver respuestas y depurar su configuración de Qwen 3 de manera eficiente.

Así es como usar Apidog con Ollama:

  • Crear una nueva solicitud de API:
  • Endpoint: http://localhost:11434/api/generate
  • Envíe la solicitud y supervise la respuesta en la línea de tiempo en tiempo real de Apidog.
  • Use la extracción JSONPath de Apidog para analizar respuestas automáticamente, una característica que supera a herramientas como Postman.

Respuestas en Streaming:

  • Para aplicaciones en tiempo real, habilite el streaming:
  • La función Auto-Merge de Apidog consolida los mensajes transmitidos, simplificando la depuración.
curl http://localhost:11434/api/generate -d '{"model": "gemma3:4b-it-qat", "prompt": "Write a poem about AI.", "stream": true}'

Este proceso garantiza que su modelo funcione como se espera, haciendo de Apidog una adición valiosa.

💡
Quieres una excelente herramienta de Prueba de API que genere hermosa Documentación de API?

Quieres una plataforma integrada, Todo en Uno para que tu Equipo de Desarrolladores trabaje junto con máxima productividad?

Apidog cumple todas tus demandas, y reemplaza a Postman a un precio mucho más asequible!
botón

Conclusión

El modelo osmosis/osmosis-structure-0.6b ofrece una oportunidad emocionante para ejecutar un modelo de lenguaje compacto y centrado en la estructura localmente. Gracias a Ollama, el proceso de descarga e interacción con él es accesible para una amplia audiencia. Al aprovechar sus capacidades, puede explorar aplicaciones en procesamiento de datos, asistencia de código y otros dominios que requieren salida estructurada, todo con la privacidad y el control de la ejecución local.

Siempre consulte la página oficial del modelo en Ollama (ollama.com/osmosis/osmosis-structure-0.6b:latest) para obtener la información más autorizada de sus desarrolladores. ¡Disfrute experimentando con IA local!