Cómo descargar y usar Ollama para ejecutar LLMs localmente

El mundo de la IA avanza rápido. Modelos como ChatGPT, Claude y Gemini son populares, pero usar estos servicios en la nube genera dudas sobre privacidad, costes y conexión a internet. Aquí entra Ollama.

Daniel Costa

Daniel Costa

15 April 2025

Cómo descargar y usar Ollama para ejecutar LLMs localmente

El mundo de la Inteligencia Artificial (IA) está evolucionando a una velocidad vertiginosa, con los Modelos de Lenguaje Grandes (LLM) como ChatGPT, Claude y Gemini capturando la imaginación en todo el mundo. Estas potentes herramientas pueden escribir código, redactar correos electrónicos, responder a preguntas complejas e incluso generar contenido creativo. Sin embargo, el uso de estos servicios basados en la nube a menudo conlleva preocupaciones sobre la privacidad de los datos, los costes potenciales y la necesidad de una conexión constante a Internet.

Presentamos Ollama.

Ollama es una herramienta potente y de código abierto diseñada para democratizar el acceso a los modelos de lenguaje grandes, permitiéndote descargarlos, ejecutarlos y gestionarlos directamente en tu propio ordenador. Simplifica el proceso, a menudo complejo, de configurar e interactuar con modelos de IA de última generación de forma local.

¿Por qué usar Ollama?

Ejecutar LLM localmente con Ollama ofrece varias ventajas convincentes:

  1. Privacidad: Tus indicaciones y las respuestas del modelo permanecen en tu máquina. No se envían datos a servidores externos a menos que lo configures explícitamente para que lo haga. Esto es crucial para información sensible o trabajo propietario.
  2. Acceso sin conexión: Una vez que se descarga un modelo, puedes usarlo sin conexión a Internet, lo que lo hace perfecto para viajes, ubicaciones remotas o situaciones con conectividad poco fiable.
  3. Personalización: Ollama te permite modificar fácilmente los modelos utilizando 'Modelfiles', lo que te permite adaptar su comportamiento, indicaciones del sistema y parámetros a tus necesidades específicas.
  4. Rentable: No hay cuotas de suscripción ni cargos por token. El único coste es el hardware que ya posees y la electricidad para ejecutarlo.
  5. Exploración y aprendizaje: Proporciona una plataforma fantástica para experimentar con diferentes modelos de código abierto, comprender sus capacidades y limitaciones, y aprender más sobre cómo funcionan los LLM internamente.

Este artículo está diseñado para principiantes que se sientan cómodos usando una interfaz de línea de comandos (como Terminal en macOS/Linux o Símbolo del sistema/PowerShell en Windows) y quieran empezar a explorar el mundo de los LLM locales con Ollama. Te guiaremos a través de la comprensión de los conceptos básicos, la instalación de Ollama, la ejecución de tu primer modelo, la interacción con él y la exploración de la personalización básica.

💡
¿Quieres una gran herramienta de pruebas de API que genere una hermosa documentación de API?

¿Quieres una plataforma integrada, todo en uno, para que tu equipo de desarrolladores trabaje en conjunto con la máxima productividad?

¡Apidog ofrece todas tus demandas y reemplaza a Postman a un precio mucho más asequible!
button

¿Cómo funciona Ollama?

Antes de sumergirnos en la instalación, aclaremos algunos conceptos fundamentales.

¿Qué son los Modelos de Lenguaje Grandes (LLM)?

Piensa en un LLM como un sistema de autocompletado increíblemente avanzado entrenado con vastas cantidades de texto y código de Internet. Al analizar patrones en estos datos, aprende gramática, hechos, habilidades de razonamiento y diferentes estilos de escritura. Cuando le das una indicación (texto de entrada), predice la secuencia de palabras más probable que le siga, generando una respuesta coherente y, a menudo, perspicaz. Diferentes LLM se entrenan con diferentes conjuntos de datos, tamaños y arquitecturas, lo que lleva a variaciones en sus fortalezas, debilidades y personalidades.

¿Cómo funciona Ollama?

Ollama actúa como un gestor y ejecutor para estos LLM en tu máquina local. Sus funciones principales incluyen:

  1. Descarga de modelos: Obtiene pesos y configuraciones de LLM preempaquetados de una biblioteca central (similar a cómo Docker extrae imágenes de contenedor).
  2. Ejecución de modelos: Carga el modelo elegido en la memoria de tu ordenador (RAM) y, potencialmente, utiliza tu tarjeta gráfica (GPU) para la aceleración.
  3. Proporcionar interfaces: Ofrece una interfaz de línea de comandos (CLI) simple para la interacción directa y también ejecuta un servidor web local que proporciona una API (Interfaz de Programación de Aplicaciones) para que otras aplicaciones se comuniquen con el LLM en ejecución.

Requisitos de hardware para Ollama: ¿Puede mi ordenador ejecutarlo?

Ejecutar LLM localmente puede ser exigente, principalmente en la RAM (Memoria de Acceso Aleatorio) de tu ordenador. El tamaño del modelo que deseas ejecutar dicta la RAM mínima requerida.

Otros factores que podrías necesitar considerar:

Recomendación para principiantes: Comienza con modelos más pequeños (como phi3, mistral o llama3:8b) y asegúrate de tener al menos 16 GB de RAM para una experiencia inicial cómoda. Consulta el sitio web de Ollama o la biblioteca de modelos para obtener recomendaciones específicas de RAM para cada modelo.

Cómo instalar Ollama en Mac, Linux y Windows (usando WSL)

Ollama es compatible con macOS, Linux y Windows (actualmente en vista previa, a menudo requiere WSL).

Paso 1: Requisitos previos

Paso 2: Descargar e instalar Ollama

El proceso varía ligeramente según tu sistema operativo:

  1. Ve al sitio web oficial de Ollama: https://ollama.com
  2. Haz clic en el botón "Download" y luego selecciona "Download for macOS".
  3. Una vez que se descargue el archivo .dmg, ábrelo.
  4. Arrastra el icono de la aplicación Ollama a tu carpeta Applications.
  5. Es posible que debas otorgar permisos la primera vez que lo ejecutes.

La forma más rápida suele ser a través del script de instalación oficial. Abre tu terminal y ejecuta:

curl -fsSL <https://ollama.com/install.sh> | sh

Este comando descarga el script y lo ejecuta, instalando Ollama para tu usuario. También intentará detectar y configurar la compatibilidad con la GPU si corresponde (se necesitan controladores NVIDIA).

Sigue las indicaciones que muestre el script. Las instrucciones de instalación manual también están disponibles en el repositorio de GitHub de Ollama si lo prefieres.

  1. Ve al sitio web oficial de Ollama: https://ollama.com
  2. Haz clic en el botón "Download" y luego selecciona "Download for Windows (Preview)".
  3. Ejecuta el ejecutable del instalador descargado (.exe).
  4. Sigue los pasos del asistente de instalación.
  5. Nota importante: Ollama en Windows depende en gran medida del Subsistema de Windows para Linux (WSL2). El instalador podría pedirte que instales o configures WSL2 si aún no está configurado. La aceleración de la GPU normalmente requiere configuraciones específicas de WSL y controladores NVIDIA instalados dentro del entorno WSL. Usar Ollama podría sentirse más nativo dentro de un terminal WSL.

Paso 3: Verificar la instalación

Una vez instalado, debes verificar que Ollama esté funcionando correctamente.

Abre tu terminal o símbolo del sistema. (En Windows, a menudo se recomienda usar un terminal WSL).

Escribe el siguiente comando y presiona Enter:

ollama --version

Si la instalación fue exitosa, deberías ver una salida que muestre el número de versión de Ollama instalado, como:

ollama version is 0.1.XX

Si ves esto, ¡Ollama está instalado y listo para funcionar! Si encuentras un error como "comando no encontrado", verifica los pasos de instalación, asegúrate de que Ollama se haya agregado al PATH de tu sistema (el instalador generalmente se encarga de esto) o intenta reiniciar tu terminal o ordenador.

Primeros pasos: Ejecutar tu primer modelo con Ollama

Con Ollama instalado, ahora puedes descargar e interactuar con un LLM.

Concepto: El registro de modelos de Ollama

Ollama mantiene una biblioteca de modelos de código abierto disponibles. Cuando le pides a Ollama que ejecute un modelo que no tiene localmente, lo descarga automáticamente de este registro. Piensa en ello como docker pull para LLM. Puedes explorar los modelos disponibles en la sección de la biblioteca del sitio web de Ollama.

Elegir un modelo

Para los principiantes, es mejor comenzar con un modelo completo y relativamente pequeño. Las buenas opciones incluyen:

Consulta la biblioteca de Ollama para obtener detalles sobre el tamaño, los requisitos de RAM y los casos de uso típicos de cada modelo.

Descargar y ejecutar un modelo (línea de comandos)

El comando principal que usarás es ollama run.

Abre tu terminal.

Elige un nombre de modelo (por ejemplo, llama3:8b).

Escribe el comando:

ollama run llama3:8b

Presiona Enter.

¿Qué sucede después?

Descargar: Si no tienes llama3:8b localmente, Ollama mostrará barras de progreso a medida que descarga las capas del modelo. Esto podría llevar algún tiempo dependiendo de tu velocidad de Internet y el tamaño del modelo (a menudo varios gigabytes).

Cargar: Una vez descargado, Ollama carga el modelo en la RAM de tu ordenador (y en la memoria de la GPU, si corresponde). Es posible que veas mensajes sobre la detección de hardware.

Chat interactivo: Después de cargar, verás un mensaje como: Esto significa que el modelo está listo. Ahora estás en una sesión de chat interactiva directamente con el LLM que se ejecuta en tu máquina.

>>> Send a message (/? for help)

Interactuar con el modelo:

Ejemplo de interacción:


> Send a message (/? for help)
Explain the concept of photosynthesis in simple terms.
>

Photosynthesis is like how plants make their own food! They take three main ingredients:

1. **Sunlight:** Energy from the sun.
2. **Water:** Absorbed through their roots.
3. **Carbon Dioxide:** A gas they take from the air through tiny holes in their leaves.

Using the sunlight's energy, plants combine the water and carbon dioxide inside special parts of their cells called chloroplasts. This process creates two things:

1. **Sugar (Glucose):** This is the plant's food, giving it energy to grow.
2. **Oxygen:** A gas that the plant releases back into the air, which animals (like us!) need to breathe.

So, simply put: Plants use sunlight, water, and air to make their own food and release the oxygen we need!

>
>

Salir de la sesión:

Cuando termines de chatear, escribe /bye y presiona Enter. Esto descargará el modelo de la memoria y te devolverá al símbolo del sistema normal. También puedes usar a menudo Ctrl+D.

Listar modelos descargados

Para ver qué modelos has descargado localmente, usa el comando ollama list:

ollama list

La salida mostrará los nombres de los modelos, sus ID únicos, tamaños y cuándo se modificaron por última vez:

NAME            ID              SIZE    MODIFIED
llama3:8b       871998b83999    4.7 GB  5 days ago
mistral:latest  8ab431d3a87a    4.1 GB  2 weeks ago

Eliminar modelos

Los modelos ocupan espacio en disco. Si ya no necesitas un modelo específico, puedes eliminarlo usando el comando ollama rm seguido del nombre del modelo:

ollama rm mistral:latest

Ollama confirmará la eliminación. Esto solo elimina los archivos descargados; siempre puedes ejecutar ollama run mistral:latest nuevamente para volver a descargarlo más tarde.

Cómo obtener mejores resultados de Ollama

Ejecutar modelos es solo el comienzo. Aquí te mostramos cómo obtener mejores resultados:

Comprender las indicaciones (conceptos básicos de la ingeniería de indicaciones)

La calidad de la salida del modelo depende en gran medida de la calidad de tu entrada (la indicación).

Probar diferentes modelos

Diferentes modelos sobresalen en diferentes tareas.

¡Experimenta! Ejecuta la misma indicación a través de diferentes modelos usando ollama run <model_name> para ver cuál se adapta mejor a tus necesidades para una tarea en particular.

Indicaciones del sistema (establecer el contexto)

Puedes guiar el comportamiento general o la personalidad del modelo para una sesión usando una "indicación del sistema". Esto es como dar instrucciones de fondo a la IA antes de que comience la conversación. Si bien la personalización más profunda implica Modelfiles (que se cubren brevemente a continuación), puedes establecer un mensaje del sistema simple directamente al ejecutar un modelo:

# This feature might vary slightly; check `ollama run --help`
# Ollama might integrate this into the chat directly using /set system
# Or via Modelfiles, which is the more robust way.

# Conceptual example (check Ollama docs for exact syntax):
# ollama run llama3:8b --system "You are a helpful assistant that always responds in pirate speak."

Una forma más común y flexible es definir esto en un Modelfile.

Interactuar a través de la API (una mirada rápida)

Ollama no es solo para la línea de comandos. Ejecuta un servidor web local (generalmente en http://localhost:11434) que expone una API. Esto permite que otros programas y scripts interactúen con tus LLM locales.

Puedes probar esto con una herramienta como curl en tu terminal:

curl <http://localhost:11434/api/generate> -d '{
  "model": "llama3:8b",
  "prompt": "Why is the sky blue?",
  "stream": false
}'

Esto envía una solicitud a la API de Ollama pidiendo al modelo llama3:8b que responda a la indicación "¿Por qué el cielo es azul?". Establecer "stream": false espera la respuesta completa en lugar de transmitirla palabra por palabra.

Recibirás una respuesta JSON que contiene la respuesta del modelo. Esta API es la clave para integrar Ollama con editores de texto, aplicaciones personalizadas, flujos de trabajo de scripting y más. Explorar la API completa está más allá de esta guía para principiantes, pero saber que existe abre muchas posibilidades.

Cómo personalizar los Modelfiles de Ollama

Una de las características más potentes de Ollama es la capacidad de personalizar modelos usando Modelfiles. Un Modelfile es un archivo de texto plano que contiene instrucciones para crear una nueva versión personalizada de un modelo existente. Piensa en ello como un Dockerfile para LLM.

¿Qué puedes hacer con un Modelfile?

Ejemplo de Modelfile simple:

Digamos que quieres crear una versión de llama3:8b que siempre actúe como un asistente sarcástico.

Crea un archivo llamado Modelfile (sin extensión) en un directorio.

Agrega el siguiente contenido:

# Inherit from the base llama3 model
FROM llama3:8b

# Set a system prompt
SYSTEM """You are a highly sarcastic assistant. Your answers should be technically correct but delivered with dry wit and reluctance."""

# Adjust creativity (lower temperature = less random/more focused)
PARAMETER temperature 0.5

Crear el modelo personalizado:

Navega al directorio que contiene tu Modelfile en el terminal.

Ejecuta el comando ollama create:

ollama create sarcastic-llama -f ./Modelfile

Ollama procesará las instrucciones y creará el nuevo modelo. Luego puedes ejecutarlo como cualquier otro:

ollama run sarcastic-llama

Ahora, cuando interactúes con sarcastic-llama, adoptará la personalidad sarcástica definida en la indicación SYSTEM.

Los Modelfiles ofrecen un profundo potencial de personalización, lo que te permite ajustar los modelos para tareas o comportamientos específicos sin necesidad de volver a entrenarlos desde cero. Explora la documentación de Ollama para obtener más detalles sobre las instrucciones y los parámetros disponibles.

Corregir errores comunes de Ollama

Si bien Ollama apunta a la simplicidad, es posible que encuentres obstáculos ocasionales:

La instalación falla:

Fallos en la descarga del modelo:

Rendimiento lento de Ollama:

Errores de "Modelo no encontrado":

¿Alternativas a Ollama?

Existen varias alternativas convincentes a Ollama para ejecutar modelos de lenguaje grandes localmente.

Conclusión: Tu viaje hacia la IA local

Ollama abre las puertas al fascinante mundo de los modelos de lenguaje grandes, permitiendo que cualquier persona con un ordenador razonablemente moderno ejecute potentes herramientas de IA localmente, de forma privada y sin costes continuos.

Esto es solo el comienzo. La verdadera diversión comienza cuando experimentas con diferentes modelos, los adaptas a tus necesidades específicas usando Modelfiles, integras Ollama en tus propios scripts o aplicaciones a través de su API y exploras el ecosistema de IA de código abierto en rápido crecimiento.

La capacidad de ejecutar IA sofisticada localmente es transformadora, empoderando tanto a individuos como a desarrolladores. Sumérgete, explora, haz preguntas y disfruta de tener el poder de los modelos de lenguaje grandes al alcance de tu mano con Ollama.

💡
¿Quieres una gran herramienta de pruebas de API que genere una hermosa documentación de API?

¿Quieres una plataforma integrada, todo en uno, para que tu equipo de desarrolladores trabaje en conjunto con la máxima productividad?

¡Apidog ofrece todas tus demandas y reemplaza a Postman a un precio mucho más asequible!
button

Explore more

Cómo usar Ollama: Guía Completa para Principiantes sobre LLMs Locales con Ollama

Cómo usar Ollama: Guía Completa para Principiantes sobre LLMs Locales con Ollama

El panorama de la inteligencia artificial evoluciona constantemente, y los Grandes Modelos de Lenguaje (LLM) se vuelven cada vez más potentes y accesibles. Aunque muchos interactúan con estos modelos a través de servicios basados en la nube, existe un movimiento creciente enfocado en ejecutarlos directamente en computadoras personales. Aquí es donde entra Ollama. Ollama es una herramienta potente pero fácil de usar, diseñada para simplificar drásticamente el complejo proceso de descargar, config

28 April 2025

¿Dónde Descargar Swagger UI en Español Gratis?

¿Dónde Descargar Swagger UI en Español Gratis?

¿Necesitas Swagger UI en español? Este artículo explica por qué no existe una descarga oficial gratuita y cómo habilitar la traducción. Explora las características de Swagger y por qué Apidog es la alternativa superior para diseño, pruebas y documentación API integrados.

23 April 2025

¿Dónde Descargar Postman en Español Gratis?

¿Dónde Descargar Postman en Español Gratis?

¿Puedes descargar Postman en español gratis? Aunque Postman carece de soporte nativo en español, existen soluciones. Explóralas y descubre Apidog, una potente alternativa unificada a Postman diseñada para optimizar todo tu flujo de trabajo de API, sin importar el idioma.

22 April 2025

Practica el diseño de API en Apidog

Descubre una forma más fácil de construir y usar APIs