Apidog

Plataforma Colaborativa All-in-one para Desenvolvimento de API

Design de API

Documentação de API

Depuração de API

Mock de API

Testes Automatizados de API

Como Executar o EXAONE Deep Localmente Usando Ollama

@apidog

@apidog

Updated on março 20, 2025

Executar modelos de IA avançados localmente tornou-se uma solução prática para desenvolvedores e pesquisadores que precisam de velocidade, privacidade e controle. EXAONE Deep, um modelo de IA de inferência inovador da LG AI Research, se destaca na resolução de problemas complexos em matemática, ciência e programação. Usando Ollama, uma plataforma projetada para implantar grandes modelos de linguagem em hardware local, você pode configurar o EXAONE Deep na sua própria máquina com facilidade.

💡
Aumente Seu Fluxo de Trabalho com Apidog
Trabalhar com modelos de IA como o EXAONE Deep muitas vezes envolve integração de API. Apidog é uma ferramenta gratuita e poderosa que torna a testagem e depuração de API muito simples. Baixe o Apidog hoje para otimizar seu desenvolvimento e garantir uma comunicação fluida com sua configuração de IA local.
botão

Vamos mergulhar no processo.

O que são EXAONE Deep e Ollama?

Antes de prosseguirmos, vamos esclarecer o que são EXAONE Deep e Ollama e por que eles são importantes.

EXAONE Deep é um modelo de IA de ponta desenvolvido pela LG AI Research. Ao contrário de modelos de linguagem típicos, é uma IA de inferência, o que significa que se concentra em raciocínio e resolução de problemas. Ele gera autonomamente hipóteses, as verifica e fornece respostas a perguntas complexas em campos como matemática, ciência e programação. Isso o torna um ativo valioso para quem enfrenta desafios técnicos.

Enquanto isso, Ollama é uma plataforma de código aberto que permite executar grandes modelos de linguagem, incluindo o EXAONE Deep, em sua máquina local. Ela utiliza a contêinerização para gerenciar as dependências e recursos do modelo, simplificando o processo de implantação. Ao executar o EXAONE Deep localmente com o Ollama, você obtém várias vantagens:

  • Privacidade: Seus dados permanecem em seu dispositivo, evitando exposição na nuvem.
  • Velocidade: O processamento local reduz a latência de chamadas de rede.
  • Flexibilidade: Você controla a configuração e pode ajustá-la conforme necessário.

Pré-requisitos para Executar o EXAONE Deep Localmente

Para executar o EXAONE Deep localmente, seu sistema deve atender a certos padrões de hardware e software. Como este é um modelo de IA que consome muitos recursos, ter a configuração certa é crítico. Aqui está o que você precisa:

Requisitos de Hardware

  • RAM: Pelo menos 16GB. Mais é melhor para um desempenho mais suave.
  • GPU: Uma GPU NVIDIA dedicada com pelo menos 8GB de VRAM. Isso garante que o modelo funcione eficientemente, pois o EXAONE Deep depende da aceleração da GPU para tarefas de inferência.
  • Armazenamento: Espaço livre suficiente (20-50GB) para armazenar o modelo e suas dependências.

Requisitos de Software

  • Sistema Operacional: Linux ou macOS. O Windows pode funcionar, mas geralmente requer etapas adicionais, portanto, Linux/macOS é recomendado.
  • Internet: Uma conexão estável para baixar o Ollama e o modelo EXAONE Deep.

Com isso pronto, você está pronto para instalar o Ollama e iniciar o EXAONE Deep. Vamos passar para o processo de instalação.

Instalando o Ollama no Seu Sistema

Ollama é sua porta de entrada para executar o EXAONE Deep localmente, e sua instalação é simples. Siga estes passos para configurá-lo:

Baixe o Ollama:

  • Acesse o site do Ollama e baixe o binário para o seu sistema operacional.
  • Alternativamente, para Linux ou macOS, use este comando no terminal:
curl -fsSL https://ollama.ai/install.sh | sh

Este script automatiza o download e a configuração.

Verifique a Instalação:

  • Após a instalação, verifique se o Ollama está funcionando executando:
ollama --version
  • Você deve ver o número da versão (por exemplo, 0.1.x). Se não, verifique novamente sua instalação ou consulte o GitHub do Ollama para obter ajuda.

Uma vez que o Ollama está instalado, você está pronto para baixar e executar o EXAONE Deep. Vamos para a próxima etapa.

Configurando e Executando o EXAONE Deep com Ollama

Agora que o Ollama está pronto, vamos colocar o EXAONE Deep em funcionamento. Isso envolve baixar o modelo e lançá-lo localmente.

Passo 1: Baixar o Modelo EXAONE Deep

Ollama hospeda o EXAONE Deep em sua biblioteca de modelos. Para baixá-lo para sua máquina, execute:

ollama pull exaone-deep

Este comando busca os arquivos do modelo. Dependendo da sua velocidade de internet e do tamanho do modelo (que pode ser de vários gigabytes), isso pode levar alguns minutos. Fique de olho no terminal para atualizações de progresso.

Passo 2: Iniciar o Modelo

Uma vez baixado, inicie o EXAONE Deep com:

ollama run exaone-deep

Este comando inicia o modelo, e o Ollama coloca um servidor local em funcionamento. Você verá um prompt onde pode digitar perguntas ou comandos. Por exemplo:

> Resolva 2x + 3 = 7

O modelo processa e retorna a resposta (por exemplo, x = 2).

Passo 3: Personalizar Configurações (Opcional)

Ollama permite que você ajuste como o EXAONE Deep é executado. Por exemplo:

  • Camadas GPU: Delegue o cálculo para sua GPU com flags como --num-gpu-layers.
  • Limites de Memória: Ajuste o uso de RAM se necessário.
    Verifique a documentação do Ollama para detalhes, pois essas opções dependem do seu hardware.

Neste ponto, o EXAONE Deep está operacional. No entanto, digitar prompts no terminal não é a única maneira de usá-lo. Em seguida, exploraremos como interagir com ele programaticamente usando sua API—e como Apidog se encaixa nisso.

Usando Apidog para Interagir com o EXAONE Deep

Para desenvolvedores que estão construindo aplicações, acessar o EXAONE Deep via sua API é mais prático do que a linha de comando. Felizmente, o Ollama fornece uma API RESTful quando você executa o modelo. Aqui é onde Apidog, uma ferramenta de teste de API, se torna inestimável.

Entendendo a API do Ollama

Quando você inicia o EXAONE Deep com ollama run exaone-deep, ele abre um servidor local, tipicamente em http://localhost:11434. Este servidor expõe endpoints como:

  • /api/generate: Para enviar prompts e obter respostas.
  • /api/tags: Para listar modelos disponíveis.

Configurando o Apidog

Siga estas etapas para usar o Apidog com o EXAONE Deep:

Instale o Apidog:

  • Baixe e instale-o. É gratuito e funciona em todos os principais sistemas operacionais.
botão

Criar uma Nova Requisição:

  • Abra o Apidog e clique em “Nova Requisição.”
  • Defina o método como POST e a URL como http://localhost:11434/api/generate.

Configure a Requisição:

  • No corpo da requisição, adicione JSON como este:
{
  "model": "exaone-deep",
  "prompt": "Qual é a raiz quadrada de 16?",
  "stream": false
}
  • Isso informa ao EXAONE Deep para processar seu prompt.

Enviar e Testar:

  • Clique em “Enviar” no Apidog. Você verá a resposta (por exemplo, {"response": "4"}) na interface da ferramenta.
  • Use o Apidog para ajustar a requisição, testar casos extremos ou automatizar chamadas repetitivas.

Por que usar o Apidog?

O Apidog simplifica o trabalho com APIs ao:

  • Visualizar Respostas: Veja exatamente o que o EXAONE Deep retorna.
  • Economizar Tempo: Armazene e reutilize requisições em vez de digitá-las novamente.
  • Depurar: Identifique rapidamente erros em suas chamadas de API.

Com o Apidog, a integração do EXAONE Deep em seus projetos se torna perfeita. Mas o que fazer se você encontrar um problema? Vamos abordar a solução de problemas a seguir.

Solução de Problemas Comuns

Executar um modelo como o EXAONE Deep localmente pode, às vezes, apresentar dificuldades. Aqui estão problemas comuns e suas soluções:

Problema: Erro de Memória da GPU

  • Sintoma: O modelo falha com uma mensagem “CUDA fora de memória”.
  • Solução: Reduza o tamanho do lote ou as camadas da GPU. Execute nvidia-smi para verificar o uso e ajuste as configurações através das flags do Ollama.

Problema: O Modelo Não Inicia

  • Sintoma: ollama run exaone-deep falha com um erro.
  • Solução: Certifique-se de que o Docker está funcionando (docker ps). Verifique os logs do Ollama (ollama logs) em busca de pistas e verifique se o modelo foi totalmente baixado.

Problema: A API Não Responde

  • Sintoma: Requisições do Apidog excedem o tempo limite ou retornam erros.
  • Solução: Confirme se o servidor está rodando (curl http://localhost:11434) e se o endpoint corresponde à documentação do Ollama.

Dica de Otimização

Para melhor desempenho, atualize sua GPU ou adicione RAM. O EXAONE Deep se destaca em hardware potente.

Com essas soluções, você manterá sua configuração funcionando perfeitamente. Vamos concluir.

Conclusão

Executar o EXAONE Deep localmente usando o Ollama desbloqueia um mundo de raciocínio impulsionado por IA sem dependência da nuvem. Este guia mostrou como instalar o Ollama, configurar o EXAONE Deep e usar o Apidog para interagir com sua API. Desde resolver problemas matemáticos até assistência em codificação, esta configuração capacita você a enfrentar tarefas difíceis com eficiência.

Pronto para explorar? Inicie o Ollama, baixe o EXAONE Deep e pegue o Apidog para otimizar seu fluxo de trabalho. O poder da IA local está ao seu alcance.

botão