Executar modelos de IA avançados localmente tornou-se uma solução prática para desenvolvedores e pesquisadores que precisam de velocidade, privacidade e controle. EXAONE Deep, um modelo de IA de inferência inovador da LG AI Research, se destaca na resolução de problemas complexos em matemática, ciência e programação. Usando Ollama, uma plataforma projetada para implantar grandes modelos de linguagem em hardware local, você pode configurar o EXAONE Deep na sua própria máquina com facilidade.
Trabalhar com modelos de IA como o EXAONE Deep muitas vezes envolve integração de API. Apidog é uma ferramenta gratuita e poderosa que torna a testagem e depuração de API muito simples. Baixe o Apidog hoje para otimizar seu desenvolvimento e garantir uma comunicação fluida com sua configuração de IA local.
Vamos mergulhar no processo.
O que são EXAONE Deep e Ollama?
Antes de prosseguirmos, vamos esclarecer o que são EXAONE Deep e Ollama e por que eles são importantes.
EXAONE Deep é um modelo de IA de ponta desenvolvido pela LG AI Research. Ao contrário de modelos de linguagem típicos, é uma IA de inferência, o que significa que se concentra em raciocínio e resolução de problemas. Ele gera autonomamente hipóteses, as verifica e fornece respostas a perguntas complexas em campos como matemática, ciência e programação. Isso o torna um ativo valioso para quem enfrenta desafios técnicos.

Enquanto isso, Ollama é uma plataforma de código aberto que permite executar grandes modelos de linguagem, incluindo o EXAONE Deep, em sua máquina local. Ela utiliza a contêinerização para gerenciar as dependências e recursos do modelo, simplificando o processo de implantação. Ao executar o EXAONE Deep localmente com o Ollama, você obtém várias vantagens:
- Privacidade: Seus dados permanecem em seu dispositivo, evitando exposição na nuvem.
- Velocidade: O processamento local reduz a latência de chamadas de rede.
- Flexibilidade: Você controla a configuração e pode ajustá-la conforme necessário.
Pré-requisitos para Executar o EXAONE Deep Localmente
Para executar o EXAONE Deep localmente, seu sistema deve atender a certos padrões de hardware e software. Como este é um modelo de IA que consome muitos recursos, ter a configuração certa é crítico. Aqui está o que você precisa:
Requisitos de Hardware
- RAM: Pelo menos 16GB. Mais é melhor para um desempenho mais suave.
- GPU: Uma GPU NVIDIA dedicada com pelo menos 8GB de VRAM. Isso garante que o modelo funcione eficientemente, pois o EXAONE Deep depende da aceleração da GPU para tarefas de inferência.
- Armazenamento: Espaço livre suficiente (20-50GB) para armazenar o modelo e suas dependências.
Requisitos de Software
- Sistema Operacional: Linux ou macOS. O Windows pode funcionar, mas geralmente requer etapas adicionais, portanto, Linux/macOS é recomendado.
- Internet: Uma conexão estável para baixar o Ollama e o modelo EXAONE Deep.
Com isso pronto, você está pronto para instalar o Ollama e iniciar o EXAONE Deep. Vamos passar para o processo de instalação.
Instalando o Ollama no Seu Sistema
Ollama é sua porta de entrada para executar o EXAONE Deep localmente, e sua instalação é simples. Siga estes passos para configurá-lo:
Baixe o Ollama:
- Acesse o site do Ollama e baixe o binário para o seu sistema operacional.

- Alternativamente, para Linux ou macOS, use este comando no terminal:
curl -fsSL https://ollama.ai/install.sh | sh
Este script automatiza o download e a configuração.
Verifique a Instalação:
- Após a instalação, verifique se o Ollama está funcionando executando:
ollama --version

- Você deve ver o número da versão (por exemplo,
0.1.x
). Se não, verifique novamente sua instalação ou consulte o GitHub do Ollama para obter ajuda.
Uma vez que o Ollama está instalado, você está pronto para baixar e executar o EXAONE Deep. Vamos para a próxima etapa.
Configurando e Executando o EXAONE Deep com Ollama
Agora que o Ollama está pronto, vamos colocar o EXAONE Deep em funcionamento. Isso envolve baixar o modelo e lançá-lo localmente.
Passo 1: Baixar o Modelo EXAONE Deep
Ollama hospeda o EXAONE Deep em sua biblioteca de modelos. Para baixá-lo para sua máquina, execute:
ollama pull exaone-deep
Este comando busca os arquivos do modelo. Dependendo da sua velocidade de internet e do tamanho do modelo (que pode ser de vários gigabytes), isso pode levar alguns minutos. Fique de olho no terminal para atualizações de progresso.

Passo 2: Iniciar o Modelo
Uma vez baixado, inicie o EXAONE Deep com:
ollama run exaone-deep
Este comando inicia o modelo, e o Ollama coloca um servidor local em funcionamento. Você verá um prompt onde pode digitar perguntas ou comandos. Por exemplo:
> Resolva 2x + 3 = 7
O modelo processa e retorna a resposta (por exemplo, x = 2
).
Passo 3: Personalizar Configurações (Opcional)
Ollama permite que você ajuste como o EXAONE Deep é executado. Por exemplo:
- Camadas GPU: Delegue o cálculo para sua GPU com flags como
--num-gpu-layers
. - Limites de Memória: Ajuste o uso de RAM se necessário.
Verifique a documentação do Ollama para detalhes, pois essas opções dependem do seu hardware.
Neste ponto, o EXAONE Deep está operacional. No entanto, digitar prompts no terminal não é a única maneira de usá-lo. Em seguida, exploraremos como interagir com ele programaticamente usando sua API—e como Apidog se encaixa nisso.
Usando Apidog para Interagir com o EXAONE Deep
Para desenvolvedores que estão construindo aplicações, acessar o EXAONE Deep via sua API é mais prático do que a linha de comando. Felizmente, o Ollama fornece uma API RESTful quando você executa o modelo. Aqui é onde Apidog, uma ferramenta de teste de API, se torna inestimável.
Entendendo a API do Ollama
Quando você inicia o EXAONE Deep com ollama run exaone-deep
, ele abre um servidor local, tipicamente em http://localhost:11434
. Este servidor expõe endpoints como:
/api/generate
: Para enviar prompts e obter respostas./api/tags
: Para listar modelos disponíveis.
Configurando o Apidog
Siga estas etapas para usar o Apidog com o EXAONE Deep:
Instale o Apidog:
- Baixe e instale-o. É gratuito e funciona em todos os principais sistemas operacionais.
Criar uma Nova Requisição:
- Abra o Apidog e clique em “Nova Requisição.”
- Defina o método como
POST
e a URL comohttp://localhost:11434/api/generate
.

Configure a Requisição:
- No corpo da requisição, adicione JSON como este:

{
"model": "exaone-deep",
"prompt": "Qual é a raiz quadrada de 16?",
"stream": false
}
- Isso informa ao EXAONE Deep para processar seu prompt.
Enviar e Testar:
- Clique em “Enviar” no Apidog. Você verá a resposta (por exemplo,
{"response": "4"}
) na interface da ferramenta.

- Use o Apidog para ajustar a requisição, testar casos extremos ou automatizar chamadas repetitivas.
Por que usar o Apidog?
O Apidog simplifica o trabalho com APIs ao:
- Visualizar Respostas: Veja exatamente o que o EXAONE Deep retorna.
- Economizar Tempo: Armazene e reutilize requisições em vez de digitá-las novamente.
- Depurar: Identifique rapidamente erros em suas chamadas de API.

Com o Apidog, a integração do EXAONE Deep em seus projetos se torna perfeita. Mas o que fazer se você encontrar um problema? Vamos abordar a solução de problemas a seguir.
Solução de Problemas Comuns
Executar um modelo como o EXAONE Deep localmente pode, às vezes, apresentar dificuldades. Aqui estão problemas comuns e suas soluções:
Problema: Erro de Memória da GPU
- Sintoma: O modelo falha com uma mensagem “CUDA fora de memória”.
- Solução: Reduza o tamanho do lote ou as camadas da GPU. Execute
nvidia-smi
para verificar o uso e ajuste as configurações através das flags do Ollama.
Problema: O Modelo Não Inicia
- Sintoma:
ollama run exaone-deep
falha com um erro. - Solução: Certifique-se de que o Docker está funcionando (
docker ps
). Verifique os logs do Ollama (ollama logs
) em busca de pistas e verifique se o modelo foi totalmente baixado.
Problema: A API Não Responde
- Sintoma: Requisições do Apidog excedem o tempo limite ou retornam erros.
- Solução: Confirme se o servidor está rodando (
curl http://localhost:11434
) e se o endpoint corresponde à documentação do Ollama.
Dica de Otimização
Para melhor desempenho, atualize sua GPU ou adicione RAM. O EXAONE Deep se destaca em hardware potente.
Com essas soluções, você manterá sua configuração funcionando perfeitamente. Vamos concluir.
Conclusão
Executar o EXAONE Deep localmente usando o Ollama desbloqueia um mundo de raciocínio impulsionado por IA sem dependência da nuvem. Este guia mostrou como instalar o Ollama, configurar o EXAONE Deep e usar o Apidog para interagir com sua API. Desde resolver problemas matemáticos até assistência em codificação, esta configuração capacita você a enfrentar tarefas difíceis com eficiência.
Pronto para explorar? Inicie o Ollama, baixe o EXAONE Deep e pegue o Apidog para otimizar seu fluxo de trabalho. O poder da IA local está ao seu alcance.
