Apidog

Plataforma Colaborativa All-in-one para Desenvolvimento de API

Design de API

Documentação de API

Depuração de API

Mock de API

Testes Automatizados de API

Ollama Deep Research, a Alternativa de Código Aberto ao OpenAI Deep Researcher

@apidog

@apidog

Updated on março 19, 2025

Você está cansado de depender de ferramentas de IA proprietárias para suas necessidades de pesquisa? Não procure mais do que Ollama Deep Research, uma alternativa de código aberto que oferece flexibilidade, privacidade e eficiência de custos. Neste guia abrangente, vamos explorar o que é o Ollama Deep Research, como usá-lo, suas vantagens sobre o OpenAI Deep Researcher, o Deep Research do Google e muito mais.

💡
Antes de começarmos, aqui está uma dica rápida: Baixe Apidog gratuitamente hoje! É uma ótima ferramenta para desenvolvedores que desejam simplificar o teste de modelos de IA, especialmente aqueles que usam LLMs (Modelos de Linguagem de Grande Escala). Apidog ajuda você a agilizar o processo de teste de API, facilitando o trabalho com tecnologias de IA de ponta. Experimente!
button

O que é o Ollama Deep Research?

Ollama Deep Research é um assistente de pesquisa e redação de relatórios totalmente local, projetado para agilizar seu processo de pesquisa. Ele utiliza modelos de linguagem large hosted localmente, permitindo que você insira um tópico e gere consultas de pesquisa na web relevantes. Essa ferramenta coleta resultados de pesquisa na web, resume-os de forma eficaz e identifica lacunas de conhecimento por meio de múltiplos ciclos iterativos. O resultado final é um resumo abrangente em markdown que inclui as fontes consultadas, tornando-o ideal para pesquisadores, estudantes e profissionais que buscam aprimorar suas capacidades de pesquisa na web.

Como o Ollama Deep Research Funciona?

Ollama Deep Research é projetado para agilizar seu processo de pesquisa automatizando as fases de busca, resumo e iteração. Aqui está uma descrição passo a passo de como funciona:

Passo 1: Começar

Entrada do Usuário: O processo começa quando você insere um tópico ou consulta no Ollama Deep Research. Isso pode ser qualquer coisa, desde uma pergunta simples até um tópico de pesquisa complexo.

Passo 2: Gerar Consulta

Geração da Consulta LLM: Ollama usa um modelo de linguagem large local (LLM) para gerar uma consulta de pesquisa na web precisa com base na sua entrada. Essa consulta é estruturada para capturar informações relevantes da web.

Passo 3: Pesquisa na Web

Integração do Motor de Busca: A consulta gerada é então usada para realizar uma pesquisa na web usando APIs como Tavily, Perplexity ou DuckDuckGo. Esses motores recuperam fontes relevantes relacionadas ao seu tópico de pesquisa.

Passo 4: Resumir Fontes

Summarização LLM: As fontes recuperadas são resumidas usando o mesmo LLM. Esta etapa extrai insights-chave e os integra em um resumo em evolução do seu tópico de pesquisa.

Passo 5: Refletir Sobre o Resumo

Identificação de Lacunas de Conhecimento: O LLM reflete sobre o resumo para identificar quaisquer lacunas de conhecimento ou áreas onde mais informações são necessárias. Este processo de reflexão é crucial para garantir uma compreensão abrangente do tópico.

Passo 6: Finalizar Resumo

Melhoria Iterativa: Com base nas lacunas identificadas, novas consultas de pesquisa são geradas para coletar informações adicionais. O processo de busca, resumo e reflexão se repete até que um número predefinido de iterações seja alcançado ou até que o nível desejado de detalhe seja atingido.

Saída Final: O resultado final é um resumo abrangente em markdown que inclui todas as fontes utilizadas durante o processo de pesquisa. Este resumo fornece uma visão geral estruturada do tópico, completa com citações para referência futura.

Passo 7: Fim

Avaliação do Usuário: Uma vez que o resumo final é gerado, você pode revisá-lo para garantir que atenda às suas necessidades de pesquisa. O processo iterativo garante que o resumo seja minucioso e bem estruturado, facilitando a compreensão e expansão de suas descobertas de pesquisa.

Esse processo passo a passo permite que Ollama Deep Research forneça uma saída de pesquisa detalhada e abrangente, mantendo a privacidade e o controle sobre seus dados.

Como Usar o Ollama Deep Research: Um Guia Passo a Passo

Usar Ollama Deep Research envolve configurar seu ambiente, configurar seu motor de busca e lançar o assistente. Aqui está um guia detalhado para ajudá-lo a começar:

Passo 1: Configurar Seu Ambiente

Baixar o App Ollama: Baixe a versão mais recente do Ollama no site oficial que é compatível com o seu sistema operacional (Windows, MacOs ou Linux).

Baixar um LLM Local: Use o comando ollama pull deepseek-r1:8b para baixar um modelo de linguagem local (LLM) como o DeepSeek.

Clonar o Repositório: Clone o repositório do Ollama Deep Researcher usando o Git:

git clone https://github.com/langchain-ai/ollama-deep-researcher.git cd ollama-deep-researcher

Criar um Ambiente Virtual (Recomendado):

Para Mac/Linux:

python -m venv .venv source .venv/bin/activate

Para Windows:

python -m venv .venv .venv\Scripts\Activate.ps1

Passo 2: Configurar Seu Motor de Busca

Motor de Busca Padrão: Por padrão, o Ollama usa DuckDuckGo para pesquisas na web, que não requer uma chave de API.

Motores de Busca Alternativos: Para usar Tavily ou Perplexity, você precisa adicionar suas chaves de API ao seu arquivo de ambiente:

# Criar arquivo ".env"
cp .env.example .env

# Adicione suas chaves
echo "Tavily_API_KEY='DIGITE-SUA-CHAVE-AQUI'" >> .env

Defina a variável SEARCH_API para tavily ou perplexity, e adicione a chave de API correspondente (TAVILY_API_KEY ou PERPLEXITY_API_KEY).

Passo 3: Lançar o Assistente

Instalar Dependências: Instale os pacotes necessários usando pip:

pip install -e .pip install -U "langgraph-cli[inmem]"

Iniciar o Servidor LangGraph: Inicie o servidor LangGraph:

langgraph dev

Acessar o Studio LangGraph: Abra a interface da Web do LangGraph Studio pelo URL fornecido na saída do terminal (por exemplo, https://smith.langchain.com/studio/?baseUrl=http://127.0.0.1:2024).

Configurar no LangGraph Studio: Na aba de configuração, selecione sua ferramenta de pesquisa na web. Ollama Deep Research se integra perfeitamente com poderosos motores de busca na web como DuckDuckGo, Perplexity e Tavily, cada um oferecendo vantagens únicas que aprimoram sua experiência de pesquisa.

Defina o nome do seu LLM local (por exemplo, llama3.2 ou deepseek-r1:8b) e ajuste a profundidade das iterações de pesquisa, se necessário (o padrão é 3).

Passo 4: Inserir Sua Consulta

Digite Seu Tópico: Uma vez configurado, insira seu tópico ou consulta de pesquisa na interface do LangGraph Studio.

Gerar Relatório: O Ollama gerará um relatório abrangente em markdown com base na sua entrada, usando o motor de busca e LLM selecionados.

Saída de exemplo do Ollama Deep Research

Essa configuração permite que você aproveite o poder do Ollama Deep Research para pesquisas eficientes e privadas, com a flexibilidade de escolher seu motor de busca e LLM preferidos.

Por que Usar o Ollama Deep Research em vez de Outros?

Ollama Deep Research oferece várias vantagens sobre ferramentas proprietárias como OpenAI Deep Researcher e Google’s Deep Research:

Privacidade e Controle:

Como o Ollama funciona inteiramente em sua máquina local, você mantém controle total sobre seus dados e processo de pesquisa. Isso é particularmente importante para tópicos sensíveis onde a privacidade dos dados é crucial.

Diferente do OpenAI Deep Researcher, que requer que os dados sejam enviados para seus servidores, o Ollama mantém toda a sua pesquisa internamente.

Eficiência de Custos:

Ollama é de código aberto e pode ser executado gratuitamente se você tiver o hardware necessário. Isso elimina a necessidade de chamadas de API caras ou taxas de assinatura associadas a modelos proprietários.

O OpenAI Deep Researcher, por exemplo, estava inicialmente disponível apenas com uma assinatura do ChatGPT Enterprise/Pro, que é significativamente mais cara.

Personalização:

Com o Ollama, você pode escolher entre uma variedade de modelos locais ou até finetuná-los com conjuntos de dados específicos do domínio. Essa flexibilidade permite que você adapte sua ferramenta de pesquisa às suas necessidades específicas.

Ferramentas proprietárias como o OpenAI Deep Researcher oferecem menos personalização e dependem de seus modelos proprietários, limitando sua capacidade de ajustar parâmetros ou integrar ferramentas personalizadas.

Recursos do Ollama Deep Research

Ollama Deep Research vem com vários recursos-chave que o tornam uma escolha atraente para pesquisadores:

1. Suporte a Modelos Locais:

Ele suporta qualquer LLM hospedado localmente, permitindo que você escolha modelos como LLaMA-2 ou DeepSeek com base em suas necessidades e recursos. Essa flexibilidade garante que você possa otimizar o desempenho e a precisão de acordo com as capacidades do modelo.

2. Busca e Resumo Iterativos:

A ferramenta realiza múltiplos ciclos de busca e resumo para garantir uma cobertura completa do tópico e a identificação de lacunas de conhecimento. Essa abordagem iterativa ajuda a refinar a saída da pesquisa e a fornecer uma visão geral abrangente.

3. Geração de Relatório em Markdown:

Ollama gera relatórios em formato markdown, que são fáceis de ler e editar. Os relatórios incluem todas as fontes utilizadas, tornando simples a referência e a expansão da pesquisa.

4. Preservação da Privacidade:

Como a ferramenta é executada localmente, ela garante que seus dados de pesquisa permaneçam privados e seguros. Somente consultas de pesquisa são enviadas para motores externos, e mesmo essas podem ser configuradas para usar opções que não rastreiam, como o DuckDuckGo.

Precificação

Uma das vantagens mais significativas do Ollama Deep Research é seu modelo de precificação. Como uma ferramenta de código aberto, é essencialmente gratuita para usar uma vez que você tenha o hardware necessário. Os únicos custos envolvidos são aqueles relacionados à manutenção da sua configuração local, como eletricidade e manutenção de hardware. Isso é um contraste marcante com ferramentas proprietárias como OpenAI Deep Researcher, que requerem assinaturas caras ou taxas de chamadas de API.

Em comparação, Google’s Deep Research está incluído em um plano Google One Premium por cerca de $20 por mês, tornando-se mais acessível do que as ofertas da OpenAI, mas ainda menos custo-efetivo do que o Ollama para aqueles com a configuração de hardware necessária.

Conclusão

Ollama Deep Research é uma poderosa alternativa de código aberto às ferramentas de pesquisa profunda proprietárias como OpenAI Deep Researcher. Oferece privacidade, personalização e eficiência de custos incomparáveis, tornando-se uma escolha ideal para pesquisadores que valorizam o controle sobre seus dados e processo de pesquisa. Se você é estudante, profissional ou simplesmente alguém interessado em aprofundar sua compreensão de um tópico, o Ollama Deep Research fornece as ferramentas e a flexibilidade necessárias para atingir seus objetivos.

button