Como Usar MCP com Ollama (sem Claude, com Dolphin MCP)

@apidog

@apidog

18 junho 2025

Como Usar MCP com Ollama (sem Claude, com Dolphin MCP)

Conectar modelos de linguagem com fontes de dados externas é fundamental para construir aplicativos robustos e inteligentes. Protocolo de Contexto de Modelo (MCP) é uma estrutura padronizada que simplifica a troca de contexto e dados entre modelos de IA e sistemas externos. Se você está construindo chatbots, motores de busca ou ferramentas de análise de dados, o MCP ajuda a preencher a lacuna entre diferentes modelos e APIs, garantindo um fluxo de informações contínuo.

Imagine um sistema onde você pode alternar facilmente entre usar Ollama para inferência de modelos leves e locais, OpenAI para compreensão de linguagem natural de ponta, e Deepseek para poderosas capacidades de busca. Agora, adicione Dolphin MCP—uma biblioteca Python de código aberto e ferramenta de CLI que simplifica essa integração. O Dolphin MCP não apenas se conecta a múltiplos servidores MCP simultaneamente, mas também torna suas ferramentas disponíveis para modelos de linguagem através de consultas em linguagem natural.

Neste tutorial, vamos guiá-lo por tudo, desde a instalação do Dolphin MCP até a integração com modelos como Ollama e OpenAI.

💡
Antes de começarmos, deixe-me fazer uma rápida observação: baixe Apidog gratuitamente hoje para agilizar seu processo de teste de API, perfeito para desenvolvedores que desejam testar modelos de IA de ponta e otimizar o processo de teste de API!
button

1. O que é MCP? (Começando pelos conceitos básicos)

Protocolo de Contexto de Modelo (MCP) é uma estrutura projetada para padronizar a interação entre modelos de IA e aplicações externas. Ele permite que diferentes modelos compartilhem contexto, troquem dados e chamem ferramentas de maneira unificada e conversacional. Com o MCP, você pode:

Ao usar o MCP, os desenvolvedores podem se concentrar na construção de soluções inovadoras sem se preocupar com as complexidades subjacentes da comunicação entre modelos. Clique aqui se você deseja um tutorial mais aprofundado sobre o MCP e do que se trata.

2. Por que usar Dolphin MCP?

Dolphin MCP é uma biblioteca Python de código aberto e ferramenta de CLI que torna extremamente simples interagir com vários servidores MCP (você pode ter quantos quiser). Seu design enfatiza modularidade e facilidade de uso, fornecendo uma API limpa para integração com vários modelos de linguagem como OpenAI, Anthropic e Ollama, assim como fontes de dados externas como Deepseek. Você pode simplesmente alternar entre modelos conforme as necessidades da tarefa em que está trabalhando!

Principais Recursos:

O Dolphin MCP simplifica o processo de construção de uma interface conversacional para manipulação de dados e interação com modelos de IA, tornando-se um ativo poderoso para qualquer desenvolvedor.

3. Pré-requisitos e Configuração do Ambiente

Antes de mergulharmos nos passos de instalação e integração, vamos garantir que seu ambiente esteja devidamente configurado para trabalhar com o Dolphin MCP.

Requisitos do Sistema:

Configuração Específica da Plataforma:

Windows:

curl -sSf https://install.ultraviolet.rs/windows
python --version
sqlite3 --version
uv --version

macOS:

brew install python
brew install sqlite
brew install ultraviolet/uv/uv

ou

curl -sSf https://install.ultraviolet.rs/mac
python3 --version
sqlite3 --version
uv --version

Linux (Ubuntu/Debian):

sudo apt update
sudo apt install python3 python3-pip
sudo apt install sqlite3
curl -sSf https://install.ultraviolet.rs/linux
python3 --version
sqlite3 --version
uv --version

Uma vez que tudo tenha sido baixado e seu sistema esteja pronto, você está pronto para instalar o Dolphin MCP.

4. Instalação do Dolphin MCP

Há duas maneiras de instalar o Dolphin MCP em seu sistema, seja como um pacote do PyPI ou diretamente da fonte.

Opção 1: Instalar do PyPI (Recomendado)

A maneira mais simples é instalar o Dolphin MCP através do pip:

pip install dolphin-mcp

Este comando instala tanto a biblioteca quanto a ferramenta de linha de comando dolphin-mcp-cli, que permite usar a ferramenta diretamente do seu terminal.

Opção 2: Instalar a partir da Fonte

Se você preferir trabalhar diretamente com o código-fonte ou pretende contribuir para o projeto, siga os passos abaixo:

Clonar o Repositório:

git clone https://github.com/cognitivecomputations/dolphin-mcp.git
cd dolphin-mcp

Instalar em Modo de Desenvolvimento:

pip install -e .

Configurar as Variáveis de Ambiente:

Copie o arquivo de exemplo de ambiente (o arquivo .env.example no projeto) e atualize-o com sua chave de API. Opcionalmente, você pode especificar a URL base para seu modelo:

cp .env.example .env

Sinta-se à vontade para editar o arquivo .env como desejar para incluir sua chave API do OpenAI (e quaisquer outras chaves que você precisar).

(Opcional) Configurar o Banco de Dados de Demonstração:

Se você quiser testar o sistema com alguns dados de exemplo para ver se o Dolphin MCP conectou seus modelos ao seu MCP, execute:

python setup_db.py

Este comando cria um banco de dados SQLite de exemplo com informações sobre espécies de golfinho para fins de demonstração. Preste atenção ao caminho de saída onde o novo banco de dados SQLite criado será salvo. O banco de dados contém alguns dados simulados sobre golfinhos. Confira se você quiser!

5. Configuração e Variáveis de Ambiente

O Dolphin MCP usa dois arquivos principais de configuração para gerenciar suas configurações: o arquivo .env e o arquivo mcp_config.json.

Arquivo .env

O arquivo .env armazena credenciais sensíveis da API. Por exemplo:

OPENAI_API_KEY=sua_chave_api_openai_aqui
OPENAI_MODEL=gpt-4o
# OPENAI_ENDPOINT=https://api.openai.com/v1  # Descomente e atualize se necessário

mcp_config.json

Este arquivo JSON define os servidores MCP aos quais seu cliente se conectará. Uma configuração de exemplo pode ser assim:

{
  "mcpServers": {
    "server1": {
      "command": "comando-para-iniciar-servidor",
      "args": ["arg1", "arg2"],
      "env": {
        "ENV_VAR1": "valor1",
        "ENV_VAR2": "valor2"
      }
    },
    "server2": {
      "command": "outro-comando-do-servidor",
      "args": ["--opção", "valor"]
    }
  }
}

Ao configurar esses arquivos, você permite que o Dolphin MCP armazene e use suas chaves da API de forma segura e se conecte a múltiplos servidores MCP simultaneamente.

6. Testando e Usando o Dolphin MCP

O Dolphin MCP oferece maneiras flexíveis de testar e interagir com seu servidor MCP, seja você adepto de comandos CLI, integração em Python, ou um script legado.

Usando o Comando CLI

A maneira mais simples de interagir com seu servidor MCP é através do comando CLI. Uma vez que seu ambiente esteja configurado e seu servidor MCP esteja em funcionamento, você pode enviar uma consulta diretamente do seu terminal. Por exemplo:

dolphin-mcp-cli "Quais espécies de golfinho estão ameaçadas?"  

Opções Principais:

Exemplo:

dolphin-mcp-cli --model gpt-4o "Liste os golfinhos no Oceano Atlântico"  

Isso direciona sua consulta para os servidores MCP conectados (Ollama, OpenAI, etc.) e retorna resultados estruturados.

Via Biblioteca Python

Se você preferir integrar o Dolphin MCP diretamente em seu código Python, a biblioteca fornece uma função conveniente chamada run_interaction. Isso permite que você incorpore as interações do MCP como parte de uma aplicação maior. Aqui está um exemplo de script que demonstra como usar a biblioteca programaticamente:

import asyncio  
from dolphin_mcp import run_interaction  

async def main():  
    result = await run_interaction(  
        user_query="Quais espécies de golfinho estão ameaçadas?",  
        model_name="gpt-4o",  
        quiet_mode=False  
    )  
    print(result)  

asyncio.run(main())  

Isso gerencia conexões de servidores, descoberta de ferramentas e chamadas de modelo automaticamente.

Script Legado

Para testes rápidos (para aqueles que preferem uma abordagem mais direta), execute o script original diretamente da linha de comando. Este método fornece a mesma funcionalidade que a CLI, mas em uma forma mais simples:

python dolphin_mcp.py "Analise padrões de migração de golfinhos"  

Ele se conecta a servidores, lista ferramentas e retorna resultados conversacionais sem opções extras.

Consultas de Exemplo & Banco de Dados de Demonstração

Tente essas consultas:

Banco de Dados de Demonstração:
Execute setup_db.py para criar um banco de dados SQLite de exemplo com dados sobre espécies de golfinho. Use-o para testar consultas como:

dolphin-mcp-cli "Quais golfinhos estão criticamente ameaçados?"  

Saída:

{  
  "espécie": "Golfinho Maui",  
  "status": "Criticamente Ameaçado"  
}  

Com essas ferramentas, o Dolphin MCP se adapta ao seu fluxo de trabalho—seja você depurando, scriptando ou construindo sistemas de IA complexos. Sinta-se à vontade para visitar também seu repositório no GitHub.

7. Conclusão


Dolphin MCP revoluciona a integração de IA conectando perfeitamente ferramentas como Ollama e OpenAI em um fluxo de trabalho unificado. Com sua CLI para consultas em linguagem natural, biblioteca Python para controle programático e banco de dados de demonstração para testes, capacita os desenvolvedores a construir agentes de IA sofisticados sem código repetitivo. Quer esteja analisando dados de conservação, gerando relatórios, ou experimentando com LLMs locais, o Dolphin MCP simplifica tarefas complexas enquanto mantém flexibilidade. Seu suporte a múltiplos modelos e configuração intuitiva o tornam ideal tanto para protótipos rápidos quanto para sistemas de produção.

Pronto para otimizar seus projetos de IA? Baixe Apidog para testar as APIs do seu servidor MCP e comece a construir fluxos de trabalho mais inteligentes hoje!

button

Pratique o design de API no Apidog

Descubra uma forma mais fácil de construir e usar APIs