Conectar modelos de linguagem com fontes de dados externas é fundamental para construir aplicativos robustos e inteligentes. Protocolo de Contexto de Modelo (MCP) é uma estrutura padronizada que simplifica a troca de contexto e dados entre modelos de IA e sistemas externos. Se você está construindo chatbots, motores de busca ou ferramentas de análise de dados, o MCP ajuda a preencher a lacuna entre diferentes modelos e APIs, garantindo um fluxo de informações contínuo.
Imagine um sistema onde você pode alternar facilmente entre usar Ollama para inferência de modelos leves e locais, OpenAI para compreensão de linguagem natural de ponta, e Deepseek para poderosas capacidades de busca. Agora, adicione Dolphin MCP—uma biblioteca Python de código aberto e ferramenta de CLI que simplifica essa integração. O Dolphin MCP não apenas se conecta a múltiplos servidores MCP simultaneamente, mas também torna suas ferramentas disponíveis para modelos de linguagem através de consultas em linguagem natural.
Neste tutorial, vamos guiá-lo por tudo, desde a instalação do Dolphin MCP até a integração com modelos como Ollama e OpenAI.

1. O que é MCP? (Começando pelos conceitos básicos)
Protocolo de Contexto de Modelo (MCP) é uma estrutura projetada para padronizar a interação entre modelos de IA e aplicações externas. Ele permite que diferentes modelos compartilhem contexto, troquem dados e chamem ferramentas de maneira unificada e conversacional. Com o MCP, você pode:
- Manter um histórico de conversa contínuo entre diferentes consultas.
- Descobrir e invocar dinamicamente ferramentas ou APIs externas.
- Integrar múltiplos provedores de IA sob um único protocolo padronizado.
Ao usar o MCP, os desenvolvedores podem se concentrar na construção de soluções inovadoras sem se preocupar com as complexidades subjacentes da comunicação entre modelos. Clique aqui se você deseja um tutorial mais aprofundado sobre o MCP e do que se trata.
2. Por que usar Dolphin MCP?
Dolphin MCP é uma biblioteca Python de código aberto e ferramenta de CLI que torna extremamente simples interagir com vários servidores MCP (você pode ter quantos quiser). Seu design enfatiza modularidade e facilidade de uso, fornecendo uma API limpa para integração com vários modelos de linguagem como OpenAI, Anthropic e Ollama, assim como fontes de dados externas como Deepseek. Você pode simplesmente alternar entre modelos conforme as necessidades da tarefa em que está trabalhando!
Principais Recursos:
- Suporte a Múltiplos Provedores: Funciona sem problemas com Ollama, OpenAI, DeepSeek, e muitos outros.
- Interface Dual: Use como uma biblioteca Python ou através de sua ferramenta de linha de comando.
- Descoberta de Ferramentas: Detecta e usa automaticamente ferramentas fornecidas pelos servidores MCP.
- Arquitetura Modular: Desfrute de uma separação clara de preocupações com módulos específicos do provedor.
- Configuração Flexível: Configure facilmente modelos e servidores MCP usando JSON e variáveis de ambiente.
- Reusabilidade: Construa integrações escaláveis e reutilizáveis que podem ser rapidamente adaptadas a novos requisitos.
O Dolphin MCP simplifica o processo de construção de uma interface conversacional para manipulação de dados e interação com modelos de IA, tornando-se um ativo poderoso para qualquer desenvolvedor.
3. Pré-requisitos e Configuração do Ambiente
Antes de mergulharmos nos passos de instalação e integração, vamos garantir que seu ambiente esteja devidamente configurado para trabalhar com o Dolphin MCP.
Requisitos do Sistema:
- Python 3.8 ou superior: Certifique-se de ter o Python instalado. Você pode baixá-lo de python.org.
- SQLite: Usado pelo banco de dados de demonstração para armazenar dados de exemplo (Opcional).
- uv/uvx: Um instalador de pacote Python rápido e resolutor.
- Node.js 18+ (se usar integrações de CLI): Necessário para algumas ferramentas adicionais.
Configuração Específica da Plataforma:
Windows:
- Python: Baixe de python.org e lembre-se de marcar "Adicionar Python ao PATH".
- SQLite: Baixe os binários pré-compilados do site do SQLite, extraia-os e adicione a pasta ao seu PATH.
- uv/uvx: Abra seu PowerShell do Windows como Administrador e execute:
curl -sSf https://install.ultraviolet.rs/windows
- Verificar Instalações:
python --version
sqlite3 --version
uv --version
macOS:
- Python: Instale usando o Homebrew:
brew install python
- SQLite: Pré-instalado no macOS, ou atualize usando:
brew install sqlite
- uv/uvx: Instale com o Homebrew ou o instalador oficial:
brew install ultraviolet/uv/uv
ou
curl -sSf https://install.ultraviolet.rs/mac
- Verificar Instalações:
python3 --version
sqlite3 --version
uv --version
Linux (Ubuntu/Debian):
- Python:
sudo apt update
sudo apt install python3 python3-pip
- SQLite:
sudo apt install sqlite3
- uv/uvx:
curl -sSf https://install.ultraviolet.rs/linux
- Verificar Instalações:
python3 --version
sqlite3 --version
uv --version
Uma vez que tudo tenha sido baixado e seu sistema esteja pronto, você está pronto para instalar o Dolphin MCP.
4. Instalação do Dolphin MCP
Há duas maneiras de instalar o Dolphin MCP em seu sistema, seja como um pacote do PyPI ou diretamente da fonte.
Opção 1: Instalar do PyPI (Recomendado)
A maneira mais simples é instalar o Dolphin MCP através do pip:
pip install dolphin-mcp
Este comando instala tanto a biblioteca quanto a ferramenta de linha de comando dolphin-mcp-cli
, que permite usar a ferramenta diretamente do seu terminal.
Opção 2: Instalar a partir da Fonte
Se você preferir trabalhar diretamente com o código-fonte ou pretende contribuir para o projeto, siga os passos abaixo:
Clonar o Repositório:
git clone https://github.com/cognitivecomputations/dolphin-mcp.git
cd dolphin-mcp
Instalar em Modo de Desenvolvimento:
pip install -e .
Configurar as Variáveis de Ambiente:
Copie o arquivo de exemplo de ambiente (o arquivo .env.example
no projeto) e atualize-o com sua chave de API. Opcionalmente, você pode especificar a URL base para seu modelo:
cp .env.example .env
Sinta-se à vontade para editar o arquivo .env
como desejar para incluir sua chave API do OpenAI (e quaisquer outras chaves que você precisar).
(Opcional) Configurar o Banco de Dados de Demonstração:
Se você quiser testar o sistema com alguns dados de exemplo para ver se o Dolphin MCP conectou seus modelos ao seu MCP, execute:
python setup_db.py
Este comando cria um banco de dados SQLite de exemplo com informações sobre espécies de golfinho para fins de demonstração. Preste atenção ao caminho de saída onde o novo banco de dados SQLite criado será salvo. O banco de dados contém alguns dados simulados sobre golfinhos. Confira se você quiser!
5. Configuração e Variáveis de Ambiente
O Dolphin MCP usa dois arquivos principais de configuração para gerenciar suas configurações: o arquivo .env
e o arquivo mcp_config.json
.
Arquivo .env
O arquivo .env
armazena credenciais sensíveis da API. Por exemplo:
OPENAI_API_KEY=sua_chave_api_openai_aqui
OPENAI_MODEL=gpt-4o
# OPENAI_ENDPOINT=https://api.openai.com/v1 # Descomente e atualize se necessário
mcp_config.json
Este arquivo JSON define os servidores MCP aos quais seu cliente se conectará. Uma configuração de exemplo pode ser assim:
{
"mcpServers": {
"server1": {
"command": "comando-para-iniciar-servidor",
"args": ["arg1", "arg2"],
"env": {
"ENV_VAR1": "valor1",
"ENV_VAR2": "valor2"
}
},
"server2": {
"command": "outro-comando-do-servidor",
"args": ["--opção", "valor"]
}
}
}
Ao configurar esses arquivos, você permite que o Dolphin MCP armazene e use suas chaves da API de forma segura e se conecte a múltiplos servidores MCP simultaneamente.
6. Testando e Usando o Dolphin MCP
O Dolphin MCP oferece maneiras flexíveis de testar e interagir com seu servidor MCP, seja você adepto de comandos CLI, integração em Python, ou um script legado.
Usando o Comando CLI
A maneira mais simples de interagir com seu servidor MCP é através do comando CLI. Uma vez que seu ambiente esteja configurado e seu servidor MCP esteja em funcionamento, você pode enviar uma consulta diretamente do seu terminal. Por exemplo:
dolphin-mcp-cli "Quais espécies de golfinho estão ameaçadas?"
Opções Principais:
--model <nome>
: Especifique um modelo (por exemplo,gpt-4o
).--quiet
: Oculte a saída intermediária.--config <arquivo>
: Use um arquivo de configuração personalizado.
Exemplo:
dolphin-mcp-cli --model gpt-4o "Liste os golfinhos no Oceano Atlântico"
Isso direciona sua consulta para os servidores MCP conectados (Ollama, OpenAI, etc.) e retorna resultados estruturados.
Via Biblioteca Python
Se você preferir integrar o Dolphin MCP diretamente em seu código Python, a biblioteca fornece uma função conveniente chamada run_interaction
. Isso permite que você incorpore as interações do MCP como parte de uma aplicação maior. Aqui está um exemplo de script que demonstra como usar a biblioteca programaticamente:
import asyncio
from dolphin_mcp import run_interaction
async def main():
result = await run_interaction(
user_query="Quais espécies de golfinho estão ameaçadas?",
model_name="gpt-4o",
quiet_mode=False
)
print(result)
asyncio.run(main())
Isso gerencia conexões de servidores, descoberta de ferramentas e chamadas de modelo automaticamente.
Script Legado
Para testes rápidos (para aqueles que preferem uma abordagem mais direta), execute o script original diretamente da linha de comando. Este método fornece a mesma funcionalidade que a CLI, mas em uma forma mais simples:
python dolphin_mcp.py "Analise padrões de migração de golfinhos"
Ele se conecta a servidores, lista ferramentas e retorna resultados conversacionais sem opções extras.
Consultas de Exemplo & Banco de Dados de Demonstração
Tente essas consultas:
- Geral:
dolphin-mcp-cli "Explique a evolução dos golfinhos"
- Específico do Modelo:
dolphin-mcp-cli --model ollama "Defina física quântica"
- Modo Silencioso:
dolphin-mcp-cli --quiet "Liste as espécies ameaçadas"
Banco de Dados de Demonstração:
Execute setup_db.py
para criar um banco de dados SQLite de exemplo com dados sobre espécies de golfinho. Use-o para testar consultas como:
dolphin-mcp-cli "Quais golfinhos estão criticamente ameaçados?"
Saída:
{
"espécie": "Golfinho Maui",
"status": "Criticamente Ameaçado"
}
Com essas ferramentas, o Dolphin MCP se adapta ao seu fluxo de trabalho—seja você depurando, scriptando ou construindo sistemas de IA complexos. Sinta-se à vontade para visitar também seu repositório no GitHub.
7. Conclusão
Dolphin MCP revoluciona a integração de IA conectando perfeitamente ferramentas como Ollama e OpenAI em um fluxo de trabalho unificado. Com sua CLI para consultas em linguagem natural, biblioteca Python para controle programático e banco de dados de demonstração para testes, capacita os desenvolvedores a construir agentes de IA sofisticados sem código repetitivo. Quer esteja analisando dados de conservação, gerando relatórios, ou experimentando com LLMs locais, o Dolphin MCP simplifica tarefas complexas enquanto mantém flexibilidade. Seu suporte a múltiplos modelos e configuração intuitiva o tornam ideal tanto para protótipos rápidos quanto para sistemas de produção.
Pronto para otimizar seus projetos de IA? Baixe Apidog para testar as APIs do seu servidor MCP e comece a construir fluxos de trabalho mais inteligentes hoje!