당신은 진정으로 심층 연구를 위해 AI의 힘을 활용하고 싶었던 적이 있나요? 그러나 폐쇄형 솔루션과 데이터 프라이버시 문제로 제한을 느꼈던 적이 있다면, 이제 소매를 걷어붙일 준비를 하세요. 이번 글에서는 Gemini API로 구동되는 오픈 소스 심층 연구 도구를 직접 만들어 볼 것입니다!
맞습니다, 우리는 완전히 당신의 통제하에 있는 연구 강화를 만들고 있습니다. 이를 통해 필요한 주제에 깊이 파고들 준비가 된 전담 AI 연구 도우미를 소유하는 것과 같다고 생각할 수 있습니다. 그리고 가장 좋은 점은? 정확하고 통찰력 있는 분석을 얻기 위해 Gemini API를 활용할 것입니다. 시작해 볼까요!
MCP 지원이 Apidog에 곧 출시된다고 전하게 되어 기쁩니다! 🚀
— Apidog (@ApidogHQ) 2025년 3월 19일
Apidog MCP 서버를 사용하면 API 문서를 Agentic AI에게 직접 제공하여 코딩 경험을 대폭 향상시킵니다! Cursor, Cline, Windsurf를 사용하든 - 더욱 빠르고 매끄러운 개발 프로세스를 이용할 수 있습니다.… pic.twitter.com/ew8U38mU0K

오픈 소스 심층 연구란?
오픈 소스 심층 연구는 연구 과정을 통제하는 것을 의미합니다. AI의 힘을 활용하면서도 투명성, 프라이버시, 특정 요구에 맞춰 도구를 맞춤화할 수 있는 능력을 유지하는 것입니다. 우리만의 연구 도구를 구축함으로써 폐쇄형 솔루션의 한계와 잠재적 편향을 피하고, 데이터의 안전성을 보장할 수 있습니다. MCP는 이 과정을 촉진하여 다양한 API 및 기능과의 적절한 통합을 보장하여 성능을 향상시킬 수 있습니다.
왜 심층 연구에 Gemini API를 사용해야 할까요?
Gemini API는 인공지능에 대한 최첨단 접근 방식을 제공하여 인간과 기계 간의 상호작용을 더욱 직관적이고 효과적으로 만듭니다. 텍스트 기반 통찰력 뿐만 아니라 멀티모달 입력을 지원하여 이미지, 비디오 및 오디오를 통한 연구 자료의 보다 풍부한 이해를 제공합니다. 이는 다양한 데이터 유형을 분석해야 하는 포괄적인 연구 프로젝트에 특히 귀중합니다. 또한 API의 유연한 설계와 강력한 개발자 지원은 혁신과 맞춤화를 장려하여 연구자가 자신의 특정 요구와 맥락에 맞게 도구를 조정할 수 있도록 합니다. 궁극적으로 복잡한 주제에 대한 더 깊고 미묘한 이해를 촉진합니다.
우리의 오픈 소스 심층 연구 도구의 주요 기능
구축 과정에 들어가기 전에 우리가 실현할 기능들을 살펴보겠습니다:
- 빠른 통찰을 위한 귀속 심층 연구.
- 원활한 접근을 위한 다중 플랫폼 지원.
- 진보된 AI 기능을 위한 Google Gemini 기반.
- 지능형 분석을 위한 사고 및 네트워킹 모델.
- 시각적 정리를 위한 캔버스 지원.
- 진행 상황을 추적하는 연구 기록.
- 유연성을 위한 로컬 및 서버 API 지원.
- 안전한 연구를 위한 프라이버시 중심 설계.
- 강화된 기능을 위한 다중 키 페이로드 지원.
- 다국어 지원: 영어, 简体中文.
- 효율성과 성능을 위한 현대 기술로 구축.
오픈 소스 심층 연구 도구 시작하기
AI 구동 연구 도우미를 구축할 준비가 되었나요? 시작하기 위해 필요한 것들은 다음과 같습니다:
1. Gemini API 키 받기: 무엇보다도, Google의 AI 모델을 활용하려면 Gemini API 키가 필요합니다. Google AI Studio로 가서 API 키를 요청하세요. 이 키를 안전하게 보관하세요 - 이것이 Gemini의 세계로 가는 여권입니다!

2. 원클릭 배포(선택 사항): 가능한 한 빠르게 시작하려면 원클릭 배포 옵션을 사용할 수 있습니다:
- Vercel로 배포하기 (Vercel에 대한 설명은 일반적으로 직관적이며 GitHub 저장소와 Vercel 계정을 연결해야 합니다).

- Cloudflare로 배포하기 (현재 프로젝트는 Cloudflare에 대한 배포를 지원하지만 Cloudflare Pages에 배포하는 방법을 따라야 합니다).

이러한 옵션은 몇 분 안에 연구 도구를 실행 가능하게 만들지만, 전체 맞춤형 경험을 위해 로컬 개발에 초점을 맞추겠습니다.
오픈 소스 심층 연구 도구 개발하기
이제 구축 과정의 중심으로 들어가 보겠습니다! 이 단계를 따라 로컬 브라우저에서 Deep Research를 실행해 보세요.
사전 요구 사항
시작하기 전에 시스템에 다음이 설치되어 있는지 확인하세요:
- Node.js: (추천 버전 18.18.0 이상). Node.js 공식 웹사이트에서 다운로드할 수 있습니다.

- pnpm 또는 npm 또는 yarn: Node.js의 패키지 관리자입니다. 이번 튜토리얼에서는 pnpm을 사용할 것이지만, 원하는 것을 사용할 수 있습니다.
설치
1. 저장소 복제:
git clone https://github.com/u14app/deep-research.git
cd deep-research
이 명령은 GitHub에서 코드를 다운로드하고 프로젝트 디렉토리로 이동합니다.
2. 의존성 설치:
pnpm install # 또는 npm install 또는 yarn install
이 명령은 프로젝트에 필요한 모든 패키지를 설치합니다.
3. 환경 변수 설정:
이 단계는 매우 중요합니다! 프로젝트의 루트 디렉토리에 .env 파일을 생성하고 다음과 같은 환경 변수를 구성해야 합니다:
# (선택 사항) 서버 측 Gemini API 키 (서버 API 호출에 필요)
GOOGLE_GENERATIVE_AI_API_KEY=YOUR_GEMINI_API_KEY
# (선택 사항) 서버 API 프록시 URL. 기본값: `https://generativelanguage.googleapis.com`
API_PROXY_BASE_URL=
# (선택 사항) 보안을 강화하기 위한 서버 API 접근 비밀번호
ACCESS_PASSWORD=
# (선택 사항) 통계나 오류 추적을 위해 사용할 수 있는 주입 스크립트 코드.
HEAD_SCRIPTS=
YOUR_GEMINI_API_KEY를 Google AI Studio에서 받은 실제 API 키로 대체하세요.
환경 변수에 대한 중요한 메모:
- GOOGLE_GENERATIVE_AI_API_KEY: 선택 사항이지만 서버 측 API를 사용하는 데 필수적입니다. Google AI Studio에서 Google Generative AI API 키를 받아야 합니다. 이 키는 비밀로 유지해야 하며, 공개 저장소에 절대 커밋하지 말아야 합니다.
- API_PROXY_BASE_URL: 선택 사항입니다. API 요청에 프록시 서버를 사용해야 하는 경우, 이 변수를 프록시 서버의 기본 URL로 설정하십시오. 이는 서버 측 API 호출에 해당됩니다.
- ACCESS_PASSWORD: 선택 사항이지만 서버 측 배포에 강력히 권장됩니다. 서버 측 API 엔드포인트를 보호하기 위해 강력한 비밀번호를 설정하세요. 이 비밀번호는 서버 측 API 기능에 접근하는 데 필요합니다.
- HEAD_SCRIPTS: 선택 사항. 통계 또는 오류 추적을 위해 사용할 수 있는 주입 스크립트 코드입니다.
프라이버시 알림: 이러한 환경 변수는 주로 서버 측 API 호출에 사용됩니다. 로컬 API 모드를 사용할 때는 API 키나 서버 측 구성 없이도 진행할 수 있어 프라이버시가 더욱 향상됩니다.
다중 키 지원: 여러 키를 지원하며, 각 키는 ,,로 구분됩니다. 예를 들어 key1,key2,key3. 당분간 Cloudflare는 공식 빌드 스크립트가 Next.js 15를 지원하지 않기 때문에 다중 키를 사용할 수 없습니다.
4. 개발 서버 실행:
pnpm dev # 또는 npm run dev 또는 yarn dev
이 명령은 개발 서버를 시작하며, http://localhost:3000에서 Deep Research에 접근할 수 있습니다.
- 연구해야 할 질문을 자유롭게 시작하세요.

- 결과를 확인하세요!

오픈 소스 심층 연구 도구 배포하기
로컬 설정이 만족스러우면, 연구 도구를 클라우드에 배포할 수 있습니다! 다음은 몇 가지 인기 있는 옵션입니다:
1. Vercel: Vercel로 배포하기 (이는 일반적으로 가장 쉬운 방법입니다).
2. Cloudflare: 현재 프로젝트는 Cloudflare에 대한 배포를 지원하지만, Cloudflare Pages에 배포하는 방법을 따라야 합니다.
3. Docker:
- Docker 버전은 20 이상이어야 합니다.
- 미리 빌드된 이미지를 가져옵니다:
docker pull xiangfa/deep-research:latest
- 컨테이너를 실행합니다:
docker run -d --name deep-research -p 3333:3000 xiangfa/deep-research
환경 변수를 지정할 수도 있습니다:
docker run -d --name deep-research \
-p 3333:3000 \
-e GOOGLE_GENERATIVE_AI_API_KEY=AIzaSy... \
-e ACCESS_PASSWORD=your-password \
xiangfa/deep-research
- 또는 나만의 Docker 이미지를 빌드합니다:
docker build -t deep-research .
docker run -d --name deep-research -p 3333:3000 deep-research
- docker-compose.yml을 사용하여 배포합니다:
version: '3.9'
services:
deep-research:
image: xiangfa/deep-research
container_name: deep-research
environment:
- GOOGLE_GENERATIVE_AI_API_KEY=AIzaSy...
- ACCESS_PASSWORD=your-password
ports:
- 3333:3000
그런 다음 나만의 Docker Compose를 빌드합니다:
docker compose -f docker-compose.yml build
4. 정적 배포:
- 정적 페이지 버전을 직접 빌드한 다음 out 디렉토리의 모든 파일을 Github Page, Cloudflare, Vercel 등 정적 페이지를 지원하는 웹사이트 서비스에 업로드할 수 있습니다.
pnpm build:export
오픈 소스 심층 연구 도구 구성
앞서 "오픈 소스 심층 연구 도구 시작하기" 섹션에서 언급했듯이, Deep Research는 서버 측 API 구성을 위해 다음 환경 변수를 활용합니다:
- GOOGLE_GENERATIVE_AI_API_KEY
- API_PROXY_BASE_URL
- ACCESS_PASSWORD
이 변수는 서버 측 API 호출 기능을 사용하려는 경우에만 필요합니다. 로컬 API 호출의 경우 프로젝트 설정 외에 추가 구성이 필요하지 않습니다.
항상 API 키와 비밀번호를 안전하게 유지하는 것을 잊지 마세요!
결론: AI로 연구를 강화하기
이제 Gemini API로 구동되는 오픈 소스 심층 연구 도구를 성공적으로 만들었습니다! 이는 연구 과정에서 AI의 전체 잠재력을 활용하는 데 큰 발걸음을 내딛는 것입니다.
자신만의 도구를 만들어 데이터 제어를 완전하게 하고, 워크플로를 개인화하며, 오픈 소스 커뮤니티에 기여하십시오. 다양한 연구 모델을 실험하고, Gemini API의 기능을 탐색하며, 진정으로 개인화된 연구 경험을 위해 사용자 정의 도구를 만들어 보세요.
연구의 미래는 지능적이고 개방적입니다. 오픈 소스 심층 연구를 수용하고 필요한 지식으로 자신을 강화하세요!
