Apidog

올인원 협업 API 개발 플랫폼

API 설계

API 문서

API 디버깅

API 모킹

API 자동화 테스트

Gemma 3을 Ollama로 로컬에서 실행하는 방법?

Young-jae

Young-jae

Updated on March 12, 2025

로컬에서 Gemma 3Ollama와 함께 실행하면 클라우드 서비스에 의존하지 않고 AI 환경을 완벽하게 제어할 수 있습니다. 이 가이드는 Ollama 설정, Gemma 3 다운로드 및 기기에서 실행하는 방법을 안내합니다.

💡
아, 그리고 시작하기 전에, 이러한 프로젝트를 위한 API 상호작용을 간소화하고 싶다면, Gemma 3 및 그 이상의 API 테스트와 개발을 강화할 수 있는 Apidog를 무료로 다운로드하는 것을 놓치지 마세요!
버튼

시작해 봅시다.

왜 Ollama와 함께 Gemma 3을 로컬에서 실행하나요?

“왜 Gemma 3을 로컬에서 실행해야 하나요?” 설마! 몇 가지 설득력 있는 이유가 있습니다. 첫째, 로컬 배포는 데이터와 개인정보에 대한 완전한 제어를 제공합니다. 민감한 정보를 클라우드로 전송할 필요가 없습니다. 또한, 지속적인 API 사용료를 피할 수 있어 비용 효율적입니다. 게다가, Gemma 3의 효율성은 27B 모델조차도 단일 GPU에서 실행할 수 있게 하여, 보통 하드웨어를 가진 개발자들에게 접근 가능하게 만듭니다.

Ollama는 대형 언어 모델(LLMs)을 로컬에서 실행하기 위한 경량 플랫폼으로 이 과정을 간소화합니다. 모든 필요한 것 모델 가중치, 구성 및 의존성을 사용하기 쉬운 형식으로 패키징합니다. Gemma 3와 Ollama의 조합은 기기에서 애플리케이션을 조작하거나 구축하거나 AI 워크플로를 테스트하기에 완벽합니다. 그러니 소매를 걷어붙이고 시작합시다!

Gemma 3을 Ollama로 실행하기 위한 준비물

설정에 들어가기 전에 다음과 같은 전제 조건이 필요합니다:

  • 호환 가능한 기기: GPU가 있는 컴퓨터(NVIDIA가 최적화된 성능을 위해 바람직함) 또는 강력한 CPU가 필요합니다. 27B 모델은 상당한 리소스를 요구하지만, 1B 또는 4B와 같은 더 작은 버전은 덜 강력한 하드웨어에서 실행할 수 있습니다.
  • Ollama 설치됨: MacOS, Windows 및 Linux용 Ollama를 다운로드하여 설치합니다. ollama.com에서 받을 수 있습니다.
  • 기본 커맨드 라인 기술: 터미널이나 명령 프롬프트를 통해 Ollama와 상호작용합니다.
  • 인터넷 연결: 처음에는 Gemma 3 모델을 다운로드해야 하지만, 다운로드가 완료되면 오프라인에서도 실행할 수 있습니다.
  • 선택 사항: API 테스트를 위한 Apidog: Gemma 3을 API와 통합하거나 프로그래밍적으로 응답을 테스트할 계획이라면, Apidog의 직관적인 인터페이스가 시간과 노력을 절약할 수 있습니다.

이제 장비를 갖추었으니 설치 및 설정 프로세스를 시작해 봅시다.

단계별 가이드: Ollama 설치 및 Gemma 3 다운로드

1. 기기에 Ollama 설치하기

Ollama는 로컬 LLM 배포를 쉽게 진행할 수 있도록 하며, 설치는 간단합니다. 방법은 다음과 같습니다:

  • MacOS/Windows용: ollama.com를 방문하여 운영 체제에 맞는 설치 프로그램을 다운로드합니다. 화면의 지시를 따라 설치를 완료합니다.
  • Linux(예: Ubuntu)용: 터미널을 열고 다음 명령을 실행합니다:
curl -fsSL https://ollama.com/install.sh | sh

이 스크립트는 하드웨어(여기에는 GPU 포함)를 자동으로 감지하고 Ollama를 설치합니다.

설치 후, 다음 명령을 실행하여 설치를 확인합니다:

ollama --version

현재 버전 번호가 표시되어야 하며, Ollama가 준비되었음을 확인할 수 있습니다.

2. Ollama를 사용하여 Gemma 3 모델 다운로드하기

Ollama의 모델 라이브러리에는 Hugging Face 및 Google의 AI 제공과 같은 플랫폼과의 통합 덕분에 Gemma 3이 포함되어 있습니다. Gemma 3을 다운로드하려면 ollama pull 명령을 사용합니다.

ollama pull gemma3

더 작은 모델의 경우 다음을 사용할 수 있습니다:

  • ollama pull gemma3:12b
  • ollama pull gemma3:4b
  • ollama pull gemma3:1b

다운로드 크기는 모델에 따라 다르며, 27B 모델은 수 기가바이트로 예상되므로 충분한 저장 공간이 있는지 확인하세요. Gemma 3 모델은 효율성에 최적화되어 있지만, 더 큰 변형에 대해선 괜찮은 하드웨어가 필요합니다.

3. 설치 확인하기

다운로드가 완료되면, 모든 모델을 나열하여 모델이 사용 가능한지 확인합니다:

ollama list

목록에 gemma3(또는 선택한 크기)가 표시되어야 합니다. 있다면, 이제 Gemma 3을 로컬에서 실행할 준비가 되었습니다!

Ollama와 함께 Gemma 3 실행하기: 인터랙티브 모드 및 API 통합

인터랙티브 모드: Gemma 3와 대화하기

Ollama의 인터랙티브 모드를 사용하면 터미널에서 직접 Gemma 3과 대화할 수 있습니다. 시작하려면 다음 명령을 실행합니다:

ollama run gemma3

쿼리를 입력할 수 있는 프롬프트가 표시됩니다. 예를 들어, 다음을 시도해 보세요:

Gemma 3의 주요 기능은 무엇인가요?

Gemma 3는 128K 컨텍스트 윈도우와 다중 모드 기능을 통해 상세하고 상황 인식이 가능한 답변으로 응답합니다. 140개 이상의 언어를 지원하며, 텍스트, 이미지 및 특정 크기의 비디오 입력을 처리할 수 있습니다.

종료하려면 Ctrl+D 또는 /bye를 입력하세요.

Ollama API와 Gemma 3 통합하기

응용 프로그램을 구축하거나 상호작용을 자동화하려는 경우, Ollama는 사용할 수 있는 API를 제공합니다. Apidog는 사용자가 API 요청을 효율적으로 테스트하고 관리할 수 있도록 돕는 사용자 친화적인 인터페이스가 돋보입니다. 시작하려면 다음과 같이 하십시오:

Ollama 서버 시작하기: 다음 명령을 실행하여 Ollama의 API 서버를 시작합니다:

ollama serve

기본적으로 localhost:11434에서 서버가 시작됩니다.

API 요청하기: HTTP 요청을 통해 Gemma 3과 상호작용할 수 있습니다. 예를 들어, 다음 curl 명령을 사용하여 프롬프트를 전송하세요:

curl http://localhost:11434/api/generate -d '{"model": "gemma3", "prompt": "프랑스의 수도는 어디인가요?"}'

응답에는 JSON 형식으로 Gemma 3의 출력이 포함됩니다.

테스트를 위해 Apidog 사용하기: Apidog를 무료로 다운로드하고 Gemma 3의 응답을 테스트하기 위한 API 요청을 생성하세요. Apidog의 시각적 인터페이스를 통해 엔드포인트(http://localhost:11434/api/generate)를 입력하고 JSON 페이로드를 설정하며 복잡한 코드를 작성하지 않고도 응답을 분석할 수 있습니다. 이는 디버깅과 통합을 최적화하는 데 특히 유용합니다.

버튼

Apidog에서 SSE 테스트 사용하기 위한 단계별 가이드

Apidog에서 최적화된 SSE 테스트 기능을 사용하여 새로운 자동 병합 기능을 최대한 활용하는 방법을 안내합니다. 실시간 디버깅 경험을 극대화하기 위한 설정 및 최적화 단계는 다음과 같습니다.

버튼

1단계: 새로운 API 요청 만들기

Apidog에서 새로운 HTTP 프로젝트를 시작합니다. 새로운 엔드포인트를 추가하고 API 또는 AI 모델의 엔드포인트 URL을 입력하세요. 이는 실시간 데이터 스트림을 테스트하고 디버깅하기 위한 출발점입니다.

Apidog에서 새 엔드포인트 생성

2단계: 요청 전송하기

엔드포인트 설정이 완료되면 API 요청을 전송하세요. 응답 헤더를 주의 깊게 관찰하세요. 헤더에 Content-Type: text/event-stream가 포함되어 있다면, Apidog가 자동으로 응답을 SSE 스트림으로 인식하고 해석합니다. 이 감지는 후속 자동 병합 프로세스에 중요합니다.

Apidog을 사용하여 API 요청 전송

3단계: 실시간 타임라인 모니터링하기

SSE 연결이 설정되면 Apidog는 모든 수신 SSE 이벤트가 실시간으로 표시되는 전용 타임라인 뷰를 엽니다. 이 타임라인은 새로운 데이터가 도착할 때마다 지속적으로 업데이트되어 데이터 흐름을 정확하게 모니터링할 수 있습니다. 타임라인은 단순한 데이터 덤프가 아니라 데이터 전송 시각화를 돕는 정교하게 구성된 구조입니다.

흐름 API 응답 보기

4단계: 자동 병합 메시지

여기서 마법이 일어납니다. 자동 병합 기능으로 Apidog는 인기 있는 AI 모델 형식을 자동으로 인식하고 단편화된 SSE 응답을 완전한 응답으로 병합합니다. 이 단계는 다음과 같습니다:

  • 자동 인식: Apidog는 응답이 지원되는 형식인지(OpenAI, Gemini 또는 Claude) 확인합니다.
  • 메시지 병합: 형식이 인식되면 플랫폼은 모든 SSE 조각을 자동으로 결합하여 원활하고 완전한 응답을 제공합니다.
  • 향상된 시각화: 특정 AI 모델(예: DeepSeek R1)의 경우 타임라인은 모델의 사고 과정을 표시하여 생성된 응답 뒤에 있는 추론에 대한 추가적 통찰을 제공합니다.
스트리밍된 API 응답 자동 병합

이 기능은 AI 기반 응용 프로그램을 처리할 때 특히 유용하여 응답의 모든 부분이 수작업 개입 없이 포착되고 전체적으로 제시됩니다.

5단계: JSONPath 추출 규칙 구성하기

모든 SSE 응답이 기본 형식에 자동으로 따르지는 않습니다. 사용자 정의 추출이 필요한 JSON 응답을 처리할 때 Apidog는 JSONPath 규칙을 구성할 수 있게 해줍니다. 예를 들어, 원시 SSE 응답에 JSON 객체가 포함되어 있고 content 필드를 추출해야 한다면, 다음과 같이 JSONPath 구성을 설정할 수 있습니다:

  • JSONPath: $.choices[0].message.content
  • 설명:
  • $는 JSON 객체의 루트를 나타냅니다.
  • choices[0]choices 배열의 첫 번째 요소를 선택합니다.
  • message.content는 메시지 객체 내의 내용 필드를 지정합니다.

이 구성은 Apidog에 원하는 데이터를 SSE 응답에서 추출하는 방법을 지시하며, 비표준 응답을 효과적으로 처리할 수 있게 해줍니다.

결론

Ollama와 함께 Gemma 3을 로컬에서 실행하는 것은 Google의 고급 AI 기능을 당신의 기기에서 직접 활용할 수 있는 흥미로운 방법입니다. Ollama 설치 및 모델 다운로드부터 터미널이나 API를 통한 상호작용까지 이 가이드는 모든 단계를 안내했습니다. 다중 모드 기능, 다국어 지원, 놀라운 성능을 갖춘 Gemma 3은 개발자와 AI 애호가 모두에게 혁신적인 게임 체인저입니다. API 테스트와 통합을 원활하게 하기 위해 Apidog와 같은 도구를 활용하는 것을 잊지 마세요. 오늘 무료로 다운로드하여 Gemma 3 프로젝트를 향상시키세요!

버튼

당신이 노트북에서 1B 모델을 다루고 있든 GPU 장비에서 27B 모델의 한계를 넘보고 있든, 이제 가능성을 탐험할 준비가 되었습니다. 즐거운 코딩 되세요, 그리고 Gemma 3로 무엇을 만들어 낼 수 있을지 기대해 봅시다!