Gemini 3.1 Pro API 사용법

Ashley Innocent

Ashley Innocent

19 February 2026

Gemini 3.1 Pro API 사용법

Google은 Gemini 3.1 Pro를 현재까지 가장 강력한 모델로 출시했습니다. 엔지니어는 Gemini API를 통해 이 미리 보기 모델에 액세스하여 이전 세대가 덜 효과적으로 처리했던 복잡한 추론, 다중 모드 이해 및 에이전트 워크플로를 처리합니다. Gemini 3.1 Pro API를 통합하는 개발자는 프로덕션 시스템을 위한 낮은 지연 시간을 유지하면서 1백만 입력 토큰 및 64k 출력 토큰에 걸쳐 최첨단 성능을 얻을 수 있습니다.

💡
Gemini 3.1 Pro API 통합 테스트를 간소화하려면 오늘 Apidog를 무료로 다운로드하세요. 이 최신 API 클라이언트를 사용하면 요청을 시각적으로 구성하고, 다중 모드 테스트를 위해 이미지 또는 PDF를 업로드하고, 스트리밍된 응답을 검사하고, 여러 언어로 SDK 코드를 자동으로 생성할 수 있습니다. Apidog를 사용하는 전문가는 플랫폼이 최신 개발 워크플로에 적합한 깔끔한 인터페이스로 인증 헤더, JSON 스키마 및 파일 인코딩을 처리하므로 디버깅 시간을 크게 줄일 수 있습니다.
버튼

공식 모델 식별자 gemini-3.1-pro-preview로 여정을 시작합니다. Google은 이 엔드포인트를 https://generativelanguage.googleapis.com/v1beta/models/gemini-3.1-pro-preview:generateContent에서 호스팅합니다. API는 복잡성을 추상화하면서 완전한 제어를 유지하는 REST 호출과 공식 SDK를 모두 지원합니다.

Gemini 3.1 Pro 이해하기: AI 통합을 재정의하는 기능

Gemini 3.1 Pro는 기본 동적 사고, 향상된 도구 사용 및 우수한 다중 모드 융합을 통해 이전 모델을 뛰어넘습니다. 이 모델은 동일한 컨텍스트 창 내에서 텍스트, 고해상도 이미지, 비디오 프레임, 최대 1000페이지의 PDF 및 코드를 동시에 처리합니다. 따라서 엔지니어는 광범위한 프롬프트 엔지니어링 없이도 더 일관된 다단계 추론을 달성합니다.

Gemini 3.1 Pro 벤치마크

또한 이 모델은 thinking_level 구성을 도입합니다. 이 매개변수를 심층 분석 작업의 경우 high로, 처리량이 많은 시나리오의 경우 low로 설정합니다. 기본 high 수준은 내부 사고 연쇄 메커니즘을 자동으로 활성화하므로 명시적인 추론 지침을 작성하는 데 시간을 덜 소비합니다.

또한 Gemini 3.1 Pro는 사고 시그니처를 지원합니다. 이러한 암호화된 문자열은 함수 호출을 이미지 생성 또는 편집과 결합할 때 대화 상태를 라운드 간에 유지합니다. 후속 요청에 정확한 thoughtSignature 값을 포함해야 합니다. 그렇지 않으면 API가 400 오류를 반환합니다. 이 메커니즘은 장기 실행 에이전트 루프에서 결정론적 동작을 보장합니다.

지식 절단 시점은 2025년 1월입니다. 따라서 모델을 내장된 Google 검색 도구와 페어링하여 최신 정보를 검색합니다. 이 조합은 수동 검색 증강 생성 파이프라인 없이도 근거 있고 최신 응답을 생성합니다.

Gemini 3.1 Pro API 작업을 위한 전제 조건

코드를 작성하기 전에 환경을 준비합니다. 먼저 Google AI Studio에 액세스할 수 있는 Google 계정이 필요합니다. 둘째, 미리 보기 모델은 무료 티어에서 엄격한 속도 제한을 적용하므로 연결된 Google Cloud 프로젝트에서 결제가 활성화되었는지 확인합니다. 셋째, 선호하는 스택에 따라 Python 3.9+ 또는 Node.js 18+를 설치합니다.

또한 대규모 다중 모드 페이로드를 위한 저장 공간을 할당합니다. 비디오 파일과 고해상도 이미지는 토큰을 빠르게 소비하므로 AI Studio 대시보드를 통해 사용량을 모니터링합니다. 미리 계획하는 전문가는 개발 중에 예기치 않은 할당량 오류를 방지합니다.

Gemini API 키 얻기 및 보안

Google AI Studio로 이동하여 “API 키 가져오기”를 클릭합니다. 콘솔은 프로젝트에 연결된 새 키를 생성합니다. UI에 한 번만 표시되므로 즉시 키를 복사합니다.

키를 환경 변수 GEMINI_API_KEY로 저장합니다. 이 방법은 자격 증명을 소스 코드에서 분리하고 운영 체제 전반에서 원활한 SDK 초기화를 가능하게 합니다. Linux 또는 macOS에서는 다음을 실행합니다:

export GEMINI_API_KEY=your_actual_key_here

Windows에서는 다음을 사용합니다:

set GEMINI_API_KEY=your_actual_key_here

프로덕션 배포의 경우 키를 정기적으로 교체하고 Google Cloud IAM 정책을 통해 제한합니다. 공격자가 무단 토큰 소비에 악용할 수 있으므로 클라이언트 측 JavaScript에서 키를 절대 노출하지 마십시오.

공식 Google GenAI SDK 설치

SDK는 HTTP 세부 정보를 추상화하고 타입 안전 인터페이스를 제공합니다. 다음 명령으로 최신 버전을 설치합니다:

Python

pip install -U google-genai

Node.js

npm install @google/genai

패키지는 환경에서 GEMINI_API_KEY를 자동으로 읽습니다. 명시적인 구성을 선호하는 경우 클라이언트 인스턴스화 중에 키를 전달합니다. 이러한 유연성은 환경 변수가 불변하는 로컬 개발 및 컨테이너화된 환경을 모두 지원합니다.

Gemini 3.1 Pro API로 첫 호출하기

클라이언트를 초기화하고 간단한 텍스트 프롬프트를 전송하여 연결을 확인합니다.

Python 예시

from google import genai
from google.genai import types

client = genai.Client()

response = client.models.generate_content(
    model="gemini-3.1-pro-preview",
    contents="Explain the differences between Gemini 3.1 Pro and previous models in technical terms.",
    config=types.GenerateContentConfig(
        thinking_level="high"
    )
)

print(response.text)

응답 객체에는 생성된 텍스트와 사용량 메타데이터가 포함됩니다. response.usage_metadata를 검사하여 비용 최적화를 위한 토큰 소비를 추적합니다.

cURL 동등 (Apidog 테스트에 유용)

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-3.1-pro-preview:generateContent" \
  -H "x-goog-api-key: $GEMINI_API_KEY" \
  -H "Content-Type: application/json" \
  -X POST \
  -d '{
    "contents": [{
      "parts": [{"text": "Explain the differences between Gemini 3.1 Pro and previous models in technical terms."}]
    }],
    "generationConfig": {
      "thinking_level": "high"
    }
  }'

이 요청을 Apidog에 직접 붙여넣습니다. 플랫폼은 JSON을 구문 분석하고, 구문을 강조 표시하며, 다른 키를 사용하여 환경 간을 전환할 수 있도록 합니다. 결과적으로 코드 변경을 커밋하기 전에 헤더와 페이로드를 검증할 수 있습니다.

JavaScript 예시

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({});

async function main() {
  const response = await ai.models.generateContent({
    model: "gemini-3.1-pro-preview",
    contents: "Explain the differences between Gemini 3.1 Pro and previous models in technical terms.",
    config: { thinking_level: "high" }
  });
  console.log(response.text);
}

main();

이 스니펫을 실행하고 일관되고 기술적으로 정확한 답변을 확인합니다. 이 모델은 향상된 미디어 해상도 제어 및 기본 도구 오케스트레이션과 같은 아키텍처 개선 사항을 참조합니다.

핵심 엔드포인트 및 요청 구조 탐색

Gemini API는 generateContent, streamGenerateContent, countTokens의 세 가지 주요 메서드를 중심으로 합니다. 동기 응답에는 generateContent를 사용하고, 사용자에게 부분 출력을 즉시 표시할 때는 streamGenerateContent를 사용합니다.

요청 본문은 일관된 구조를 따릅니다:

JSON 스키마를 사용하여 사용자 지정 함수를 정의합니다. 그러면 모델은 로컬에서 실행하고 functionResponse 부분으로 반환하는 functionCall 부분을 내보냅니다. 이 폐쇄 루프는 외부 API 또는 데이터베이스와 상호 작용하는 자율 에이전트를 구동합니다.

Apidog는 OpenAPI 사양을 가져오거나 스키마를 수동으로 빌드할 수 있기 때문에 이 부분에서 탁월합니다. 이 도구는 모델의 예상 형식에 대해 함수 선언을 검증하고 설계 시에 응답을 시뮬레이션하기도 합니다.

프로덕션 신뢰성을 위한 생성 매개변수 구성

generationConfig 객체를 통해 동작을 세부 조정합니다. Google은 temperature를 1.0으로 유지할 것을 권장합니다. 낮은 값은 Gemini 3 시리즈 모델의 추론 품질을 저하시키기 때문입니다. 대신 thinking_level을 조정하여 지연 시간과 깊이의 균형을 맞춥니다.

주요 매개변수는 다음과 같습니다:

구조화된 출력을 도구와 결합하여 웹 검색 또는 코드 실행에서 깔끔한 JSON을 추출합니다. 예를 들어, 항공편 옵션 목록을 요청하고, 구문 분석된 객체를 받은 다음, 정규식이나 수동 구문 분석 없이 백엔드 로직으로 직접 전달합니다.

다중 모드 기능 활용

Gemini 3.1 Pro는 이미지, 비디오 및 문서를 기본적으로 처리합니다. 파일 데이터는 base64 인라인으로 또는 대규모 업로드의 경우 File API를 통해 포함합니다.

Python 다중 모드 예시

import base64
from google import genai
from google.genai import types

client = genai.Client()

# Read image
with open("diagram.png", "rb") as f:
    image_bytes = f.read()

response = client.models.generate_content(
    model="gemini-3.1-pro-preview",
    contents=[
        types.Content(
            role="user",
            parts=[
                types.Part(text="Analyze this system architecture diagram and suggest optimizations."),
                types.Part(
                    inline_data=types.Blob(
                        mime_type="image/png",
                        data=image_bytes
                    )
                )
            ]
        )
    ],
    config=types.GenerateContentConfig(
        media_resolution="media_resolution_high"  # v1alpha endpoint if needed
    )
)

print(response.text)

프레임을 추출하거나 짧은 클립을 직접 전송하여 비디오를 업로드합니다. 모델은 시간 순서를 이해하고 프레임 간의 동작에 대한 질문에 답합니다. 따라서 전문가는 별도의 컴퓨터 비전 파이프라인 없이도 비디오 분석 도구를 구축합니다.

Apidog는 이러한 테스트를 단순화합니다. 이미지 또는 PDF 파일을 요청 본문으로 드래그 앤 드롭하고 올바른 MIME 유형을 선택한 다음 즉시 요청을 보냅니다. 플랫폼은 렌더링된 미리 보기를 표시하고 코드를 다시 작성하지 않고도 프롬프트를 반복할 수 있도록 합니다.

함수 호출 및 도구 사용 구현

에이전트 동작을 활성화하려면 구성에 도구를 선언합니다. 지원되는 내장 도구에는 google_search, code_execution, url_context 및 사용자 지정 함수가 포함됩니다.

구조화된 도구 예시

from pydantic import BaseModel, Field
from typing import List

class WeatherData(BaseModel):
    city: str = Field(description="City name")
    temperature: float
    condition: str

response = client.models.generate_content(
    model="gemini-3.1-pro-preview",
    contents="Fetch current weather for Tokyo and return structured data.",
    config={
        "tools": [{"google_search": {}}],
        "response_mime_type": "application/json",
        "response_json_schema": WeatherData.model_json_schema()
    }
)

data = WeatherData.model_validate_json(response.text)
print(data)

모델은 내부적으로 검색 도구를 호출하고 결과를 처리하며 유효성이 검사된 JSON을 반환합니다. 여러 도구를 라운드에 걸쳐 연결하여 여행 예약, 보고서 분석 또는 외부 시스템 제어를 수행하는 정교한 에이전트를 만들 수 있습니다.

사고 시그니처는 연속성을 보장합니다. 각 모델 응답에서 시그니처를 복사하여 함수 호출이 발생할 때 다음 사용자 메시지에 포함합니다. 이 요구 사항은 긴 대화에서 컨텍스트 이탈을 방지합니다.

Apidog로 효율적으로 테스트 및 디버깅하기

Apidog를 열고 “Gemini 3.1 Pro 통합”이라는 새 프로젝트를 만듭니다. API 키에 대한 전역 변수를 추가하고 기본 URL을 생성 언어 엔드포인트로 설정합니다.

Apidog 인터페이스

다음으로 텍스트 전용, 다중 모드, 함수 호출 및 스트리밍과 같은 다양한 시나리오에 대한 컬렉션을 만듭니다. Apidog는 저장된 각 요청에서 cURL, Python 및 JavaScript 스니펫을 자동으로 생성합니다. 따라서 팀 전체가 참조할 수 있는 최신 문서 세트를 유지할 수 있습니다.

오류가 발생하면 Apidog는 문제를 일으킨 정확한 헤더 또는 페이로드 필드를 강조 표시합니다. 모델 버전 또는 사고 수준에 따라 응답을 나란히 비교합니다. 플랫폼은 또한 타임스탬프와 토큰 사용량이 포함된 요청 기록을 기록하여 프로덕션 배포 전에 정확한 비용 모델을 구축하는 데 도움이 됩니다.

Apidog를 통합하는 전문가는 코드 편집기와 터미널 창 간의 컨텍스트 전환을 제거하므로 40-60% 더 빠른 반복 주기를 보고합니다. 무료 티어는 대부분의 개발 워크플로에 충분한 무제한 로컬 프로젝트 및 요청 볼륨을 지원합니다.

고급 기술: 스트리밍, 컨텍스트 캐싱 및 배치 처리

응답형 사용자 인터페이스를 위해 스트리밍을 활성화합니다.

Python 스트리밍

response = client.models.generate_content(
    model="gemini-3.1-pro-preview",
    contents="Write a detailed technical specification for a new microservice.",
    stream=True
)

for chunk in response:
    print(chunk.text, end="", flush=True)

SDK는 부분 응답을 생성하므로 텍스트가 도착하는 대로 표시합니다.

반복되는 긴 문서에 대해 컨텍스트 캐싱을 사용합니다. 500페이지짜리 PDF를 한 번 업로드하고, 처리된 컨텍스트를 캐시한 다음, 후속 호출에서 캐시 ID를 참조합니다. 이 기술은 엔터프라이즈 RAG 애플리케이션의 토큰 비용과 지연 시간을 크게 줄여줍니다.

배치 API 지원을 통해 단일 요청으로 여러 프롬프트를 처리할 수 있습니다. 따라서 속도 제한을 준수하면서 밤새 수천 개의 지원 티켓을 분석할 수 있습니다.

실제 사용 사례 및 프로덕션 준비 코드 샘플

사용 사례 1: 지능형 문서 분석기
계약을 수집하고, 조항을 추출하고, 위험을 표시하는 시스템을 구축합니다. 다중 모드 기능은 스캔된 PDF 내에서 테이블과 서명을 식별합니다.

사용 사례 2: 자율 코딩 도우미
code_execution 도구를 Gemini 3.1 Pro와 결합하여 단일 루프에서 코드를 디버그, 리팩토링 및 테스트합니다. 모델은 Python 코드를 작성하고, 실행하고, 출력 이미지 또는 로그를 검사하고, 작업이 완료될 때까지 반복합니다.

사용 사례 3: 다중 모드 고객 지원 에이전트
사용자는 오류 스크린샷을 업로드합니다. 에이전트는 이미지를 분석하고, 지식 기반을 검색하며, 이미지 모델을 통해 생성된 주석이 달린 스크린샷과 함께 단계별 수정 사항을 반환합니다.

각 사용 사례는 Apidog 프로토타입의 이점을 누립니다. 정확한 페이로드 구조를 설계하고, 샘플 파일로 엣지 케이스를 테스트하며, 즉시 사용 가능한 코드를 내보냅니다.

비용 제어 및 성능을 위한 모범 사례

모든 호출 후 토큰 사용량을 모니터링합니다. maxOutputTokens를 보수적으로 설정하고 비용이 많이 드는 작업 전에 countTokens 엔드포인트를 사용합니다. 복잡한 작업에만 gemini-3.1-pro-preview를 사용하고, 더 간단한 쿼리는 가능한 경우 더 가벼운 변형으로 라우팅합니다.

속도 제한 오류에 대해 지수 백오프를 구현합니다. 자주 사용되는 응답을 로컬 또는 Redis를 통해 캐시합니다. 스키마 드리프트를 조기에 감지하기 위해 항상 Pydantic 또는 동등한 라이브러리를 사용하여 구조화된 출력을 검증합니다.

보안은 여전히 가장 중요합니다. 사용자 입력을 모델로 보내기 전에 정리합니다. 도메인에 적합한 콘텐츠 안전 설정을 적용합니다. 익명화된 사용량 메트릭만 로깅합니다.

일반적인 문제 해결

할당량을 초과하면 오류 429 (리소스 소진)가 나타납니다. AI Studio 사용량 대시보드를 확인하고 Google Cloud 지원을 통해 더 높은 한도를 요청합니다.

오류 400 (잘못된 인수)은 종종 다단계 함수 호출에서 누락된 사고 시그니처에서 비롯됩니다. 모든 모델 응답 시그니처가 다음 요청에 다시 전달되는지 확인합니다.

파일 크기가 제한을 초과하면 다중 모드 요청이 실패합니다. 이미지를 압축하거나 지속적인 저장을 위해 File API를 사용합니다.

Apidog는 수정된 매개변수로 실패한 요청을 즉시 재생할 수 있으므로 이러한 문제를 격리하는 데 도움이 됩니다. 내장된 유효성 검사기는 코드를 실행하기도 전에 스키마 문제를 표시합니다.

Gemini API와 Vertex AI 비교

Gemini Developer API (ai.google.dev)는 가장 빠른 온보딩과 무료 티어 액세스를 제공합니다. Vertex AI는 VPC 서비스 제어, 비공개 엔드포인트 및 더욱 긴밀한 IAM 통합과 같은 엔터프라이즈 기능을 제공합니다. 클라이언트 초기화 및 모델 엔드포인트만 변경하여 한쪽에서 다른 쪽으로 마이그레이션할 수 있습니다. 요청 형식은 동일하게 유지됩니다.

대부분의 팀은 프로토타이핑 중에 개발자 API로 시작하여 프로덕션 전에 Vertex AI로 이동합니다. 전환에는 최소한의 코드 변경이 필요합니다.

결론

이제 Gemini 3.1 Pro API에 대한 완전한 기술 로드맵을 갖게 되었습니다. 모델 기능, 인증 흐름, SDK 통합, 고급 구성, 다중 모드 입력, 도구 오케스트레이션 및 프로덕션 모범 사례를 이해했습니다.

Gemini 3.1 Pro의 추론 능력과 Apidog의 시각적 테스트 환경이 결합되어 정교한 AI 기능을 그 어느 때보다 빠르게 출시할 수 있습니다. 텍스트 프롬프트로 작게 시작하여 다중 모드 에이전트로 확장하고 모니터링 및 캐싱 전략을 통해 자신 있게 확장합니다.

이 분야는 빠르게 발전하고 있습니다. ai.google.dev의 공식 문서를 북마크하고 Apidog 프로젝트를 정기적으로 다시 방문하여 새로운 기능을 통합하십시오.

다음 세대의 지능형 애플리케이션을 구축하는 데 필요한 모든 것을 갖추었습니다. 오늘 코딩을 시작하고, Apidog로 철저히 테스트하며, AI가 달성할 수 있는 한계를 뛰어넘으십시오.

지금 Gemini 3.1 Pro API로 구축을 시작하세요. Apidog를 무료로 다운로드하고 AI 통합을 개발하고 테스트하는 방식을 혁신하십시오.

버튼

Apidog에서 API 설계-첫 번째 연습

API를 더 쉽게 구축하고 사용하는 방법을 발견하세요