Gemini API ของ Google ตอนนี้มีโหมด Batch Mode ซึ่งเป็นการอัปเดตที่ปฏิวัติวงการ ออกแบบมาสำหรับงานขนาดใหญ่ที่ต้องประมวลผลแบบอะซิงโครนัส พร้อมลดต้นทุนลง 50% 🚀
- ปลายทางอันทรงพลังนี้ช่วยให้คุณสามารถประมวลผลงานขนาดใหญ่ได้อย่างมหาศาล โดยจะได้รับผลลัพธ์ภายใน 24 ชั่วโมง และทั้งหมดนี้ในราคาเพียงครึ่งเดียวของราคา API มาตรฐาน
- ระบบนี้ถูกออกแบบมาสำหรับปริมาณงานที่สูง รองรับไฟล์ JSONL ขนาดสูงสุด 2GB และใช้ประโยชน์จากการเพิ่มประสิทธิภาพ เช่น Context Caching เพื่อเพิ่มประสิทธิภาพที่ดียิ่งขึ้น
- นอกจากนี้ยังรองรับเครื่องมือในตัว เช่น Google Search และจัดการผ่าน API ที่เรียบง่ายสำหรับการสร้าง ลบ และเรียกคืนงาน ทำให้การประมวลผล AI ขนาดใหญ่มีราคาที่เข้าถึงได้และตรงไปตรงมามากขึ้น
มาดู Google Gemini API Batch Mode ใหม่กันอย่างใกล้ชิด!
ต้องการแพลตฟอร์มแบบครบวงจรสำหรับทีมพัฒนาของคุณเพื่อทำงานร่วมกันด้วย ประสิทธิภาพสูงสุด หรือไม่?
Apidog ตอบสนองทุกความต้องการของคุณ และ แทนที่ Postman ในราคาที่ย่อมเยาลงมาก!
ราคาของ Gemini API Batch Mode
ประโยชน์หลักของ Gemini API Batch Mode คือการลดต้นทุนลงอย่างมาก งานทั้งหมดที่ส่งผ่านปลายทางนี้มีราคา ลดลง 50% จากอัตรามาตรฐาน สำหรับโมเดลที่เทียบเท่ากันที่ใช้ในการเรียกแบบซิงโครนัส (เรียลไทม์)
ส่วนลด 50% นี้ใช้โดยตรงกับโครงสร้างราคาต่อโทเค็น ไม่ว่าคุณจะใช้ gemini-2.5-pro
, gemini-2.5-flash
หรือโมเดลอื่น ๆ ที่รองรับ ค่าใช้จ่ายสำหรับทั้งโทเค็นอินพุตและเอาต์พุตจะลดลงครึ่งหนึ่งเมื่อประมวลผลผ่านงานแบบแบตช์ รูปแบบการกำหนดราคานี้ทำให้สามารถดำเนินการงานขนาดใหญ่ได้อย่างคุ้มค่า เช่น การวิเคราะห์ข้อมูลข้อความขนาดเทราไบต์ หรือการสร้างเนื้อหาสำหรับแคตตาล็อกผลิตภัณฑ์ทั้งหมด ซึ่งอาจมีต้นทุนสูงเกินไปหากใช้ API มาตรฐาน ค่าใช้จ่ายยังคงคำนวณตามจำนวนโทเค็นในอินพุตและเอาต์พุตที่สร้างขึ้น แต่เป็นอัตราต่อโทเค็นที่ได้รับการลดราคา
วิธีใช้ Gemini API Batch Mode: คำแนะนำทีละขั้นตอน
ขั้นตอนการทำงานสำหรับ Gemini API Batch Mode ได้รับการออกแบบให้ตรงไปตรงมา โดยเกี่ยวข้องกับการเตรียมไฟล์ การสร้างงาน และการเรียกคืนผลลัพธ์ ส่วนต่อไปนี้ให้คำแนะนำเชิงปฏิบัติโดยใช้ Google GenAI Python SDK

ขั้นตอนที่ 1: การเตรียมไฟล์อินพุตของคุณสำหรับ Gemini API Batch Mode
Gemini API Batch Mode ประมวลผลคำขอจากไฟล์ JSON Lines (JSONL) แต่ละบรรทัดในไฟล์ต้องเป็นออบเจกต์ JSON ที่ถูกต้องซึ่งแสดงถึงคำขอเดียวที่ครบถ้วนสมบูรณ์ ไฟล์สามารถมีขนาดได้สูงสุด 2GB
แต่ละออบเจกต์ JSON ในไฟล์ต้องมีสองฟิลด์:
key
: ตัวระบุสตริงที่ไม่ซ้ำกัน (ที่คุณเลือก) สำหรับแต่ละคำขอ ซึ่งใช้เพื่อเชื่อมโยงคำขอกับผลลัพธ์request
: เพย์โหลดคำขอ ซึ่งมีโครงสร้างเหมือนกับคำขอที่ส่งไปยัง Gemini API แบบซิงโครนัส โดยมีฟิลด์contents
ที่มีพรอมต์ของโมเดล
ตัวอย่าง batch_requests.jsonl
:
{"key": "request_1", "request": {"contents": [{"parts": [{"text": "Explain how AI works in a few words"}]}]}}
{"key": "request_2", "request": {"contents": [{"parts": [{"text": "Summarize the key benefits of context caching in LLMs."}]}]}}
{"key": "request_3", "request": {"contents": [{"parts": [{"text": "Write a python function to reverse a string."}]}]}}
ขั้นตอนที่ 2: ขั้นตอนการทำงานของการเขียนโปรแกรมสำหรับ Gemini API Batch Mode
Python SDK ช่วยให้กระบวนการโต้ตอบกับปลายทางแบบแบตช์ง่ายขึ้นด้วยการเรียกใช้ฟังก์ชันหลักไม่กี่ครั้ง
อัปโหลดไฟล์อินพุต: ก่อนอื่น คุณต้องอัปโหลดไฟล์ JSONL ของคุณไปยังบริการไฟล์ของ Google ซึ่งจะส่งคืนออบเจกต์ไฟล์ที่คุณจะอ้างอิงเมื่อสร้างงาน
import google.generativeai as genai
# ขอแนะนำให้กำหนดค่าคีย์ API ของคุณเป็นตัวแปรสภาพแวดล้อม
# genai.configure(api_key="YOUR_API_KEY")
uploaded_batch_requests = genai.upload_file(path="batch_requests.jsonl")
สร้างงานแบตช์: เมื่ออัปโหลดไฟล์แล้ว คุณสามารถสร้างงานแบตช์ได้ การเรียกนี้ต้องระบุโมเดลที่คุณต้องการใช้และระบุไฟล์ที่อัปโหลดเป็นแหล่งที่มาของคำขอ
batch_job = genai.create_batch_job(
model="gemini-2.5-flash", # หรือ "gemini-2.5-pro", เป็นต้น
requests=uploaded_batch_requests,
config={
'display_name': "MyFirstBatchJob-1",
},
)
print(f"สร้างงานแบตช์: {batch_job.name}")
print(f"สถานะเริ่มต้น: {batch_job.state.name}")
ฟังก์ชันนี้จะส่งคืนทันที โดยระบุชื่อของงานและสถานะเริ่มต้น ซึ่งโดยทั่วไปคือ JOB_STATE_PENDING
ขั้นตอนที่ 3: การจัดการและตรวจสอบงานใน Gemini API Batch Mode
เนื่องจากงานแบตช์เป็นแบบอะซิงโครนัส คุณจึงต้องตรวจสอบสถานะของงาน คุณสามารถเรียกสถานะปัจจุบันของงานได้ตลอดเวลาโดยใช้ชื่อของงาน งานรับประกันว่าจะเสร็จสมบูรณ์ภายใน 24 ชั่วโมง
สถานะงานที่เป็นไปได้คือ:
JOB_STATE_UNSPECIFIED
: สถานะเริ่มต้นJOB_STATE_PENDING
: งานถูกสร้างขึ้นและกำลังรอการประมวลผลJOB_STATE_RUNNING
: งานกำลังถูกประมวลผลอยู่JOB_STATE_SUCCEEDED
: งานเสร็จสมบูรณ์เรียบร้อยแล้วJOB_STATE_FAILED
: งานล้มเหลว ฟิลด์error
บนออบเจกต์งานจะประกอบด้วยข้อมูลการวินิจฉัยJOB_STATE_CANCELLING
: ได้รับคำขอยกเลิกแล้วJOB_STATE_CANCELLED
: งานถูกยกเลิกแล้ว
ตัวอย่างการตรวจสอบสถานะงาน:
# ตรวจสอบสถานะหลังจากเวลาผ่านไป
retrieved_job = genai.get_batch_job(name=batch_job.name)
print(f"สถานะงานปัจจุบัน: {retrieved_job.state.name}")
ขั้นตอนที่ 4: การประมวลผลผลลัพธ์จาก Gemini API Batch Mode
เมื่อสถานะงานเป็น JOB_STATE_SUCCEEDED
ผลลัพธ์จะพร้อมให้ดาวน์โหลดเป็นไฟล์ JSONL แต่ละบรรทัดในไฟล์เอาต์พุตจะสอดคล้องกับคำขอจากไฟล์อินพุต
ออบเจกต์ JSON เอาต์พุตประกอบด้วย key
จากคำขอเดิมและออบเจกต์ response
ที่มีเอาต์พุตของโมเดล
- ดาวน์โหลดไฟล์ผลลัพธ์:
if retrieved_job.state.name == 'JOB_STATE_SUCCEEDED':
result_file_metadata = retrieved_job.result_file
result_file_content_bytes = genai.download_file(name=result_file_metadata.name).read()
# ถอดรหัสและประมวลผลผลลัพธ์
file_content = result_file_content_bytes.decode('utf-8')
for line in file_content.splitlines():
print(line)
elif retrieved_job.state.name == 'JOB_STATE_FAILED':
print(f"งานล้มเหลวพร้อมข้อผิดพลาด: {retrieved_job.error}")
ตัวอย่างบรรทัดไฟล์เอาต์พุต:
{"key": "request_1", "response": {"candidates": [{"content": {"parts": [{"text": "Artificial intelligence enables machines to learn and reason."}]}}]}}
คุณสามารถแยกวิเคราะห์ไฟล์นี้ โดยใช้ key
เพื่อจับคู่แต่ละการตอบสนองกับพรอมต์ดั้งเดิม
ฟังก์ชันการทำงานขั้นสูงใน Gemini API Batch Mode
Gemini API Batch Mode ยังรองรับคุณสมบัติขั้นสูงเพิ่มเติมสำหรับการเพิ่มประสิทธิภาพขั้นตอนการทำงานขนาดใหญ่
Context Caching ด้วย Gemini API Batch Mode
สำหรับงานที่เกี่ยวข้องกับบริบทขนาดใหญ่ที่ใช้ร่วมกัน (เช่น เอกสารขนาดยาวที่คุณต้องการถามคำถามหลายข้อ) คุณสามารถใช้ Context Caching ได้ คุณสมบัตินี้ช่วยให้คุณสามารถแคชบริบทที่ใช้ร่วมกันได้ ดังนั้นจึงไม่ต้องประมวลผลซ้ำกับทุกคำขอในแบตช์ ซึ่งสามารถนำไปสู่การประหยัดต้นทุนที่สำคัญและเวลาในการประมวลผลที่เร็วขึ้นโดยการลดจำนวนโทเค็นทั้งหมดที่ประมวลผล
การใช้เครื่องมือในตัวกับ Gemini API Batch Mode
งานแบบแบตช์รองรับการใช้เครื่องมือ รวมถึงฟังก์ชัน Google Search ในตัว ซึ่งช่วยให้คุณสามารถทำงานขนาดใหญ่ที่ต้องให้โมเดลเข้าถึงและประมวลผลข้อมูลแบบเรียลไทม์จากเว็บได้ ตัวอย่างเช่น งานแบบแบตช์สามารถกำหนดค่าให้วิเคราะห์ URL นับพันและสรุปเนื้อหาได้
Google ได้เน้นย้ำถึงองค์กรหลายแห่งที่ใช้ฟังก์ชันนี้แล้ว:
- Reforged Labs ใช้ Gemini API Batch Mode เพื่อวิเคราะห์และติดป้ายโฆษณาวิดีโอจำนวนมาก ลดต้นทุนและเร่งขั้นตอนการทำงาน
- Vals AI ใช้ปริมาณงานที่สูงของ Batch Mode เพื่อเปรียบเทียบโมเดลพื้นฐานด้วยคำขอประเมินจำนวนมาก โดยข้ามข้อจำกัดอัตราของ API แบบซิงโครนัส
สรุป: คุณค่าทางเทคนิคของ Gemini API Batch Mode
Gemini API Batch Mode มอบโซลูชันที่แข็งแกร่งทางเทคนิคและได้เปรียบทางการเงินสำหรับการประมวลผล AI แบบอะซิงโครนัสขนาดใหญ่ ด้วยการลดต้นทุนลง 50% ขั้นตอนการทำงานแบบไฟล์ที่เรียบง่าย และการสนับสนุนคุณสมบัติขั้นสูง เช่น การแคชบริบทและการใช้เครื่องมือ จึงช่วยขจัดอุปสรรคทางวิศวกรรมและการเงินที่เกี่ยวข้องกับงาน AI ที่มีปริมาณงานสูง เป็นเครื่องมือสำคัญสำหรับนักพัฒนาและองค์กรที่ต้องการใช้ประโยชน์จากพลังเต็มที่ของโมเดล Gemini บนชุดข้อมูลขนาดใหญ่
ต้องการแพลตฟอร์มแบบครบวงจรสำหรับทีมพัฒนาของคุณเพื่อทำงานร่วมกันด้วย ประสิทธิภาพสูงสุด หรือไม่?
Apidog ตอบสนองทุกความต้องการของคุณ และ แทนที่ Postman ในราคาที่ย่อมเยาลงมาก!