สัปดาห์โอเพนซอร์ส DeepSeek: สรุปทั้งหมด

DeepSeek เปิดตัว 5 โครงสร้างสุดล้ำใน 5 วัน เพื่อแก้ปัญหา AI สำคัญ สรุปกิจกรรม, ไฮไลท์, และโครงสร้างทั้งหมด

อาชว์

อาชว์

4 June 2025

สัปดาห์โอเพนซอร์ส DeepSeek: สรุปทั้งหมด

```html

DeepSeek Open Source Week จัดขึ้นระหว่างวันที่ 24 กุมภาพันธ์ ถึง 28 กุมภาพันธ์ 2025 ถือเป็นหมุดหมายสำคัญในชุมชน AI แบบโอเพนซอร์ส โครงการริเริ่มนี้ นำโดย DeepSeek ซึ่งเป็นสตาร์ทอัพด้าน AI ของจีน มีเป้าหมายที่จะทำให้เครื่องมือ AI ขั้นสูงเป็นประชาธิปไตย และส่งเสริมความร่วมมือระหว่างนักพัฒนาและนักวิจัยทั่วโลก ตลอดระยะเวลาห้าวัน DeepSeek ได้เปิดตัวคลังข้อมูล (repository) ที่ล้ำสมัยห้าแห่ง ซึ่งแต่ละแห่งได้รับการออกแบบมาเพื่อจัดการกับความท้าทายที่สำคัญในการพัฒนา AI ด้านล่างนี้คือบทสรุปโดยละเอียดของงาน ไฮไลท์ และคลังข้อมูลที่เปิดให้ใช้งาน

ภาพรวมของ DeepSeek Open Source Week

งานนี้ประกาศเมื่อวันที่ 21 กุมภาพันธ์ 2025 โดย DeepSeek เน้นย้ำถึงความมุ่งมั่นในการสร้างความโปร่งใสและนวัตกรรมที่ขับเคลื่อนโดยชุมชน บริษัทอธิบายโครงการริเริ่มนี้ว่าเป็นวิธีแบ่งปัน "บล็อกการสร้างที่เรียบง่าย" ของบริการออนไลน์ ซึ่งได้รับการบันทึก ปรับใช้ และทดสอบในสภาพแวดล้อมการผลิต การเปิดตัวมีเป้าหมายเพื่อเร่งการพัฒนา AI โดยการจัดหาเครื่องมือที่ช่วยเพิ่มประสิทธิภาพในการคำนวณ การเพิ่มประสิทธิภาพของโมเดล และการจัดการข้อมูลขนาดใหญ่

วัตถุประสงค์หลักของงานนี้ ได้แก่:

ชื่อคลังข้อมูลคำอธิบายลิงก์ GitHub
FlashMLAเคอร์เนลการถอดรหัส MLA ที่มีประสิทธิภาพสำหรับ Hopper GPUsFlashMLA
DeepEPไลบรารีการสื่อสารสำหรับโมเดล Mixture-of-ExpertsDeepEP
DeepGEMMไลบรารี Optimized General Matrix MultiplicationDeepGEMM
Optimized Parallelism Strategiesกรอบการทำงานสำหรับการเพิ่มประสิทธิภาพการทำงานแบบขนานในการเรียนรู้เชิงลึกแบบกระจายOptimized Parallelism Strategies
Fire-Flyer File System (3FS)ระบบไฟล์แบบกระจายที่ปรับให้เหมาะสมสำหรับเวิร์กโฟลว์การเรียนรู้ของเครื่องFire-Flyer File System
DeepSeek-V3/R1 Inference Systemระบบการอนุมานขนาดใหญ่โดยใช้ Expert Parallelism ข้ามโหนดDeepSeek-V3/R1 Inference System

เคล็ดลับ: เพิ่มพลังให้กับการพัฒนา API ของคุณ

ในขณะที่การเพิ่มประสิทธิภาพการเข้าถึงข้อมูลและการทำงานแบบขนานมีความสำคัญอย่างยิ่งสำหรับการประมวลผลประสิทธิภาพสูง อย่ามองข้ามความสำคัญของการ พัฒนาและทดสอบ API ที่มีประสิทธิภาพในเวิร์กโฟลว์ของคุณ นวัตกรรม โอเพนซอร์ส ของ DeepSeek เช่น DualPipe และ 3FS มอบการเพิ่มประสิทธิภาพที่น่าทึ่ง แต่การผสานรวมสิ่งเหล่านี้เข้ากับเครื่องมือ API ที่ทรงพลังสามารถปรับปรุงกระบวนการพัฒนาของคุณได้

สำหรับนักพัฒนาที่ต้องการเร่งการทดสอบ API Apidog เป็นเครื่องมือที่ต้องมีในชุดเครื่องมือของคุณ แพลตฟอร์มแบบครบวงจรของ Apidog ช่วยให้คุณสามารถ ออกแบบ, จัดทำเอกสาร, แก้ไขข้อบกพร่อง, จำลอง, และ ทดสอบ API ได้อย่างราบรื่น ลดความพยายามด้วยตนเองและเร่งกระบวนการพัฒนาโมเดล AI และไปป์ไลน์ข้อมูลที่แข็งแกร่ง ด้วย การทดสอบอัตโนมัติ ในตัวและการผสานรวมที่ง่ายดายกับระบบที่มีอยู่ คุณจะใช้เวลาน้อยลงในการแก้ไขข้อบกพร่องและใช้เวลามากขึ้นในการสร้างสรรค์สิ่งใหม่ๆ

Apidog: the all-in-one API development tool

พร้อมที่จะเพิ่มศักยภาพของโมเดล AI ของคุณให้สูงสุดแล้วหรือยัง ลองใช้ Apidog วันนี้และดูว่ามันช่วยเสริมการเพิ่มประสิทธิภาพจากเครื่องมือต่างๆ เช่น DualPipe และ 3FS ได้อย่างไร เพื่อสร้างวงจรการพัฒนาที่ได้รับการปรับปรุงอย่างเต็มที่

button

วันที่ 1: FlashMLA

FlashMLA — DeepSeek Open-sourcce week

FlashMLA ถือเป็น ความก้าวหน้าที่สำคัญ ในการเพิ่มประสิทธิภาพด้าน AI โดยนำเสนอ เคอร์เนลการถอดรหัสที่มีประสิทธิภาพสูง ที่ปรับแต่งสำหรับ NVIDIA Hopper GPUs ผลกระทบของมันเห็นได้ชัดในหลายมิติ:

1. การเพิ่มประสิทธิภาพด้านประสิทธิภาพ

2. การจัดการหน่วยความจำขั้นสูง

3. การทำงานร่วมกันแบบโอเพนซอร์ส

4. ผลกระทบต่ออุตสาหกรรม

ความสามารถที่ล้ำสมัย และ ความพร้อมใช้งานแบบโอเพนซอร์ส ของ FlashMLA กำหนดมาตรฐานใหม่สำหรับประสิทธิภาพ AI ทำให้สามารถพัฒนา โมเดล AI ที่เร็วขึ้น ฉลาดขึ้น และปรับขนาดได้มากขึ้น ในขณะที่ความต้องการ AI แบบเรียลไทม์ยังคงเติบโตอย่างต่อเนื่อง FlashMLA พร้อมที่จะกลายเป็น เทคโนโลยีหลัก ในโครงสร้างพื้นฐาน AI รุ่นต่อไป

วันที่ 2: DeepEP

DeepEP เป็นไลบรารีการสื่อสารเฉพาะทางที่ออกแบบมาเพื่อเอาชนะความท้าทายหลักในการฝึกอบรมและการอนุมานโมเดล Mixture of Experts (MoE) ซึ่งแตกต่างจากไลบรารีทั่วไป โดยจะจัดการกับคอขวดที่สำคัญซึ่งขัดขวางการปรับขนาดของสถาปัตยกรรม MoE โดยเน้นที่การเพิ่มประสิทธิภาพการสื่อสาร ลดเวลาแฝง และเพิ่มการใช้ทรัพยากร GPU

DeepEP

คุณสมบัติและประโยชน์หลัก:

การสื่อสารที่ปรับให้เหมาะสม: DeepEP ช่วยเพิ่มการสื่อสารแบบ all-to-all ทำให้มั่นใจได้ถึงการโต้ตอบที่ราบรื่นและรวดเร็วยิ่งขึ้นภายในระบบ การปรับปรุงนี้มีความสำคัญอย่างยิ่งในการเพิ่มความสามารถในการปรับขนาดของโมเดล MoE โดยเฉพาะอย่างยิ่งในแอปพลิเคชันขนาดใหญ่

การผสานรวมที่ราบรื่น: DeepEP ผสานรวมกับอินเตอร์คอนเนคความเร็วสูง เช่น NVLink และ RDMA ได้อย่างง่ายดาย ซึ่งช่วยให้จัดการการสื่อสารทั้งภายในโหนดและระหว่างโหนดได้อย่างมีประสิทธิภาพ ซึ่งมีความสำคัญอย่างยิ่งสำหรับแอปพลิเคชันแบบเรียลไทม์ เช่น:

แนวทาง Dual Kernel: DeepEP รวมกลยุทธ์ dual kernel:

ประสิทธิภาพด้านหน่วยความจำและการคำนวณ: การรองรับการส่ง FP8 ดั้งเดิมช่วยเพิ่มประสิทธิภาพการใช้หน่วยความจำและเพิ่มประสิทธิภาพการคำนวณ ทำให้โมเดล AI สามารถปรับขนาดได้อย่างมีประสิทธิภาพในขณะที่ควบคุมค่าใช้จ่าย

การเข้าถึงโอเพนซอร์ส: ด้วยการเปิด DeepEP แบบโอเพนซอร์ส DeepSeek ทำให้การเข้าถึงเทคโนโลยี AI ที่ล้ำสมัยเป็นประชาธิปไตย ทีมวิจัยขนาดเล็กและสตาร์ทอัพ ซึ่งมักจะขาดการเข้าถึงโซลูชันที่เป็นกรรมสิทธิ์ ตอนนี้สามารถใช้ DeepEP เพื่อสร้างโมเดล AI ที่ทรงพลังและปรับขนาดได้

การส่งเสริมความร่วมมือ: ธรรมชาติแบบโอเพนซอร์สส่งเสริมสภาพแวดล้อมการทำงานร่วมกัน ช่วยให้นักพัฒนาทั่วโลกสามารถมีส่วนร่วม สร้างสรรค์สิ่งใหม่ๆ และปรับปรุงเทคโนโลยี AI ที่มีอยู่ ซึ่งจะช่วยเร่งความเร็วในการพัฒนา AI

ไม่ว่าจะทำงานกับโมเดลภาษาเจเนอเรชันถัดไป การจำลองทางวิทยาศาสตร์ หรือระบบการตัดสินใจที่ซับซ้อน DeepEP เป็นเครื่องมือที่ก้าวล้ำซึ่งกำหนดนิยามใหม่ของความเป็นไปได้ภายในสถาปัตยกรรม MoE ด้วยการเพิ่มประสิทธิภาพความท้าทายหลักของการฝึกอบรมและการอนุมานโมเดล MoE DeepEP จึงเป็นตัวเปลี่ยนเกมอย่างแท้จริงในการพัฒนา AI

วันที่ 3: DeepGEMM

การเปิดตัว DeepGEMM ของ DeepSeek ในวันที่ 3 ของ Open Source Week ถือเป็นก้าวสำคัญในวงการ AI ไลบรารี FP8 GEMM นี้ได้รับการออกแบบมาเพื่อเพิ่มประสิทธิภาพในด้านที่สำคัญที่สุดของการฝึกอบรมและการอนุมาน AI จัดการกับคอขวดที่ยังคงอยู่ และปลดล็อกประสิทธิภาพและประสิทธิภาพในระดับใหม่

DeepGEMM

คุณสมบัติหลักของ DeepGEMM:

1. ความแม่นยำ FP8: ประสิทธิภาพโดยไม่มีข้อจำกัด

2. การพึ่งพาขั้นต่ำและการรวบรวม JIT

3. ความสามารถรอบด้านในสถาปัตยกรรมต่างๆ

4. ทำงานได้ดีกว่าเคอร์เนลที่ปรับแต่งโดยผู้เชี่ยวชาญ

การเปิดตัว DeepGEMM ของ DeepSeek เป็นมากกว่าความสำเร็จทางเทคนิค—เป็นก้าวสำคัญไปสู่อนาคต AI ที่ทำงานร่วมกัน มีประสิทธิภาพ และทรงพลังมากขึ้น ด้วย ประสิทธิภาพ FP8 สำหรับการคำนวณที่เร็วขึ้น การรวบรวม JIT สำหรับการเพิ่มประสิทธิภาพแบบเรียลไทม์ และ การเข้าถึงแบบโอเพนซอร์ส DeepGEMM นำเสนอเครื่องมือที่จำเป็นสำหรับนักพัฒนา AI ในการผลักดันขอบเขตของนวัตกรรม

วันที่ 4: DualPipe: กลยุทธ์การทำงานแบบขนานที่ปรับให้เหมาะสม

DualPipe: กลยุทธ์การทำงานแบบขนานที่ปรับให้เหมาะสม

การเปิดตัว DualPipe ในวันที่ 4 ของ DeepSeek Open Source Week ถือเป็นความก้าวหน้าที่สำคัญใน การทำงานแบบขนานของไปป์ไลน์ สำหรับการฝึกอบรมโมเดล AI ขนาดใหญ่ ด้วยการนำเสนออัลกอริทึม การทำงานแบบขนานของไปป์ไลน์แบบสองทิศทาง DualPipe จึงเอาชนะปัญหาทั่วไปของเวลา GPU ที่ไม่ได้ใช้งานในระหว่างการฝึกอบรมโมเดล สิ่งนี้ทำได้โดยการซ้อนทับการคำนวณกับการสื่อสาร ทำให้มั่นใจได้ว่า GPU ยังคงทำงานอยู่และลดเวลาหยุดทำงานลงอย่างมาก

คุณสมบัติหลัก:

1. การปรับปรุงการทำงานแบบขนานของไปป์ไลน์

การทำงานแบบขนานของไปป์ไลน์แบบดั้งเดิมมักจะนำไปสู่ช่วงเวลา GPU ที่ไม่ได้ใช้งานและการใช้ทรัพยากรอย่างไม่มีประสิทธิภาพ DualPipe เอาชนะสิ่งนี้ได้โดยการนำเสนอ การทำงานแบบขนานของไปป์ไลน์แบบสองทิศทาง ทำให้สามารถซ้อนทับ การคำนวณ และ การสื่อสาร ได้ สิ่งนี้ทำให้มั่นใจได้ว่า GPU ยังคงทำงานอยู่ตลอดกระบวนการ ลดเวลาหยุดทำงานลงอย่างมาก และเพิ่มประสิทธิภาพเวิร์กโฟลว์โดยรวม

2. การแก้ปัญหาคอขวดการสื่อสารข้ามโหนด

เมื่อฝึกอบรมโมเดลขนาดใหญ่ใน GPU หลายตัว การสื่อสารข้ามโหนด อาจกลายเป็นคอขวดที่สำคัญ DualPipe จัดการกับปัญหานี้โดยการทำงานแบบขนานของการสื่อสารกับการคำนวณ ทำให้มั่นใจได้ว่าโมเดลต่างๆ เช่น DeepSeek-V3 และ R1 หรือ โมเดล MoE ทำงานได้อย่างราบรื่นและมีประสิทธิภาพ

3. การผสานรวมกับ EPLB สำหรับการปรับสมดุลภาระงาน

นอกเหนือจาก DualPipe แล้ว DeepSeek ยังได้เปิดตัว EPLB (Expert-Parallel Load Balancer) สำหรับโมเดล Mixture-of-Experts (MoE) EPLB ช่วยให้มั่นใจได้ถึงการกระจายเวิร์กโหลดที่สมดุลใน GPU ป้องกัน การใช้ GPU ที่ต่ำกว่าเกณฑ์ หรือ การโอเวอร์โหลด ในการตั้งค่า MoE ด้วยการปรับการกระจายผู้เชี่ยวชาญแบบไดนามิก EPLB จะเพิ่มปริมาณงาน ลดคอขวด และเพิ่มประสิทธิภาพการฝึกอบรม

4. นวัตกรรมโอเพนซอร์สสำหรับทุกคน

DualPipe และ EPLB เป็นเครื่องมือโอเพนซอร์สทั้งคู่ ทำให้นักพัฒนาทั่วโลกสามารถรวมนวัตกรรมเหล่านี้เข้ากับโครงการของตนได้ รูปแบบการเข้าถึงแบบเปิดนี้ส่งเสริม ความร่วมมือ และ การปรับปรุงที่ขับเคลื่อนโดยชุมชน ทำให้เครื่องมือเหล่านี้พร้อมใช้งานสำหรับทีมขนาดเล็กและนักพัฒนาอิสระที่อาจขาดแคลนทรัพยากรสำหรับความสามารถขั้นสูงดังกล่าว

5. การเสริมศักยภาพการพัฒนาโมเดล AI ที่เร็วขึ้น

สำหรับนักพัฒนา เครื่องมือเหล่านี้แสดงถึงโซลูชันที่เปลี่ยนแปลงเกม ซึ่งช่วยลดเวลาในการฝึกอบรมจากหลายเดือนเหลือเพียงไม่กี่สัปดาห์หรือแม้แต่วัน ไม่ว่าคุณจะทำงานกับโมเดลภาษา การคาดการณ์สภาพอากาศ หรือการจำลองทางชีวภาพ DualPipe และ EPLB ช่วยให้มั่นใจได้ว่าความท้าทายในการคำนวณของการฝึกอบรมโมเดลขนาดใหญ่จะได้รับการตอบสนองด้วย ความเร็ว ความสามารถในการปรับขนาด และ ประสิทธิภาพที่มากขึ้น

6. การปูทางสำหรับความก้าวหน้าของ AI ในอนาคต

ชุดเครื่องมือของ DeepSeek—รวมถึง DualPipe, EPLB, DeepGEMM และอื่นๆ—สร้าง ระบบนิเวศที่สอดคล้องกัน ซึ่งเพิ่มประสิทธิภาพทุกชั้นของไปป์ไลน์ AI ตั้งแต่ สถาปัตยกรรมโมเดล ไปจนถึง ประสิทธิภาพการฝึกอบรม ด้วยการเปิดใช้งานการฝึกอบรมโมเดล AI ที่เร็วขึ้นและมีประสิทธิภาพมากขึ้น เครื่องมือเหล่านี้กำลังช่วยให้นักพัฒนาผลักดันขอบเขตของแอปพลิเคชัน AI ในอุตสาหกรรมต่างๆ เช่น การดูแลสุขภาพ วิทยาศาสตร์ภูมิอากาศ และการอนุรักษ์ภาษา

ท้ายที่สุด DualPipe และ EPLB เป็นมากกว่าโซลูชันทางเทคนิค พวกเขาแสดงถึงยุคใหม่ในการฝึกอบรมโมเดล AI ด้วยการเพิ่มประสิทธิภาพ การทำงานแบบขนาน และ การปรับสมดุลภาระงาน ของการฝึกอบรมขนาดใหญ่ DeepSeek กำลังช่วยให้นักพัฒนาสามารถสร้างความก้าวหน้าในการพัฒนา AI ได้เร็วขึ้นและมีประสิทธิภาพมากขึ้น นวัตกรรมเหล่านี้ไม่เพียงแต่เป็นประโยชน์ต่อโครงการของ DeepSeek เองเท่านั้น แต่ยังมีศักยภาพในการขับเคลื่อนความก้าวหน้าในอุตสาหกรรมต่างๆ ตั้งแต่การดูแลสุขภาพไปจนถึงวิทยาศาสตร์ภูมิอากาศ

วันที่ 5: Fire-Flyer File System (3FS)

Fire-Flyer File System (3FS)

การเปิดตัว 3FS ของ DeepSeek ในวันที่ 5 ของ Open Source Week แนะนำเครื่องมือที่เปลี่ยนแปลงสำหรับนักพัฒนาที่จัดการกับข้อมูลขนาดใหญ่ นี่คือเหตุผลที่ 3FS พร้อมที่จะกลายเป็นส่วนสำคัญของชุดเครื่องมือของคุณ:

1. การเพิ่มพลังการเข้าถึงข้อมูล

โดยพื้นฐานแล้ว 3FS เป็นระบบไฟล์แบบขนานประสิทธิภาพสูงที่สร้างขึ้นเพื่อจัดการชุดข้อมูลขนาดใหญ่ด้วยความเร็วที่ไม่มีใครเทียบได้ ซึ่งแตกต่างจากระบบไฟล์แบบดั้งเดิมที่อาจกลายเป็นคอขวด 3FS จะกระจายข้อมูลไปยังโหนดหลายโหนด ทำให้สามารถเข้าถึงได้พร้อมกันและลดเวลาแฝงลงอย่างมาก ส่งผลให้การดึงข้อมูลเร็วขึ้น ทำให้สามารถฝึกอบรม AI ได้ราบรื่นขึ้น การประมวลผลข้อมูลขนาดใหญ่ และแอปพลิเคชันอื่นๆ ที่ใช้ข้อมูลจำนวนมาก

2. ปรับให้เหมาะสมสำหรับฮาร์ดแวร์สมัยใหม่

ออกแบบมาเพื่อเพิ่มประสิทธิภาพของฮาร์ดแวร์ที่ทันสมัย 3FS ใช้ประโยชน์จาก SSDs อย่างเต็มที่เพื่อความเร็วในการอ่าน/เขียนที่เร็วขึ้น และเครือข่าย RDMA เพื่อลดเวลาแฝง การผสมผสานนี้ทำให้มั่นใจได้ว่าระบบทำงานได้ดีที่สุด แม้จะมีชุดข้อมูลขนาดใหญ่ ทำให้เป็นโซลูชันที่เหมาะสำหรับการฝึกอบรมโมเดล AI การวิเคราะห์ข้อมูลขนาดใหญ่ และงานประมวลผลประสิทธิภาพสูงอื่นๆ

3. ประสิทธิภาพที่ปรับขนาดได้

ในการตั้งค่าคลัสเตอร์แบบหลายโหนด 3FS จะส่องแสงด้วยการซิงโครไนซ์ที่ราบรื่น ทำให้สามารถเข้าถึงข้อมูลได้อย่างมีประสิทธิภาพในโหนดต่างๆ ด้วยความเร็วในการอ่านเกณฑ์มาตรฐานสูงถึง 6.6 TiB/s ในคลัสเตอร์ 180 โหนด 3FS กำหนดมาตรฐานใหม่สำหรับปริมาณงานข้อมูล ทำให้สามารถจัดการกับเวิร์กโหลดที่ต้องการมากที่สุดได้อย่างง่ายดาย

4. เร่งเวิร์กโฟลว์ AI และข้อมูลขนาดใหญ่

สำหรับนักพัฒนา 3FS มอบข้อได้เปรียบที่สำคัญ:

5. โอเพนซอร์สและปรับแต่งได้

เนื่องจากเป็น โอเพนซอร์ส 3FS จึงมอบความยืดหยุ่นให้กับนักพัฒนาในการปรับแต่งให้ตรงกับความต้องการเฉพาะของตนเอง เพิ่มประสิทธิภาพ และมีส่วนร่วมในการพัฒนาชุมชน แนวทางที่ขับเคลื่อนโดยชุมชนแบบเปิดนี้ส่งเสริมนวัตกรรม ทำให้นักพัฒนาสามารถปรับระบบให้เข้ากับโครงการของตนและปรับปรุงร่วมกันได้

3FS เป็นเครื่องมือที่ก้าวล้ำซึ่งช่วยเพิ่มการเข้าถึงข้อมูลสำหรับแอปพลิเคชัน AI และข้อมูลขนาดใหญ่ สถาปัตยกรรมระบบไฟล์แบบขนานที่ปรับให้เหมาะสมสำหรับฮาร์ดแวร์สมัยใหม่ ทำให้เป็นสินทรัพย์สำคัญสำหรับนักพัฒนาที่ต้องการปรับปรุงเวิร์กโฟลว์ เร่งการฝึกอบรม AI และประมวลผลข้อมูลจำนวนมากอย่างมีประสิทธิภาพ ด้วยข้อดีเพิ่มเติมของการเป็นโอเพนซอร์ส 3FS นำเสนอแพลตฟอร์มการทำงานร่วมกันสำหรับนักพัฒนาในการสร้างสรรค์สิ่งใหม่ๆ และเพิ่มประสิทธิภาพระบบของตน ไม่ว่าคุณจะทำงานกับโมเดล AI ขนาดใหญ่หรือไปป์ไลน์ข้อมูลที่ซับซ้อน 3FS คือตัวเพิ่มประสิทธิภาพที่คุณต้องการเพื่อนำโครงการของคุณไปสู่ระดับต่อไป

วันที่ 6: อีกอย่างหนึ่ง – DeepSeek-V3/R1 Inference System

วันสุดท้ายของ DeepSeek Open Source Week ได้แนะนำภาพรวมที่ครอบคลุมของ DeepSeek-V3/R1 Inference System ซึ่งเป็นโซลูชันที่ทันสมัยที่ออกแบบมาเพื่อเพิ่มประสิทธิภาพปริมาณงานและเวลาแฝงสำหรับงานการอนุมาน AI ขนาดใหญ่ ระบบนี้ใช้ประโยชน์จาก Expert Parallelism (EP) ข้ามโหนด เพื่อปรับขนาดขนาดแบทช์ ปรับปรุงประสิทธิภาพ GPU และลดความต้องการในการเข้าถึงหน่วยความจำ โดยจัดการกับวัตถุประสงค์คู่ขนานของปริมาณงานที่สูงขึ้นและเวลาแฝงที่ต่ำลง

มีอะไรใหม่ในการออกแบบของ Deepseek

DeepSeek-V3/R1 Inference System ใช้ EP ข้ามโหนดขนาดใหญ่ เพื่อจัดการกับความเบาบางสูงของโมเดลที่มีผู้เชี่ยวชาญจำนวนมาก (เช่น มีเพียง 8 ใน 256 ผู้เชี่ยวชาญต่อเลเยอร์เท่านั้นที่เปิดใช้งาน) ระบบใช้กลยุทธ์การทำงานแบบขนานที่แตกต่างกันในระหว่าง ระยะ prefilling และ ระยะการถอดรหัส:

ระยะ Prefilling: Routed Expert EP32 พร้อม Shared Expert DP32 ใน 4 โหนด

ระยะการถอดรหัส: Routed Expert EP144 พร้อม Shared Expert DP144 ใน 18 โหนด

กลยุทธ์การซ้อนทับแบบ dual-batch ซ่อนเวลาแฝงในการสื่อสารโดยการแบ่งคำขอออกเป็นสอง microbatches ในระหว่างการ prefilling การสื่อสารสำหรับ microbatch หนึ่งจะซ้อนทับกับการคำนวณสำหรับอีก microbatch หนึ่ง

ในระหว่างการถอดรหัส ไปป์ไลน์ 5 ขั้นตอนจะแบ่งเลเยอร์ความสนใจออกเป็นสองขั้นตอน ทำให้มั่นใจได้ถึงการซ้อนทับการสื่อสารและการคำนวณอย่างราบรื่น

กลไกการปรับสมดุลภาระงาน:

การวิเคราะห์ต้นทุนและรายได้

Explore more

สร้างทางเลือกสำหรับ Claude Web Search แบบ Open Source (พร้อมเซิร์ฟเวอร์ Firecrawl MCP)

สร้างทางเลือกสำหรับ Claude Web Search แบบ Open Source (พร้อมเซิร์ฟเวอร์ Firecrawl MCP)

สำหรับองค์กรที่ต้องการควบคุม, ปรับแต่ง, หรือความเป็นส่วนตัวมากกว่าการค้นหาเว็บของ Claude, การสร้างทางเลือกโดยใช้ Firecrawl เป็นทางออกที่ดี มาเรียนรู้กัน!

21 March 2025

10 อันดับทางเลือกที่ดีที่สุดสำหรับการเล่นวินเซิร์ฟสำหรับนักเขียนโค้ดที่ชอบความรู้สึกในปี 2025

10 อันดับทางเลือกที่ดีที่สุดสำหรับการเล่นวินเซิร์ฟสำหรับนักเขียนโค้ดที่ชอบความรู้สึกในปี 2025

ค้นพบ 10 ทางเลือก Windsurf ปี 2025 ปรับปรุงการเขียนโค้ด เหมาะสำหรับนักพัฒนาที่ต้องการโซลูชันการเขียนโค้ดที่มีประสิทธิภาพ ปลอดภัย และหลากหลาย

20 March 2025

Figma มีเซิร์ฟเวอร์ MCP แล้ว และนี่คือวิธีใช้งาน

Figma มีเซิร์ฟเวอร์ MCP แล้ว และนี่คือวิธีใช้งาน

ค้นพบวิธีเชื่อมต่อ Figma MCP กับ AI เช่น Cursor เพื่อสร้างโค้ดอัตโนมัติ เหมาะสำหรับนักพัฒนาและนักออกแบบ

20 March 2025

ฝึกการออกแบบ API แบบ Design-first ใน Apidog

ค้นพบวิธีที่ง่ายขึ้นในการสร้างและใช้ API