La Semana de Código Abierto de DeepSeek, celebrada del 24 al 28 de febrero de 2025, marcó un hito significativo en la comunidad de IA de código abierto. La iniciativa, encabezada por la startup china de IA DeepSeek, tenía como objetivo democratizar el acceso a herramientas avanzadas de IA y fomentar la colaboración entre desarrolladores e investigadores de todo el mundo. Durante cinco días, DeepSeek lanzó cinco repositorios de vanguardia, cada uno diseñado para abordar desafíos críticos en el desarrollo de la IA. A continuación, se presenta un resumen detallado del evento, sus aspectos más destacados y los repositorios disponibles.
Descripción general de la Semana de Código Abierto de DeepSeek
El evento se anunció el 21 de febrero de 2025, y DeepSeek enfatizó su compromiso con la transparencia y la innovación impulsada por la comunidad. La compañía describió la iniciativa como una forma de compartir "humildes bloques de construcción" de sus servicios en línea, que habían sido documentados, implementados y probados en entornos de producción. Los lanzamientos tenían como objetivo acelerar el desarrollo de la IA proporcionando herramientas que mejoran la eficiencia computacional, la optimización de modelos y el manejo de datos a gran escala.
Los objetivos clave del evento incluyeron:
Nombre del repositorio | Descripción | Enlace de GitHub |
---|---|---|
FlashMLA | Kernel de decodificación MLA eficiente para GPU Hopper | FlashMLA |
DeepEP | Biblioteca de comunicación para modelos de Mixture-of-Experts | DeepEP |
DeepGEMM | Biblioteca optimizada de multiplicación de matrices generales | DeepGEMM |
Estrategias de paralelismo optimizadas | Framework para optimizar el paralelismo en el aprendizaje profundo distribuido | Estrategias de paralelismo optimizadas |
Sistema de archivos Fire-Flyer (3FS) | Sistema de archivos distribuido optimizado para flujos de trabajo de aprendizaje automático | Sistema de archivos Fire-Flyer |
Sistema de inferencia DeepSeek-V3/R1 | Sistema de inferencia a gran escala que utiliza el paralelismo experto entre nodos | Sistema de inferencia DeepSeek-V3/R1 |
Consejo profesional: Potencia el desarrollo de tu API
Si bien la optimización del acceso a los datos y el paralelismo es crucial para la computación de alto rendimiento, no pases por alto la importancia del desarrollo y las pruebas eficientes de la API en tu flujo de trabajo. Las innovaciones de código abierto de DeepSeek, como DualPipe y 3FS, proporcionan increíbles aumentos de rendimiento, pero la integración de estos con una potente herramienta de API puede agilizar aún más tu proceso de desarrollo.
Para los desarrolladores que buscan acelerar las pruebas de API, Apidog es una herramienta imprescindible en tu conjunto de herramientas. La plataforma todo en uno de Apidog te permite diseñar, documentar, depurar, simular, y probar las API sin problemas, reduciendo el esfuerzo manual y acelerando el proceso de desarrollo de modelos de IA y canalizaciones de datos robustos. Con las pruebas automatizadas integradas y la fácil integración con tus sistemas existentes, pasarás menos tiempo depurando y más tiempo innovando.

¿Listo para maximizar el potencial de tu modelo de IA? Prueba Apidog hoy mismo y comprueba cómo complementa las optimizaciones de herramientas como DualPipe y 3FS para crear un ciclo de desarrollo totalmente optimizado.
Día 1: FlashMLA

FlashMLA marca un avance significativo en la optimización del rendimiento de la IA, ofreciendo un kernel de decodificación altamente eficiente diseñado para las GPU NVIDIA Hopper. Su impacto es evidente en múltiples dimensiones:
1. Optimización del rendimiento
- Aprovecha el ancho de banda de memoria de 3000 GB/s y la potencia de cálculo de 580 TFLOPS de las GPU Hopper para cargas de trabajo de IA de alta velocidad.
- Maneja secuencias de longitud variable de manera eficiente, minimizando los cuellos de botella de rendimiento en las aplicaciones de IA.
2. Gestión avanzada de la memoria
- Implementa soporte BF16 (Brain Float 16) para reducir la sobrecarga de memoria manteniendo la precisión computacional.
- Introduce una caché KV paginada (fragmentos de 64 bloques) para una organización de datos optimizada y un procesamiento más rápido.
3. Colaboración de código abierto
- Inspirado en proyectos líderes de optimización de IA como FlashAttention 2&3 y CUTLASS.
- Disponible en GitHub, lo que permite a los desarrolladores modificar, mejorar y contribuir a su evolución continua.
4. Impacto en la industria
- Mejora las aplicaciones de IA en tiempo real en la atención médica, las finanzas y los sistemas autónomos, donde la velocidad y la precisión son críticas.
- Apoya a los equipos de IA más pequeños para competir con los principales actores tecnológicos al hacer que la infraestructura de IA de alto rendimiento sea más accesible.
Las capacidades de vanguardia y la disponibilidad de código abierto de FlashMLA establecen un nuevo punto de referencia para la eficiencia de la IA, lo que permite el desarrollo de modelos de IA más rápidos, inteligentes y escalables. A medida que la demanda de IA en tiempo real continúa creciendo, FlashMLA está a punto de convertirse en una tecnología fundamental en la infraestructura de IA de próxima generación.
Día 2: DeepEP
DeepEP es una biblioteca de comunicación especializada diseñada para superar los desafíos clave en el entrenamiento e inferencia de modelos de Mixture of Experts (MoE). A diferencia de las bibliotecas típicas, aborda los cuellos de botella críticos que han obstaculizado la escalabilidad de las arquitecturas MoE, centrándose en la optimización de la comunicación, la reducción de la latencia y la mejora de la utilización de los recursos de la GPU.

Características y beneficios clave:
Comunicación optimizada: DeepEP mejora la comunicación de todos a todos, garantizando interacciones más fluidas y rápidas dentro del sistema. Esta mejora es crucial para aumentar la escalabilidad de los modelos MoE, particularmente en aplicaciones a gran escala.
Integración perfecta: DeepEP se integra sin esfuerzo con interconexiones de alta velocidad como NVLink y RDMA. Esto permite un manejo eficiente de la comunicación tanto intranodo como internodo, lo cual es vital para aplicaciones en tiempo real como:
- Simulaciones climáticas
- Modelado financiero
- Sistemas de recomendación a gran escala: En estos campos, incluso los retrasos menores pueden afectar significativamente los resultados, lo que hace que la eficiencia de DeepEP sea un activo crucial.
Enfoque de kernel dual: DeepEP incorpora una estrategia de kernel dual:
- Kernel de alto rendimiento para el entrenamiento
- Kernel de baja latencia para la inferencia
Este enfoque equilibrado garantiza la máxima velocidad para las tareas de procesamiento por lotes y una latencia mínima para las aplicaciones de IA en tiempo real, como chatbots y sistemas autónomos.
Eficiencia computacional y de memoria: El soporte nativo de despacho FP8 optimiza el uso de la memoria y aumenta el rendimiento computacional, lo que permite que los modelos de IA se escalen de manera efectiva manteniendo los costos manejables.
Accesibilidad de código abierto: Al abrir el código fuente de DeepEP, DeepSeek democratiza el acceso a la tecnología de IA de vanguardia. Los pequeños equipos de investigación y las startups, que a menudo carecen de acceso a soluciones patentadas, ahora pueden aprovechar DeepEP para construir modelos de IA potentes y escalables.
Fomentar la colaboración: La naturaleza de código abierto fomenta un entorno colaborativo, permitiendo a los desarrolladores de todo el mundo contribuir, innovar y mejorar las tecnologías de IA existentes, acelerando así el ritmo de los avances de la IA.
Ya sea que trabajes en modelos de lenguaje de próxima generación, simulaciones científicas o intrincados sistemas de toma de decisiones, DeepEP es una herramienta innovadora que redefine las posibilidades dentro de la arquitectura MoE. Al optimizar los desafíos centrales del entrenamiento e inferencia de modelos MoE, DeepEP es verdaderamente un cambio de juego en el desarrollo de la IA.
Día 3: DeepGEMM
La presentación de DeepGEMM por parte de DeepSeek en el Día 3 de la Semana de Código Abierto marca un hito significativo en el panorama de la IA. Esta biblioteca FP8 GEMM está diseñada para optimizar los aspectos más críticos del entrenamiento e inferencia de la IA, abordando los cuellos de botella persistentes y desbloqueando nuevos niveles de rendimiento y eficiencia.

Características clave de DeepGEMM:
1. Precisión FP8: Eficiencia sin compromiso
- El soporte FP8 es una de las características destacadas de DeepGEMM, que ofrece una reducción significativa en el uso de la memoria al tiempo que aumenta la velocidad computacional. Esto lo hace ideal para el entrenamiento e inferencia con modelos de IA a gran escala.
- Los desarrolladores se benefician de tiempos de entrenamiento más rápidos y un menor consumo de recursos, lo que se alinea con la tendencia más amplia de la industria hacia sistemas de IA más eficientes energéticamente.
2. Dependencias mínimas y compilación JIT
- La biblioteca está diseñada con la simplicidad en mente, consta de solo ~300 líneas de lógica central y dependencias mínimas, lo que garantiza una experiencia ligera y eficiente.
- La compilación Just-In-Time (JIT) permite la optimización en tiempo real, ofreciendo el máximo rendimiento sin la hinchazón de las bibliotecas tradicionales, ofreciendo a los desarrolladores herramientas potentes sin complejidad innecesaria.
3. Versatilidad en todas las arquitecturas
- DeepGEMM es altamente versátil, ya que admite tanto diseños densos como dos diseños de Mixture of Experts (MoE). Esta flexibilidad lo hace adecuado para una variedad de arquitecturas de IA, desde modelos de lenguaje grandes hasta sistemas MoE.
4. Superando los kernels ajustados por expertos
- DeepGEMM ofrece un mejor rendimiento que muchos kernels ajustados por expertos en la mayoría de los tamaños de matriz. Esto es particularmente ventajoso para los desarrolladores que trabajan en tareas de computación intensiva donde el rendimiento es crucial.
El lanzamiento de DeepGEMM por parte de DeepSeek es más que un simple logro técnico: es un paso significativo hacia un futuro de IA más colaborativo, eficiente y potente. Con el rendimiento FP8 para cálculos más rápidos, la compilación JIT para la optimización en tiempo real y la accesibilidad de código abierto, DeepGEMM ofrece las herramientas necesarias para que los desarrolladores de IA superen los límites de la innovación.
Día 4: DualPipe: Estrategias de paralelismo optimizadas

El lanzamiento de DualPipe en el Día 4 de la Semana de Código Abierto de DeepSeek marca un avance fundamental en el paralelismo de canalización para el entrenamiento de modelos de IA a gran escala. Al introducir un algoritmo de paralelismo de canalización bidireccional, DualPipe supera el problema común del tiempo de inactividad de la GPU durante el entrenamiento del modelo. Esto se logra superponiendo el cálculo con la comunicación, asegurando que las GPU permanezcan activas y reduciendo significativamente el tiempo de inactividad.
Características clave:
1. Agilización del paralelismo de canalización
El paralelismo de canalización tradicional a menudo conduce a períodos de inactividad de la GPU y a un uso ineficiente de los recursos. DualPipe supera esto al introducir el paralelismo de canalización bidireccional, lo que permite la superposición de cálculo y comunicación. Esto asegura que las GPU permanezcan ocupadas durante todo el proceso, reduciendo drásticamente el tiempo de inactividad y optimizando el flujo de trabajo general.
2. Solución de cuellos de botella de comunicación entre nodos
Al entrenar modelos grandes en múltiples GPU, la comunicación entre nodos puede convertirse en un cuello de botella significativo. DualPipe aborda esto paralelizando la comunicación con el cálculo, asegurando que los modelos como DeepSeek-V3 y R1, o los modelos MoE, se ejecuten de manera fluida y eficiente.
3. Integración con EPLB para el equilibrio de carga
Además de DualPipe, DeepSeek introdujo EPLB (Equilibrador de carga paralelo experto) para modelos de Mixture-of-Experts (MoE). EPLB asegura una distribución equilibrada de la carga de trabajo entre las GPU, evitando la infrautilización o la sobrecarga de la GPU en las configuraciones MoE. Al ajustar dinámicamente la distribución de expertos, EPLB maximiza el rendimiento, reduce los cuellos de botella y aumenta la eficiencia del entrenamiento.
4. Innovación de código abierto para todos
DualPipe y EPLB son herramientas de código abierto, lo que permite a los desarrolladores de todo el mundo integrar estas innovaciones en sus proyectos. Este modelo de acceso abierto fomenta la colaboración y las mejoras impulsadas por la comunidad, haciendo que estas herramientas estén disponibles para equipos más pequeños y desarrolladores independientes que de otro modo carecerían de los recursos para tales capacidades avanzadas.
5. Potenciando un desarrollo de modelos de IA más rápido
Para los desarrolladores, estas herramientas representan una solución revolucionaria que reduce los tiempos de entrenamiento de meses a semanas o incluso días. Ya sea que estés trabajando en modelos de lenguaje, predicciones climáticas o simulaciones biológicas, DualPipe y EPLB aseguran que los desafíos computacionales del entrenamiento de modelos grandes se cumplan con mayor velocidad, escalabilidad y eficiencia.
6. Allanando el camino para el progreso futuro de la IA
El conjunto de herramientas de DeepSeek, que incluye DualPipe, EPLB, DeepGEMM y otros, forma un ecosistema cohesivo que optimiza cada capa de la canalización de IA, desde la arquitectura del modelo hasta el rendimiento del entrenamiento. Al permitir un entrenamiento de modelos de IA más rápido y eficiente, estas herramientas están ayudando a los desarrolladores a superar los límites de las aplicaciones de IA en industrias como la atención médica, la ciencia del clima y la preservación del lenguaje.
En última instancia, DualPipe y EPLB son más que simples soluciones técnicas; representan una nueva era en el entrenamiento de modelos de IA. Al optimizar los aspectos de paralelismo y equilibrio de carga del entrenamiento a gran escala, DeepSeek está capacitando a los desarrolladores para que avancen de manera más rápida y eficiente en el desarrollo de la IA. Estas innovaciones no solo benefician los propios proyectos de DeepSeek, sino que también tienen el potencial de impulsar avances en industrias que van desde la atención médica hasta la ciencia del clima.
Día 5: Sistema de archivos Fire-Flyer (3FS)

El lanzamiento de 3FS por parte de DeepSeek en el Día 5 de la Semana de Código Abierto introduce una herramienta transformadora para los desarrolladores que trabajan con datos a gran escala. Aquí te explicamos por qué 3FS está destinado a convertirse en una parte indispensable de tu conjunto de herramientas:
1. Turboalimentación del acceso a los datos
En esencia, 3FS es un sistema de archivos paralelo de alto rendimiento construido para manejar conjuntos de datos masivos a velocidades sin precedentes. A diferencia de los sistemas de archivos tradicionales que pueden convertirse en cuellos de botella, 3FS distribuye los datos a través de múltiples nodos, lo que permite el acceso simultáneo y reduce drásticamente la latencia. Esto resulta en una recuperación de datos más rápida, lo que permite un entrenamiento de IA más fluido, un procesamiento de big data y otras aplicaciones con gran cantidad de datos.
2. Optimizado para hardware moderno
Diseñado para maximizar el rendimiento del hardware de vanguardia, 3FS aprovecha al máximo los SSD para velocidades de lectura/escritura más rápidas y las redes RDMA para una latencia reducida. Esta combinación asegura que el sistema funcione de la mejor manera, incluso con conjuntos de datos masivos, lo que lo convierte en una solución ideal para el entrenamiento de modelos de IA, el análisis de big data y otras tareas de computación de alto rendimiento.
3. Rendimiento escalable
En configuraciones de clústeres de múltiples nodos, 3FS brilla con su sincronización perfecta, lo que permite un acceso eficiente a los datos a través de los nodos. Con velocidades de lectura de referencia que alcanzan hasta 6,6 TiB/s en un clúster de 180 nodos, 3FS establece un nuevo estándar para el rendimiento de datos, lo que lo hace capaz de manejar las cargas de trabajo más exigentes con facilidad.
4. Aceleración de los flujos de trabajo de IA y big data
Para los desarrolladores, 3FS ofrece ventajas significativas:
- Entrenamiento de IA más rápido: Al mejorar las velocidades de acceso a los datos, 3FS ayuda a reducir los tiempos de entrenamiento, lo que permite una experimentación más rápida e iteraciones de modelos más rápidas.
- Procesamiento eficiente de big data: Con su alto rendimiento, 3FS asegura que las canalizaciones de datos para simulaciones, procesamiento de registros y análisis se ejecuten de manera eficiente, lo que lleva a conocimientos más rápidos y a una mejor utilización de los recursos.
- Eficiencia del hardware: Al maximizar el rendimiento del hardware, 3FS ayuda a reducir los costos, lo que potencialmente permite obtener mejores resultados con menos recursos.
5. Código abierto y personalizable
Al ser de código abierto, 3FS ofrece a los desarrolladores la flexibilidad de personalizarlo para sus necesidades únicas, optimizar el rendimiento y contribuir a su evolución. Este enfoque abierto impulsado por la comunidad fomenta la innovación, permitiendo a los desarrolladores adaptar el sistema a sus proyectos y mejorarlo de forma colaborativa.
3FS es una herramienta innovadora que sobrecarga el acceso a los datos para aplicaciones de IA y big data. Su arquitectura de sistema de archivos paralelo, optimizada para hardware moderno, lo convierte en un activo clave para los desarrolladores que buscan optimizar los flujos de trabajo, acelerar el entrenamiento de la IA y procesar de manera eficiente grandes cantidades de datos. Con el beneficio adicional de ser de código abierto, 3FS ofrece una plataforma colaborativa para que los desarrolladores innoven y optimicen sus sistemas. Ya sea que estés trabajando con modelos de IA grandes o canalizaciones de datos complejas, 3FS es el potenciador de rendimiento que necesitas para llevar tus proyectos al siguiente nivel.
Día 6: Una cosa más: sistema de inferencia DeepSeek-V3/R1
El último día de la Semana de Código Abierto de DeepSeek presentó una descripción general completa del Sistema de inferencia DeepSeek-V3/R1, una solución de vanguardia diseñada para optimizar el rendimiento y la latencia para tareas de inferencia de IA a gran escala. Este sistema aprovecha el paralelismo experto (EP) entre nodos para escalar los tamaños de lote, mejorar la eficiencia de la GPU y reducir las demandas de acceso a la memoria, abordando los objetivos duales de mayor rendimiento y menor latencia.
¿Qué hay de nuevo en el diseño de DeepSeek?
El sistema de inferencia DeepSeek-V3/R1 emplea EP entre nodos a gran escala para manejar la alta dispersión de modelos con numerosos expertos (por ejemplo, solo se activan 8 de 256 expertos por capa). El sistema utiliza distintas estrategias de paralelismo durante las fases de prellenado y decodificación:
Fase de prellenado: EP32 experto enrutado con DP32 experto compartido en 4 nodos.
Fase de decodificación: EP144 experto enrutado con DP144 experto compartido en 18 nodos.

Una estrategia de superposición de doble lote oculta la latencia de la comunicación dividiendo las solicitudes en dos microlotes. Durante el prellenado, la comunicación para un microlote se superpone con el cálculo para el otro.
Durante la decodificación, una canalización de 5 etapas subdivide la capa de atención en dos pasos, asegurando una superposición perfecta de comunicación y cálculo.
Mecanismos de equilibrio de carga:
- Equilibrador de carga de prellenado: Equilibra el cálculo de atención central y envía cargas de despacho a través de las GPU.
- Equilibrador de carga de decodificación: Iguala el uso de KVCache y los recuentos de solicitudes por GPU.
- Equilibrador de carga paralelo experto: Distribuye las cargas de trabajo computacionales expertas de manera uniforme entre las GPU para minimizar los cuellos de botella.
Análisis de costos e ingresos

La ocupación máxima del nodo alcanzó los 278 nodos, con una ocupación promedio de 226,75 nodos (8 GPU por nodo).
Costo operativo diario: $87.072 (basado en $2/hora por GPU H800).
Ingresos diarios teóricos: $562.027 basados en los precios de DeepSeek-R1.
Margen de beneficio: Un impresionante 545%, aunque los ingresos reales son menores debido a los servicios gratuitos, los descuentos y los precios más bajos para DeepSeek-V3.
Los principios de diseño innovadores y las optimizaciones del sistema lo convierten en una solución de vanguardia para tareas de inferencia de IA a gran escala, estableciendo puntos de referencia en eficiencia y escalabilidad.
Conclusión
La Semana de Código Abierto de DeepSeek concluyó con la presentación del Sistema de inferencia DeepSeek-V3/R1, un testimonio del compromiso de la compañía con el avance de la infraestructura de IA. Al abrir el código fuente de estos repositorios, DeepSeek no solo ha empoderado a los desarrolladores, sino que también ha establecido nuevos estándares en eficiencia, escalabilidad y accesibilidad de la IA. Esta iniciativa ha dejado un impacto duradero en la comunidad de IA, fomentando la colaboración y la innovación a una escala sin precedentes.