Le framework ZeroSearch d'Alibaba et comment il défie la recherche basée sur l'IA de Google

Cette analyse technique explore ZeroSearch, une approche d'apprentissage par renforcement d'Alibaba Tongyi Lab. Elle permet aux LLMs d'effectuer des recherches sans API externes.

Louis Dupont

Louis Dupont

5 June 2025

Le framework ZeroSearch d'Alibaba et comment il défie la recherche basée sur l'IA de Google

Cette analyse technique examine le framework ZeroSearch d'Alibaba Tongyi Lab, une nouvelle approche d'apprentissage par renforcement qui permet aux grands modèles de langage (LLM) d'effectuer des opérations de recherche sans appels d'API externes. En employant une méthodologie d'entraînement sophistiquée basée sur le programme, ZeroSearch transforme les LLM standards en systèmes capables de simuler la récupération de documents tout en conservant des capacités de raisonnement. Cet article fournit une ventilation technique de l'architecture, de la méthodologie d'entraînement et des caractéristiques de performance de ZeroSearch, soulignant son potentiel à perturber les paradigmes de recherche traditionnels.

💡
Vous voulez un excellent outil de test d'API qui génère une belle documentation API ?

Vous voulez une plateforme intégrée, tout-en-un, pour que votre équipe de développeurs travaille ensemble avec une productivité maximale ?

Apidog répond à toutes vos demandes et remplace Postman à un prix beaucoup plus abordable !
button

Architecture et mise en œuvre du système

La base technique de ZeroSearch repose sur une architecture multi-composants conçue pour entraîner les LLM à internaliser les capacités de récupération.

Contrairement aux approches conventionnelles qui intègrent des API de recherche externes avec les LLM, ZeroSearch met en œuvre un framework de simulation autonome avec plusieurs composants techniques clés :

Sélection et déploiement du LLM de simulation

Le framework utilise des modèles de simulation pré-entraînés de différentes tailles de paramètres (3B, 7B et 14B) pour générer des résultats de recherche synthétiques. Ces modèles sont déployés à l'aide de sglang, un framework de service spécialisé optimisé pour l'inférence LLM. La configuration du déploiement comprend des paramètres de parallélisme tensoriel et de parallélisme des données pour optimiser les performances d'inférence :

python -m sglang.launch_server --model-path SearchSimulation_14B --host 0.0.0.0 --tp 2 --dp 2 --port 6001

Les paramètres de parallélisme tensoriel (--tp 2) et de parallélisme des données (--dp 2) indiquent une approche de calcul distribué qui divise les poids du modèle et les requêtes par lots sur plusieurs GPU, améliorant le débit et réduisant la latence pendant la phase de simulation.

Méthodologie de simulation en mode double

ZeroSearch met en œuvre deux méthodologies de simulation distinctes, chacune avec des caractéristiques techniques spécifiques :

Simulation basée sur l'invite : utilise des modèles réglés par instruction comme Qwen2.5-14B-Instruct pour générer des résultats de recherche simulés basés sur des techniques d'invite spécialisées. Cette approche exploite les capacités zéro-shot des modèles réglés par instruction sans nécessiter de fine-tuning supplémentaire.

Simulation basée sur le fine-tuning : utilise des modèles spécialisés (SearchSimulation_3B/7B/14B) qui ont subi un fine-tuning supervisé spécifiquement pour la génération de résultats de recherche. Ces modèles apprennent à imiter la distribution des sorties des moteurs de recherche, y compris la génération de documents pertinents et de bruit.

La distinction technique entre ces approches se manifeste dans les paramètres de mise en œuvre comme on le voit dans les scripts d'entraînement :

SEARCH_MODE simulate_prompt SIMULATION_LLM Qwen2.5-14B-Instruct

versus :

SEARCH_MODE simulate_sft SIMULATION_LLM SearchSimulation_14B

Boucle d'entraînement par apprentissage par renforcement

L'innovation technique de base de ZeroSearch réside dans sa méthodologie d'entraînement par apprentissage par renforcement (RL). Le système met en œuvre les algorithmes Generalized Reward Policy Optimization (GRPO) et Proximal Policy Optimization (PPO), GRPO démontrant des caractéristiques de stabilité supérieures selon les résultats empiriques.

Le processus d'entraînement est régi par plusieurs paramètres techniques :

  1. Seuils de difficulté : l'approche d'apprentissage par programme utilise les paramètres START_THRESHOLD et END_THRESHOLD pour contrôler la complexité progressive des tâches de récupération :
START_THRESHOLD 0.25 END_THRESHOLD 0.5

Ces valeurs représentent la difficulté relative des tâches de récupération, le système augmentant progressivement la complexité pendant l'entraînement pour développer des capacités de recherche robustes.

  1. Configuration des étapes d'entraînement : le framework utilise un paramètre de nombre total d'étapes pour contrôler l'étendue de l'entraînement RL :
TOTAL_STEPS 203

Cela correspond au nombre de mises à jour de la politique effectuées pendant l'entraînement, chaque étape impliquant de multiples interactions par lots avec l'environnement de simulation.

Détails de la mise en œuvre technique

Pipeline d'ingénierie des données

Le pipeline d'entraînement de ZeroSearch commence par l'acquisition de l'ensemble de données à partir du référentiel d'ensembles de données de Hugging Face. La structure de l'ensemble de données contient probablement des paires requête-document utilisées pour l'entraînement et l'évaluation de la simulation. Le flux de travail d'ingénierie des données comprend :

  1. Téléchargement et prétraitement de l'ensemble de données :
huggingface-cli download --repo-type dataset --resume-download sunhaonlp/ZeroSearch_dataset --local-dir ZeroSearch_dataset
  1. Acquisition du point de contrôle du modèle :
huggingface-cli download --resume-download sunhaonlp/SearchSimulation_14B --local-dir SearchSimulation_14B

Exigences de calcul et optimisation

La mise en œuvre exploite plusieurs techniques d'optimisation pour gérer les exigences de calcul :

Flash Attention 2 : la dépendance à flash-attn indique l'utilisation de mécanismes d'attention optimisés pour réduire l'utilisation de la mémoire et augmenter le débit pendant l'entraînement.

Distribution multi-GPU : les phases d'entraînement et de simulation sont conçues pour les environnements multi-GPU, avec des stratégies de parallélisme spécifiques pour optimiser les performances.

Intégration vLLM : l'utilisation de vLLM (v0.6.3) suggère la mise en œuvre du batching continu et de PagedAttention pour un service efficace des modèles de simulation.

Analyse comparative : métriques de performance technique

Principaux résultats de Zero Search
Comparer ZeroSearch avec un véritable moteur de recherche

Les performances techniques de ZeroSearch peuvent être évaluées selon plusieurs dimensions :

1. Efficacité de la recherche d'informations

Les moteurs de recherche traditionnels comme Google utilisent des index inversés, PageRank et d'autres algorithmes de recherche d'informations pour récupérer des documents pertinents. ZeroSearch remplace cette récupération externe par une simulation internalisée, ce qui conduit à des caractéristiques de performance fondamentalement différentes :

Comparaison de la latence : alors que les moteurs de recherche traditionnels sont confrontés à des latences réseau et API, la latence de ZeroSearch est déterminée par la vitesse d'inférence du modèle, qui est principalement liée au GPU plutôt qu'au réseau.

Compromis rappel-précision : la récupération simulée de ZeroSearch doit équilibrer la génération de documents pertinents avec les risques d'hallucination, présentant un ensemble différent de défis d'optimisation par rapport à la récupération basée sur l'index.

2. Analyse des coûts de calcul

Le profil de calcul de ZeroSearch diffère considérablement des approches basées sur les API :

3. Performance de l'architecture du modèle

La documentation du référentiel indique une variation des performances entre les architectures de modèles de simulation :

Limitations techniques et défis de recherche

Plusieurs limitations techniques présentent des défis de recherche en cours :

1. Contraintes de coupure des connaissances

Contrairement aux systèmes de récupération basés sur les API qui accèdent aux données web en temps réel, ZeroSearch est limité par la coupure des connaissances de ses LLM sous-jacents. Cela présente des défis techniques importants pour les informations qui changent rapidement ou qui émergent après l'entraînement du modèle.

2. Atténuation des hallucinations

Le framework doit mettre en œuvre des techniques sophistiquées pour empêcher les hallucinations pendant la génération de documents. L'équilibre entre la synthèse créative de documents et l'exactitude factuelle représente un défi technique clé dans l'architecture.

3. Optimisation de l'efficacité des paramètres

La mise en œuvre actuelle nécessite des modèles relativement volumineux (3B-14B paramètres) pour une simulation efficace. La recherche sur les architectures à paramètres efficaces pourrait réduire les exigences de calcul tout en maintenant les performances.

Orientations techniques futures

Plusieurs orientations techniques prometteuses émergent de l'architecture ZeroSearch :

1. Approches hybrides de génération augmentée par la récupération

Les itérations futures pourraient mettre en œuvre des approches hybrides qui combinent la récupération simulée avec des appels d'API réels clairsemés lorsque la confiance tombe en dessous de certains seuils. Cela créerait un système adaptatif qui exploite les forces des deux approches.

2. Réglage de la simulation spécifique au domaine

L'architecture du framework prend en charge le fine-tuning des modèles de simulation pour des domaines spécifiques, créant potentiellement des capacités de recherche spécialisées pour les domaines techniques, la récupération de documents juridiques ou l'accès aux informations médicales.

3. Quantification et optimisation

La mise en œuvre de techniques de quantification comme GPTQ ou AWQ pourrait réduire les exigences de calcul des modèles de simulation et cibles, permettant le déploiement sur des appareils périphériques ou des environnements aux ressources limitées.

Analyse du code de mise en œuvre technique

La mise en œuvre du script d'entraînement révèle plusieurs décisions architecturales clés :

bash train_grpo.sh NUM_GPUS_PER_NODE 4 MODEL_PATH Llama-3.2-3B DATA_PATH ZeroSearch_dataset TOTAL_STEPS 203 IP localhost SEARCH_MODE simulate_prompt SIMULATION_LLM Qwen2.5-14B-Instruct START_THRESHOLD 0.25 END_THRESHOLD 0.5

Cette mise en œuvre démontre :

  1. Entraînement multi-GPU (4 GPU par nœud)
  2. Utilisation de Llama-3.2-3B comme modèle cible
  3. Simulation basée sur l'invite utilisant Qwen2.5-14B-Instruct
  4. Apprentissage par programme avec difficulté progressive (0,25 → 0,5)

La présence de scripts de mise en œuvre GRPO et PPO suggère que l'architecture a été évaluée sur plusieurs algorithmes RL avant de déterminer les caractéristiques de stabilité supérieures de GRPO.

Conclusion

ZeroSearch représente une innovation technique importante dans le domaine de la recherche, mettant en œuvre une architecture d'apprentissage par renforcement sophistiquée qui permet aux LLM de simuler la récupération de documents sans appels d'API externes. En tirant parti de l'apprentissage par programme, de la simulation en mode double et des algorithmes RL avancés, le framework atteint des performances qui surpassent, selon les rapports, les modèles basés sur les moteurs de recherche réels tout en éliminant les dépendances API.

L'architecture technique démontre plusieurs avantages, notamment un coût API nul, des capacités de confidentialité améliorées et des options de déploiement flexibles. Cependant, des défis subsistent pour faire face aux coupures de connaissances, aux risques d'hallucination et à l'efficacité de calcul.

Au fur et à mesure que le domaine évolue, l'approche technique de ZeroSearch offre des informations précieuses sur la façon dont les capacités de récupération peuvent être internalisées au sein des modèles de langage, remodelant potentiellement notre compréhension des architectures de recherche. La mise en œuvre open source fournit une base pour de nouvelles recherches et optimisations, en particulier dans les domaines spécialisés où les moteurs de recherche traditionnels peuvent être moins performants ou présenter des problèmes de confidentialité.

Pour les chercheurs et les praticiens intéressés par les systèmes de recherche d'informations de nouvelle génération, ZeroSearch offre un plan technique convaincant qui mérite une considération attentive et un développement continu.

Explore more

Fathom-R1-14B : Modèle de raisonnement IA avancé d'Inde

Fathom-R1-14B : Modèle de raisonnement IA avancé d'Inde

L'IA en expansion rapide. Fathom-R1-14B (14,8 milliards de paramètres) excelle en raisonnement mathématique et général, conçu par Fractal AI Research.

5 June 2025

Mistral Code : L'assistant de codage le plus personnalisable basé sur l'IA pour les entreprises

Mistral Code : L'assistant de codage le plus personnalisable basé sur l'IA pour les entreprises

Découvrez Mistral Code, l'IA d'aide au code la plus personnalisable pour les entreprises.

5 June 2025

Comment Claude Code transforme le codage de l'IA en 2025

Comment Claude Code transforme le codage de l'IA en 2025

Découvrez Claude Code en 2025 : codage IA révolutionné. Fonctionnalités, démo, et pourquoi il gagne du terrain après Windsurf d'Anthropic. Indispensable !

5 June 2025

Pratiquez le Design-first d'API dans Apidog

Découvrez une manière plus simple de créer et utiliser des API