Comment utiliser DeepSeek R1 pour construire une alternative open source à l'opérateur ChatGPT

En combinant DeepSeek R1 et des outils comme Browser Use, créez un ChatGPT Operator open source puissant. Tutoriel ici :

Louis Dupont

Louis Dupont

5 June 2025

Comment utiliser DeepSeek R1 pour construire une alternative open source à l'opérateur ChatGPT

L'essor des modèles de langage volumineux (LLM) open-source a rendu plus facile que jamais la création d'outils basés sur l'IA qui rivalisent avec les solutions propriétaires comme ChatGPT Operator d'OpenAI. Parmi ces modèles open-source, DeepSeek R1 se distingue par ses solides capacités de raisonnement, son accessibilité gratuite et son adaptabilité. En combinant DeepSeek R1 avec des outils comme Browser Use, vous pouvez créer une alternative puissante et entièrement open-source à ChatGPT Operator sans dépenser des centaines de dollars en abonnements premium.

Cet article vous guidera à travers le processus de configuration de DeepSeek R1 et Browser Use pour créer un agent d'IA capable d'effectuer des tâches complexes, notamment l'automatisation web, le raisonnement et les interactions en langage naturel.

Que vous soyez débutant ou développeur expérimenté, ce guide étape par étape vous aidera à démarrer.


Qu'est-ce que ChatGPT Operator et pourquoi avez-vous besoin d'une alternative open source ?

ChatGPT Operator est une fonctionnalité premium proposée par OpenAI qui permet aux utilisateurs de créer des agents d'IA avancés capables d'effectuer des tâches complexes telles que le raisonnement, l'automatisation web et la résolution de problèmes en plusieurs étapes.

ChatGPT Operator coûte 200 $ par mois, ce qui le rend moins accessible aux particuliers, aux petites entreprises ou aux organisations disposant de budgets limités.

ChatGPT Operator réservait un billet d'avion dans la vidéo ci-dessus

Pourquoi avez-vous besoin d'une alternative open source

Bien que ChatGPT Operator soit puissant, il présente plusieurs limites qui rendent une alternative open source attrayante :

En optant pour des outils open-source comme DeepSeek R1 et Browser Use, vous pouvez surmonter ces défis et débloquer plusieurs avantages :

Une approche open source réduit non seulement la dépendance aux plateformes propriétaires, mais vous permet également de créer une solution adaptée à vos besoins tout en conservant le contrôle des coûts et des données.

💡
Fatigué de Postman ? Vous voulez trouver une alternative à Postman moins chère et meilleure, avec toutes les fonctionnalités ?

Vous devez jeter un coup d'œil à Apidog, l'outil de test d'API tout-en-un qui vous guide tout au long du cycle, de la conception de l'API à la documentation de l'API, et qui dynamise la productivité de votre équipe de développement !
button

Composants clés : DeepSeek R1 et Browser Use

DeepSeek R1

DeepSeek R1 est un LLM open-source optimisé pour les tâches de raisonnement. Il excelle dans la résolution de problèmes par la pensée en chaîne, l'aide au codage et la compréhension du langage naturel. Il est disponible en plusieurs tailles (par exemple, 1,5 milliard, 7 milliards de paramètres), ce qui le rend adaptable à différentes capacités matérielles.

Browser Use

Browser Use est un outil open-source qui permet aux agents d'IA d'effectuer des tâches basées sur un navigateur, telles que l'exploration web, le remplissage de formulaires et la navigation automatisée. Il fournit une interface conviviale et peut être intégré à des LLM comme DeepSeek R1 pour une fonctionnalité améliorée.


Étape 1 : Configuration de votre environnement

Configuration matérielle requise

Système d'exploitation

Environnement Python

Créez un environnement virtuel Python pour isoler les dépendances :

python -m venv venv
source venv/bin/activate  # Sur Linux/macOS
# Sur Windows:
# venv\Scripts\activate

Installez les bibliothèques requises :

pip install torch torchvision transformers sentencepiece

Étape 2 : Exécuter DeepSeek avec l'API ou localement avec Ollama

Utilisation de l'API DeepSeek

Pour interagir avec l'API DeepSeek, suivez ces étapes mises à jour :

Obtenir une clé API :

Effectuer votre premier appel d'API :
L'API DeepSeek est compatible avec le format d'API d'OpenAI, ce qui facilite l'intégration avec les SDK ou logiciels OpenAI existants. Voici un exemple d'implémentation Python :

from openai import OpenAI

client = OpenAI(api_key="<Your_DeepSeek_API_Key>", base_url="https://api.deepseek.com")

response = client.chat.completions.create(
    model="deepseek-reasoner",  # Utilisez 'deepseek-reasoner' pour DeepSeek-R1
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain quantum entanglement."}
    ],
    stream=False  # Définir sur True si vous souhaitez des réponses en streaming
)

print(response.choices[0].message.content)

Exemple cURL :
Si vous préférez utiliser cURL, voici comment vous pouvez faire une requête :

curl https://api.deepseek.com/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer <Your_DeepSeek_API_Key>" \
-d '{
    "model": "deepseek-reasoner",
    "messages": [
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "What is the capital of France?"}
    ],
    "stream": false
}'

Sélection du modèle :

Le base_url peut également être défini sur https://api.deepseek.com/v1 pour les configurations compatibles avec OpenAI, bien que le chemin /v1 n'ait aucune relation avec les versions du modèle.


Exécution de DeepSeek localement avec Ollama

Ollama simplifie l'exécution de grands modèles de langage comme DeepSeek-R1 sur votre machine locale. Voici comment le configurer et l'utiliser correctement :

Installer Ollama :

Extraire le modèle souhaité :
Utilisez les commandes suivantes pour télécharger des versions spécifiques de DeepSeek-R1 :

# Pour le modèle 7B (par défaut):
ollama pull deepseek-r1:7b

# Pour un modèle 1,5B plus petit :
ollama pull deepseek-r1:1.5b

# Pour les modèles plus volumineux comme 70B :
ollama pull deepseek-r1:70b

Exécuter le modèle localement :
Une fois téléchargé, exécutez le modèle en utilisant :

ollama run deepseek-r1:7b

Cela démarrera une session interactive où vous pourrez interagir directement avec le modèle.

Variantes de modèles :
DeepSeek propose plusieurs versions distillées basées sur les architectures Qwen et Llama, optimisées pour différents cas d'utilisation :

DeepSeek-R1-Distill-Qwen-7B :

ollama run deepseek-r1:7b-qwen-distill

DeepSeek-R1-Distill-Llama-70B :

ollama run deepseek-r1:70b-llama-distill

Considérations matérielles :

Discussion interactive via l'API :
Ollama fournit une API pour intégrer des modèles exécutés localement dans vos applications :

curl http://localhost:11434/api/chat -d '{
    "model": "deepseek-r1:7b",
    "messages": [
        {"role": "user", "content": "Write a short poem about the stars."}
    ]
}'

Étape 3 : Installation de Browser Use

Browser Use permet à votre agent d'IA d'interagir avec les navigateurs web. Suivez ces étapes :

Installation

Clonez le référentiel Browser Use à partir de GitHub :

git clone https://github.com/browser-use/browser-use.git
cd browser-use
pip install -r requirements.txt

Configuration

Configurez l'interface utilisateur web de Browser Use :

python webui.py

Ouvrez l'interface utilisateur web dans votre navigateur pour configurer les paramètres de l'agent. Vous pouvez spécifier :


Étape 4 : Combinaison de DeepSeek R1 et Browser Use

Pour créer un agent d'IA fonctionnel qui intègre les deux outils :

Configuration de l'agent

Modifiez les paramètres de l'agent dans Browser Use pour le connecter à DeepSeek R1 :

{
  "model": "deepseek-r1",
  "base_url": "http://localhost:5000",
  "browser_settings": {
    "window_height": 1080,
    "window_width": 1920,
    "keep_browser_open": true
  }
}

Exécution de l'agent

Démarrez DeepSeek R1 et Browser Use :

# Démarrer le serveur API DeepSeek R1
python -m deepseek.api_server

# Démarrer l'interface utilisateur web de Browser Use
python webui.py

Une fois les deux services en cours d'exécution, l'agent peut effectuer des tâches telles que le remplissage de formulaires, l'exploration de données ou la navigation autonome sur des sites web.


Étape 5 : Ingénierie des invites pour de meilleurs résultats

Pour optimiser les performances de votre agent d'IA, utilisez des techniques d'ingénierie des invites. Par exemple :

Modèle d'invite général

<instructions>
Vous êtes un assistant d'IA chargé d'automatiser les tâches web à l'aide de Browser Use.
Suivez ces étapes :
1. Accédez à [site web].
2. Effectuez [tâche spécifique].
3. Renvoyez les résultats dans un format structuré.
</instructions>
<example>
Accédez à https://example.com et extrayez tous les hyperliens.
</example>

Cette structure garantit la clarté et améliore la précision de l'exécution des tâches.

Voici quelques démos que vous pouvez essayer en exécutant :

uv pip install gradio

python examples/gradio_demo.py

Exemple 1.

Invite : Écrivez une lettre dans Google Docs à mon Papa, en le remerciant pour tout, et enregistrez le document au format PDF.

Exemple 2.

Invite : Trouvez des vols sur kayak.com de Zurich à Pékin du 25.12.2024 au 02.02.2025.

Exemple 3.

Invite : Lisez mon CV et trouvez des emplois en ML, enregistrez-les dans un fichier, puis commencez à postuler pour ceux-ci dans de nouveaux onglets, si vous avez besoin d'aide, demandez-moi »

0:00/1×


Conclusion

En combinant DeepSeek R1 avec Browser Use, vous pouvez créer une alternative ChatGPT Operator entièrement fonctionnelle, gratuite, open source et hautement personnalisable. Cette configuration permet non seulement de réduire les coûts, mais vous donne également un contrôle total sur la confidentialité des données et le comportement du système.

Que vous automatisiez des tâches web, construisiez des agents conversationnels ou expérimentiez des fonctionnalités d'IA avancées comme la génération augmentée par récupération, ce guide fournit tout ce dont vous avez besoin pour commencer. Adoptez la puissance de l'open source et créez votre propre assistant intelligent dès aujourd'hui !

💡
Fatigué de Postman ? Vous voulez trouver une alternative à Postman moins chère et meilleure, avec toutes les fonctionnalités ?

Vous devez jeter un coup d'œil à Apidog, l'outil de test d'API tout-en-un qui vous guide tout au long du cycle, de la conception de l'API à la documentation de l'API, et qui dynamise la productivité de votre équipe de développement !
button

Explore more

Fathom-R1-14B : Modèle de raisonnement IA avancé d'Inde

Fathom-R1-14B : Modèle de raisonnement IA avancé d'Inde

L'IA en expansion rapide. Fathom-R1-14B (14,8 milliards de paramètres) excelle en raisonnement mathématique et général, conçu par Fractal AI Research.

5 June 2025

Mistral Code : L'assistant de codage le plus personnalisable basé sur l'IA pour les entreprises

Mistral Code : L'assistant de codage le plus personnalisable basé sur l'IA pour les entreprises

Découvrez Mistral Code, l'IA d'aide au code la plus personnalisable pour les entreprises.

5 June 2025

Comment Claude Code transforme le codage de l'IA en 2025

Comment Claude Code transforme le codage de l'IA en 2025

Découvrez Claude Code en 2025 : codage IA révolutionné. Fonctionnalités, démo, et pourquoi il gagne du terrain après Windsurf d'Anthropic. Indispensable !

5 June 2025

Pratiquez le Design-first d'API dans Apidog

Découvrez une manière plus simple de créer et utiliser des API