Firecrawl CLIインストールと使い方

Herve Kom

Herve Kom

17 3月 2026

Firecrawl CLIインストールと使い方

Firecrawl CLI

Firecrawl CLIは、AIエージェントや開発者が任意のウェブサイトからクリーンなMarkdown、JSON、スクリーンショットなどを直接ファイルシステムに書き込み、ウェブのスクレイピング、検索、マッピング、クロール、ブラウザの自動化を行うことができる統合ターミナルツールです。Firecrawl CLIはnpx firecrawl(インストール不要)で実行するか、グローバルにインストールした後、`firecrawl init`コマンド一つでClaude Code、Cursor、OpenCodeに接続し、スキルを自動的に追加できます。

AIエージェントや開発者が、壊れやすいカスタムスクリプトやブロックされたリクエストに悩まされることなく、信頼性の高いリアルタイムのウェブデータを必要としているため、Firecrawl CLIをインストールするのです。Firecrawl CLIは、スクレイピング、ウェブ検索、サイトマッピング、再帰的クロール、クラウドブラウザセッションを一つのターミナルネイティブツールに統合します。出力は、クリーンなMarkdown、構造化されたJSON、スクリーンショット、またはHTMLを直接ファイルシステムに保存し、トークン数を低く抑え、LLM(大規模言語モデル)のコンテキストを正確に保ちます。Claude Code、Cursor、OpenCodeのようなエージェントは、従来のツールでは処理できないJavaScriptレンダリングページ、動的なサイト、保護されたフローから最新のコンテンツを取得するために、日々Firecrawl CLIを活用しています。

💡
最初のFirecrawl CLIコマンドを実行する前に、Apidogを無料で入手してください。Apidogは、Firecrawl CLIが内部で使用するFirecrawl APIエンドポイントを視覚的にテストおよびデバッグできます。APIキー、カスタムパラメータ、レスポンス形式がすべて一つのクリーンなインターフェースで扱えます。エージェントの統合設定やトラブルシューティングの際に、試行錯誤を大幅に削減できます。

システムの準備、Firecrawl CLIのインストール、認証、コアコマンドの探索、エージェントとの統合、ベストプラクティスの適用を行います。Firecrawl CLIは、並行処理、レート制限、ローカルキャッシュを自動的に管理するため、ユーザーは価値あるデータの抽出に集中できます。Firecrawl CLIでのフォーマットセレクタや待機タイマーなどの正確なフラグ選択は、出力品質と効率の大幅な向上をもたらします。

Firecrawl CLIが提供するもの、そして従来のウェブツールを凌駕する理由

Firecrawl CLIは、クラウドブラウザを通じてJavaScriptをネイティブにレンダリングし、アンチボット保護を尊重し、Cheerioベースや基本的なPuppeteerスクリプトが失敗する複雑なサイトで80%以上のコンテンツ再現率を実現します。デフォルトで、定型文が取り除かれたLLM最適化Markdownが提供されるため、エージェントに結果をフィードする際のコンテキストウィンドウへの負担が軽減されます。

Firecrawl CLIは、大量のペイロードをストリーミングする代わりにファイルをローカルに書き込むため、スクレイピングしたコンテンツに対して繰り返しAPIコールを行うことなく、bashを利用した検索が可能になります。Firecrawl CLIのスクレイピング、検索、マッピング、クロール、ブラウザコマンドをスクリプトやエージェントループにシームレスに組み合わせて使用できます。これらの機能により、個別のライブラリ、ヘッドレスインスタンス、プロキシローテーションが不要になります。Firecrawl CLIで`--only-main-content`を使用するなどの小さな決定が、よりクリーンで安価な出力を生み出し、それが大きな生産性向上につながります。

Firecrawl CLIをインストールする前の環境準備

Firecrawl CLIは最新のnpm機能に依存するため、Node.js ≥18がインストールされていることを確認してください。ターミナルで`node --version`を実行します。必要に応じて、パッケージマネージャーまたはnvm経由で更新してください。

Firecrawl CLIの出力を整理するためのワークスペースディレクトリを作成します。

mkdir firecrawl-cli-projects && cd firecrawl-cli-projects

これにより、散乱を防ぎ、データセットのGit管理が容易になります。オプションでテレメトリーを無効にできます。

export FIRECRAWL_NO_TELEMETRY=1

エージェント向け推奨初期化方法によるFirecrawl CLIのインストール

最も迅速な方法は、Firecrawl CLIのインストール、認証、エージェントスキルの追加を一度に行うことです。以下を実行してください。

npx -y firecrawl-cli@latest init --all --browser

Firecrawl CLIは、Firecrawlアカウントのログイン(またはサインアップ)のためにブラウザを開き、APIキーを安全に生成/保存し、Claude Code、Cursor、およびその他の互換性のあるエージェントのスキルを設定します。その後、エージェントを再起動して、新しいFirecrawl CLIの機能を検出させます。この方法により、Firecrawl CLIがグローバルに設定され、MCP/サーバーレスブラウザアクセスが可能になります。

頻繁な利用のためのnpm経由でのFirecrawl CLIのグローバルインストール

プロジェクト間で恒久的かつ低遅延でアクセスするために、Firecrawl CLIをグローバルにインストールします。

npm install -g firecrawl-cli

以下で確認してください。

firecrawl --version

これにより、Firecrawl CLIはnpxのオーバーヘッドなしで、どのディレクトリからでも即座に反応するようになります。

Firecrawl CLIの認証と設定の確認

認証により、Firecrawl CLIの全機能が利用可能になります。以下を実行してください。

firecrawl login

Firecrawl CLIはブラウザベースのOAuthを促します。または、キーを手動で設定することもできます。

export FIRECRAWL_API_KEY=fc-your-key-here

いつでもステータスを確認できます。

firecrawl --status

これにより、クレジット、並行処理制限、認証状態が表示されます。完全な設定を確認するには:

firecrawl view-config

`firecrawl logout`でアカウントを切り替え、再度ログインします。ローカル/セルフホストのFirecrawlインスタンスの場合、クラウド認証とクレジットをバイパスするために`--api-url http://localhost:3002`を使用します。

Firecrawl CLIにおけるスクレイピングコマンドをマスターする

以下のコマンドで、任意のURLからコンテンツを抽出します。

firecrawl scrape https://example.com --only-main-content

Firecrawl CLIはクリーンなMarkdownを返し、`-o output.md`を追加すると`./output.md`に保存されます。ナビゲーション、広告、サイドバーを除去し、トークン使用量を大幅に削減するために、常に`--only-main-content`を優先して使用してください。

複数のフォーマットをリクエストします。

firecrawl scrape https://example.com --format markdown,json,html,links,images --pretty

Firecrawl CLIは、リクエストされたすべてのデータを含む構造化されたJSONを出力します。スクリーンショットをキャプチャするには、`--screenshot`または`--full-page-screenshot`を使用します。読み込みの遅いサイトには`--wait-for 5000`で対応します。

正確なフィルタリングを行います。

firecrawl scrape https://docs.example.com --include-tags main,article --exclude-tags nav,footer,script

パフォーマンスをベンチマークするには`--timing`を追加します。Firecrawl CLIは結果をローカルに保存し、パイプ処理やエージェントへの取り込みに備えます。

Firecrawl CLIを使ったウェブ検索の実行

インターネットを検索し、上位の結果をまとめてスクレイピングします。

firecrawl search "latest AI agent benchmarks" --scrape --limit 8 --scrape-formats markdown

Firecrawl CLIは結果を取得し、コンテンツを抽出し、ファイルを保存します。`--tbs qdr:w`で新しさ、場所、またはソースタイプでフィルタリングします。より詳細な検証のために、検索とブラウザセッションを組み合わせます。これにより、Firecrawl CLIは一つのツールで完全な調査ループをサポートします。

Firecrawl CLIを使ったウェブサイトのマッピング

詳細な抽出を行う前に、すべてのURLを検出します。

firecrawl map https://example.com -o sitemap.json

Firecrawl CLIは、メタデータを含む構造化されたリストを返します。フィルタリングされたURLをスクレイピングまたはクロールコマンドにフィードします。Firecrawl CLIはrobots.txtと丁寧なクロールを自動的に尊重します。

Firecrawl CLIを使ったサイト全体の再帰的クロール

包括的なクロールを実行します。

firecrawl crawl https://example.com --wait --progress -o crawl-output.json

Firecrawl CLIは内部リンクをたどり、ページをスクレイピングし、すべてをローカルに保存します。コストを管理するために、深さ、最大ページ数、並行処理を制御します。リアルタイムの進捗レポートにより、大規模なジョブを監視またはキャンセルできます。

Firecrawl CLIでのブラウザセッションの自動化

クラウドブラウザでインタラクティブなフローを処理します。

firecrawl browser launch-session

Firecrawl CLIはセッションIDを返します。アクションを実行します。

firecrawl browser execute "open https://news.ycombinator.com" --session <id>
firecrawl browser execute "click .titleline > a" --session <id>
firecrawl browser execute "scrape" --session <id>

Firecrawl CLIは、動的なインタラクション後のクリック、入力、ナビゲーション、抽出をサポートします。リソースを解放するためにセッションを閉じます。Firecrawl CLIは、複雑なPuppeteerコードをシンプルでエージェントが読み取り可能なコマンドに置き換えます。

Firecrawl CLIの詳細設定とグローバルフラグ

永続的にカスタマイズします。

firecrawl config --api-url https://your-custom-endpoint --concurrency 5

Firecrawl CLIはこれらの設定をすべての実行に適用します。JSON出力をグローバルに強制したり、ヘッダーを調整したりできます。大きな操作の前に`--status`でクレジットを監視してください。シームレスなセッションのために、シェルプロファイルに`FIRECRAWL_API_KEY`をエクスポートしてください。

Firecrawl CLIとAIコーディングエージェントの統合

Firecrawl CLIスキルを一度インストールする(`npx -y firecrawl-cli@latest init --all`)だけで、エージェントはそれを自動的に検出します。CLI + スキルモードでは、エージェントは必要に応じてFirecrawl CLIコマンドを明示的に実行します。MCPモードでは、エージェントはネイティブツールを不可視に呼び出します。

Firecrawl CLIは、生のコンテンツではなくローカルファイルパスを返すため、コンテキストウィンドウをスリムに保ちます。これにより、エージェントは追加のプロンプトなしで信頼性の高いウェブ調査を実行できます。

Firecrawl CLIの問題を効率的にトラブルシューティングする

認証に失敗した場合:`firecrawl login`を再実行してください。レート制限に達した場合:並行処理を減らすか、ダッシュボードでプランのアップグレードを確認してください。JavaScriptが多いサイトで空の結果が出た場合:`--wait-for`を増やすか、`--only-main-content`を有効にしてください。診断には`--timing`を使用してください。キーを切り替える際は`firecrawl logout`で認証情報をクリアしてください。

Firecrawl CLIを最大限に活用するためのベストプラクティス

ノイズのないMarkdownを得るために、常に`--only-main-content`を含めてください。分かりやすい出力ファイル名と専用のフォルダを使用してください。フルクロールを行う前に、小さな範囲でテストしてください。検索 → マッピング → クロールのパイプラインを組み合わせます。再現可能なデータセットのために、出力ディレクトリをバージョン管理してください。効率を維持するために、毎週のクレジット使用量をレビューしてください。これらの習慣により、Firecrawl CLIは高速で、コスト効率が高く、信頼性の高いものとなります。

ApidogによるFirecrawl CLIワークフローの補完

Apidogを無料でダウンロードし、Firecrawlエンドポイント(スクレイピング、検索、クロールなど)をコレクションにインポートします。Apidogはリクエストを視覚化し、Firecrawl CLI APIキーを変数として保存し、レスポンスをモックし、自動テストを実行します。ターミナルでの実行前に、複雑なFirecrawl CLIオプションやカスタムペイロードをデバッグできます。Firecrawl CLI + Apidogは、最新のウェブデータと検証済みのAPI動作という、エンドツーエンドの信頼性を提供します。

結論

これで、Firecrawl CLIのインストールと認証から、高度なスクレイピング、検索、マッピング、クロール、ブラウザ自動化に至るまで、Firecrawl CLIのあらゆる側面を使いこなせるようになりました。Firecrawl CLIは、混沌としたウェブアクセスを、エージェントと開発者の両方に力を与えるクリーンでターミナルファーストなパイプラインに変えます。

今日から`init`コマンドを実行し、スクレイピングをテストし、そこから構築を始めましょう。Firecrawl CLIは、慎重なフラグの使用と実験に対して、劇的に優れた結果で報います。

今すぐApidogを無料でダウンロードして、Firecrawl CLIのテストとAPI検証を強化しましょう。Firecrawl CLIをインストールし、Firecrawl CLIを使用し、リアルタイムのウェブマスタリーを解き放ちましょう。

ボタン

追加リソース

ApidogでAPIデザイン中心のアプローチを取る

APIの開発と利用をよりシンプルなことにする方法を発見できる