Apidog

オールインワン協働API開発プラットフォーム

API設計

APIドキュメント

APIデバッグ

APIモック

API自動テスト

30以上の無料およびオープンソースのLLM APIを開発者のために

中村 拓也

中村 拓也

Updated on 4月 16, 2025

強力なオープンソースの大規模言語モデル(LLM)は、最先端のAI機能へのアクセスを根本的に変えました。開発者にとって、この革命は、無料のAPIアクセスティアや substantial 初期クレジットを提供するプラットフォームの増加によってさらに拡大しています。この相乗効果により、重要なコストの障壁が取り除かれ、エンジニアは、即座の財政的コミットメントなしに、最先端のモデルを使用して洗練されたAI駆動の機能を試したり、プロトタイピングしたり、展開したりすることが可能になります。2025年に向けて、APIを介して自由にアクセス可能な高品質のオープンソースLLMの状況を理解することは、革新のために不可欠です。

💡
美しいAPIドキュメントを生成する素晴らしいAPIテストツールが欲しいですか?

開発者チームが最大の生産性で協力して作業できる統合されたオールインワンプラットフォームが欲しいですか?

Apidogはあなたの要求をすべて満たし、Postmanをさらに手頃な価格で提供します
ボタン

この記事では、30以上のモデルについて技術的な探求を行い、特に無料の使用ティアを提供するプロバイダーを通じて利用可能なものに焦点を当てます。私たちは、著名なモデルファミリー、特定のバリアント、その技術的特性(リストから推測可能な場合)、および無料アクセスを容易にするプラットフォームについて詳しく見ていきます。

(免責事項:「無料アクセス」とは、ソースデータに基づき、無償のティアや重要な試用クレジットを提供するプラットフォームを介して利用可能なモデルを指します。モデルの利用可能性、特定のバージョン、レート制限、およびサービス条件は、プロバイダーによって変更される可能性があります。常にプロバイダーの公式ドキュメントを確認してください。)

MetaのLlama:Localllamaの出所

MetaのLlama(Large Language Model Meta AI)ファミリーは、オープンソースのLLM運動を推進する上で重要な役割を果たしています。各反復は、アーキテクチャ、トレーニングデータ、および全体的なパフォーマンスにおいて重要な進展を表しており、オープンモデルのベンチマークを設定することがよくあります。多くのプラットフォームは、無料ティア内でさまざまなLlamaバージョンを活用しています。

APIを介して自由に利用可能な重要なLlamaモデル:

  • Llama 2(7B/13B Chat):古い基盤のLlama 2モデル、特に量子化されたバージョン(AWQ、INT8)は、主にCloudflare Workers AIを介してアクセス可能です。これらは効率的なベースラインとして機能します。
  • Llama 3 8B Instruct:Llama 3世代からの評価の高い小型モデルで、パフォーマンスと計算効率のバランスが取れています。Groq、Cloudflare(標準とAWQ)、OVH、Cerebras、GitHub Modelsを含む無料ティアで広く利用可能です。
  • Llama 3 70B Instruct:Llama 3の初回リリースにおける大きな対応物で、複雑な推論および生成タスクにはるかに多くの能力を提供します。無料ティアでの利用可能性はあまり一般的ではありませんが、有名な制限付きでGroqやGitHub Modelsに見られます。
  • Llama 3.1 8B Instruct:8Bモデルの反復的な改善です。無料ティアでの利用可能性は強く、Groq、Cerebras、OVH、Cloudflare(標準、AWQ、FP8)、GitHub Models、Google Cloud(プレビュー)、Sambanova(トライアル)、Scaleway(トライアル)、Hyperbolic(トライアル)に登場します。CloudflareとGitHubでのFP8の利用可能性は、エッジまたはリソース制約のある環境での最適化された展開を示しています。
  • Llama 3.1 70B Instruct:シリーズ3.1の対応する大きなモデルです。無料アクセスのポイントには、OVH、GitHub Models、Google Cloud(プレビュー)、Scaleway(トライアル)、Hyperbolic(トライアル)、Sambanova(トライアル)が含まれます。
  • Llama 3.1 405B(Base/Instruct):パラメーター数の観点からLlama 3.1シリーズの頂点を表しています。無料トライアルを介したアクセスがHyperbolicやSambanova Cloudなどのプラットフォームに記載されています。GitHub Modelsでもアクセスがリストされています。このスケールは通常、大量の計算リソースを必要とします。
  • Llama 3.2(1B/3B Instruct):新しい、高効率な小型モデルで、リソース使用が最も重要なシナリオをターゲットとしています。CloudflareやHyperbolic、Sambanovaの無料トライアルを通じて利用可能です。
  • Llama 3.2(11B/90B)Vision Instruct:視覚機能を統合したマルチモーダルのバリアントです。11Bバージョンは特にTogetherの専用無料ティアとCloudflareで利用可能であり、はるかに大きな90BバージョンはGoogle Cloudのプレビュー中に無料としてリストされており、Sambanovaのトライアルを介して利用可能です。これはLlamaファミリーにとってマルチモーダルタスクへの重要な拡大を示しています。
  • Llama 3.3 70B Instruct:最近の大規模な指示チューニングモデルです。無料ティアでの利用可能性は非常に良好で、Cerebras、Groq(8Bよりも低い日次制限付き)、OVH、Together(専用無料ティア)、Google Cloud(プレビュー)、GitHub Models、HyperbolicやSambanovaでのトライアルで提供されています。
  • Llama 4 Scout / Maverick Instruct:Metaからの次世代プレビューのモデルです。Scoutは効率に重点を置いているようで(16EはおそらくMixture-of-Expertsのパラメータを指す)、Maverick(128E)はより高いパフォーマンスを狙っています。どちらもGroq(低い日次制限付き)、Cerebras(8Kコンテキスト制限)、Google Cloud(プレビュー)、GitHub Models(MaverickのFP8バリアント)、SambanovaやChutesのトライアルを介して利用可能です。
  • Llama Guard(7B / 3 8B):入力/出力のフィルタリングやコンテンツモデレーションなどのAI安全タスク向けに特別に設計されたモデルです。Cloudflare(AWQ 7B)およびGroq / Sambanova(トライアル)/ GitHub Models(3 8B)を介して利用可能です。

Llamaファミリーのハイライト(無料ティアアクセス): Llama 3.3 70B Instructは、最近の大規模な高性能モデルであり、複数の無料ティア(Cerebras、Groq、OVH、Together)およびプレビュー/トライアル(Google Cloud、GitHub、Hyperbolic、Sambanova)全体で比較的広く利用可能であるため際立っています。マルチモーダルタスクには、Llama 3.2 11B Vision InstructがTogetherの無料ティアとCloudflareでアクセスできる重要なオプションです。最大の効率性を追求するために、Llama 3.1 8B Instructのバリアント(量子化されたAWQ/FP8を含む)も広範囲に利用可能です。

Mistral AI:フランスからの愛

Mistral AIは、オープンウェイトモデルをリリースすることで急速に注目を集め、パラメータ数に対する優れたパフォーマンスを示し、しばしばGrouped-Query Attention(GQA)やSliding Window Attention(SWA)などのアーキテクチャ革新を採用しています。

APIを介して自由に利用可能な重要なMistralモデル:

  • Mistral 7B Instruct(v0.1、v0.2、v0.3):7Bパラメータクラスに対する高いベンチマークを設定した基盤モデルです。そのさまざまなバージョンは、OpenRouter、Cloudflare(v0.1、v0.2標準/AWQ/LoRA)、OVH(v0.3)およびSambanova(E5-Mistralファインチューニング)で広く利用可能です。その一般性により、優れた出発点となっています。
  • Mixtral 8x7B Instruct v0.1:高性能のSparse Mixture-of-Experts(SMoE)モデルです。各トークンは、通常、合計パラメータ数の一部(各7Bパラメータの2つの「エキスパート」)しか処理せず、約14Bの密なモデルに近い計算効率を提供しますが、パフォーマンスはしばしばずっと大きなモデルにも匹敵します。OVHの無料ベータティアを介してアクセス可能です。
  • Mistral Nemo:Mistralからの新しいアーキテクチャです。OpenRouter、OVH、GitHub Models、Scalewayのトライアルを介して利用可能です。
  • Mistral Small 3.1 24B Instruct:Mistralによる独自のモデルですが、OpenRouterやCloudflareの無料ティア、ScalewayやGitHub Modelsのトライアルを通じてアクセスが提供されています。注意:強力ですが、厳密にはオープンソースモデルではなく、無料API利用可能性のために含められています。
  • Zephyr 7B Beta:命令に従う能力とチャット機能の改善で知られるHuggingFace H4によるMistral 7Bの人気のファインチューニングです。OpenRouterおよびCloudflare(AWQ)を介して利用可能です。
  • Hermes 2 Pro Mistral 7B:Mistral 7Bに基づく別の評価の高いファインチューニングです。Cloudflareの無料ティアでアクセス可能です。
  • OpenHermes 2.5 Mistral 7B:Mistral 7Bファインチューニングのもう1つで、Cloudflare(AWQ)を介して利用可能です。

Mistralファミリーのハイライト(無料ティアアクセス): Mistral 7B Instruct(任意のバージョン)は、その実績、パラメータあたりの優れたパフォーマンス、そして非常に幅広い利用可能性(OpenRouter、Cloudflare、OVH)により際立っています。SMoEアーキテクチャの探求を求める開発者には、OVHの無料ティアでのMixtral 8x7B Instructが重要なオファーです。

Google Gemma:小さいが力強い

Gemmaは、Googleのオープンモデルファミリーを代表し、彼らの主力Geminiモデルと共有された研究と技術を使用して開発されています。さまざまなサイズが提供されており、責任あるAI開発のために設計されています。

APIを介して自由に利用可能な重要なGemmaモデル:

  • Gemma 2B Instruct:要求の少ないタスクやリソース制約のある環境に適した小型モデルです。Cloudflareを介して利用可能(LoRAバリアント)。
  • Gemma 7B Instruct:能力のある中型モデルです。Cloudflare(標準およびLoRAバリアント)を介して利用可能です。
  • Gemma 2 9B Instruct:元の7Bモデルの後継で、強化された機能を提供します。OpenRouterとGroqの無料ティアを介してアクセス可能です。
  • Gemma 3(1B、4B、12B、27B)Instruct:最新世代で、広範囲のサイズをカバーしています。小型の1Bおよび4BモデルはOpenRouterおよびGoogle AI Studioにあり、12BはOpenRouter、Google AI Studio、およびCloudflareにあります。大きな27BモデルはOpenRouter、Google AI Studio、およびScalewayのトライアルを介して利用可能です。Google AI Studioは、これらに対して寛大な無料のクォータを提供します。

Gemmaファミリーのハイライト(無料ティアアクセス): Gemma 3シリーズ、特に12B Instructおよび27B Instructは、OpenRouterとGoogle AI Studioを介して自由に利用できる最新の進展を示しています。無料ティア(OpenRouter/Google AI Studio/Cloudflare/Scaleway)内でのGemma 3ラインのさまざまなサイズ(1Bから27B)を通じた広範な利用可能性は、実験への多様なファミリーを提供します。Gemma 2 9B InstructもGroqでの高速推論アクセスを提供します。

AlibabaのQwen:最高のオープンソースマルチモデル&多言語LLM?

AlibabaのQwen(Tongyi Qianwen)モデルは、多言語コンテキストや最近の視覚言語タスクにおいて強力な機能を示しています。

APIを介して自由に利用可能な重要なQwenモデル:

  • Qwen 1.5 Chat(0.5B、1.8B、7B、14B):効率的なAWQ(Activation-aware Weight Quantization)フォーマットで提供される一連のチャットチューニングモデルがCloudflareの無料ティアで利用可能で、スケーラブルなデプロイに適しています。
  • Qwen 2.5 7B Instruct:最新世代の7B指示フォロー型モデルです。OpenRouterを介して利用可能です。
  • Qwen 2.5 72B Instruct:最新シリーズからの大規模で強力な指示チューニング型モデルです。OpenRouterおよびHyperbolicのトライアルを介して利用可能です。
  • Qwen 2.5 VL(ビジョン言語)Instruct(3B、7B、32B、72B):テキストと画像の両方を解釈できるマルチモーダルのバリアントです。様々なサイズでOpenRouterを介して提供され、72BはOVHおよびHyperbolicのトライアルでも提供されています。この強力なマルチモーダル提供は重要な特徴です。
  • Qwen QwQ 32B:OpenRouter(プレビューを含む)、Groq、Cloudflare、およびSambanovaやHyperbolicのトライアルを介して利用可能な特定のバリアントです。
  • Qwen2.5 Coder 32B Instruct:コーディングタスク向けに特化した大きなモデルです。OpenRouter、OVH、Cloudflare、およびHyperbolicやScalewayのトライアルを介して利用可能です。

Qwenファミリーのハイライト(無料ティアアクセス): Qwen 2.5 VL Instructシリーズは、その幅広い利用可能性(OpenRouter、OVH、Hyperbolicトライアル)および複数のサイズ(3Bから72B)で、視覚言語タスク内の無料アクセス文脈での大きなハイライトです。コーディング目的には、Qwen2.5 Coder 32B Instructが強力で、自由にアクセス可能なオプションです(OpenRouter、OVH、Cloudflare)。

MicrosoftのPhi:別の道

MicrosoftのPhiモデルは、高いパフォーマンスには常により大きなパラメータ数が必要であるという考えに挑戦します。彼らは綿密にキュレーションされた「教科書品質」のデータでトレーニングされており、比較的小さなモデルで印象的な推論および言語理解能力を実現しています。

APIを介して自由に利用可能な重要なPhiモデル:

  • Phi-2:当初の「小型モデル」哲学のデモンストレーションとして知られる、驚くほど強力な推論を具現化したモデルです。Cloudflareを介して利用可能です。
  • Phi-3 Mini / Small / Medium Instruct:さまざまなサイズ(Mini ~3.8B、Small ~7B、Medium ~14Bパラメータ)およびコンテキスト長(4k/8k標準、128k拡張)で提供されます。これらへのアクセスは、主にGitHub Modelsの無料ティアを介して記載されています。128kコンテキストのバリアントは、長い文書を処理するために特に注目に値します。
  • (実験/プレビュー)Phi-3.5/Phi-4:GitHub Modelsにリストされた新しい反復で、MoE、視覚、おそらくより大きなベースモデルが含まれており、将来の方向性を示しています。

Phiファミリーのハイライト(無料ティアアクセス): Phi-3シリーズ(Mini、Small、Medium)での128kコンテキスト長バリアントは、GitHub Modelsを介してアクセス可能であり、際立っています。このコンパクトなモデルサイズ、強力なパフォーマンス(サイズに対して)、そして非常に長いコンテキストウィンドウの組み合わせは、無料ティアの風景においてユニークな提供を意味し、広範なテキストの分析を必要とするタスクに理想的です。

DeepSeek:考えるクジラ

DeepSeek AIは、プログラミングや数学などの専門分野で優れた能力を示すオープンソースモデルをリリースすることでニッチを確立しています。

APIを介して自由に利用可能な重要なDeepSeekモデル:

  • DeepSeek Coder(6.7B Base/Instruct):コーディング生成に特化したモデルです。指示バージョンはCloudflare(AWQ)を介して利用可能です。
  • DeepSeek Math 7B Instruct:数学的問題解決に特化したモデルです。Cloudflareを介してアクセス可能です。
  • DeepSeek V3 / V3 0324:OpenRouterおよびHyperbolicやSambanovaのトライアルを介して利用可能な一般的なチャットモデルです。
  • DeepSeek R1:OpenRouterおよびSambanovaやChutesのトライアルを介して利用可能な基盤モデルです。
  • DeepSeek R1 Distill(Llama 70B / Qwen 14B / Qwen 32B):よりコンパクトな形式の大規模モデルの本質をキャッチしようとする知識蒸留モデルです。OpenRouter、Groq(Llama 70B)、OVH(Llama 70B)、Cloudflare(Qwen 32B)、Together(Llama 70B無料ティア)、Scaleway(Llama 70B/8Bトライアル)、およびSambanovaのトライアルを介して広く利用可能です。

DeepSeekファミリーのハイライト(無料ティアアクセス):Cloudflare上のDeepSeek CoderおよびDeepSeek Mathモデルは、無料で利用できる貴重な専用ツールです。また、DeepSeek R1 Distill Llama 70Bは、複数の無料ティア(OpenRouter、Groq、OVH、Together)に渡って広く利用可能で、大規模モデルの蒸留版を提供します。

他の注目すべきオープンモデル(無料API経由)

主要なファミリーを超えて、いくつかの他のファインチューニングや専門化されたオープンモデルが無料ティアに登場しています:

  • OpenChat 3.5 0106:Cloudflareを介して利用可能です。
  • Starling LM 7B Beta:Cloudflareを介して利用可能です。
  • SQLCoder 7B 2:SQL生成に特化され、Cloudflareを介して利用可能です。
  • Dolphin / DeepHermes / Featherless / Rogue Rose / OlympicCoder / QwQ ArliAI:さまざまなファインチューニングおよび実験モデルが、主にOpenRouterやChutesの無料ティアを通じてアクセス可能です。

これらの無料APIにアクセスし、利用する方法

アクセスを取得するには、通常、1つ以上のプロバイダプラットフォームに登録する必要があります。これらのプラットフォームは次のとおりです:

  • アグリゲーター:OpenRouterのように、さまざまなソースからのモデルへの統一インターフェースを提供し、しばしば多くの無料オプションを含みます。Unifyはトライアルクレジットを持つルーターとして機能します。
  • クラウドプロバイダー:Google Cloud(Vertex AI)、Cloudflare(Workers AI)、OVH Cloud(AIエンドポイント)、Scalewayなどの企業が、無料ティアやプレビューを提供し、より広範なクラウドエコシステムに統合されています。通常、アカウントの設定が必要で、場合によっては無料ティアでも支払いの確認が必要です。
  • 専用LLMプロバイダー:Groq(低遅延推論に特化)、Mistral、Cerebras、Togetherは、無料ティアや専用の無料モデルを提供し、しばしばサインアップが必要で、電話確認が必要な場合もあります。
  • プラットフォーム統合:GitHub Modelsは開発者ワークフローにLLMアクセスを統合し、制限はCopilotのサブスクリプションに関連しています。
  • 計算プラットフォーム:Modal、Basetenは一般的な計算プラットフォームを提供し、使用量に応じて支払いますが、 considerableな月額無料クレジット($30)を提供しており、大規模なLLM実験に十分です。
  • トライアルクレジットプロバイダー:Fireworks、Nebius、Novita、AI21、Upstage、NLP Cloud、Hyperbolic、Sambanovaは、モデルオファリングを探るための初期ドルまたはトークンのクレジットを提供します。

技術的考慮事項:

  • APIキー:認証に不可欠です。安全に保管してください。
  • レート制限:無料ティアには必ず制限があります(リクエスト/分/日、トークン/分/月、同時リクエスト)。これはアプリケーションの実行可能性を左右する重要な要素です。README.mdには、Groqのさまざまな日次制限、Google AI Studioの詳細なトークン/リクエスト制限、OVHのシンプルなRPM制限などの詳細が詳述されています。
  • クォータ:レート制限に似ていますが、通常特定の期間の全体の使用量を定義します(例:Cohereの月次リクエスト制限、Cloudflareのデイリーニューロン割り当て、Scalewayの無料トークン合計)。
  • 量子化:AWQ(Activation-aware Weight Quantization)やFP8(8ビット浮動小数点)などの技術がよく使用されており、特にCloudflareやGitHub Modelsで、そして無料または低コストのインフラストラクチャでの展開を可能にするためにモデルサイズや計算要求を削減します。これは精度の一部を効率に交換します。
  • コンテキストウィンドウ:大きく異なる場合があります(例:Cerebras無料ティアは8Kに制限、Phi-3は128Kを提供)。タスクの要件に基づいて選択してください。
  • データプライバシー/使用:特にモデルのトレーニングのためのデータ使用に関するプロバイダーのポリシーに注意してください(例:Google AI Studioの注意書き、Mistral Experiment計画)。

さて、各ユースケースに最適なオープンソースLLMは何ですか?

「最良の」無料オープンソースLLM APIの選択は、特定の開発タスクに大きく依存します:

  • 一般的なチャット/指示に従う:Llama 3.x Instruct、Mistral 7B Instruct、Mixtral 8x7B、Gemma 2/3 Instruct、Qwen 2.5 Instructは強力な候補です。広く利用可能なオプションの中からMistral 7BやLlama 3.1 8Bから始めてください。
  • コーディング:DeepSeek Coder、Qwen2.5 Coder、Llama 4 Scout/Maverick(しばしばコーディングベンチマークを示す)、Codestral(Mistral、無料ティア)。
  • マルチモーダル(テキスト+画像):Llama 3.2 Vision Instruct、Qwen 2.5 VL Instructシリーズ、Phi-3.5 Vision、Aya Vision。OpenRouter、Cloudflare、Together、Google Cloudでの利用可能性を確認してください。
  • 長いコンテキスト処理:GitHub Modelsを介したPhi-3 128kバリアント。
  • 高い推論速度:Groqがリードしていることが多く、Llama 3バリアント、Gemma 2、Mixtral(Mistral Saba経由)などを提供しています。
  • 無料ティア/プレビュー経由での最大パワー:利用可能な最大のモデルとしてLlama 3.3 70B(複数のプロバイダー)、Llama 3.1 405B(トライアル)、Qwen 2.5 72B、Google CloudやGitHubの潜在的な実験プレビューなどを参照してください。
  • 効率/リソース制約:Llama 3.2(1B/3B)、Phi-3 Mini、Gemma 3(1B/4B)、またはCloudflare/GitHubの量子化モデル(AWQ/FP8)が理想的です。

結論

オープンソースLLMの豊かなエコシステムとアクセス可能な無料APIティアは、2025年の開発者に前例のない機会を提供します。Llama 3やMistral 7Bのような多目的なチャットモデルから、DeepSeek Coderのような特化型コーディングエンジン、Qwen VLのようなマルチモーダルな力強さまで、初期コストなしで実験や統合が可能な広範囲にわたる機能が利用できます。モデル、アクセスを提供するプラットフォーム、およびレート制限やコンテキストウィンドウなどの関連技術的制約を理解することにより、開発者は次世代のAI搭載アプリケーションを構築するためにこれらのリソースを効果的に活用できます。最新の詳細についてはプロバイダーのドキュメントを参照し、これらの貴重なリソースは常に責任を持って使用してください。

💡
美しいAPIドキュメントを生成する素晴らしいAPIテストツールが欲しいですか?

開発者チームが最大の生産性で協力して作業できる統合されたオールインワンプラットフォームが欲しいですか?

Apidogはあなたの要求をすべて満たし、Postmanをさらに手頃な価格で提供します
ボタン