DolphinGemma:イルカのためのLLM

本記事では、DolphinGemmaの可能性のあるアーキテクチャ、学習方法、評価メトリクス、および信頼できるAIの領域におけるその位置付けの技術的探究を提供します。

Audrey Lopez

Audrey Lopez

14 4月 2025

DolphinGemma:イルカのためのLLM

大規模言語モデル(LLMs)の普及は自然言語処理に革命をもたらしましたが、事実に基づかない、「幻覚的」なコンテンツを生成する傾向は、信頼できる展開への重要な障害のままです。標準的なLLMは、広範であっても不透明なパラメトリック知識をユーザーが提供したコンテキストと混合することがよくあり、その結果、検証が難しい出力が生じます。これに対応して、GoogleはDolphinGemmaを導入しました。このモデルは、オープンモデルのGemmaファミリー内の特化型イテレーションであり、明示的な引用による基づいた生成のために精密に設計されています。

本記事では、DolphinGemmaの可能性のあるアーキテクチャ、学習方法、評価メトリクス、および信頼できるAIの領域におけるその位置付けの技術的探究を提供します。

💡
美しいAPIドキュメントを生成する素晴らしいAPIテストツールが欲しいですか?

開発チームが最大の生産性で一緒に作業できる統合型のオールインワンプラットフォームが必要ですか?

Apidogはあなたのすべての要求を提供し、Postmanをより手頃な価格で置き換えます
button

基盤アーキテクチャ:Gemmaの遺産

DolphinGemmaは、GoogleのGemmaモデルの確立されたアーキテクチャを基に構築されています。Gemma自体は、GPTのようなモデルによって普及したデコーダのみのTransformerアーキテクチャを利用しています。

DolphinGemmaが受け継ぐ主要な特徴には、以下が含まれる可能性があります:

  1. トランスフォーマーブロック:マルチヘッド自己注意層とフィードフォワードネットワークで構成され、モデルが入力シーケンス内の異なるトークンの重要性を評価できるようにします。Gemmaは、より高速な推論とメモリフットプリントの削減のためにマルチクエリ注意を使用しており、特に大きなモデルにとっては有益です。
  2. パラメータサイズ:DolphinGemmaのバリアントは、公開されたGemmaサイズに一致することが期待されており、主に2B(具体的には約25億パラメータ)および7B/8B(具体的には約85億パラメータ)の実効パラメータです。これらのサイズは意図的なトレードオフを表しており、消費者グレードのGPU(例えばNVIDIA RTXシリーズ)やCPUに展開可能であり、クラウド環境(例:Google Cloud Vertex AI、Kaggle)に効率的にホストできます。
  3. 語彙とトークナイゼーション:大規模コーパスに基づいて訓練されたSentencePieceトークナイザーを利用しており、おそらくGemmaで使用されるのと同じ256kの語彙サイズを使用しています。これにより、様々なテキストとコードの効率的なエンコードが可能になります。
  4. 活性化関数:トレーニングダイナミクスと性能を改善するために、GeGLU(Gated Linear Units with GELU活性化)などの現代的な活性化関数を使用しています。
  5. 正規化:標準のLayer Normalizationの代わりに計算効率を重視してRMSNorm(Root Mean Square Layer Normalization)を使用していますが、パフォーマンスに妥協はありません。
  6. 回転位置埋め込み(RoPE):注意メカニズム内で直接位置情報を適用し、シーケンスの長さをより良く処理でき、絶対位置埋め込みや学習された位置埋め込みと比較して外挿能力の向上が期待できます。

この基盤は、DolphinGemmaの特化した基づいた能力が構築される、能力的かつ比較的効率的なベースモデルを提供します。

技術的課題:パラメトリックドミナンスを克服する

標準的なLLMは、Retrieval-Augmented Generation(RAG)を介してコンテキストが提供された場合でも、「知識漏洩」をしばしば示します。内部パラメータは、事前学習中に学習された膨大な量の世界知識をエンコードします。生成中、モデルの次のトークンに対する予測は提供されたコンテキスト(取得されたドキュメント)とこの内部パラメトリック知識の両方の影響を受けます。これにより以下が引き起こされる可能性があります:

DolphinGemmaの主要な技術的目標は、提供されたコンテキストに対して生成プロセスを強くバイアスすることソースの帰属(引用)を明示的に生成することです。

DolphinGemmaの解決策:特化したファインチューニング

DolphinGemmaは、その基づいた挙動をアーキテクチャの大規模な見直し(コアのトランスフォーマーブロックにはほとんど変更がない可能性が高い)ではなく、ターゲットを絞った教師ありファインチューニング(SFT)と、基づいた性質と引用に特化した強化学習のフェーズを通じて達成します。

  1. ファインチューニング目標:主な訓練目標は、一般的な指示の遵守やチャット能力(Gemma-ITバリアントのような)から、クエリQとソースドキュメントのセット{D1、D2、...、Dn}が与えられた場合、{Di}に存在する情報にのみ事実的に一貫した回答Aを生成し、Aのスパンを特定のDiにリンクする引用を含むへとシフトします。
  2. ファインチューニングデータコーパス:これには、典型的な指示チューニングデータセットとは異なる特化したデータセットが必要です。このコーパスは、以下の形式の例が含まれている可能性があります:
  1. 訓練方法論:

評価メトリクスと性能

DolphinGemmaを評価するには、流暢さやn-gramのオーバーラップを主に測定する標準的な言語生成スコア(例えばBLEUやROUGE)を超えたメトリクスが必要です。主要な評価次元には以下が含まれます:

  1. 基づき/忠実性:
  1. 引用の質:
  1. 流暢さと関連性:標準的なメトリクスであるROUGEは、出力が読みやすく、クエリに関連しているかを確認するために使用できますが、基づいていることに対して二次的です。
  2. ベンチマーク:評価は、回答が提供されたスニペットのみに基づいて導出されなければならない(Natural Questions、WebQuestions、TriviaQAなど)の質問応答データセットの修正されたバージョンで行われる可能性が高く、対立情報のあるソースの下で基づきと引用をテストするために特別に設計されたカスタム構築ベンチマーク上で行われるかもしれません。

技術的考慮事項とトレードオフ

オープン性と入手可能性

Gemmaファミリーの重要な側面は、そのオープンな性質です。Googleは通常:

これにより、研究者や開発者はDolphinGemmaを直接展開、変更、および構築できます。入手可能性は、Kaggle、Hugging Face、Vertex AI Model Gardenなどのプラットフォームを通じて行われるかもしれません。

結論:言語モデルに対する信頼性の工学

DolphinGemmaは、LLMsに検証可能な基づきと引用能力を持たせるための重要な工学的努力を表しています。効率的なGemmaアーキテクチャを活用し、コンテキストの遵守とソースの帰属に特化した大規模ファインチューニングを適用することで、一般的なRAGプロンプティングを超えたものとなります。リトリーバルの質に依存し、ソース内の矛盾を処理する際の課題に直面しながら、DolphinGemmaは幻覚を軽減し、より信頼できるAIシステムを構築するための技術的に堅牢なアプローチを提供します。そのオープンモデルとしての入手可能性は、正確性と検証可能性が妥協できないシステムにとって重要な要素を提供し、信頼できる事実に基づくAIアプリケーションの研究と開発を acelerate させることを約束します。

ApidogでAPIデザイン中心のアプローチを取る

APIの開発と利用をよりシンプルなことにする方法を発見できる

DolphinGemma:イルカのためのLLM