DolphinGemma: LLM, Tapi untuk Lumba-lumba

Google memperkenalkan DolphinGemma, iterasi khusus Gemma, dirancang untuk generasi berbasis bukti dengan sitasi eksplisit.

Ardianto Nugroho

Ardianto Nugroho

15 April 2025

DolphinGemma: LLM, Tapi untuk Lumba-lumba

Perkembangan pesat Large Language Models (LLMs) telah merevolusi pemrosesan bahasa alami, namun kecenderungan mereka untuk menghasilkan konten yang tidak faktual atau "berhalusinasi" tetap menjadi penghalang kritis bagi penerapan yang dapat dipercaya. LLM standar sering kali menggabungkan pengetahuan parametrik mereka yang luas, tetapi buram, dengan konteks yang diberikan pengguna, yang mengarah pada keluaran yang sulit diverifikasi. Untuk mengatasi hal ini, Google memperkenalkan DolphinGemma, sebuah iterasi khusus dalam keluarga Gemma dari model terbuka, yang direkayasa dengan cermat untuk generasi berdasarkan fakta dengan sitasi eksplisit. Artikel ini memberikan eksplorasi teknis tentang kemungkinan arsitektur DolphinGemma, metodologi pelatihan, metrik evaluasi, dan posisinya dalam lanskap AI yang andal.

💡
Ingin alat Pengujian API hebat yang menghasilkan Dokumentasi API yang indah?

Ingin platform All-in-One terintegrasi untuk Tim Pengembang Anda bekerja bersama dengan produktivitas maksimum?

Apidog memberikan semua demans Anda, dan menggantikan Postman dengan harga yang jauh lebih terjangkau!
button

Arsitektur Fondasi: Warisan Gemma

DolphinGemma dibangun di atas arsitektur model Gemma Google yang sudah mapan. Gemma sendiri memanfaatkan arsitektur Transformer khusus dekoder, yang dipopulerkan oleh model seperti GPT.

Karakteristik utama yang diwarisi oleh DolphinGemma kemungkinan meliputi:

  1. Blok Transformer: Terdiri dari lapisan perhatian mandiri multi-kepala dan jaringan feed-forward, memungkinkan model untuk menimbang pentingnya token yang berbeda dalam urutan input. Gemma menggunakan perhatian multi-kueri untuk inferensi yang lebih cepat dan jejak memori yang lebih kecil, terutama bermanfaat untuk model yang lebih besar.
  2. Ukuran Parameter: Varian DolphinGemma diharapkan selaras dengan ukuran Gemma yang dirilis, terutama 2B (khususnya ~2,5 miliar parameter) dan 7B/8B (khususnya ~8,5 miliar parameter) parameter efektif. Ukuran ini mewakili trade-off yang disengaja, menawarkan kemampuan yang signifikan sambil tetap dapat diterapkan pada GPU kelas konsumen (seperti seri NVIDIA RTX) dan CPU, atau dihosting secara efisien di lingkungan cloud (misalnya, Google Cloud Vertex AI, Kaggle).
  3. Kosakata dan Tokenisasi: Menggunakan tokenizer SentencePiece yang dilatih pada korpus besar, kemungkinan ukuran kosakata 256k yang sama yang digunakan untuk Gemma. Ini memungkinkan pengkodean teks dan kode yang beragam secara efisien.
  4. Fungsi Aktivasi: Menggunakan fungsi aktivasi modern seperti GeGLU (Gated Linear Units dengan aktivasi GELU) untuk peningkatan dinamika dan kinerja pelatihan.
  5. Normalisasi: Menggunakan RMSNorm (Root Mean Square Layer Normalization) alih-alih Layer Normalization standar untuk efisiensi komputasi tanpa mengorbankan kinerja.
  6. Rotary Positional Embeddings (RoPE): Menerapkan informasi posisi langsung dalam mekanisme perhatian, menawarkan penanganan panjang urutan yang lebih baik dan potensi kemampuan ekstrapolasi yang ditingkatkan dibandingkan dengan embedding posisi absolut atau yang dipelajari.

Fondasi ini menyediakan model dasar yang mampu dan relatif efisien di mana kemampuan grounding khusus DolphinGemma dibangun.

Tantangan Teknis: Mengatasi Dominasi Parametrik

LLM standar, bahkan ketika diberikan konteks melalui Retrieval-Augmented Generation (RAG), sering kali menunjukkan "kebocoran pengetahuan." Parameter internal mereka menyandikan sejumlah besar pengetahuan dunia yang dipelajari selama pra-pelatihan. Selama generasi, prediksi model untuk token berikutnya dipengaruhi oleh baik konteks yang diberikan (dokumen yang diambil) dan pengetahuan parametrik internal ini. Hal ini dapat menyebabkan:

Tujuan teknis inti dari DolphinGemma adalah untuk sangat memihak proses generasi terhadap konteks yang diberikan dan secara eksplisit menghasilkan atribusi sumber (sitasi).

Solusi DolphinGemma: Fine-Tuning Khusus

DolphinGemma mencapai perilaku dasarnya bukan melalui perombakan arsitektur (kemungkinan perubahan minimal, jika ada, pada blok Transformer inti) tetapi melalui fine-tuning terawasi (SFT) yang ditargetkan dan berpotensi fase pembelajaran penguatan yang berfokus secara khusus pada dasar dan sitasi.

  1. Tujuan Fine-tuning: Tujuan pelatihan utama bergeser dari mengikuti instruksi umum atau kemampuan obrolan (seperti varian Gemma-IT) menjadi: Mengingat kueri Q dan serangkaian dokumen sumber {D1, D2, ..., Dn}, hasilkan jawaban A yang secara faktual konsisten hanya dengan informasi yang ada di {Di} dan menyertakan sitasi yang menghubungkan rentang di A kembali ke Di tertentu.
  2. Korpus Data Fine-tuning: Ini membutuhkan dataset khusus yang berbeda dari dataset penyetelan instruksi tipikal. Korpus ini kemungkinan berisi contoh dalam bentuk:
  1. Metodologi Pelatihan:

Metrik dan Kinerja Evaluasi

Mengevaluasi DolphinGemma membutuhkan metrik di luar skor pembuatan bahasa standar (seperti BLEU atau ROUGE) yang terutama mengukur kefasihan dan tumpang tindih n-gram. Dimensi evaluasi utama meliputi:

  1. Dasar/Kesetiaan:
  1. Kualitas Sitasi:
  1. Kefasihan dan Relevansi: Metrik standar seperti ROUGE masih dapat digunakan untuk memastikan output dapat dibaca dan relevan dengan kueri, meskipun sekunder untuk dasar.
  2. Tolok Ukur: Evaluasi kemungkinan akan terjadi pada versi modifikasi dari dataset Tanya Jawab (Natural Questions, WebQuestions, TriviaQA) di mana jawaban harus diturunkan hanya dari cuplikan yang diberikan, dan berpotensi pada tolok ukur yang dibuat khusus yang dirancang khusus untuk menguji dasar dan sitasi dalam kondisi permusuhan (misalnya, informasi yang bertentangan dalam sumber).

Pertimbangan dan Trade-off Teknis

Keterbukaan dan Ketersediaan

Aspek kunci dari keluarga Gemma adalah sifatnya yang terbuka. Google biasanya merilis:

Ini memungkinkan peneliti dan pengembang untuk menerapkan, memodifikasi, dan membangun DolphinGemma secara langsung. Ketersediaan mungkin melalui platform seperti Kaggle, Hugging Face, dan Vertex AI Model Garden.

Kesimpulan: Rekayasa Kepercayaan pada Model Bahasa

DolphinGemma mewakili upaya rekayasa yang signifikan untuk menanamkan LLM dengan kemampuan dasar dan sitasi yang dapat diverifikasi. Dengan memanfaatkan arsitektur Gemma yang efisien dan menerapkan fine-tuning khusus skala besar yang berfokus pada kepatuhan konteks dan atribusi sumber, ia bergerak melampaui perintah RAG generik. Meskipun bergantung pada kualitas pengambilan dan menghadapi tantangan dalam menangani konflik sumber, DolphinGemma menawarkan pendekatan yang secara teknis kuat untuk mengurangi halusinasi dan membangun sistem AI yang lebih dapat dipercaya. Ketersediaannya sebagai model terbuka menjanjikan untuk mempercepat penelitian dan pengembangan dalam aplikasi AI yang andal dan berbasis fakta, menyediakan komponen penting untuk sistem di mana akurasi dan kemampuan verifikasi tidak dapat dinegosiasikan.

Explore more

Cara Menggunakan OpenAI Sora Secara Gratis: Panduan Lengkap untuk Microsoft Bing Video Creator

Cara Menggunakan OpenAI Sora Secara Gratis: Panduan Lengkap untuk Microsoft Bing Video Creator

💡Ingin alat Pengujian API hebat yang menghasilkan Dokumentasi API yang indah? Ingin platform Terintegrasi, All-in-One untuk Tim Pengembang Anda bekerja sama dengan produktivitas maksimum? Apidog memenuhi semua permintaan Anda, dan menggantikan Postman dengan harga yang jauh lebih terjangkau!tombol Model teks-ke-video mutakhir OpenAI, Sora, telah mengubah pembuatan konten yang dihasilkan AI dengan kemampuannya menciptakan video yang sangat realistis dari instruksi teks sederhana. Namun, biaya

3 June 2025

Apa itu Ollama? Cara Menginstal Ollama?

Apa itu Ollama? Cara Menginstal Ollama?

💡Ingin alat Pengujian API yang hebat yang menghasilkan Dokumentasi API yang indah? Ingin platform terintegrasi, All-in-One untuk Tim Pengembang Anda bekerja sama dengan produktivitas maksimum? Apidog memenuhi semua permintaan Anda, dan menggantikan Postman dengan harga yang jauh lebih terjangkau! button Lanskap kecerdasan buatan (AI) terus berkembang dengan kecepatan tinggi, dan Model Bahasa Besar (LLM) menjadi semakin kuat dan mudah diakses. Meskipun banyak orang berinteraksi dengan model

28 April 2025

Di Mana Unduh Swagger UI Bahasa Indonesia Gratis?

Di Mana Unduh Swagger UI Bahasa Indonesia Gratis?

Ingin Swagger UI dalam Bahasa Indonesia? Artikel ini menjelaskan mengapa tidak ada unduhan resmi gratis dan cara mengaktifkan terjemahan. Jelajahi fitur Swagger dan lihat mengapa Apidog adalah alternatif Swagger superior untuk desain, pengujian, dan dokumentasi API yang terintegrasi.

23 April 2025

Mengembangkan API dengan Apidog

Apidog adalah alat pengembangan API yang membantu Anda mengembangkan API dengan lebih mudah dan efisien.