Apidog

Platform Pengembangan API Kolaboratif All-in-one

Desain API

Dokumentasi API

Debug API

Mocking API

Pengujian Otomatis

Cara Menjalankan Osmosis-Structure-0.6B Secara Lokal dengan Ollama

Mark Ponomarev

Mark Ponomarev

Updated on May 30, 2025

OK, Jadi Bagaimana osmosis-structure-0.6b Mendapatkan Namanya?

Model yang Anda minati, osmosis/osmosis-structure-0.6b, tersedia melalui platform Ollama. Nama itu sendiri menawarkan beberapa petunjuk berharga:

  • osmosis/: Ini menunjukkan penerbit atau namespace di Ollama, menyiratkan bahwa model ini disediakan oleh grup atau individu yang dikenal sebagai "Osmosis."
  • osmosis-structure: Bagian "Structure" (Struktur) sangat menyiratkan bahwa model ini disetel halus (fine-tuned) atau dirancang khusus untuk tugas-tugas yang melibatkan data terstruktur. Ini bisa berkisar dari pembuatan kode, teks-ke-SQL, manipulasi JSON, hingga bentuk-bentuk output teks terstruktur lainnya.
  • 0.6b: Ini menandakan model ini memiliki sekitar 600 juta parameter. Ini menempatkannya dalam kategori model bahasa yang lebih kecil dan efisien.
  • Ukuran: Hasil pencarian menunjukkan model ini berukuran sekitar 350 MB dalam format GGUF. Ukuran yang ringkas ini berarti model ini sangat terkuantisasi (quantized) dan dioptimalkan untuk berjalan efisien pada perangkat keras konsumen, membutuhkan lebih sedikit RAM dan ruang disk dibandingkan model yang lebih besar.

Meskipun spesifikasi persis, data pelatihan, benchmark spesifik, dan kasus penggunaan utama paling baik ditemukan di kartu model resminya di situs web Ollama (tautan yang Anda miliki), kita dapat menyimpulkan ekspektasi umum untuk model parameter 0.6B yang berfokus pada "struktur":

Ukurannya yang kecil memungkinkan waktu muat yang cepat dan konsumsi sumber daya yang lebih rendah (CPU, RAM) dibandingkan model multi-miliar parameter.

Penamaan "Structure" (Struktur) menunjukkan bahwa model ini akan berkinerja lebih baik pada tugas-tugas seperti:

  • Menghasilkan atau memahami kueri SQL.
  • Membuat atau mengurai (parsing) data JSON, XML, atau YAML.
  • Membantu pembuatan kode dalam bahasa pemrograman umum.
  • Mengikuti instruksi yang memerlukan output teks dengan format spesifik.

Performa: Untuk model sebesar ini, model ini akan menargetkan performa yang kuat pada tugas-tugas khusus, daripada mencoba menjadi pusat pengetahuan umum seperti model yang jauh lebih besar. Benchmark-nya (yang harus Anda periksa di kartu modelnya) kemungkinan akan mencerminkan kemampuannya dalam domain terstruktur ini.

Mari Jalankan osmosis-structure-0.6b dengan Ollama

Ollama adalah alat yang secara radikal menyederhanakan menjalankan model bahasa besar sumber terbuka di mesin lokal Anda. Ini mengemas bobot model, konfigurasi, dan mekanisme penyajian, memungkinkan pengaturan dan interaksi yang mudah.

Ollama memungkinkan Anda memanfaatkan kekuatan LLM seperti osmosis/osmosis-structure-0.6b tanpa bergantung pada API berbasis cloud. Ini memastikan privasi, memungkinkan penggunaan offline, dan menyediakan cara yang hemat biaya untuk bereksperimen dan membangun aplikasi. Ini tersedia untuk macOS, Windows, dan Linux.

Pertama, Anda Perlu Menginstal Ollama

Prosedur instalasi sedikit berbeda tergantung pada sistem operasi Anda.

Untuk macOS: Biasanya, Anda akan mengunduh aplikasi Ollama dari situs web resminya. Unduhan biasanya berupa file .zip yang berisi Ollama.app. Ekstrak dan pindahkan Ollama.app ke folder /Applications Anda. Meluncurkan aplikasi akan memulai layanan latar belakang Ollama, seringkali ditandai dengan ikon di bilah menu.

Untuk Windows: File instalasi yang dapat dieksekusi tersedia dari situs web Ollama. Unduh dan jalankan, ikuti petunjuk di layar. Ollama di Windows sering berintegrasi dengan Windows Subsystem for Linux (WSL 2), yang dapat dibantu oleh installer untuk diatur jika belum dikonfigurasi. Setelah diinstal, Ollama berjalan sebagai layanan latar belakang.

Untuk Linux: Cara umum untuk menginstal Ollama di Linux adalah melalui perintah curl yang disediakan di situs web mereka, yang mengambil dan menjalankan skrip instalasi:

curl -fsSL [<https://ollama.com/install.sh>](<https://ollama.com/install.sh>) | sh

Ini mengatur Ollama, dan biasanya berjalan sebagai layanan systemd.

Setelah instalasi, buka terminal Anda (atau PowerShell/Command Prompt di Windows) dan jalankan perintah berikut:

ollama --version

Ini akan menampilkan versi Ollama yang terinstal, mengonfirmasi bahwa CLI berfungsi dengan benar.

Menjalankan osmosis/osmosis-structure-0.6b Secara Lokal dengan Ollama

Dengan Ollama terinstal dan berjalan, Anda sekarang dapat menarik (pull) dan berinteraksi dengan model osmosis/osmosis-structure-0.6b.

Pertimbangan Perangkat Keras:

  • RAM: Untuk model berukuran ~350MB, Anda kemungkinan memerlukan setidaknya 1-2 GB RAM kosong agar dapat dimuat dan berjalan dengan lancar, meskipun manajemen memori Ollama dan format GGUF model ini efisien.
  • CPU/GPU: Ollama akan secara otomatis menggunakan CPU Anda. Jika Anda memiliki GPU yang kompatibel (Apple Metal, NVIDIA CUDA, AMD ROCm di Linux), Ollama akan memanfaatkannya untuk inferensi yang jauh lebih cepat. Ukuran 0.6B seharusnya cukup responsif bahkan pada CPU modern.
  • Penyimpanan: Model itu sendiri kecil (~350MB), jadi ruang disk bukanlah masalah utama.

Langkah 1. Mengambil Model

Untuk mengunduh model ke sistem lokal Anda, gunakan perintah ollama pull dengan pengenal lengkap model:

ollama pull osmosis/osmosis-structure-0.6b

Ollama kemudian akan:

  • Menghubungkan ke registri modelnya.
  • Mengunduh manifes model dan lapisannya (Anda akan melihat indikator kemajuan).
  • Menyimpan model secara lokal, membuatnya siap digunakan. Mengingat ukurannya yang ~350MB, ini seharusnya menjadi unduhan yang relatif cepat.

Meskipun ollama pull memberi Anda konfigurasi default, Anda dapat menyesuaikan perilaku model dengan membuat Modelfile khusus jika Anda ingin mengubah parameter seperti temperature (keacakan), num_ctx (ukuran jendela konteks), atau system prompt. Anda kemudian akan menggunakan ollama create your-custom-osmosis -f ./YourModelfile (menggunakan model asli sebagai dasar FROM osmosis/osmosis-structure-0.6b). Periksa dokumentasi resmi Ollama untuk sintaks Modelfile. Pengaturan default untuk osmosis/osmosis-structure-0.6b kemungkinan sudah dioptimalkan oleh penerbitnya.

Langkah 2. Obrolan Interaktif via Command Line

Cara termudah untuk berinteraksi dengan model yang baru Anda unduh adalah melalui perintah ollama run:

ollama run osmosis/osmosis-structure-0.6b

Ini memuat model ke dalam memori dan memberi Anda prompt interaktif (misalnya, >>>). Anda dapat mengetik pertanyaan atau instruksi Anda, tekan Enter, dan model akan menghasilkan respons.

Misalnya, jika Anda ingin menguji kemampuan SQL-nya (dengan asumsi ini adalah salah satu kekuatannya berdasarkan fokus "Structure"):

>>> Given a table 'users' with columns 'id', 'name', 'email', and 'signup_date', write a SQL query to find all users who signed up in the year 2024.

Model kemudian akan memberikan kueri SQL yang dihasilkannya.

Untuk keluar dari sesi interaktif ini, Anda biasanya dapat mengetik /bye, /exit, atau menekan Ctrl+D.

Langkah 3. Berinteraksi via Ollama API

Ollama menyajikan model melalui API REST lokal, biasanya tersedia di http://localhost:11434. Ini memungkinkan Anda untuk mengintegrasikan osmosis/osmosis-structure-0.6b ke dalam aplikasi dan skrip Anda sendiri.

Berikut adalah contoh Python menggunakan pustaka requests untuk berinteraksi dengan API. Pertama, pastikan requests terinstal:

pip install requests

Sekarang, skrip Python:

import requests
import json

OLLAMA_ENDPOINT = "<http://localhost:11434/api/generate>"
MODEL_NAME = "osmosis/osmosis-structure-0.6b" # Correct model name

def generate_response(prompt_text, stream_output=False):
    """
    Sends a prompt to the Ollama API for the specified model.
    Returns the consolidated response text.
    Set stream_output=True to print parts of the response as they arrive.
    """
    payload = {
        "model": MODEL_NAME,
        "prompt": prompt_text,
        "stream": stream_output
    }

    full_response_text = ""
    try:
        response = requests.post(OLLAMA_ENDPOINT, json=payload, stream=stream_output)
        response.raise_for_status()

        if stream_output:
            for line in response.iter_lines():
                if line:
                    decoded_line = line.decode('utf-8')
                    json_object = json.loads(decoded_line)
                    chunk = json_object.get('response', '')
                    print(chunk, end='', flush=True)
                    full_response_text += chunk
                    if json_object.get('done'):
                        print("\\\\n--- Stream Complete ---")
                        break
        else:
            response_data = response.json()
            full_response_text = response_data.get('response', '')
            print(full_response_text)

        return full_response_text

    except requests.exceptions.RequestException as e:
        print(f"\\\\nError connecting to Ollama API: {e}")
        if "connection refused" in str(e).lower():
            print("Ensure the Ollama application or service is running.")
        return None
    except json.JSONDecodeError as e:
        print(f"\\\\nError decoding JSON response: {e}")
        print(f"Problematic content: {response.text if 'response' in locals() else 'No response object'}")
        return None

if __name__ == "__main__":
    # Ensure Ollama is running and the model is loaded or available.
    # Ollama typically loads the model on the first API request if not already loaded.

    prompt1 = "Write a Python function to serialize a dictionary to a JSON string."
    print(f"--- Sending Prompt 1: {prompt1} ---")
    response1 = generate_response(prompt1)
    if response1:
        print("\\\\n--- Model Response 1 Received ---")

    print("\\\\n" + "="*50 + "\\\\n") # Separator

    prompt2 = "Explain how a LEFT JOIN in SQL differs from an INNER JOIN, in simple terms."
    print(f"--- Sending Prompt 2 (Streaming): {prompt2} ---")
    response2 = generate_response(prompt2, stream_output=True)
    if response2:
        # The full response is already printed by the streaming logic
        pass
    else:
        print("\\\\nFailed to get response for prompt 2.")

Skrip ini mendefinisikan fungsi untuk mengirim prompt ke model osmosis/osmosis-structure-0.6b. Ini dapat menangani respons streaming dan non-streaming. Ingatlah bahwa layanan Ollama harus berjalan agar skrip ini berfungsi.

  • Jika Anda mengalami kesalahan, verifikasi bahwa layanan/aplikasi Ollama sedang berjalan. Periksa pengaturan firewall jika Anda mengaksesnya dari mesin yang berbeda (meskipun defaultnya adalah localhost). Konsultasikan log Ollama untuk kesalahan (~/.ollama/logs di macOS/Linux).

Langkah 4. Coba Beberapa Prompt

Kekuatan spesifik dari osmosis/osmosis-structure-0.6b paling baik dipahami dengan meninjau kartu modelnya di situs web Ollama. Namun, untuk model 0.6B yang berfokus pada "Structure", Anda dapat mencoba prompt seperti ini:

Teks-ke-SQL:

  • Prompt: "Pertimbangkan tabel inventory dengan kolom item_id (INT), item_name (VARCHAR), quantity (INT), last_stocked_date (DATE). Hasilkan kueri SQL untuk menemukan semua item dengan kuantitas kurang dari 10 yang terakhir distok sebelum '2024-01-01'."
  • (Amati akurasi dan sintaks SQL yang dihasilkan.)

Manipulasi/Pembuatan JSON:

  • Prompt: "Buat objek JSON untuk buku berjudul 'The Local LLM Handbook', yang ditulis oleh 'AI Community', diterbitkan pada tahun 2025, dengan ISBN '978-0-LOCAL-LLM-0'."
  • (Periksa apakah outputnya adalah JSON yang terstruktur dengan baik dan secara akurat mencerminkan prompt.)

Pembuatan Kode Sederhana (misalnya, Python):

  • Prompt: "Tulis skrip Python yang mendefinisikan kelas Rectangle dengan konstruktor untuk lebar dan tinggi, dan metode untuk menghitung luasnya."
  • (Evaluasi kebenaran dan kelengkapan kode yang dihasilkan.)

Mengikuti Instruksi untuk Output Terformat:

  • Prompt: "Sebutkan tiga keuntungan menggunakan model bahasa lokal. Sajikan sebagai daftar berpoin, dengan setiap poin dimulai dengan 'Keuntungan:'."
  • (Nilai seberapa baik model mematuhi instruksi pemformatan.)

Eksperimen adalah kuncinya! Coba berbagai jenis prompt terkait data terstruktur untuk menemukan kekuatan dan kelemahan model. Rujuk kartu model Ollama-nya untuk panduan mengenai fungsi desain utamanya.

Menguji Ollama Local API dengan Apidog

Apidog adalah alat pengujian API yang cocok dengan mode API Ollama. Ini memungkinkan Anda mengirim permintaan, melihat respons, dan men-debug pengaturan Qwen 3 Anda secara efisien.

Berikut cara menggunakan Apidog dengan Ollama:

  • Buat permintaan API baru:
  • Endpoint: http://localhost:11434/api/generate
  • Kirim permintaan dan pantau respons di timeline real-time Apidog.
  • Gunakan ekstraksi JSONPath Apidog untuk mengurai respons secara otomatis, fitur yang mengungguli alat seperti Postman.

Respons Streaming:

  • Untuk aplikasi real-time, aktifkan streaming:
  • Fitur Auto-Merge Apidog menggabungkan pesan streaming, menyederhanakan debugging.
curl http://localhost:11434/api/generate -d '{"model": "gemma3:4b-it-qat", "prompt": "Write a poem about AI.", "stream": true}'

Proses ini memastikan model Anda bekerja sesuai harapan, menjadikan Apidog tambahan yang berharga.

💡
Ingin alat Pengujian API yang hebat yang menghasilkan Dokumentasi API yang indah?

Ingin platform Terintegrasi, All-in-One untuk Tim Pengembang Anda bekerja sama dengan produktivitas maksimum?

Apidog memenuhi semua permintaan Anda, dan menggantikan Postman dengan harga yang jauh lebih terjangkau!
button

Kesimpulan

Model osmosis/osmosis-structure-0.6b menawarkan peluang menarik untuk menjalankan model bahasa yang ringkas dan berfokus pada struktur secara lokal. Berkat Ollama, proses mengunduh dan berinteraksi dengannya dapat diakses oleh khalayak luas. Dengan memanfaatkan kemampuannya, Anda dapat menjelajahi aplikasi dalam pemrosesan data, bantuan kode, dan domain lain yang memerlukan output terstruktur, semuanya dengan privasi dan kontrol eksekusi lokal.

Selalu rujuk ke halaman resmi model di Ollama (ollama.com/osmosis/osmosis-structure-0.6b:latest) untuk informasi paling otoritatif dari pengembangnya. Selamat bereksperimen dengan AI lokal!