Intinya
Agen AI adalah program otonom yang dapat merencanakan, menjalankan, dan mengadaptasi kasus uji API tanpa instruksi langkah demi langkah. Mereka menghasilkan uji dari persyaratan, menyembuhkan diri sendiri ketika aplikasi berubah, dan menganalisis kegagalan secara cerdas. Organisasi yang menggunakan agen AI untuk pengujian API melaporkan analisis 6-10x lebih cepat, 85% lebih sedikit uji yang tidak stabil, dan cakupan 84% lebih banyak dibandingkan dengan otomatisasi tradisional.
Pendahuluan
Pengujian API bermasalah. Tim menghabiskan berminggu-minggu menulis skrip uji yang rusak setiap kali UI berubah. Uji yang tidak stabil membuang-buang waktu debugging. Kesenjangan cakupan memungkinkan bug lolos ke produksi.
Otomatisasi tradisional bergantung pada skrip yang sudah ditentukan. Ketika API Anda berubah, uji Anda gagal. Ketika tim Anda berkembang, pemeliharaan uji menjadi hambatan. Ketika Anda merilis dengan cepat, kualitas menurun.
Agen AI mengubah ini. Mereka tidak mengikuti skrip, mereka menalar, beradaptasi, dan belajar. Mereka menghasilkan uji dari persyaratan, memperbaiki diri sendiri ketika ada perubahan, dan menemukan bug yang tidak Anda ketahui keberadaannya.
Panduan ini menunjukkan cara menggunakan agen AI untuk pengujian API secara aman dan efektif. Anda akan belajar apa yang membuat agen AI berbeda, cara melakukan sandboxing dengan aman, dan cara mengimplementasikannya dalam alur kerja Anda. Pada akhirnya, Anda akan tahu cara membangun otomatisasi uji yang tidak hanya berjalan, tetapi juga berpikir.
Apa Itu Agen AI dalam Pengujian API?
Agen AI bukan hanya skrip uji yang lebih cerdas. Mereka adalah sistem otonom yang beroperasi dengan penalaran dan kemampuan beradaptasi.
Otomatisasi tradisional mengikuti instruksi: “Klik tombol ini, periksa respons itu, pastikan nilai ini.” Jika tombol berpindah, uji rusak. Jika API berubah, Anda menulis ulang uji.
Agen AI bekerja berbeda. Anda memberi mereka tujuan: “Uji alur pendaftaran pengguna.” Mereka mencari tahu caranya. Mereka menjelajahi titik akhir, menghasilkan data uji, mengeksekusi permintaan, dan menganalisis respons. Ketika ada perubahan, mereka beradaptasi.
Perbedaan Utama dari Otomatisasi Tradisional
| Otomatisasi Tradisional | Agen AI |
|---|---|
| Mengikuti skrip yang sudah ditentukan | Merencanakan dan beradaptasi secara dinamis |
| Rusak saat UI/API berubah | Menyembuhkan diri sendiri dan memperbarui uji |
| Membutuhkan penulisan uji manual | Menghasilkan uji dari persyaratan |
| Data uji tetap | Membuat data uji kontekstual |
| Melaporkan kegagalan | Menganalisis akar penyebab |
Kemampuan Inti Agen Pengujian AI
1. Pembuatan Uji Otonom
Agen AI membuat kasus uji dari persyaratan, kode, atau perjalanan pengguna. Anda menjelaskan apa yang akan diuji dalam bahasa alami. Agen tersebut menulis uji.
Contoh: “Uji bahwa pengguna tidak dapat mendaftar dengan email duplikat” menjadi skenario uji lengkap dengan kasus tepi, kondisi batas, dan uji negatif.
2. Uji Penyembuhan Diri
Ketika API Anda berubah, agen memperbarui uji secara otomatis. Mereka mendeteksi ketika titik akhir berpindah, parameter berubah, atau struktur respons berkembang. Alih-alih gagal, mereka beradaptasi.
3. Analisis Kegagalan Cerdas
Agen tidak hanya melaporkan “Uji gagal.” Mereka memeriksa jejak eksekusi, membandingkan dengan pola historis, mengklasifikasikan jenis masalah, dan menyediakan analisis akar penyebab dengan rekomendasi.
4. Data Uji Sadar Konteks
Agen menghasilkan data uji realistis berdasarkan skema API Anda, aturan bisnis, dan hubungan data. Mereka memahami bahwa bidang email membutuhkan email yang valid, tanggal membutuhkan format yang benar, dan kunci asing membutuhkan catatan yang sudah ada.
5. Pembelajaran Berkelanjutan
Agen belajar dari eksekusi uji sebelumnya. Mereka mengidentifikasi pola kegagalan, mengoptimalkan urutan eksekusi uji, dan meningkatkan cakupan dari waktu ke waktu.
Tantangan Keamanan: Sandboxing Agen AI
Agen AI sangat kuat. Itulah juga masalahnya.
Agen yang dapat membaca spesifikasi API Anda, mengeksekusi permintaan, dan memodifikasi data uji memiliki akses yang signifikan. Jika disusupi atau salah konfigurasi, itu dapat membocorkan data sensitif, merusak basis data, atau membanjiri sistem produksi.
Diskusi terbaru di HackerNews menyoroti kebutuhan akan eksekusi agen AI yang aman. Proyek Agent Safehouse menunjukkan sandboxing asli macOS untuk agen lokal, menunjukkan bahwa komunitas pengembang mengakui risiko ini.
Risiko Keamanan Agen AI Tanpa Sandboxing
1. Paparan Data
Agen mengakses respons API yang berisi data pengguna, token otentikasi, dan logika bisnis. Tanpa isolasi yang tepat, data ini dapat bocor ke log, data pelatihan, atau layanan eksternal.
2. Tindakan yang Tidak Disengaja
Agen yang menguji titik akhir DELETE mungkin secara tidak sengaja menghapus data produksi. Agen yang menghasilkan data uji mungkin membuat ribuan catatan yang membanjiri basis data Anda.
3. Kebocoran Kredensial
Agen memerlukan kunci API, kredensial basis data, dan token otentikasi untuk menjalankan uji. Jika ini bocor, seluruh sistem Anda akan disusupi.
4. Kehabisan Sumber Daya
Agen dapat menghasilkan dan mengeksekusi uji dengan cepat. Tanpa pembatasan laju, mereka mungkin memicu perlindungan DDoS, menghabiskan kuota API, atau menyebabkan lingkungan uji crash.
Praktik Terbaik Sandboxing
Isolasi Lingkungan Uji
Jalankan agen terhadap lingkungan uji khusus, jangan pernah produksi. Gunakan basis data, kunci API, dan infrastruktur terpisah.
# Contoh: Konfigurasi isolasi lingkungan
environments:
production:
accessible_by_agents: false
url: https://api.production.com
testing:
accessible_by_agents: true
url: https://api.test.com
rate_limit: 100/minute
data_retention: 7_days
Terapkan Batasan Izin
Agen harus memiliki izin minimal. Mereka perlu membaca spesifikasi API dan menjalankan uji, tetapi mereka tidak perlu memodifikasi skema, menghapus proyek, atau mengakses penagihan.
Gunakan Kredensial Sementara
Hasilkan kunci API berumur pendek untuk sesi agen. Rotasi kredensial secara sering. Cabut akses ketika uji selesai.
Pantau Perilaku Agen
Catat semua tindakan agen. Lacak panggilan API, akses data, dan eksekusi uji. Beri peringatan tentang anomali seperti permintaan berlebihan, titik akhir yang tidak sah, atau upaya eksfiltrasi data.
Isolasi Jaringan
Jalankan agen dalam jaringan terisolasi. Blokir akses ke layanan internal, basis data produksi, dan API eksternal kecuali jika secara eksplisit diperlukan.
Fitur Sprint Branches Apidog menyediakan lingkungan pengujian terisolasi di mana tim dapat menguji perubahan tanpa memengaruhi API produksi. Dikombinasikan dengan kontrol akses berbasis peran, Anda dapat membatasi apa yang dapat diakses dan dimodifikasi oleh agen.
Bagaimana Agen AI Mengubah Pengujian API
Mari kita lihat bagaimana agen AI memecahkan masalah pengujian API yang nyata.
Masalah 1: Pembuatan Uji Memakan Waktu Terlalu Lama
Menulis uji API yang komprehensif itu lambat. Anda perlu memahami API, menulis kode uji, menangani otentikasi, mengelola data uji, dan menambahkan pernyataan.
Pendekatan Tradisional:
// Manual test writing
describe('User Registration', () => {
it('should create a new user', async () => {
const response = await fetch('https://api.example.com/users', {
method: 'POST',
headers: { 'Content-Type': 'application/json' },
body: JSON.stringify({
email: 'test@example.com',
password: 'SecurePass123!',
name: 'Test User'
})
});
expect(response.status).toBe(201);
const data = await response.json();
expect(data.email).toBe('test@example.com');
});
});
Anda menulis ini untuk setiap titik akhir. Setiap kasus tepi. Setiap aturan validasi.
Pendekatan Agen AI:
Agent: Generate tests for user registration endpoint
Requirements:
- Users must provide email, password, and name
- Email must be unique
- Password must be 8+ characters
- Name is optional
Agen menghasilkan:
- Uji jalur sukses (pendaftaran valid)
- Uji email duplikat (konflik 409)
- Uji kata sandi lemah (galat validasi 400)
- Uji bidang hilang (galat validasi 400)
- Uji injeksi SQL (keamanan)
- Uji upaya XSS (keamanan)
Semua uji mencakup pernyataan yang tepat, penanganan galat, dan pembersihan.
Masalah 2: Uji Rusak Saat API Berubah
API berkembang. Titik akhir berpindah. Parameter berubah. Struktur respons tumbuh. Uji Anda rusak.
Pendekatan Tradisional:
API berubah dari /api/v1/users menjadi /api/v2/users. Anda memperbarui 47 file uji secara manual. Anda melewatkan 3. Uji tersebut gagal dalam CI. Deployment Anda diblokir.
Pendekatan Agen AI:
Agen mendeteksi perubahan titik akhir. Ini memperbarui semua uji yang terpengaruh secara otomatis. Ini memvalidasi bahwa titik akhir baru berfungsi dengan benar. Uji Anda lulus.
Masalah 3: Uji yang Tidak Stabil Membuang Waktu
Uji yang tidak stabil gagal secara acak. Mereka lulus secara lokal tetapi gagal di CI. Mereka gagal saat dicoba lagi. Mereka membuang waktu berjam-jam untuk debugging.
Penyebab umum:
- Kondisi balapan
- Masalah waktu
- Konflik data uji
- Perbedaan lingkungan
Solusi Agen AI:
Agen menganalisis pola uji yang tidak stabil. Mereka mengidentifikasi akar penyebab:
“Uji gagal saat dijalankan setelah uji UserDeletion karena mengharapkan ID pengguna 123 ada. Uji UserDeletion menghapus semua pengguna uji. Solusi: Hasilkan ID pengguna unik per uji atau tambahkan isolasi uji yang tepat.”
Agen memperbaiki uji secara otomatis.
Masalah 4: Kesenjangan Cakupan Membiarkan Bug Lolos
Anda menguji jalur sukses. Anda melewatkan kasus tepi. Bug lolos ke produksi.
Solusi Agen AI:
Agen menjelajahi API Anda secara sistematis. Mereka menguji:
- Nilai batas (0, -1, MAX_INT)
- Masukan tidak valid (null, undefined, tipe yang salah)
- Kasus tepi otentikasi (token kedaluwarsa, izin salah)
- Perilaku pembatasan laju
- Penanganan galat
- Permintaan bersamaan
Mereka menemukan bug yang tidak terpikir oleh Anda untuk diuji.
Mengimplementasikan Agen AI dengan Apidog
Apidog menyediakan fitur berbasis AI yang membawa kemampuan seperti agen ke alur kerja pengujian API Anda.

Langkah 1: Hasilkan Skenario Uji dengan AI
Alih-alih menulis uji secara manual, jelaskan apa yang ingin Anda uji. AI Apidog menghasilkan skenario uji lengkap.
Cara menggunakannya:
- Buka titik akhir API Anda di Apidog
- Klik “Generate Test Scenario” di menu Fitur AI
- Jelaskan persyaratan uji Anda dalam bahasa alami
- Tinjau dan sesuaikan uji yang dihasilkan
AI Apidog membuat skenario uji dengan:
- Struktur permintaan yang tepat
- Data uji realistis
- Pernyataan komprehensif
- Penanganan galat
- Skrip pra-permintaan untuk persiapan
- Skrip pasca-permintaan untuk pembersihan
Langkah 2: Optimalkan Skema API
Agen AI memerlukan skema API yang akurat untuk menghasilkan uji yang efektif. Fitur optimasi skema Apidog menganalisis respons API Anda dan menyarankan perbaikan.
Manfaat:
- Mengidentifikasi bidang yang wajib diisi yang hilang
- Mendeteksi tipe data yang tidak konsisten
- Menyarankan aturan validasi yang lebih baik
- Meningkatkan kualitas dokumentasi
Skema yang lebih baik menghasilkan uji yang dihasilkan AI yang lebih baik.
Langkah 3: Otomatisasi dengan Integrasi CI/CD
Uji yang dihasilkan AI hanya berguna jika dijalankan secara otomatis. Apidog terintegrasi dengan GitHub Actions, GitLab CI, dan Jenkins.
Contoh alur kerja GitHub Actions:
name: API Tests
on: [push, pull_request]
jobs:
test:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v2
- name: Run Apidog Tests
uses: apidog/apidog-cli-action@v1
with:
api-key: ${{ secrets.APIDOG_API_KEY }}
test-suite: regression-tests
environment: staging
Uji yang dihasilkan AI Anda berjalan pada setiap commit. Kegagalan memblokir deployment. Kualitas diberlakukan secara otomatis.
Langkah 4: Gunakan Smart Mock untuk Pengembangan
Sementara agen AI menguji API Anda, tim frontend Anda membutuhkan data mock. Smart Mock Apidog menggunakan AI untuk menghasilkan respons realistis berdasarkan skema API Anda.
Cara kerjanya:
- Definisikan skema API Anda di Apidog
- Aktifkan Smart Mock
- Frontend memanggil titik akhir mock
- AI menghasilkan respons realistis yang sesuai dengan skema Anda
Tidak ada pembuatan data mock manual. Tidak ada fixture yang usang. Hanya mocking yang cerdas dan sadar skema.
Langkah 5: Berkolaborasi dengan Sprint Branches
Agen AI bekerja paling baik saat mereka menguji secara terisolasi. Sprint Branches Apidog menyediakan alur kerja seperti Git untuk pengembangan API.
Alur Kerja:
- Buat branch untuk fitur Anda
- Modifikasi API di branch
- Agen AI menghasilkan dan menjalankan uji di branch
- Gabungkan ketika uji lulus
Branch utama Anda tetap stabil. Agen menguji perubahan dengan aman. Tim bekerja secara paralel tanpa konflik.
Praktik Terbaik untuk Pengujian Agen AI
1. Mulai dengan Persyaratan yang Jelas
Agen AI itu cerdas, tetapi mereka bukan pembaca pikiran. Beri mereka persyaratan yang jelas dan spesifik.
Buruk: “Uji API pengguna”
Baik: “Uji API pendaftaran pengguna. Verifikasi bahwa pengguna dapat mendaftar dengan email dan kata sandi, email duplikat ditolak dengan status 409, kata sandi di bawah 8 karakter ditolak, dan pendaftaran yang berhasil mengembalikan ID pengguna dan token otentikasi.”
2. Tinjau Uji yang Dihasilkan
Agen AI menghasilkan uji dengan cepat. Tinjau mereka sebelum menjalankannya di produksi.
Periksa:
- Pernyataan yang benar
- Data uji yang sesuai
- Pembersihan yang tepat
- Pertimbangan keamanan
- Dampak kinerja
3. Gabungkan AI dan Pengujian Manual
Agen AI unggul dalam tugas berulang, eksplorasi kasus tepi, dan pengujian regresi. Manusia unggul dalam pengujian eksplorasi, evaluasi kegunaan, dan validasi logika bisnis.
Gunakan keduanya.
4. Pantau Kinerja Agen
Lacak metrik:
- Waktu pembuatan uji
- Waktu eksekusi uji
- Tingkat uji tidak stabil
- Persentase cakupan
- Tingkat deteksi bug
Optimalkan berdasarkan data.
5. Ulangi pada Prompt
Agen AI meningkat dengan prompt yang lebih baik. Jika uji yang dihasilkan melewatkan kasus tepi, perbaiki persyaratan Anda. Jika uji terlalu luas, tambahkan batasan.
Perlakukan prompt seperti kode. Versikan mereka. Tinjau mereka. Tingkatkan mereka.
6. Implementasikan Peluncuran Bertahap
Jangan mengganti semua uji dengan agen AI dalam semalam.
Rencana peluncuran:
- Minggu 1-2: Hasilkan uji hanya untuk titik akhir baru
- Minggu 3-4: Tambahkan uji AI untuk jalur kritis
- Minggu 5-6: Perluas ke suite regresi
- Minggu 7-8: Ganti uji manual yang tidak stabil
- Minggu 9+: Suite uji bertenaga AI penuh
Pantau kualitas pada setiap tahap. Sesuaikan berdasarkan hasil.
7. Pertahankan Kualitas Data Uji
Agen AI membutuhkan data uji yang baik. Pertahankan repositori data uji dengan:
- Contoh valid untuk setiap tipe data
- Kasus tepi dan nilai batas
- Masukan tidak valid untuk pengujian negatif
- Skenario pengguna realistis
Fitur pengujian berbasis data Apidog memungkinkan Anda mendefinisikan set data uji yang dapat digunakan agen AI di berbagai skenario uji.
Kasus Penggunaan Dunia Nyata
Kasus Penggunaan 1: Platform E-Commerce
Tantangan: 500+ titik akhir API, perubahan sering, pengujian manual memakan waktu 3 hari per rilis.
Solusi: Mengimplementasikan agen AI dengan Apidog untuk pembuatan dan eksekusi uji.
Hasil:
- Waktu pembuatan uji: 3 hari → 2 jam
- Cakupan uji: 60% → 92%
- Uji tidak stabil: 23% → 3%
- Bug yang ditemukan dalam pengujian: peningkatan 2x
- Siklus rilis: 2 minggu → 1 minggu
Kasus Penggunaan 2: API Fintech
Tantangan: Logika bisnis kompleks, persyaratan kepatuhan yang ketat, standar keamanan tinggi.
Solusi: Menggunakan agen AI untuk pengujian kasus tepi yang komprehensif dengan lingkungan yang di-sandboxed.
Hasil:
- Kasus tepi yang diuji: 150 → 1.200+
- Kerentanan keamanan ditemukan: 7 masalah kritis sebelum produksi
- Waktu audit kepatuhan: pengurangan 40%
- Waktu pemeliharaan uji: pengurangan 70%
Kasus Penggunaan 3: Platform SaaS
Tantangan: Arsitektur multi-penyewa, konfigurasi khusus pelanggan, kompleksitas pengujian integrasi.
Solusi: Agen AI menghasilkan skenario uji khusus penyewa dan memvalidasi integrasi.
Hasil:
- Cakupan uji integrasi: 45% → 88%
- Bug yang dilaporkan pelanggan: pengurangan 60%
- Waktu eksekusi uji: 4 jam → 45 menit
- Produktivitas pengembang: peningkatan 30%
Kesimpulan
Agen AI mengubah pengujian API. Mereka menghasilkan uji lebih cepat, beradaptasi dengan perubahan secara otomatis, dan menemukan bug yang terlewatkan oleh manusia.
Namun mereka bukan sihir. Mereka membutuhkan persyaratan yang jelas, sandboxing yang tepat, dan pengawasan manusia. Mereka bekerja paling baik ketika dikombinasikan dengan praktik pengujian yang solid dan alat yang tepat.
Poin-poin penting:
- Agen AI merencanakan, mengeksekusi, dan mengadaptasi uji secara otonom
- Sandboxing sangat penting untuk keamanan dan stabilitas
- Mulai dari kecil, ulangi, dan tingkatkan secara bertahap
- Gabungkan agen AI dengan pengujian manual untuk hasil terbaik
- Gunakan alat seperti Apidog untuk mengimplementasikan pengujian bertenaga AI secara efektif
Langkah selanjutnya:
- Coba fitur pembuatan uji AI Apidog untuk API Anda
- Mulai dengan satu titik akhir dan perluas cakupan
- Integrasikan uji yang dihasilkan AI ke dalam pipeline CI/CD Anda
- Pantau hasil dan perbaiki pendekatan Anda
- Bergabunglah dengan komunitas Apidog untuk berbagi pengalaman
Agen AI akan membuat penguji lebih efektif. Mereka akan menangani pekerjaan berulang sehingga Anda dapat fokus pada hal yang penting: membangun API yang hebat.
Pertanyaan Umum
Apa perbedaan antara agen AI dan otomatisasi uji tradisional?
Otomatisasi tradisional mengikuti skrip yang sudah ditentukan. Jika API Anda berubah, uji rusak. Agen AI menalar dan beradaptasi. Mereka menghasilkan uji dari persyaratan, menyembuhkan diri sendiri ketika ada perubahan, dan menganalisis kegagalan secara cerdas. Bayangkan otomatisasi tradisional sebagai resep yang Anda ikuti persis, dan agen AI sebagai koki yang memahami prinsip memasak dan beradaptasi dengan bahan yang tersedia.
Apakah agen AI aman untuk pengujian API?
Agen AI bisa aman jika di-sandboxed dengan benar. Jalankan mereka di lingkungan uji terisolasi, gunakan kredensial sementara, terapkan batasan izin, dan pantau perilaku mereka. Jangan pernah memberi agen akses ke sistem produksi atau data sensitif tanpa kontrol yang tepat. Alat seperti Apidog menyediakan isolasi lingkungan dan kontrol akses berbasis peran untuk membantu mengamankan pengujian berbasis AI.
Berapa biaya untuk mengimplementasikan agen AI untuk pengujian API?
Biaya bervariasi berdasarkan pendekatan Anda. Menggunakan platform seperti Apidog dengan fitur AI bawaan berharga $0-$50/pengguna/bulan tergantung pada paket Anda. Membangun agen AI kustom membutuhkan biaya API LLM ($0.01-$0.10 per 1K token) ditambah waktu pengembangan. Sebagian besar tim melihat ROI dalam 2-3 bulan melalui pengurangan waktu pemeliharaan uji dan siklus rilis yang lebih cepat.
Bisakah agen AI menggantikan penguji manual?
Tidak. Agen AI unggul dalam tugas berulang, eksplorasi kasus tepi, dan pengujian regresi. Manusia unggul dalam pengujian eksplorasi, evaluasi kegunaan, dan validasi logika bisnis. Pendekatan terbaik menggabungkan keduanya: agen AI menangani pekerjaan kasar sementara manusia fokus pada pengujian strategis yang membutuhkan penilaian dan kreativitas.
Bagaimana cara memulai dengan agen AI untuk pengujian API?
Mulai dari kecil. Pilih satu titik akhir API dan gunakan AI untuk menghasilkan uji untuknya. Tinjau uji yang dihasilkan, jalankan, dan ukur hasilnya. Jika berhasil, perluas ke lebih banyak titik akhir. Gunakan alat seperti Apidog yang menyediakan pembuatan uji AI secara langsung, sehingga Anda tidak perlu membangun infrastruktur dari awal. Ulangi berdasarkan apa yang berhasil untuk tim Anda.
Apa yang terjadi ketika agen AI menghasilkan uji yang salah?
Tinjau uji yang dihasilkan sebelum menjalankannya di produksi. Agen AI bersifat probabilistik, mereka membuat kesalahan. Perlakukan uji yang dihasilkan seperti tinjauan kode: periksa pernyataan, validasi data uji, pastikan pembersihan yang tepat. Seiring waktu, saat Anda menyempurnakan prompt dan memberikan umpan balik, agen menghasilkan uji yang lebih baik. Sebagian besar tim melaporkan akurasi 85-90% setelah penyetelan awal.
Bagaimana agen AI menangani otentikasi dalam pengujian API?
Agen AI dapat mengelola alur otentikasi jika dikonfigurasi dengan benar. Anda menyediakan kredensial otentikasi (kunci API, token OAuth, dll.) melalui konfigurasi aman. Agen menggunakan kredensial ini untuk mengotentikasi permintaan selama pengujian. Praktik terbaik: gunakan kredensial sementara, khusus uji, dengan izin terbatas. Variabel lingkungan Apidog dan skema otentikasi membuatnya mudah.
Bisakah agen AI menguji API GraphQL dan gRPC?
Ya. Agen AI modern mendukung berbagai protokol termasuk REST, GraphQL, gRPC, WebSocket, dan SOAP. Apidog mendukung semua protokol ini secara native, dan fitur AI-nya berfungsi di semua protokol tersebut. Agen memahami konsep-konsep khusus protokol seperti kueri GraphQL, mutasi, dan langganan, atau definisi layanan gRPC dan streaming.
