Analisis Berkeley GEPA: AI bisa mempelajari tugas baru tanpa memperbarui bobot, 35 kali lebih sedikit biaya pelatihan dibanding RL

ChainNewsAbmedia

Tim riset dari Universitas California, Berkeley mengajukan metode pelatihan AI baru, GEPA, yang telah diterima oleh ICLR 2026 sebagai makalah Oral. GEPA tidak memperbarui bobot model, tidak perlu pelatihan dengan GPU, hanya menggunakan satu LLM yang “membaca catatan pelatihan” untuk terus menulis ulang prompt sistem AI. Dengan cara ini, pada 6 tugas GEPA rata-rata mengungguli metode reinforcement learning arus utama GRPO sebesar 6%, dengan kemenangan tertinggi mencapai 20%, serta membutuhkan jumlah percobaan pelatihan (rollouts) 35 kali lebih sedikit. Setelah ditata oleh komunitas engineering AI dan menyebar di platform X, topik ini memicu diskusi. Saat ini GEPA telah diintegrasikan ke dalam DSPy sebagai optimizier kelas satu.

GEPA melakukan apa: menjadikan catatan pelatihan sebagai materi ajar, bukan hanya melihat skor

Alur kerja metode reinforcement learning tradisional (seperti GRPO) adalah: membuat AI menjalankan satu kali tugas, memberi “+1 atau -1” sebagai skor berdasarkan hasil, lalu berulang kali menyesuaikan bobot model dengan skor tersebut. Masalahnya, proses AI saat menjalankan tugas satu kali biasanya mencakup langkah inferensi dengan ribuan token, pemanggilan alat, dan pesan kesalahan—detail kaya ini semuanya dipadatkan menjadi satu skor, sehingga informasi proses hilang. Akibatnya, RL perlu menjalankan puluhan ribu hingga jutaan kali agar konvergen.

Cara GEPA justru sebaliknya: setelah AI menjalankan tugas, seluruh rangkaian proses (reasoning, pemanggilan alat, dan catatan error) diberikan apa adanya kepada LLM lain yang “berpikir ulang” untuk dibaca. LLM berpikir ulang seperti insinyur senior yang membaca log kode: mencari langkah mana yang salah, mengapa salah, dan bagaimana mengubah prompt, lalu langsung menulis ulang prompt modul terkait. Dengan satu kali menjalankan tugas yang sama, sinyal yang diekstrak GEPA jauh lebih banyak dibanding skor tunggal RL.

Mengapa bisa menang: mengubah “memberi skor” menjadi “membaca seluruh proses”

GEPA pada 6 tugas rata-rata menang atas GRPO sebesar 6%, dan kemenangan tertinggi 20%; dibandingkan optimizier prompt arus utama lain MIPROv2 juga menang lebih dari 10% (meningkat 12% pada benchmark matematika AIME-2025). Yang paling krusial adalah biaya pelatihan: untuk mencapai performa setara, GEPA membutuhkan rollouts (sekali menjalankan tugas) 35 kali lebih sedikit.

Satu data lain: setelah integrasi GEPA dengan DSPy, “Full Program Adapter” dapat mengoptimalkan seluruh program DSPy (termasuk signature, modul, dan kontrol alur). Pada benchmark MATH mencapai akurasi 93%, jauh melampaui penulisan ChainOfThought asli DSPy yang hanya 67%. GEPA juga tampil sangat baik pada alur kerja multi-module (agent AI yang merangkai banyak modul)—mampu mengunci modul tertentu yang salah lalu mengubah prompt modul tersebut secara presisi, bukan menyesuaikan seluruh sistem.

Siapa yang akan lebih dulu memakainya: DSPy sebagai warga kelas satu, dan kode GitHub sudah open-source

Kode GEPA sudah diopen-source di GitHub, diintegrasikan ke kerangka DSPy dalam bentuk dspy.GEPA, dan juga dirilis terpisah sebagai library Python. Tim riset lintas UC Berkeley, Stanford, Notre Dame, Anthropic, dan institusi lain; penulis makalah mencakup Matei Zaharia (co-founder Databricks, penulis utama DSPy) dan Omar Khattab (penulis utama DSPy).

Bagi komunitas pengembang, GEPA menawarkan solusi baru untuk kasus “memiliki banyak rollout tapi tidak tahu cara memanfaatkannya”—kebanyakan tim telah mengumpulkan ribuan hingga puluhan ribu catatan menjalankan tugas dengan agent, namun selain memeriksa beberapa catatan saat terjadi error untuk debugging, tidak ada metode sistematis untuk mengubah catatan tersebut menjadi peningkatan model. Langkah observasi berikutnya adalah penerapan kasus nyata GEPA dalam alur kerja agentic perusahaan (seperti otomatisasi layanan pelanggan, perbaikan kode otomatis), serta apakah akan muncul implementasi GEPA yang sepadan di luar framework DSPy.

Artikel Berkeley GEPA Analysis: tidak memperbarui bobot supaya AI mempelajari tugas baru, dengan biaya pelatihan 35 kali lebih sedikit daripada RL, mula-mula muncul di Chain News ABMedia.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.

Artikel Terkait

XAI Grok Hadirkan Custom Voices: Kloning 2 Menit, Verifikasi Identitas Dua Tahap

xAI meluncurkan Grok Custom Voices, merekam sekitar 1 menit audio melalui konsol, lalu dalam 2 menit menghasilkan model suara kustom yang dapat digunakan untuk TTS dan Voice Agent API, serta merilis Grok 4.3 dan Voice Library secara bersamaan. Untuk mencegah kloning, diterapkan verifikasi dua tahap: pertama membaca kalimat verifikasi, lalu membandingkan speaker embedding untuk memastikan hanya orang yang sama yang dapat membuat suara. Voice Library mengintegrasikan manajemen suara buatan sendiri dan yang telah disiapkan, dengan 80+ jenis dan 28 bahasa, yang nantinya akan diperluas lagi.

ChainNewsAbmedia1jam yang lalu

Fitur hewan peliharaan pada versi desktop OpenAI Codex: 3 status, menetas sesuai bahasa yang digunakan

OpenAI Codex versi desktop baru-baru ini menambahkan fitur “Pets” (Hewan Peliharaan), memungkinkan pengembang saat coding mendapatkan status tugas Codex secara real-time melalui karakter animasi yang melayang. Berdasarkan dokumen resmi OpenAI, overlay hewan peliharaan akan beralih berdasarkan status Codex saat ini menjadi 3

ChainNewsAbmedia3jam yang lalu

MoonPay Meluncurkan Kartu MoonAgents, Virtual Mastercard untuk Agen AI, pada Jumat

Menurut The Block, MoonPay meluncurkan MoonAgents Card, kartu debit virtual Mastercard, pada Jumat. Kartu ini dirancang untuk AI agents dan pengguna, mengonversi stablecoin menjadi fiat pada saat pembayaran, serta memungkinkan pengeluaran di merchant online mana pun secara global yang menerima Mastercard. Kartu ini

GateNews13jam yang lalu

OpenAI Meluncurkan Codex Pets, Pendamping Virtual Berbasis AI dengan Generasi Kustom

Menurut Beating, OpenAI telah menambahkan fitur baru “Codex Pets” ke aplikasi desktop Codex, yang memungkinkan pengguna membuat dan berinteraksi dengan pendamping virtual animasi. Pengguna dapat mengaktifkan hewan peliharaan dengan mengetik /pet di editor. Fitur ini berfungsi sebagai indikator status agen, menampilkan a

GateNews22jam yang lalu

MoonPay Meluncurkan Kartu MoonAgents untuk Agen AI di Jaringan Mastercard

Menurut The Block, MoonPay meluncurkan MoonAgents Card pada Jumat, kartu debit virtual Mastercard yang mengonversi stablecoin menjadi mata uang fiat secara real time pada saat pembayaran. Kartu ini diterbitkan melalui Monavate, platform pembayaran teregulasi dan anggota utama Mastercard, dalam kemitraan dengan Exodus M

GateNews05-02 01:11

xAI Meluncurkan API Kloning Suara yang Mendukung 80+ Suara dalam 28 Bahasa

Menurut PANews, xAI meluncurkan Voice Cloning API pada 2 Mei, memungkinkan pengguna membuat suara kustom dalam waktu sekitar 2 menit atau memilih dari lebih dari 80 suara preset yang mencakup 28 bahasa untuk aplikasi termasuk asisten suara, buku audio, dan karakter game. Fitur ini saat ini

GateNews05-02 00:33
Komentar
0/400
Tidak ada komentar