FeatureOpini

Bonsai AI dan Kepadatan Kecerdasan

205
×

Bonsai AI dan Kepadatan Kecerdasan

Sebarkan artikel ini
Ilustrasi Mohammad Nurfatoni/AI

Selama ini kita percaya: makin besar model, makin cerdas hasilnya. Bonsai AI justru mengajukan pertanyaan sebaliknya—apakah kita salah sejak awal?

Catatan Ahmadie Thaha, Kolumnis

Tagar.co – Di tengah riuh rendah dunia AI yang kian menyerupai lomba makan cabai—siapa paling pedas, siapa paling besar, siapa paling mahal—tiba-tiba muncul “anak kampung” bernama PrismML.

Ia datang tanpa banyak basa-basi. Ia tidak membawa GPU segunung, tidak pula server seluas lapangan bola. Ia hanya membawa satu hal yang terdengar seperti lelucon: AI satu bit.

Baca juga: TurboQuant, AI Mungil yang makin Cerdas

Dan malam itu, di layar YouTube milik Fahd Mirza, lelucon itu berubah menjadi tamparan keras. Model AI bernama Bonsai mampu menjawab soal matematika dengan rapi.

Bonsai juga terbukti cerdas menulis kode simulasi laut dalam lengkap dengan ubur-ubur bercahaya. Bahkan, saat diuji dengan manipulasi psikologis, ia menolak—tanpa halusinasi.

Bukan hanya cepat. Ia juga “waras”. Hingga Fahd hanya mampu berucap, “Wow.” Kata sederhana yang biasanya muncul ketika kita kehabisan kosakata menghadapi sesuatu yang melampaui ekspektasi.

Nama “Bonsai” bukan sekadar tempelan artistik. Ia adalah metafora yang sangat tepat.

Pohon bonsai bukan miniatur acak. Ia dibentuk, dipangkas, dan dioptimalkan dengan presisi sehingga bentuk kecilnya tetap membawa struktur dan identitas pohon besar. Kecil, tetapi utuh. Ringkas, tetapi tetap lengkap.

Di situlah pesan diamnya: ini bukan sekadar mengecilkan, melainkan merancang ulang agar yang kecil tetap bermakna.

Lalu, apa sebenarnya “bit” yang selama ini kita dengar? Mari kita turunkan sedikit ego yang terbiasa dengan angka besar.

Di dunia AI, “bit” ibarat pilihan hidup.

AI 32-bit berarti penuh warna: jutaan kemungkinan nilai, presisi tinggi, seperti koki Michelin yang menimbang garam hingga sepersekian gram.

AI 16-bit atau FP16 adalah tahap mulai berhemat. Ia masih canggih, tetapi tidak terlalu cerewet—cukup presisi untuk sebagian besar kebutuhan AI modern.

Baca Juga:  Musuh Publik Nomor Satu Dunia

Kemudian hadir AI 8-bit, 4-bit, hingga 2-bit. Ini seperti hidup anak kos: yang penting cukup, sederhana, tidak harus sempurna.

Dan AI 1-bit?

Ia seperti dunia yang hanya mengenal dua jawaban: ya atau tidak. Tidak ada abu-abu. Tidak ada drama. Hanya hitam dan putih.

Secara teknis, jika 32-bit mampu menyimpan angka dengan jutaan variasi, maka 1-bit hanya menyimpan dua kemungkinan: 0 atau 1. Dan mesin AI memang hanya mengenal angka, bukan kata.

Dalam model AI, ini berarti setiap bobot—yang biasanya kompleks seperti bilangan pecahan panjang—dipaksa menjadi keputusan sederhana: aktif atau tidak, naik atau turun.

Masalahnya, selama ini kita percaya bahwa semakin sederhana representasi, semakin menurun kecerdasannya. Ini semacam hukum tak tertulis di dunia komputasi: kurangi presisi, maka kecerdasan turun.

Namun di sinilah tim PrismML bermain seperti pesulap yang menantang hukum tersebut. Mereka tidak sekadar “mengompresi” model AI. Mereka mendesain ulang cara berpikirnya.

Seluruh jaringan dalam AI—mulai dari embedding, attention, multilayer perceptron, hingga lapisan keluaran—dibangun sepenuhnya dalam 1-bit.

Tidak ada jalan belakang. Tidak ada trik tersembunyi dengan presisi tinggi. Tidak ada kompromi diam-diam. Ini bukan diet. Ini transformasi total.

Di balik kesederhanaan yang tampak nyaris nekat itu, kerja ilmiah PrismML justru berdiri di atas riset panjang yang melawan arus.

Selama satu dekade terakhir, hampir semua laboratorium besar bergerak dalam satu keyakinan: semakin besar model, semakin pintar hasilnya.

Parameter ditambah, data diperluas, komputasi diperbesar. Kecerdasan diperlakukan seperti nasi padang—tinggal menambah porsi.

Namun tim PrismML memilih jalur yang lebih sunyi: bukan memperbesar otak, melainkan memadatkan pikiran.

Mereka menyebutnya intelligence density—kepadatan kecerdasan per satuan ukuran model.

Baca Juga:  Kentungan Oranye Anies dan Politik yang Tak Lagi Berbisik

Jika pendekatan lama bertanya, “Seberapa pintar model ini?”, maka pendekatan baru bertanya, “Seberapa efisien kepintaran ini dikemas?”

Dalam kerangka ini, kecerdasan tidak lagi berdiri sendiri, tetapi selalu dikaitkan dengan ukuran dan biaya.

Bahkan dirumuskan sebagai hubungan antara tingkat kesalahan model dan ukuran model. Semakin kecil ukuran dengan kesalahan tetap rendah, semakin tinggi nilai kepadatannya.

Ini bukan sekadar metrik baru. Ini perubahan cara pandang terhadap kecerdasan itu sendiri.

Berbeda dengan teknik lama seperti quantization yang hanya mengecilkan model setelah dilatih—seperti menurunkan resolusi foto—pendekatan baru ini membangun model sejak awal untuk hidup dalam keterbatasan ekstrem.

Dunia 1-bit bukan dunia kompromi, melainkan dunia desain ulang.

Tantangannya tentu tidak kecil. Bagaimana menjaga kemampuan bernalar jika setiap keputusan hanya memiliki dua pilihan? Bagaimana menjaga aliran informasi tetap utuh dalam jaringan yang sangat diskret?

Jawabannya terletak pada rekayasa arsitektur dan metode pelatihan yang menjaga sinyal tetap kuat dan stabil.

Meski setiap elemen hanya memilih antara dua keadaan, susunan keseluruhannya tetap mampu membentuk pola kompleks yang cukup untuk mendukung penalaran.

Dan hasilnya mulai terlihat ketika dibandingkan dengan sejarah model kecil sebelumnya.

Kita pernah melihat DistilBERT, MobileBERT, serta berbagai model kecil lain yang mencoba membuat AI lebih ringan.

Namun pola yang selalu berulang adalah kompromi. Semakin kecil model, semakin cepat ia kehilangan kemampuan berpikir kompleks.

Tugas sederhana mungkin masih bisa. Namun mulai goyah saat menghadapi matematika bertingkat, logika berlapis, dan pemrograman.

Di titik inilah Bonsai AI mengganggu—atau mungkin segera mengubah—peta lama tersebut.

Model dengan sekitar delapan miliar parameter yang biasanya membutuhkan belasan gigabita kini hanya berukuran sekitar 1,15 gigabita.

Artinya, sekitar dua belas hingga empat belas kali lebih kecil dari model serupa.

Baca Juga:  Menggadaikan Kedaulatan Digital

Namun performanya tetap kompetitif. Bahkan, dalam ukuran kecerdasan per gigabita, ia melompat jauh melampaui model lain di kelasnya.

Lebih menarik lagi, dalam tugas panjang yang membutuhkan konsistensi berpikir, model ini justru lebih tahan.

Ia bukan hanya pintar dalam satu langkah, tetapi cukup efisien untuk berpikir lebih lama tanpa “kelelahan” komputasi.

Di sinilah arah baru mulai terlihat.

Selama ini, kecerdasan buatan seperti dewa yang tinggal di langit—di pusat data raksasa yang jauh dari jangkauan.

Kita harus mengaksesnya melalui jaringan, bergantung pada koneksi, biaya, dan infrastruktur besar.

Namun dengan model seperti Bonsai, kecerdasan mulai turun ke bumi.

Masuk ke laptop. Masuk ke ponsel. Bahkan ke perangkat luring.

AI tidak lagi eksklusif. Ia menjadi dekat, personal, bahkan domestik.

Dan di titik ini, kita perlu berhenti sejenak.

Karena ini bukan sekadar soal efisiensi teknologi. Ini soal perubahan struktur kekuasaan.

Ketika AI dapat berjalan di perangkat kecil, kontrol tidak lagi sepenuhnya berada di tangan perusahaan besar.

Privasi meningkat. Ketergantungan berkurang. Akses meluas.

Namun, seperti semua perubahan besar, ada ironi yang menyelinap.

Dulu kita membangun AI dengan kompleksitas ekstrem demi meniru kecerdasan manusia.

Sekarang, kita justru menemukan bahwa dengan kesederhanaan ekstrem—hanya 1-bit—AI tetap mampu berpikir cukup baik.

Maka muncul pertanyaan yang sedikit mengganggu: apakah selama ini kita terlalu membesar-besarkan kompleksitas sebagai syarat kecerdasan?

Atau justru, seperti hidup manusia, yang paling menentukan bukan banyaknya pilihan, melainkan ketepatan dalam memilih di antara pilihan yang sederhana?

Ya atau tidak.
Benar atau salah.
Bijak atau tidak.

Dan mungkin, di tengah dunia yang semakin bising oleh teknologi, kesederhanaan itulah yang diam-diam mengajari kita kembali arti berpikir.

Ma’had Tadabbur Al-Qur’an, 5 April 2026

Penyunting Mohammad Nurfatoni