JAKARTA – Google bergerak cepat merespons lonjakan kebutuhan memori di era kecerdasan buatan (AI). Perusahaan teknologi raksasa ini mengembangkan teknologi baru bernama TurboQuant, yang berfungsi menekan penggunaan RAM secara signifikan saat AI berjalan.
Teknologi ini muncul di tengah krisis memori global. Industri menghadapi lonjakan harga RAM akibat tingginya permintaan komputasi AI. Banyak pihak mulai khawatir karena keterbatasan memori dapat menghambat performa sistem modern.
Fokus pada Efisiensi Saat AI Berjalan
Tim Google Research merancang TurboQuant khusus untuk fase inferensi. Fase ini terjadi saat model AI digunakan, bukan saat dilatih. Pada tahap ini, AI membutuhkan memori besar untuk memproses dan menyimpan konteks data.
TurboQuant menargetkan salah satu hambatan utama, yaitu keterbatasan working memory. Komponen yang paling terdampak adalah KV cache, yaitu memori sementara yang membantu AI mengingat konteks selama proses berlangsung.
Dengan mengoptimalkan bagian ini, Google ingin membuat AI tetap cepat tanpa perlu memori besar.
Cara Kerja: Kompresi Tanpa Hilang Akurasi
TurboQuant menggunakan teknik vector quantization. Metode ini menyederhanakan data numerik berbentuk vektor agar lebih ringkas. Sistem tetap menjaga informasi penting sehingga akurasi model tidak turun.
Pendekatan ini membuat data yang sebelumnya memakan ruang besar menjadi jauh lebih efisien. AI tetap bisa bekerja optimal meski menggunakan memori lebih kecil.
Dua Teknologi Kunci di Balik TurboQuant
Google menggabungkan dua metode utama untuk meningkatkan kinerja TurboQuant, yaitu PolarQuant dan Quantization-aware Joint Learning (QJL).
PolarQuant mengubah cara representasi data. Teknik ini membuat penyimpanan data menjadi lebih efisien tanpa mengorbankan kualitas komputasi.
Sementara itu, QJL melatih model AI agar memahami kondisi data yang telah dikompresi. Model jadi lebih adaptif dan tetap menghasilkan output akurat meski bekerja dengan data yang dipadatkan.
Kombinasi keduanya menghasilkan sistem yang lebih hemat memori sekaligus stabil.
Klaim Hemat Memori Hingga 6 Kali Lipat
Peneliti Google mengklaim TurboQuant mampu mengurangi penggunaan memori hingga enam kali lipat dibanding metode konvensional.
Efisiensi ini memberi dampak besar. Model AI bisa menyimpan lebih banyak informasi dalam ruang yang jauh lebih kecil. Selain itu, sistem juga bisa mengurangi hambatan performa akibat keterbatasan RAM.
Jika klaim ini terbukti konsisten, industri AI bisa menekan kebutuhan hardware mahal.
Jawaban atas Lonjakan Harga RAM
Dalam beberapa waktu terakhir, harga RAM—terutama DDR5—melonjak tajam. Permintaan tinggi dari pusat data skala besar membuat pasokan untuk pasar konsumen semakin terbatas.
Produsen memori lebih memprioritaskan kebutuhan hyperscaler. Akibatnya, harga RAM di pasar global naik drastis, bahkan mencapai empat hingga lima kali lipat dari kondisi normal.
Situasi ini berdampak langsung pada pengguna PC, laptop, hingga industri game.
Potensi Mengubah Arah Industri
TurboQuant membuka peluang baru dalam pengembangan AI yang lebih efisien. Teknologi ini tidak hanya mengurangi ketergantungan pada hardware mahal, tetapi juga memperluas akses penggunaan AI.
Jika implementasinya berhasil secara luas, pengembang dapat menjalankan model AI besar di perangkat dengan spesifikasi lebih rendah.
Langkah Google ini menunjukkan arah baru: bukan hanya meningkatkan kekuatan AI, tetapi juga membuatnya lebih ringan dan efisien.
Penulis : Idp
Editor : Ichwan Diaspora









