Liquid AI Mengumumkan Model Bahasa Liquid Foundation Generasi Pertama
Liquid AI Mengumumkan Model Bahasa Liquid Foundation Generasi Pertama

Liquid AI telah memperkenalkan serangkaian model bahasa baru yang menjanjikan untuk membentuk kembali lanskap AI. milik perusahaan Model Alas Bedak Cair (LFM) mencapai kinerja tercanggih dengan tetap mempertahankan jejak memori yang lebih kecil dan inferensi yang lebih efisien dibandingkan dengan arsitektur berbasis transformator tradisional.

Rilis ini mencakup tiga model: LFM-1B, LFM-3BDan LFM-40B. Masing-masing menargetkan ceruk tertentu dalam ekosistem AI, mulai dari lingkungan dengan sumber daya terbatas hingga tugas yang lebih kompleks yang memerlukan jumlah parameter lebih besar.

LFM-1B, dengan 1,3 miliar parameter, menetapkan tolok ukur baru dalam kategori ukurannya. Ini adalah arsitektur non-GPT pertama yang secara signifikan mengungguli model berbasis transformator dengan skala serupa di berbagai tolok ukur publik.

LFM-3B dengan 3,1 miliar parameter diposisikan untuk penerapan edge, khususnya dalam aplikasi seluler. Liquid AI melaporkan bahwa ia tidak hanya mengungguli model 3B lainnya tetapi juga melampaui beberapa model parameter 7B dan 13B. Perusahaan mengklaim itu cocok dengan kinerja Microsoft Phi-3.5-mini pada beberapa benchmark dan 18,4% lebih kecil.

Di kelas atas, LFM-40B menggunakan arsitektur Mixture of Experts (MoE), mengaktifkan 12 miliar parameter saat digunakan. Liquid AI menyatakan model ini memberikan kinerja yang sebanding dengan model yang lebih besar sekaligus memungkinkan throughput yang lebih tinggi pada perangkat keras yang lebih hemat biaya.

Pembeda utama bagi LFM adalah pendekatan mereka dalam menangani masukan yang panjang. Tidak seperti model transformator, di mana penggunaan memori tumbuh secara linear seiring dengan panjang input, LFM mempertahankan jejak memori yang lebih konstan. Efisiensi ini memungkinkan mereka memproses urutan yang lebih panjang pada perangkat keras yang sama, dengan perusahaan mengutip panjang konteks 32,000 token yang dioptimalkan di seluruh modelnya.

Pendekatan Liquid AI berbeda dari arsitektur berbasis transformator yang umum, melainkan membangun prinsip-prinsip sistem dinamis, pemrosesan sinyal, dan aljabar linier numerik. Perusahaan mengklaim landasan ini memungkinkan LFM memanfaatkan kemajuan teoretis selama puluhan tahun di bidang ini.

Terlepas dari kemampuan yang mengesankan ini, Liquid AI mengakui keterbatasan saat ini. Model ini kesulitan dengan tugas kode zero-shot, penghitungan numerik yang presisi, informasi sensitif terhadap waktu, dan banyak lagi.

Jika Anda ingin mencoba LFM, Anda memiliki beberapa opsi—Liquid Playground, Lambda (melalui Chat UI dan API), dan Perplexity Labs. Perusahaan juga mengumumkan bahwa Cerebras Inference akan segera mendukung model ini. Selain itu, Liquid AI mengoptimalkan tumpukan LFM untuk perangkat keras dari NVIDIA, AMD, Qualcomm, Cerebras, dan Apple, sehingga berpotensi memperluas aksesibilitasnya di berbagai lingkungan komputasi yang berbeda.

Namun, terlepas dari tolok ukur yang mengesankan dan arsitektur inovatif Model Liquid Foundation Liquid AI, penting untuk menyadari bahwa teknologi ini masih dalam tahap awal. Meskipun model-model tersebut menunjukkan harapan besar di atas kertas, efektivitas dan skalabilitasnya di dunia nyata belum sepenuhnya diuji. Ketika komunitas AI terus mengeksplorasi arsitektur model baru, LFM mewakili perkembangan penting yang tentunya dapat mempengaruhi arah masa depan. Namun, hanya waktu dan penerapan praktis yang akan menentukan dampak sesungguhnya terhadap lanskap AI yang lebih luas.

Chris McKay adalah pendiri dan pemimpin redaksi Maginative. Kepemimpinan pemikirannya dalam literasi AI dan adopsi AI strategis telah diakui oleh institusi akademis terkemuka, media, dan merek global.

Sumber

LEAVE A REPLY

Please enter your comment!
Please enter your name here