Liquid AI Mengumumkan Model Liquid Foundation AI Generatif Dengan Jejak Memori Lebih Kecil

Liquid AI, yang berbasis di Massachusetts kecerdasan buatan (AI) startup, mengumumkan model AI generatif pertamanya yang tidak dibangun berdasarkan arsitektur transformator yang ada. Dijuluki Liquid Foundation Model (LFM), arsitektur baru ini beralih dari Generative Pre-trained Transformers (GPTs) yang merupakan fondasi model AI populer seperti GPT seri oleh OpenAI, Gemini, Copilot, dan banyak lagi. Startup tersebut mengklaim bahwa model AI baru dibangun dari prinsip pertama dan kinerjanya mengungguli model bahasa besar (LLM) dalam kelompok ukuran yang sebanding.

Model Alas Bedak Cair Baru dari Liquid AI

Startup ini didirikan bersama oleh para peneliti di Laboratorium Ilmu Komputer dan Kecerdasan Buatan (CSAIL) Institut Teknologi Massachusetts (MIT) pada tahun 2023 dan bertujuan untuk membangun arsitektur baru untuk model AI yang dapat bekerja pada tingkat yang sama atau melampaui GPT. .

LFM baru ini adalah tersedia dalam tiga ukuran parameter 1.3B, 3.1B, dan 40.3B. Yang terakhir adalah model Mixture of Experts (MoE), yang berarti model ini terdiri dari berbagai model bahasa yang lebih kecil dan ditujukan untuk menangani tugas-tugas yang lebih kompleks. LFM sekarang tersedia di Liquid Playground perusahaan, Lambda untuk UI dan API Obrolan, serta Perplexity Labs dan akan segera ditambahkan ke Cerebras Inference. Selanjutnya, model AI sedang dioptimalkan untuk Nvidia, AMD, Qualcomm, Cerebras, dan Apel perangkat keras, kata perusahaan itu.

LFM juga berbeda secara signifikan dari teknologi GPT. Perusahaan menyoroti bahwa model ini dibangun dari prinsip pertama. Prinsip pertama pada dasarnya adalah pendekatan pemecahan masalah di mana teknologi yang kompleks dipecah menjadi dasar-dasarnya dan kemudian dibangun dari sana.

Menurut startup tersebut, model AI baru ini dibangun di atas sesuatu yang disebut unit komputasi. Sederhananya, ini adalah desain ulang sistem token, dan sebagai gantinya, perusahaan menggunakan istilah sistem Liquid. Ini berisi informasi ringkas dengan fokus pada memaksimalkan kapasitas pengetahuan dan penalaran. Startup ini mengklaim desain baru ini membantu mengurangi biaya memori selama inferensi, dan meningkatkan output kinerja di seluruh video, audio, teks, deret waktu, dan sinyal.

Perusahaan lebih lanjut mengklaim bahwa keuntungan model AI berbasis Liquid adalah arsitekturnya dapat dioptimalkan secara otomatis untuk platform tertentu berdasarkan kebutuhan dan ukuran cache inferensi.

Meskipun banyak proyek yang dibuat oleh startup, kinerja dan efisiensinya hanya dapat diukur ketika pengembang dan perusahaan mulai menggunakannya untuk alur kerja AI mereka. Startup tersebut tidak mengungkapkan sumber kumpulan datanya, atau tindakan keamanan apa pun yang ditambahkan ke model AI.

Sumber

LEAVE A REPLY

Please enter your comment!
Please enter your name here