Google dan Meta memperbarui model AI mereka di tengah munculnya “AlphaChip”
Konsep Cyberpunk menampilkan seorang pria berlari di sepanjang jalur futuristik yang penuh dengan monitor.
Memperbesar / Ada banyak berita AI minggu ini, dan meliputnya terkadang terasa seperti berlari melalui aula yang penuh dengan CRT yang menari-nari, seperti ilustrasi Getty Images ini.

Ini adalah minggu yang sangat sibuk dalam berita AI berkat OpenAI, termasuk yang kontroversial postingan blog dari CEO Sam Altman, itu peluncuran luas Mode Suara Tingkat Lanjut, 5GW rumor pusat data, staf utama perombakan, dan dramatis rencana restrukturisasi.

Namun dunia AI lainnya tidak melakukan hal yang sama, melakukan hal mereka sendiri dan melakukan hal yang sama berputar keluar model dan penelitian AI baru setiap saat. Berikut ringkasan beberapa berita AI penting lainnya dari minggu lalu.

Pembaruan Google Gemini

Pada hari Selasa, Google diumumkan pembaruan pada jajaran model Gemini, termasuk peluncuran dua model siap produksi baru yang mengulangi rilis sebelumnya: Gemini-1.5-Pro-002 dan Gemini-1.5-Flash-002. Perusahaan melaporkan peningkatan kualitas secara keseluruhan, dengan peningkatan penting dalam matematika, penanganan konteks panjang, dan tugas visi. Google mengklaim peningkatan kinerja sebesar 7 persen MMLU-Pro benchmark dan peningkatan 20 persen dalam tugas-tugas yang berhubungan dengan matematika. Namun seperti yang Anda ketahui, jika Anda sudah lama membaca Ars Technica, AI biasanya melakukan benchmark tidak begitu berguna seperti yang kita inginkan.

Seiring dengan peningkatan model, Google memperkenalkan pengurangan harga yang signifikan untuk Gemini 1.5 Pro, memotong biaya token masukan sebesar 64 persen dan biaya token keluaran sebesar 52 persen untuk permintaan di bawah 128.000 token. Seperti peneliti AI Simon Willison dicatat di blognya, “Sebagai perbandingan, GPT-4o saat ini memiliki input $5/(juta token) dan output $15/m dan Claude 3.5 Sonnet memiliki input $3/m dan output $15/m. Gemini 1.5 Pro sudah menjadi yang termurah di antara yang terdepan model dan sekarang bahkan lebih murah.”

Google juga meningkatkan batas kecepatan, dengan Gemini 1.5 Flash kini mendukung 2.000 permintaan per menit dan Gemini 1.5 Pro menangani 1.000 permintaan per menit. Google melaporkan bahwa model terbaru menawarkan kecepatan output dua kali lipat dan latensi tiga kali lebih rendah dibandingkan versi sebelumnya. Perubahan ini mungkin mempermudah dan menghemat biaya bagi pengembang untuk membangun aplikasi dengan Gemini dibandingkan sebelumnya.

Meta meluncurkan Llama 3.2

Pada hari Rabu, Meta diumumkan peluncuran Llama 3.2, pembaruan signifikan pada jajaran model AI bobot terbuka yang kami miliki tercakup secara luas di masa lalu. Rilis baru ini mencakup model bahasa besar (LLM) berkemampuan vision dalam ukuran parameter 11 miliar dan 90B, serta model parameter 1B dan 3B hanya teks ringan yang dirancang untuk perangkat edge dan seluler. Meta mengklaim model visi bersaing dengan model sumber tertutup terkemuka dalam tugas pengenalan gambar dan pemahaman visual, sementara model yang lebih kecil dilaporkan mengungguli pesaing berukuran serupa dalam berbagai tugas berbasis teks.

Willison melakukan beberapa eksperimen dengan beberapa model 3.2 yang lebih kecil dan melaporkan hasil yang mengesankan untuk ukuran model. Peneliti AI Ethan Mollick dipamerkan menjalankan Llama 3.2 di iPhone-nya menggunakan aplikasi bernama PocketPal.

Meta juga memperkenalkan pejabat pertama “Tumpukan Llama” distribusi, dibuat untuk menyederhanakan pengembangan dan penerapan di lingkungan yang berbeda. Seperti rilis sebelumnya, Meta membuat model tersedia untuk diunduh gratis, dengan batasan lisensi. Model baru ini mendukung jendela konteks panjang hingga 128.000 token.

AlphaChip AI Google mempercepat desain chip

Pada hari Kamis, Google DeepMind diumumkan apa yang tampaknya merupakan kemajuan signifikan dalam desain chip elektronik berbasis AI, AlphaChip. Ini dimulai sebagai a proyek penelitian pada tahun 2020 dan sekarang menjadi metode pembelajaran penguatan untuk merancang tata letak chip. Google dilaporkan telah menggunakan AlphaChip untuk membuat “tata letak chip manusia super” dalam tiga generasi terakhirnya Unit Pemrosesan Tensor (TPU), yaitu chip yang mirip dengan GPU yang dirancang untuk mempercepat operasi AI. Google mengklaim AlphaChip dapat menghasilkan tata letak chip berkualitas tinggi dalam hitungan jam, dibandingkan dengan upaya manusia yang berminggu-minggu atau berbulan-bulan. (Kabarnya, Nvidia punya juga telah menggunakan AI untuk membantu merancang chipnya.)

Khususnya, Google juga merilis a pos pemeriksaan terlatih dari AlphaChip di GitHub, membagikan bobot model kepada publik. Perusahaan tersebut melaporkan bahwa dampak AlphaChip telah melampaui Google, seperti halnya perusahaan desain chip MediaTek mengadopsi dan mengembangkan teknologi untuk chip mereka. Menurut Google, AlphaChip telah memicu penelitian baru di bidang AI untuk desain chip, yang berpotensi mengoptimalkan setiap tahap siklus desain chip mulai dari arsitektur komputer hingga manufaktur.

Bukan itu saja yang terjadi, namun ada beberapa hal penting yang terjadi. Dengan industri AI yang tidak menunjukkan tanda-tanda melambat saat ini, kita lihat saja bagaimana perkembangannya minggu depan.

Sumber

LEAVE A REPLY

Please enter your comment!
Please enter your name here