Rahasia AI Apple Ternyata Tidak Menggunakan GPU NVIDIA & Menggunakan Chip Google untuk Pelatihan

Ini bukan saran investasi. Penulis tidak memiliki posisi di salah satu saham yang disebutkan. Wccftech.com memiliki kebijakan pengungkapan dan etika.

Dalam sebuah makalah penelitian baru yang merinci kemampuan pelatihan AI untuk iPhone dan produk lain yang memiliki fitur kecerdasan buatan yang diumumkan tahun ini, raksasa teknologi Cupertino Apple, tampaknya, telah memilih untuk mengandalkan chip Google, bukan pemimpin pasar NVIDIA. Kenaikan NVIDIA ke puncak rantai kapitalisasi pasar didasarkan pada permintaan yang kuat untuk GPU-nya yang telah mendorong pendapatan dan laba lebih tinggi dengan persentase tiga digit.

Namun, dalam makalahnya, Apple menyampaikan bahwa Apple Foundation Model (AFM) yang memiliki 2,73 miliar parameter mengandalkan gugus awan unit pemrosesan tensor (TPU) v4 dan v5p yang biasanya disediakan oleh Google Alphabet Inc.

Pendekatan AI Apple Mengandalkan Penggunaan TPU, Bukan GPU, Tunjukkan Makalah Penelitian

Makalah penelitian Apple, yang dirilis hari ini, mencakup infrastruktur pelatihannya dan detail lainnya untuk model AI yang akan mendukung fitur-fitur yang diumumkan di WWDC awal tahun ini. Apple mengumumkan pemrosesan AI pada perangkat dan pemrosesan cloud, dan inti dari fitur-fitur AI ini adalah Apple Foundation Model yang dijuluki AFM.

Untuk AFM di server, atau model yang akan mendukung fitur AI cloud yang disebut Apple Cloud Compute, Apple membagikan bahwa mereka melatih model AI 6,3 triliun token “dari awal” pada “Chip TPUv4 8192“Chip TPUv4 Google tersedia dalam pod yang masing-masing terbuat dari 4.096 chip.

Apple menambahkan bahwa model AFM (baik pada perangkat maupun cloud) dilatih pada chip TPUv4 dan kluster Cloud TPU v5p. v5p adalah bagian dari 'Hypercomputer' AI Cloud milik Google, dan diumumkan pada bulan Desember tahun lalu.

Setiap pod v5p terbuat dari 8.960 chip masing-masing, dan menurut Google, pod ini menawarkan dua kali operasi titik mengambang per detik (FLOPS) dan tiga kali memori dibandingkan TPU v4 untuk melatih model hampir tiga kali lebih cepat.

Deskripsi Apple tentang fitur AI pada perangkat dan cloud. Keduanya mengandalkan AFM, atau teknik pelatihan turunan AFM. Gambar: Apple Intelligence Foundation Language Models/Apple

Untuk model AI pada perangkat untuk fitur-fitur seperti penulisan dan pemilihan gambar, Apple menggunakan model parameter 6,4 miliar yang “dilatih dari awal menggunakan resep yang sama dengan server AFM.” Apple juga memilih untuk mengandalkan chip TPU v4 yang lebih lama untuk model server AFM. Seperti yang disorot di atas, Apple menggunakan chip TPU v4 8092, tetapi untuk model AFM pada perangkat, perusahaan memilih untuk mengandalkan chip yang lebih baru. Model ini, menurut Apple, dilatih pada chip TPU v5p 2048.

Rincian lain yang dibagikan dalam makalah tersebut mencakup evaluasi model untuk respons yang merugikan, topik sensitif, kebenaran fakta, kinerja matematika, dan kepuasan manusia terhadap keluaran model. Menurut Apple, model server AFM dan pada perangkat memimpin rekan-rekan industri mereka terkait penekanan keluaran yang merugikan.

Misalnya, server AFM, jika dibandingkan dengan GPT-4 OpenAI, memiliki tingkat pelanggaran keluaran yang berbahaya sebesar 6,3%, yang secara signifikan lebih rendah daripada GPT-4 sebesar 28,8%, menurut data Apple. Demikian pula, tingkat pelanggaran AFM pada perangkat sebesar 7,5% lebih rendah daripada skor Llama-3-8B (yang dilatih oleh induk Facebook, Meta) sebesar 21,8%.

Untuk ringkasan email, pesan, dan notifikasi, AFM pada perangkat memiliki persentase kepuasan masing-masing sebesar 71,3%, 63%, dan 74,9%. Makalah penelitian tersebut menyebutkan bahwa model-model ini memimpin model Llama, Gemma, dan Phi-3.

Bagikan cerita ini

Indonesia

Twitter

Sumber