Meta memamerkan chipset AI generasi berikutnya untuk membangun infrastruktur AI berskala besar

Pada hari Rabu, Meta meluncurkan Meta Training and Inference Accelerator (MTIA) generasi berikutnya, seperangkat chip yang dirancang khusus untuk beban kerja kecerdasan buatan (AI). Peningkatan pada chipset AI-nya dilakukan hampir setahun setelah perusahaan meluncurkan chip AI pertamanya. Akselerator inferensi ini akan mendukung produk dan layanan raksasa teknologi dan AI saat ini dan di masa depan yang dapat ditemukan dalam platform media sosialnya. Secara khusus, Meta menyoroti bahwa kemampuan chipset akan digunakan untuk melayani model rating dan rekomendasinya.

Penerbitan iklan melalui Entri blog“Infrastruktur berskala besar generasi berikutnya dari Meta sedang dibangun dengan mempertimbangkan AI, termasuk dukungan untuk produk dan layanan AI Generatif (GenAI) baru, sistem rekomendasi, dan penelitian AI tingkat lanjut,” kata Meta. “Ini adalah investasi yang kami perkirakan akan tumbuh di tahun-tahun mendatang.” Seiring dengan meningkatnya kebutuhan komputasi untuk mendukung model AI seiring dengan evolusi model.

Chip AI baru menawarkan peningkatan signifikan dalam pembangkitan daya dan efisiensi karena peningkatan arsitekturnya, menurut Meta. MTIA generasi berikutnya menggandakan bandwidth komputasi dan memori dibandingkan generasi sebelumnya. Itu juga dapat memberikan model rekomendasi Meta yang digunakan untuk mempersonalisasi konten kepada penggunanya di platform media sosialnya.

Mengenai perangkat keras chipset, Meta mengatakan sistemnya memiliki desain berbasis rak yang menampung hingga 72 akselerator, dengan tiga sasis berisi 12 papan dan masing-masing menampung dua akselerator. Prosesornya berjalan pada 1,35GHz yang jauh lebih cepat dari pendahulunya 800MHz. Itu juga dapat beroperasi pada output yang lebih tinggi yaitu 90W. Struktur antara akselerator dan host juga telah ditingkatkan ke PCIe Gen5.

Tumpukan perangkat lunak adalah tempat dimana perusahaan telah melakukan perbaikan yang signifikan. Chipset ini dirancang untuk terintegrasi penuh dengan PyTorch 2.0 dan fitur terkait. “Kompilator tingkat rendah MTIA mengambil output dari front-end dan menghasilkan kode spesifik perangkat yang sangat efisien,” jelas perusahaan tersebut.

Hasilnya sejauh ini menunjukkan bahwa chip MTIA ini dapat menangani model klasifikasi dan rekomendasi kompleksitas rendah (LC) dan kompleksitas tinggi (HC) yang merupakan komponen produk Meta. Di seluruh model ini, terdapat variasi ~10x-100x dalam ukuran model dan jumlah komputasi untuk setiap sampel masukan. Karena kami mengontrol seluruh cluster, kami dapat mencapai efisiensi yang lebih besar dibandingkan GPU yang tersedia secara komersial. Mencapai keuntungan ini merupakan upaya berkelanjutan dan kami terus meningkatkan kinerja per watt seiring kami membangun dan menerapkan chip MTIA di sistem kami.

Dengan munculnya kecerdasan buatan, banyak perusahaan teknologi kini berfokus pada pembuatan chip AI khusus yang dapat memenuhi kebutuhan spesifik mereka. Prosesor ini memberikan daya komputasi yang sangat besar pada server, memungkinkan mereka menghadirkan produk seperti chatbot AI umum dan alat AI untuk tugas tertentu.


Tautan afiliasi dapat dibuat secara otomatis – lihat Pernyataan Etika kami untuk rinciannya.

Sumber

LEAVE A REPLY

Please enter your comment!
Please enter your name here