Sumber mengatakan kepada Reuters bahwa OpenAI bekerja sama dengan Broadcom dan TSMC untuk membangun chip internal pertama yang dirancang untuk mendukung sistem AI mereka, dengan chip AMD ditambahkan bersama chip Nvidia untuk memenuhi kebutuhan infrastruktur yang terus meningkat.
OpenAI, perusahaan yang berkembang pesat di belakang ChatGPT, telah mempelajari serangkaian opsi untuk mendiversifikasi pasokan chip dan mengurangi biaya. OpenAI mempertimbangkan untuk membangun semuanya sendiri dan meningkatkan modal untuk rencana mahal guna membangun jaringan pabrik yang dikenal sebagai “pengecoran” untuk memproduksi chip.
Perusahaan tersebut telah membatalkan rencana pengecoran ambisiusnya untuk saat ini karena biaya dan waktu yang diperlukan untuk membangun jaringan, dan sebagai gantinya berencana untuk fokus pada upaya desain chip internal, menurut sumber, yang tidak ingin disebutkan namanya karena mereka tidak berwenang untuk membahas masalah pribadi. . Itu penting.
Strategi perusahaan, yang pertama kali dirinci di sini, menyoroti bagaimana startup Silicon Valley ini memanfaatkan kemitraan industri dan perpaduan pendekatan internal dan eksternal untuk mengamankan pasokan chip dan mengelola biaya seperti pesaing yang lebih besar, Amazon, Meta, Google, dan Microsoft. Sebagai salah satu pembeli chip terbesar, keputusan OpenAI untuk mengambil sumber dari berbagai pembuat chip sambil mengembangkan chip kustomnya dapat berdampak lebih luas pada sektor teknologi.
Saham Broadcom melonjak setelah laporan tersebut, mengakhiri perdagangan Selasa dengan kenaikan lebih dari 4,5 persen. Saham AMD juga memperpanjang kenaikannya dari sesi pagi, mengakhiri hari dengan kenaikan 3,7%.
OpenAI, AMD dan TSMC menolak berkomentar. Broadcom tidak segera menanggapi permintaan komentar.
OpenAI, yang telah membantu mengkomersialkan AI generatif yang menghasilkan respons mirip manusia terhadap pertanyaan, mengandalkan kekuatan komputasi yang signifikan untuk melatih dan mengoperasikan sistemnya. Sebagai salah satu pembeli terbesar unit pemrosesan grafis (GPU) Nvidia, OpenAI menggunakan chip AI untuk melatih model di mana AI belajar dari data dan untuk inferensi, menerapkan AI untuk membuat prediksi atau keputusan berdasarkan informasi baru.
Reuters sebelumnya melaporkan upaya desain chip OpenAI. Informasi tersebut melaporkan pembicaraan dengan Broadcom dan lainnya.
OpenAI telah bekerja selama berbulan-bulan dengan Broadcom untuk membangun chip AI pertama yang berfokus pada inferensi, menurut sumber. Permintaan terhadap chip pelatihan kini lebih besar, namun para analis memperkirakan bahwa kebutuhan akan chip inferensi dapat melebihi permintaan tersebut seiring dengan semakin banyaknya aplikasi AI yang diterapkan.
Broadcom membantu perusahaan, termasuk unit Google Alphabet, mengoptimalkan desain chip untuk manufaktur, dan juga menyediakan bagian desain yang membantu memindahkan informasi ke dalam dan ke luar chip dengan cepat. Hal ini penting dalam sistem AI di mana puluhan ribu chip dihubungkan untuk bekerja berdampingan.
OpenAI masih menentukan apakah mereka akan mengembangkan atau mengakuisisi elemen lain dari desain chipnya, dan mungkin akan melibatkan mitra tambahan, kata dua sumber.
Perusahaan telah membentuk tim chip yang terdiri dari sekitar 20 orang, dipimpin oleh insinyur senior yang sebelumnya membangun Tensor Processing Unit (TPU) di Google, termasuk Thomas Noory dan Richard Hu.
Melalui Broadcom, OpenAI telah mendapatkan kapasitas produksi dengan Perusahaan Manufaktur Semikonduktor Taiwan untuk membuat chip pertama yang dirancang khusus pada tahun 2026, kata sumber tersebut.
Saat ini, GPU Nvidia memiliki pangsa pasar lebih dari 80%. Namun kekurangan dan kenaikan biaya telah mendorong pelanggan besar seperti Microsoft, Meta, dan sekarang OpenAI untuk mencari alternatif internal atau eksternal.
Rencana penggunaan chip AMD OpenAI melalui Microsoft Azure, yang pertama kali dilaporkan di sini, menunjukkan bagaimana chip MI300X baru AMD mencoba mengambil bagian dari pasar yang didominasi oleh Nvidia. AMD memperkirakan penjualan chip kecerdasan buatan akan mencapai $4,5 miliar pada tahun 2024, setelah meluncurkan chip tersebut pada kuartal terakhir tahun 2023.
Melatih model AI dan layanan pemicu seperti ChatGPT membutuhkan biaya yang mahal. OpenAI memperkirakan kerugian sebesar $5 miliar tahun ini dan pendapatan sebesar $3,7 miliar, menurut sumber. Biaya komputasi, atau biaya perangkat keras, listrik, dan layanan cloud yang diperlukan untuk memproses kumpulan data berukuran besar dan mengembangkan model, merupakan pengeluaran terbesar perusahaan, sehingga mendorong upaya untuk meningkatkan penggunaan dan mendiversifikasi pemasok.
Sumber tersebut menambahkan bahwa OpenAI berhati-hati dalam mencuri talenta dari Nvidia karena ingin menjaga hubungan baik dengan pembuat chip yang tetap berkomitmen untuk bekerja sama, terutama untuk mengakses chip Blackwell generasi baru.
Nvidia menolak berkomentar.
© Thomson Reuters 2024