00528928
IQPlus, (6/1) - CEO Nvidia Jensen Huang, mengatakan pada hari Senin bahwa generasi chip berikutnya dari perusahaan tersebut sedang dalam "produksi penuh," dan mengatakan bahwa chip tersebut dapat memberikan daya komputasi kecerdasan buatan lima kali lipat dari chip perusahaan sebelumnya ketika melayani chatbot dan aplikasi AI lainnya.
Dalam pidatonya di Consumer Electronics Show di Las Vegas, pemimpin perusahaan paling berharga di dunia ini mengungkapkan detail baru tentang chip-chipnya, yang akan hadir akhir tahun ini dan yang menurut para eksekutif Nvidia kepada Reuters sudah berada di laboratorium perusahaan untuk diuji oleh perusahaan AI, karena Nvidia menghadapi persaingan yang semakin meningkat dari para pesaing serta pelanggannya sendiri.
Platform Vera Rubin, yang terdiri dari enam chip Nvidia terpisah, diperkirakan akan diluncurkan akhir tahun ini, dengan server unggulan yang berisi 72 unit grafis perusahaan dan 36 prosesor pusat baru. Huang menunjukkan bagaimana chip-chip tersebut dapat dirangkai menjadi "pod" dengan lebih dari 1.000 chip Rubin dan mengatakan bahwa hal itu dapat meningkatkan efisiensi pembuatan apa yang dikenal sebagai "token" - unit dasar sistem AI - hingga 10 kali lipat.
Namun, untuk mendapatkan hasil kinerja baru tersebut, Huang mengatakan bahwa chip Rubin menggunakan jenis data eksklusif yang diharapkan perusahaan akan diadopsi oleh industri yang lebih luas.
"Inilah bagaimana kami mampu memberikan peningkatan kinerja yang sangat besar, meskipun kami hanya memiliki 1,6 kali jumlah transistor," kata Huang.
Meskipun Nvidia masih mendominasi pasar untuk pelatihan model AI, mereka menghadapi persaingan yang jauh lebih besar - dari pesaing tradisional seperti Advanced Micro Devices (AMD.O), serta pelanggan seperti Google milik Alphabet (GOOGL.O), dalam memberikan hasil dari model-model tersebut kepada ratusan juta pengguna chatbot dan teknologi lainnya.
Sebagian besar pidato Huang berfokus pada seberapa baik chip baru tersebut akan bekerja untuk tugas itu, termasuk menambahkan lapisan teknologi penyimpanan baru yang disebut "penyimpanan memori konteks" yang bertujuan untuk membantu chatbot memberikan respons yang lebih cepat terhadap pertanyaan dan percakapan yang panjang.
Nvidia juga mempromosikan generasi baru switch jaringan dengan jenis koneksi baru yang disebut optik ko-paket.
Teknologi ini, yang merupakan kunci untuk menghubungkan ribuan mesin menjadi satu, bersaing dengan penawaran dari Broadcom (AVGO.O) dan Cisco Systems (CSCO.O).
Nvidia mengatakan bahwa CoreWeave (CRWV.O), akan menjadi salah satu yang pertama menggunakan sistem Vera Rubin yang baru dan mengharapkan Microsoft (MSFT.O), Oracle (ORCL.N), Amazon (AMZN.O), dan Alphabet (GOOGL.O) untuk mengadopsinya juga.
Dalam pengumuman lainnya, Huang menyoroti perangkat lunak baru yang dapat membantu mobil otonom membuat keputusan tentang jalur mana yang harus diambil - dan meninggalkan jejak dokumen untuk digunakan oleh para insinyur setelahnya. Nvidia menunjukkan penelitian tentang perangkat lunak, yang disebut Alpamayo, akhir tahun lalu, dengan Huang mengatakan pada hari Senin bahwa perangkat lunak tersebut akan dirilis lebih luas, bersama dengan data yang digunakan untuk melatihnya sehingga produsen mobil dapat melakukan evaluasi.
"Kami tidak hanya membuka kode sumber modelnya, kami juga membuka kode sumber data yang kami gunakan untuk melatih model tersebut, karena hanya dengan cara itu Anda dapat benar-benar mempercayai bagaimana model tersebut dibuat," kata Huang dari panggung di Las Vegas. (end/Reuters)