Logo Bloomberg Technoz

Bloomberg Technoz, Jakarta - Advanced Micro Devices atau AMD baru saja merilis cip AI besutannya yaitu MI300X pada hari Rabu waktu setempat di San Jose, California. CEO AMD Lisa Su mengklaim Cip ini merupakan akselerator dengan performa tertinggi yang pernah ada untuk AI generatif. 

“Kami melihat permintaan yang sangat tinggi untuk GPU Instinct MI300 baru kami, yang merupakan akselerator dengan performa tertinggi di dunia untuk AI generatif," kata Lisa Su dikutip dari laman resmi Amd.

Dalam perilisannya, AMD telah menandatangani kontrak dengan beberapa perusahaan untuk menggunakan cip MI300X. Meta dan Microsoft adalah dua perusahaan terbesar yang membeli Nvidia H100 GPUs pada tahun 2023. 

“Kami juga membangun momentum yang signifikan untuk solusi AI pusat data kami dengan perusahaan cloud terbesar, penyedia server terbaik di industri, dan perusahaan startup AI paling inovatif yang bekerja sama dengan kami untuk menghadirkan solusi Instinct MI300X dengan cepat ke pasar yang secara dramatis akan mempercepat laju inovasi di seluruh ekosistem AI,” lanjut Lisa

Cip Amd yang baru ini memiliki 150 miliar transistor dan memori yang 2,4 kali lebih besar dibanding Cip H100 milik Nvidia. Oleh karena itu, peluncuran Cip ini merupakan salah satu langkah AMD untuk bisa menyaingi produk serupa besutan Nvidia. 

Seperti yang diketahui sebelumnya, Nvidia mendominasi pasar akselerator AI dengan Cip H100 buatannya itu. Cip Nvidia tengah menjadi salah satu komoditas terpenting dalam industri AI.

Pasalnya Nvidia mampu membuat susunan semikonduktor yang memiliki metode paling efisien untuk melatih data model dengan kapasitas besar seperti teknologi yang mendasari ChatGPT.

Pada saat yang sama, Nvidia sedang melanjutkan pengembangan Cip H100 tersebut ke generasi selanjutnya. Nantinya Cip H100 akan digantikan oleh H200 yang rencananya akan rilis pada tahun depan.

Beberapa perbandingan antara Cip MI300X besutan Amd dengan Cip H100 milik Nvidia:

  • Kapasitas memori: MI300X memiliki memori HBM3 sebesar 192 GB, sedangkan H100 memiliki memori sebesar 80 GB.
  • Bandwidth memori: MI300X memiliki bandwidth memori 60% lebih besar daripada H100.
  • FP8 FLOPS: MI300X memiliki 30% lebih banyak FP8 FLOPS daripada H100.
  • Perangkat software dan dukungan: H100 memiliki ekosistem perangkat lunak dan sumber daya pendukung yang lebih besar.

(frg/wep)

No more pages