Dua di antara orang-orang pemberani ini adalah Mike Gunter dan Reiner Pope. Mereka telah mendirikan sebuah perusahaan, MatX dengan maksud mendesain silikon secara khusus untuk memproses data, yang dibutuhkan untuk menjalankan model bahasa besar atau (large language models/LLM).
LLM adalah dasar dari hal-hal seperti ChatGPT dari OpenAI Inc. dan Gemini dari Google, dan mereka membutuhkan sejumlah besar cip yang sangat mahal untuk dijalankan.
Jika sebuah perusahaan dapat membuat chip yang lebih murah, lebih cepat, dan ramah AI, maka perusahaan tersebut akan siap untuk melakukannya dengan sangat baik di dunia perangkat lunak AI yang terus berkembang.
Gunter dan Pope sebelumnya bekerja di Google, unit milik Alphabet Inc, di mana Gunter berfokus pada perancangan perangkat hardware, termasuk cip, untuk menjalankan software AI. Pope melakukan pemrograman atas perangkat tersebut.
Google selama bertahun-tahun telah membangun cip AI-nya sendiri yang disebut tensor processing units (TPU). Namun, cip ini pertama kali dirancang sebelum LLM benar-benar mulai berkembang dan terlalu umum untuk tugas yang ada saat ini, menurut para eksekutif MatX.
“Kami mencoba membuat model bahasa yang besar berjalan lebih cepat di Google dan membuat beberapa kemajuan, tetapi itu agak sulit,” kata Pope, berbicara di depan umum tentang perusahaannya untuk pertama kalinya.
“Di dalam Google, ada banyak orang yang menginginkan perubahan pada cip untuk berbagai macam hal, dan sulit untuk fokus hanya pada LLM. Kami memilih untuk keluar karena alasan tersebut.”
Dominasi Nvidia di pasar silikon AI adalah sesuatu yang tidak disengaja. Perusahaan ini mulai membuat cip yang dikenal sebagai unit pemrosesan grafis atau graphics processing units (GPU). Tujuannya mempercepat permainan video dan pekerjaan desain komputer tertentu.
Cip Nvidia unggul dalam menangani banyak sekali tugas-tugas kecil, dan kebetulan cip ini menjalankan perangkat lunak AI yang mulai berkembang sekitar satu dekade yang lalu, dengan jauh lebih baik daripada jenis chip lain yang dibuat oleh Intel Corp.
Nvidia membagi-bagi ruang pada GPU-nya untuk menangani berbagai macam pekerjaan komputasi, termasuk memindahkan data di sekitar cip.
Beberapa pilihan desainnya lebih sesuai dengan era komputasi masa lalu daripada ledakan AI dan memiliki pengorbanan performa.
Para pendiri MatX bilang bahwa real estat ekstra ini menambah biaya dan kompleksitas yang tidak diperlukan di era baru AI. MatX mengambil pendekatan yang bersih, mendesain silikon dengan satu inti pemrosesan besar yang ditujukan untuk satu tujuan, mengalikan angka-angka secepat mungkin-tugas utama di jantung LLM.
Perusahaan ini bertaruh - dan ini adalah jenis taruhan yang bisa jadi benar atau salah - bahwa cipnya akan setidaknya 10 kali lebih baik dalam melatih LLM dan memberikan hasilnya daripada GPU Nvidia.
“Nvidia adalah produk yang sangat kuat dan jelas merupakan produk yang tepat untuk sebagian besar perusahaan,namun kami rasa kami bisa melakukan hal yang jauh lebih baik,” ujar Pope.
MatX telah mengumpulkan dana sebesar US$25 juta, dengan putaran pendanaan terbarunya yang dipimpin oleh duo investor AI, Nat Friedman dan Daniel Gross.
MatX berlokasi di Mountain View, California, beberapa mil jauhnya dari pabrik transistor pertama di Silicon Valley, Shockley Semiconductor Laboratory, dan memiliki puluhan karyawan yang bekerja membuat cip yang akan diluncurkan tahun depan.
“Para pendiri MatX merupakan simbol dari tren di dunia AI,” ucap Gross, karena mereka “mengambil beberapa ide terbaik yang dikembangkan di beberapa perusahaan terbesar, yang bergerak terlalu lambat dan terlalu birokratis, dan mengomersialkannya sendiri.”
Jika software AI terus berjalan di jalurnya saat ini, maka akan menciptakan kebutuhan sangat besar untuk komputasi yang mahal. Model-model yang sedang dikembangkan diperkirakan menghabiskan biaya sekitar US$1 miliar untuk dilatih, dan penerusnya diperkirakan akan menghabiskan biaya US$10 miliar untuk dilatih.
MatX memprediksi bahwa dapat memiliki bisnis yang berkembang pesat dengan mengalahkan sejumlah pemain AI utama termasuk OpenAI dan Anthropic PBC.
“Ekonomi perusahaan-perusahaan ini benar-benar terbalik dari perusahaan pada umumnya. Mereka menghabiskan semua uang ini untuk komputasi, bukan untuk gaji. Jika keadaan tidak berubah, mereka akan kehabisan uang.”
Silicon Valley, seperti namanya, dulunya dipenuhi oleh perusahaan-perusahaan cip. Ada puluhan perusahaan startup, dan bahkan raksasa komputasi Hewlett-Packard, IBM, dan Sun Microsystems membuat cip mereka sendiri.
Namun, dalam sejarah yang lebih baru, Intel membatalkan banyak upaya ini melalui dominasinya di pasar PC dan server, sementara perusahaan seperti Samsung Electronics Co dan Qualcomm Inc mulai mendominasi komponen ponsel pintar.
Karena tren ini, para investor mulai menjauh dari menanamkan modal di perusahaan statup bidang cip, karena menganggapnya jauh lebih mahal, memakan waktu dan berisiko dibandingkan perangkat lunak.
“Sekitar tahun 2014, saya mengunjungi perusahaan modal ventura, dan mereka telah menyingkirkan semua mitra mereka yang mengetahui tentang semikonduktor,” kata Rajiv Khemani, seorang ahli chip yang berinvestasi di MatX.
“Saya akan menatap orang-orang yang tidak tahu apa yang saya katakan.”
Namun, kebangkitan AI telah mengubah persamaan risiko dan imbalan. Perusahaan-perusahaan dengan sumber daya yang besar-Amazon.com, Google, dan Microsoft di antaranya-telah berinvestasi dalam mendesain cip tensor mereka sendiri untuk pekerjaan AI.
Beberapa tahun yang lalu, startup seperti Groq Inc dan Cerebras Systems Inc muncul di tempat kejadian dengan gelombang pertama cip khusus AI. Namun, produk-produk ini dirancang sebelum terobosan teknis AI yang besar menyebabkan munculnya LLM sebagai cerita dominan dalam AI.
Para startup harus menyesuaikan diri dengan minat terhadap LLM dan mencoba mengubah produk mereka dengan cepat.
MatX kemungkinan besar merupakan awal dari gelombang startup cip lainnya yang berfokus pada LLM dari bawah ke atas.
Masalah besar dalam memasuki industri cip adalah dibutuhkannya waktu tiga hingga lima tahun untuk mendesain dan memproduksi chip baru. (Nvidia, tentu saja, tidak akan tinggal diam selama masa ini dan, pada kenyataannya, mengumumkan versi GPU-nya yang jauh lebih cepat bulan April).
Perusahaan startup harus memprediksi ke mana arah tren teknologi dan persaingan akan terjadi, dengan sedikit ruang untuk kesalahan yang dapat memperlambat produksi.
Perusahaan software biasanya harus menulis ulang kode mereka untuk dijalankan pada semikonduktor baru, proses yang mahal dan memakan waktu dan hanya akan mereka lakukan jika mereka mengharapkan imbalan besar saat peralihan.
Aturan praktisnya adalah bahwa cip baru harus setidaknya 10 kali lebih baik daripada yang sebelumnya agar dapat membujuk pelanggan untuk mengubah semua kode mereka.
Sementara itu, Gross memprediksi bahwa industri sedang dalam tahap awal membangun infrastruktur yang dibutuhkan untuk mendukung peralihan ke AI sebagai bentuk komputasi dominan.
“Saya pikir kita sedang bergerak menuju siklus semikonduktor yang akan membuat yang lain tampak pucat jika dibandingkan,” katanya. Jika dia benar, maka hampir pasti akan ada kerajaan cip baru yang akan tercipta.
(bbn)