Pada saat AI generatif menyapu seluruh dunia, hampir semua LLM, layanan cloud, dan startup AI tidak terlepas dari satu set infrastruktur dasar yang sama, yaitu ekosistem perangkat lunak CUDA dari NVIDIA (. Arsitektur program yang awalnya dirancang untuk kartu grafis ini, dalam dua dekade terakhir, secara bertahap berkembang menjadi “sistem operasi tak terlihat” yang menjalankan industri AI.
Perusahaan rintisan Modular yang didirikan pada tahun 2022, sedang berusaha untuk menantang secara langsung struktur yang sangat terpusat dan didominasi oleh satu penyedia. Tujuan Modular bukan untuk membuat chip baru, tetapi untuk membangun “platform tumpukan perangkat lunak AI portabel” yang memungkinkan model AI bergerak bebas antara GPU dan akselerator yang berbeda, tidak lagi terjebak dalam ekosistem NVIDIA dan CUDA.
Tahun 2022 titik awal wirausaha, insinyur dasar langsung menerobos inti CUDA
Modular didirikan oleh dua insinyur perangkat lunak dari Apple dan Google pada tahun 2022. CEO Chris Lattner pernah menciptakan sistem compiler Swift dan LLVM, sementara salah satu pendirinya, Tim Davis, terlibat dalam arsitektur perangkat lunak kunci Google TPU.
Keduanya pernah mengalami secara langsung bagaimana perangkat keras baru “membuka pasar berkat perangkat lunak”, sehingga memilih untuk meninggalkan perusahaan teknologi besar dan langsung menantang dominasi perangkat lunak AI yang diwakili oleh CUDA. Perang asimetris ini terlihat hampir gila di mata industri, tetapi juga karena pemahaman yang cukup mendalam tentang dasar sistem, mereka dianggap sebagai salah satu dari sedikit tim yang memiliki kesempatan untuk mencoba.
CUDA sulit digantikan, belenggu struktural industri AI
CUDA awalnya hanya alat untuk memprogram kartu grafis, tetapi seiring dengan kebangkitan pembelajaran mendalam, secara bertahap berkembang menjadi ekosistem lengkap yang mencakup bahasa, pustaka, compiler, dan mesin inferensi.
Bagi sebagian besar tim AI, hampir tidak mungkin untuk menghindari CUDA jika menggunakan GPU NVIDIA. Meskipun ada GPU AMD, TPU, atau chip yang dikembangkan sendiri oleh penyedia cloud di pasar, setiap jenis perangkat keras tetap terikat pada perangkat lunak eksklusif, sehingga pengembang cenderung memilih CUDA yang paling matang dan memiliki alat paling lengkap, membentuk struktur industri yang sangat terkunci.
Rekayasa tanpa insentif justru menjadi celah.
Lattner menunjukkan bahwa perangkat lunak AI portabel lintas chip dan lintas pemasok bukanlah hal yang tidak penting, melainkan “tidak ada yang memiliki cukup insentif untuk menanggung biaya”. Rekayasa semacam ini sangat sulit, dengan periode pengembalian yang panjang, dan hampir tidak ada hasil komersial yang terlihat dalam jangka pendek, tetapi ini adalah kemampuan yang sangat diinginkan oleh seluruh industri.
Kontradiksi inilah yang membuat Modular memilih untuk berinvestasi lebih awal dalam pengembangan sistem dasar jangka panjang sebelum ledakan AI generatif, dan dengan sengaja menjauh dari sorotan pasar selama tiga tahun pertama setelah didirikan.
Tiga tahun berkarya dengan rendah hati, dana dan tim secara bertahap siap.
Hingga tahun 2025, Modular telah mengumpulkan sekitar 380 juta dolar AS dalam pendanaan, dengan investor termasuk beberapa perusahaan modal ventura terkemuka di Silicon Valley. Setelah menyelesaikan putaran pembiayaan terbaru pada September 2025, valuasi perusahaan sekitar 1,6 miliar dolar AS.
Sumber daya ini memungkinkan Modular untuk merekrut insinyur senior dari Google dan Apple, membentuk tim yang fokus pada kompilator, perangkat lunak sistem, dan infrastruktur AI, terus menyempurnakan tumpukan perangkat lunak yang lengkap.
Tiga lapisan arsitektur perangkat lunak, dari bahasa ke kluster komputasi.
Inti teknologi Modular terdiri dari tiga lapisan, yaitu:
Lapisan teratas: untuk Mammoth, digunakan untuk membantu perusahaan dalam penjadwalan dan pengelolaan daya komputasi di lingkungan multi GPU dan multi penyedia, serta menyelesaikan masalah penerapan dan pemeliharaan yang sebenarnya.
Lapisan tengah: untuk mesin inferensi MAX, bertanggung jawab atas jalannya model secara nyata, telah mendukung NVIDIA, AMD, dan Apple Silicon.
Tingkat terendah: adalah bahasa pemrograman Mojo, sintaksis mendekati Python, kinerja mendekati C++, dapat terintegrasi dengan kerangka AI utama.
2025 verifikasi kunci, lapisan komputasi terpadu resmi terbentuk
Pada September 2025, Modular mengumumkan hasil pengujian kunci, di mana pada satu platform perangkat lunak yang sama, berhasil menggerakkan NVIDIA Blackwell B200 dan AMD MI355X dengan performa puncak, di mana MI355X bahkan menunjukkan peningkatan sekitar 50% dibandingkan perangkat lunak asli AMD.
Kemudian pada 12/22, Modular Platform 25.6 resmi dirilis, sepenuhnya mendukung pusat data dan GPU konsumen, dan untuk pertama kalinya Mojo mendukung Apple Silicon secara langsung. Resmi menggambarkan ini sebagai “Tulis sekali, jalankan di mana saja”, yaitu:
“Pengembang dapat menulis kode menggunakan Mojo tanpa perlu membuat versi terpisah untuk NVIDIA, AMD, dan Apple Silicon; satu set kode dapat dijalankan di berbagai GPU dan perangkat keras dari berbagai penyedia.”
Melambangkan kesatuan, lapisan komputasi AI bergerak dari konsep ke implementasi nyata.
Artikel ini menantang kekuasaan perangkat lunak AI NVIDIA! Modular membangun platform AI integrasi lintas perangkat keras untuk menghadapi CUDA yang pertama kali muncul di Berita Rantai ABMedia.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Tantang dominasi perangkat lunak AI NVIDIA! Modular membangun platform AI integrasi lintas perangkat keras untuk melawan CUDA
Pada saat AI generatif menyapu seluruh dunia, hampir semua LLM, layanan cloud, dan startup AI tidak terlepas dari satu set infrastruktur dasar yang sama, yaitu ekosistem perangkat lunak CUDA dari NVIDIA (. Arsitektur program yang awalnya dirancang untuk kartu grafis ini, dalam dua dekade terakhir, secara bertahap berkembang menjadi “sistem operasi tak terlihat” yang menjalankan industri AI.
Perusahaan rintisan Modular yang didirikan pada tahun 2022, sedang berusaha untuk menantang secara langsung struktur yang sangat terpusat dan didominasi oleh satu penyedia. Tujuan Modular bukan untuk membuat chip baru, tetapi untuk membangun “platform tumpukan perangkat lunak AI portabel” yang memungkinkan model AI bergerak bebas antara GPU dan akselerator yang berbeda, tidak lagi terjebak dalam ekosistem NVIDIA dan CUDA.
Tahun 2022 titik awal wirausaha, insinyur dasar langsung menerobos inti CUDA
Modular didirikan oleh dua insinyur perangkat lunak dari Apple dan Google pada tahun 2022. CEO Chris Lattner pernah menciptakan sistem compiler Swift dan LLVM, sementara salah satu pendirinya, Tim Davis, terlibat dalam arsitektur perangkat lunak kunci Google TPU.
Keduanya pernah mengalami secara langsung bagaimana perangkat keras baru “membuka pasar berkat perangkat lunak”, sehingga memilih untuk meninggalkan perusahaan teknologi besar dan langsung menantang dominasi perangkat lunak AI yang diwakili oleh CUDA. Perang asimetris ini terlihat hampir gila di mata industri, tetapi juga karena pemahaman yang cukup mendalam tentang dasar sistem, mereka dianggap sebagai salah satu dari sedikit tim yang memiliki kesempatan untuk mencoba.
CUDA sulit digantikan, belenggu struktural industri AI
CUDA awalnya hanya alat untuk memprogram kartu grafis, tetapi seiring dengan kebangkitan pembelajaran mendalam, secara bertahap berkembang menjadi ekosistem lengkap yang mencakup bahasa, pustaka, compiler, dan mesin inferensi.
Bagi sebagian besar tim AI, hampir tidak mungkin untuk menghindari CUDA jika menggunakan GPU NVIDIA. Meskipun ada GPU AMD, TPU, atau chip yang dikembangkan sendiri oleh penyedia cloud di pasar, setiap jenis perangkat keras tetap terikat pada perangkat lunak eksklusif, sehingga pengembang cenderung memilih CUDA yang paling matang dan memiliki alat paling lengkap, membentuk struktur industri yang sangat terkunci.
Rekayasa tanpa insentif justru menjadi celah.
Lattner menunjukkan bahwa perangkat lunak AI portabel lintas chip dan lintas pemasok bukanlah hal yang tidak penting, melainkan “tidak ada yang memiliki cukup insentif untuk menanggung biaya”. Rekayasa semacam ini sangat sulit, dengan periode pengembalian yang panjang, dan hampir tidak ada hasil komersial yang terlihat dalam jangka pendek, tetapi ini adalah kemampuan yang sangat diinginkan oleh seluruh industri.
Kontradiksi inilah yang membuat Modular memilih untuk berinvestasi lebih awal dalam pengembangan sistem dasar jangka panjang sebelum ledakan AI generatif, dan dengan sengaja menjauh dari sorotan pasar selama tiga tahun pertama setelah didirikan.
Tiga tahun berkarya dengan rendah hati, dana dan tim secara bertahap siap.
Hingga tahun 2025, Modular telah mengumpulkan sekitar 380 juta dolar AS dalam pendanaan, dengan investor termasuk beberapa perusahaan modal ventura terkemuka di Silicon Valley. Setelah menyelesaikan putaran pembiayaan terbaru pada September 2025, valuasi perusahaan sekitar 1,6 miliar dolar AS.
Sumber daya ini memungkinkan Modular untuk merekrut insinyur senior dari Google dan Apple, membentuk tim yang fokus pada kompilator, perangkat lunak sistem, dan infrastruktur AI, terus menyempurnakan tumpukan perangkat lunak yang lengkap.
Tiga lapisan arsitektur perangkat lunak, dari bahasa ke kluster komputasi.
Inti teknologi Modular terdiri dari tiga lapisan, yaitu:
Lapisan teratas: untuk Mammoth, digunakan untuk membantu perusahaan dalam penjadwalan dan pengelolaan daya komputasi di lingkungan multi GPU dan multi penyedia, serta menyelesaikan masalah penerapan dan pemeliharaan yang sebenarnya.
Lapisan tengah: untuk mesin inferensi MAX, bertanggung jawab atas jalannya model secara nyata, telah mendukung NVIDIA, AMD, dan Apple Silicon.
Tingkat terendah: adalah bahasa pemrograman Mojo, sintaksis mendekati Python, kinerja mendekati C++, dapat terintegrasi dengan kerangka AI utama.
2025 verifikasi kunci, lapisan komputasi terpadu resmi terbentuk
Pada September 2025, Modular mengumumkan hasil pengujian kunci, di mana pada satu platform perangkat lunak yang sama, berhasil menggerakkan NVIDIA Blackwell B200 dan AMD MI355X dengan performa puncak, di mana MI355X bahkan menunjukkan peningkatan sekitar 50% dibandingkan perangkat lunak asli AMD.
Kemudian pada 12/22, Modular Platform 25.6 resmi dirilis, sepenuhnya mendukung pusat data dan GPU konsumen, dan untuk pertama kalinya Mojo mendukung Apple Silicon secara langsung. Resmi menggambarkan ini sebagai “Tulis sekali, jalankan di mana saja”, yaitu:
“Pengembang dapat menulis kode menggunakan Mojo tanpa perlu membuat versi terpisah untuk NVIDIA, AMD, dan Apple Silicon; satu set kode dapat dijalankan di berbagai GPU dan perangkat keras dari berbagai penyedia.”
Melambangkan kesatuan, lapisan komputasi AI bergerak dari konsep ke implementasi nyata.
Artikel ini menantang kekuasaan perangkat lunak AI NVIDIA! Modular membangun platform AI integrasi lintas perangkat keras untuk menghadapi CUDA yang pertama kali muncul di Berita Rantai ABMedia.