В этот момент, когда генеративный ИИ охватывает весь мир, практически все LLM, облачные сервисы и стартапы в области ИИ не могут обойтись без одной и той же ключевой инфраструктуры, а именно программной экосистемы CUDA от NVIDIA (. Эта архитектура, изначально разработанная для видеокарт, за последние почти двадцать лет постепенно расширилась в «невидимую операционную систему», на которой фактически функционирует индустрия ИИ.
Созданная в 2022 году стартап-компания Modular пытается бросить вызов этой высоко централизованной структуре, управляемой одним поставщиком. Цель Modular не в том, чтобы создать новый чип, а в том, чтобы создать “портативную платформу программного обеспечения для ИИ”, позволяющую ИИ-моделям свободно перемещаться между различными GPU и акселераторами, не будучи заблокированными в экосистеме NVIDIA и CUDA.
2022 год стартапа, инженеры底層直接 в CUDA ядро
Modular была основана в 2022 году двумя инженерами по программному обеспечению из Apple и Google. Генеральный директор Крис Латтнер создал систему компиляторов Swift и LLVM, а соучредитель Тим Дэвис участвовал в разработке ключевой архитектуры программного обеспечения Google TPU.
Оба человека были свидетелями того, как новое оборудование «открывает рынок с помощью программного обеспечения», поэтому они выбрали покинуть крупные технологические компании и непосредственно бросить вызов программному обеспечению AI, представленному CUDA. Эта асимметричная война кажется безумной в глазах индустрии, но именно благодаря глубокому пониманию системного уровня они считаются одной из немногих команд, имеющих возможность попробовать.
CUDA трудно заменить, структурные ограничения в AI индустрии
CUDA изначально была просто инструментом, позволяющим программировать графические карты, но с ростом глубокого обучения она постепенно расширилась в полноценную экосистему, охватывающую языки, библиотеки, компиляторы и движки вывода.
Для большинства AI-команд, использование GPU от NVIDIA почти неизбежно связано с CUDA. Даже если на рынке есть GPU от AMD, TPU или собственные чипы облачных провайдеров, за каждым из этих аппаратных средств стоят специализированные программные продукты, и разработчики естественным образом склоняются к выбору самой зрелой технологии с наиболее полным набором инструментов - CUDA, что формирует высокозависимую отраслевую структуру.
Инженерия без стимула становится прорывом.
Латтнер отметил, что переносимое программное обеспечение ИИ, работающее на разных чипах и от разных поставщиков, не является неважным, а то, что «никто не имеет достаточных стимулов для покрытия затрат». Такие проекты имеют крайне высокую сложность, срок окупаемости длительный, и в краткосрочной перспективе практически не видно коммерческих результатов, однако это способность, к которой стремится вся отрасль.
Именно эта противоречивость заставила Modular выбрать стратегию раннего вложения в долгосрочную разработку базовых систем перед взрывом генеративного ИИ и целенаправленно держаться подальше от рыночного внимания в первые три года после своего основания.
Три года тихой работы, финансы и команда постепенно на месте
К 2025 году Modular удалось привлечь около 380 миллионов долларов США, инвесторами стали несколько ведущих венчурных компаний из Силиконовой долины. После завершения последнего раунда финансирования в сентябре 2025 года, оценка компании составила около 1,6 миллиарда долларов США.
Эти ресурсы позволяют Modular нанимать опытных инженеров из Google и Apple, формируя команду, сосредоточенную на компиляторах, системном программном обеспечении и инфраструктуре ИИ, продолжая оттачивать полный стек программного обеспечения.
Трехуровневая программная архитектура, от языка до кластера вычислительных мощностей
Техническое ядро Modular состоит из трех уровней, а именно:
На верхнем уровне: для Mammoth, используется для помощи предприятиям в распределении и управлении вычислительной мощностью в средах с несколькими GPU и несколькими поставщиками, решая проблемы фактического развертывания и эксплуатации.
Промежуточный уровень: это MAX inference engine, отвечающий за фактическое выполнение модели, поддерживает NVIDIA, AMD и Apple Silicon.
Самый нижний уровень: язык программирования Mojo, синтаксис близок к Python, производительность близка к C++, может интегрироваться с основными AI-фреймворками.
2025 ключевая проверка, единственный вычислительный уровень официально сформирован
В сентябре 2025 года Modular опубликовал ключевые результаты тестирования, продемонстрировав на одной и той же программной платформе одновременное управление производительностью NVIDIA Blackwell B200 и AMD MI355X, при этом MI355X показал увеличение производительности примерно на 50% по сравнению с родным программным обеспечением AMD.
Затем, 22 декабря, была официально выпущена Modular Platform 25.6, полностью поддерживающая центры обработки данных и потребительские GPU, а также впервые позволяющая Mojo напрямую поддерживать Apple Silicon. Официально это описано как «Напишите один раз, запускайте везде», то есть:
«Код, написанный разработчиками на Mojo, не требует написания отдельной версии для NVIDIA, AMD и Apple Silicon; одна и та же программа может выполняться на различных GPU и аппаратном обеспечении от разных поставщиков.»
Символ единства, уровень вычислений AI переходит от концепции к практическому внедрению.
Эта статья бросает вызов гегемонии программного обеспечения AI от Nvidia! Modular создает интегрированную AI платформу для различных аппаратных средств в противостоянии с CUDA, впервые появившейся в Chain News ABMedia.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Вызов гегемонии программного обеспечения AI от Nvidia! Modular создает кроссаппаратную интеграционную AI платформу для противостояния CUDA
В этот момент, когда генеративный ИИ охватывает весь мир, практически все LLM, облачные сервисы и стартапы в области ИИ не могут обойтись без одной и той же ключевой инфраструктуры, а именно программной экосистемы CUDA от NVIDIA (. Эта архитектура, изначально разработанная для видеокарт, за последние почти двадцать лет постепенно расширилась в «невидимую операционную систему», на которой фактически функционирует индустрия ИИ.
Созданная в 2022 году стартап-компания Modular пытается бросить вызов этой высоко централизованной структуре, управляемой одним поставщиком. Цель Modular не в том, чтобы создать новый чип, а в том, чтобы создать “портативную платформу программного обеспечения для ИИ”, позволяющую ИИ-моделям свободно перемещаться между различными GPU и акселераторами, не будучи заблокированными в экосистеме NVIDIA и CUDA.
2022 год стартапа, инженеры底層直接 в CUDA ядро
Modular была основана в 2022 году двумя инженерами по программному обеспечению из Apple и Google. Генеральный директор Крис Латтнер создал систему компиляторов Swift и LLVM, а соучредитель Тим Дэвис участвовал в разработке ключевой архитектуры программного обеспечения Google TPU.
Оба человека были свидетелями того, как новое оборудование «открывает рынок с помощью программного обеспечения», поэтому они выбрали покинуть крупные технологические компании и непосредственно бросить вызов программному обеспечению AI, представленному CUDA. Эта асимметричная война кажется безумной в глазах индустрии, но именно благодаря глубокому пониманию системного уровня они считаются одной из немногих команд, имеющих возможность попробовать.
CUDA трудно заменить, структурные ограничения в AI индустрии
CUDA изначально была просто инструментом, позволяющим программировать графические карты, но с ростом глубокого обучения она постепенно расширилась в полноценную экосистему, охватывающую языки, библиотеки, компиляторы и движки вывода.
Для большинства AI-команд, использование GPU от NVIDIA почти неизбежно связано с CUDA. Даже если на рынке есть GPU от AMD, TPU или собственные чипы облачных провайдеров, за каждым из этих аппаратных средств стоят специализированные программные продукты, и разработчики естественным образом склоняются к выбору самой зрелой технологии с наиболее полным набором инструментов - CUDA, что формирует высокозависимую отраслевую структуру.
Инженерия без стимула становится прорывом.
Латтнер отметил, что переносимое программное обеспечение ИИ, работающее на разных чипах и от разных поставщиков, не является неважным, а то, что «никто не имеет достаточных стимулов для покрытия затрат». Такие проекты имеют крайне высокую сложность, срок окупаемости длительный, и в краткосрочной перспективе практически не видно коммерческих результатов, однако это способность, к которой стремится вся отрасль.
Именно эта противоречивость заставила Modular выбрать стратегию раннего вложения в долгосрочную разработку базовых систем перед взрывом генеративного ИИ и целенаправленно держаться подальше от рыночного внимания в первые три года после своего основания.
Три года тихой работы, финансы и команда постепенно на месте
К 2025 году Modular удалось привлечь около 380 миллионов долларов США, инвесторами стали несколько ведущих венчурных компаний из Силиконовой долины. После завершения последнего раунда финансирования в сентябре 2025 года, оценка компании составила около 1,6 миллиарда долларов США.
Эти ресурсы позволяют Modular нанимать опытных инженеров из Google и Apple, формируя команду, сосредоточенную на компиляторах, системном программном обеспечении и инфраструктуре ИИ, продолжая оттачивать полный стек программного обеспечения.
Трехуровневая программная архитектура, от языка до кластера вычислительных мощностей
Техническое ядро Modular состоит из трех уровней, а именно:
На верхнем уровне: для Mammoth, используется для помощи предприятиям в распределении и управлении вычислительной мощностью в средах с несколькими GPU и несколькими поставщиками, решая проблемы фактического развертывания и эксплуатации.
Промежуточный уровень: это MAX inference engine, отвечающий за фактическое выполнение модели, поддерживает NVIDIA, AMD и Apple Silicon.
Самый нижний уровень: язык программирования Mojo, синтаксис близок к Python, производительность близка к C++, может интегрироваться с основными AI-фреймворками.
2025 ключевая проверка, единственный вычислительный уровень официально сформирован
В сентябре 2025 года Modular опубликовал ключевые результаты тестирования, продемонстрировав на одной и той же программной платформе одновременное управление производительностью NVIDIA Blackwell B200 и AMD MI355X, при этом MI355X показал увеличение производительности примерно на 50% по сравнению с родным программным обеспечением AMD.
Затем, 22 декабря, была официально выпущена Modular Platform 25.6, полностью поддерживающая центры обработки данных и потребительские GPU, а также впервые позволяющая Mojo напрямую поддерживать Apple Silicon. Официально это описано как «Напишите один раз, запускайте везде», то есть:
«Код, написанный разработчиками на Mojo, не требует написания отдельной версии для NVIDIA, AMD и Apple Silicon; одна и та же программа может выполняться на различных GPU и аппаратном обеспечении от разных поставщиков.»
Символ единства, уровень вычислений AI переходит от концепции к практическому внедрению.
Эта статья бросает вызов гегемонии программного обеспечения AI от Nvidia! Modular создает интегрированную AI платформу для различных аппаратных средств в противостоянии с CUDA, впервые появившейся в Chain News ABMedia.