Подробный исследовательский отчет по OpenLedger: Построение управляемой данными и компонуемой агентской экономикой на основе OP Stack+EigenDA
Один. Введение | Переход модельного слоя Crypto AI
Данные, модели и вычислительная мощность являются тремя основными элементами инфраструктуры ИИ, аналогично топливу (данные), двигателю (модель) и энергии (вычислительная мощность), которые необходимы друг для друга. Подобно эволюции инфраструктуры традиционной ИИ-отрасли, область Crypto AI также прошла через аналогичные стадии. В начале 2024 года рынок был в значительной степени под контролем децентрализованных GPU-проектов, которые в основном подчеркивали логику грубого роста, основанную на "сравнении вычислительной мощности". Однако с наступлением 2025 года внимание отрасли постепенно сместилось к уровню моделей и данных, что знаменует собой переход Crypto AI от конкуренции за базовые ресурсы к более устойчивому и ценному приложению на среднем уровне.
Универсальная модель (LLM) против специализированной модели (SLM)
Традиционные крупные языковые модели (LLM) в высокой степени зависят от масштабных наборов данных и сложной распределенной архитектуры, размер параметров варьируется от 70B до 500B, а стоимость одной тренировки часто достигает нескольких миллионов долларов. В то время как SLM (Специализированная Языковая Модель) представляет собой легковесный подход к тонкой настройке, основанный на повторно используемой базовой модели, обычно использует открытые модели, сочетая небольшое количество качественных специализированных данных и технологии LoRA, быстро создавая экспертные модели с определенными областными знаниями, что значительно снижает затраты на обучение и технические барьеры.
Стоит отметить, что SLM не будет интегрирован в веса LLM, а будет работать в сотрудничестве с LLM через архитектуру Agent, динамическую маршрутизацию системы плагинов, горячую замену модулей LoRA, RAG (усиленная генерация с помощью поиска) и другие методы. Эта архитектура сохраняет широкие возможности LLM и одновременно усиливает профессиональные показатели с помощью модуля тонкой настройки, формируя высоко адаптивную составную интеллектуальную систему.
Ценность и границы Crypto AI на уровне модели
Крипто AI проекты по своей сути сложно напрямую улучшить основные возможности больших языковых моделей (LLM), основная причина заключается в том,
Высокий технический барьер: объем данных, вычислительные ресурсы и инженерные способности, необходимые для обучения базовой модели, крайне велики, на данный момент только технологические гиганты обладают соответствующими возможностями.
Ограничения открытой экосистемы: хотя основные модели с открытым исходным кодом уже доступны, ключ к настоящим прорывам в моделях по-прежнему сосредоточен в научно-исследовательских учреждениях и закрытых инженерных системах, а участие цепочных проектов на уровне основных моделей остается ограниченным.
Однако на основе открытых моделей, проекты Crypto AI все еще могут реализовать ценностное расширение через тонкую настройку специализированных языковых моделей (SLM) и сочетание проверяемости и механизмов стимулирования Web3. В качестве «периферийного интерфейсного слоя» в цепочке поставок AI это проявляется в двух основных направлениях:
Достоверный уровень верификации: через запись на блокчейне путей генерации моделей, вкладов данных и их использования, усиливается отслеживаемость и устойчивость к изменению AI-выходов.
Механизм стимулов: с помощью нативного токена для стимулирования таких действий, как загрузка данных, вызов модели и выполнение агентом, создается положительный цикл обучения модели и обслуживания.
Анализ классификации типов AI моделей и их применимости в блокчейне
Таким образом, видно, что жизнеспособные точки приложения моделей типа Crypto AI в основном сосредоточены на легковесной донастройке маломасштабных SLM, интеграции и проверке данных в цепочке на основе RAG, а также на локальном развертывании и стимулировании Edge моделей. В сочетании с проверяемостью блокчейна и токеномикой, Crypto может предложить уникальную ценность для этих сценариев моделей с ограниченными ресурсами, формируя дифференцированную ценность «интерфейсного слоя» AI.
Блокчейн AI цепь на основе данных и моделей позволяет четко и неизменно фиксировать источник вклада каждой единицы данных и модели, значительно повышая доверие к данным и прослеживаемость обучения моделей. В то же время, благодаря механизму смарт-контрактов, автоматическое распределение вознаграждений срабатывает при вызове данных или модели, превращая поведение AI в измеримую и торгуемую токенизированную ценность, создавая устойчивую систему стимулов. Кроме того, пользователи сообщества могут оценивать производительность моделей с помощью голосования токенами, участвовать в разработке и итерации правил, улучшая архитектуру децентрализованного управления.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, Обзор проекта | Видение AI Chain OpenLedger
OpenLedger — это один из немногих блокчейн-AI проектов на текущем рынке, сосредоточенный на данных и моделях стимулирования. Он первым предложил концепцию «Payable AI», стремясь создать справедливую, прозрачную и комбинируемую среду для работы AI, которая будет стимулировать участников, вносящих данные, разработчиков моделей и создателей AI приложений, сотрудничать на одной платформе и получать доходы на блокчейне в зависимости от их фактического вклада.
OpenLedger предоставляет полный цепной замкнутый цикл от «предоставления данных» до «развертывания моделей» и «вызова распределения прибыли», его основные модули включают:
Модельная фабрика: не требуется программирование, можно использовать LoRA для тонкой настройки, обучения и развертывания настраиваемых моделей на основе открытого LLM;
OpenLoRA: поддержка одновременного существования тысяч моделей, динамическая загрузка по мере необходимости, что значительно снижает затраты на развертывание;
PoA(Proof of Attribution):через записи вызовов в блокчейне осуществляется измерение вклада и распределение вознаграждений;
Datanets: Структурированная сеть данных, ориентированная на вертикальные сцены, построенная и проверенная сообществом;
Платформа предложений моделей (Model Proposal Platform): комбинируемый, вызываемый и оплачиваемый рынок моделей на блокчейне.
С помощью вышеуказанных модулей OpenLedger построил «инфраструктуру экономических агентов», основанную на данных и моделях, которая способствует онлайнизации цепочки создания ценности в AI.
А в применении технологии блокчейна OpenLedger использует OP Stack + EigenDA в качестве основы, создавая высокопроизводительную, низкозатратную и проверяемую среду для данных и выполнения контрактов для моделей ИИ.
Построено на основе OP Stack: на основе технологии Optimism, поддерживает высокую пропускную способность и низкие затраты на выполнение;
Расчет в основной сети Ethereum: Обеспечение безопасности транзакций и целостности активов;
Совместимость с EVM: удобно для разработчиков быстро разворачивать и расширять на основе Solidity;
EigenDA предоставляет поддержку доступности данных: значительно снижает затраты на хранение, обеспечивает проверяемость данных.
По сравнению с такими более низкоуровневыми, ориентированными на суверенитет данных и архитектуру «AI Agents on BOS» универсальными AI цепями, как NEAR, OpenLedger больше сосредоточен на создании специализированной цепи AI, ориентированной на стимулы для данных и моделей, стремясь обеспечить возможность отслеживания, комбинирования и устойчивого замыкания ценности для разработки и вызова моделей на цепи. Это инфраструктура для стимулов моделей в мире Web3, объединяющая хостинг моделей, выставление счетов за использование и комбинируемые интерфейсы на цепи, способствующие реализации пути «модель как актив».
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)
Три. Основные компоненты и техническая архитектура OpenLedger
3.1 Модельный завод, не требует кодирования модельного завода
ModelFactory — это платформа для дообучения больших языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных фреймворков для дообучения, ModelFactory предлагает чисто графический интерфейс, не требующий командной строки или интеграции API. Пользователи могут дообучать модели на основе наборов данных, полученных с авторизацией и проверкой на OpenLedger. Реализован интегрированный рабочий процесс, охватывающий авторизацию данных, обучение моделей и их развертывание, основной процесс включает в себя:
Контроль доступа к данным: Пользователь подает запрос на данные, поставщик рассматривает и одобряет, данные автоматически подключаются к интерфейсу обучения модели.
Выбор и настройка модели: Поддержка основных LLM, настройка гиперпараметров через GUI.
Легковесная доработка: встроенный движок LoRA / QLoRA, демонстрирующий процесс обучения в реальном времени.
Оценка и развертывание модели: встроенные инструменты оценки, поддержка экспорта развертывания или совместного использования в экосистеме.
Интерфейс взаимодействия для проверки: предоставляет чат-интерфейс, удобный для прямого тестирования способностей модели к вопросам и ответам.
Генерация RAG для прослеживаемости: ответы с указанием источника, повышающие доверие и возможность аудита.
Система архитектуры Model Factory включает в себя шесть основных модулей, охватывающих аутентификацию личности, права доступа к данным, тонкую настройку модели, оценку развертывания и трассировку RAG, создавая интегрированную модельную сервисную платформу с безопасным контролем, интерактивным взаимодействием в реальном времени и устойчивыми возможностями монетизации.
Краткая таблица возможностей крупных языковых моделей, которые в настоящее время поддерживает ModelFactory:
Серия LLaMA: самый широкий экосистемы, активное сообщество, высокая универсальная производительность, является одной из самых популярных открытых базовых моделей на данный момент.
Mistral: Архитектура эффективна, производительность вывода отличная, подходит для гибкого развертывания и ограниченных ресурсов.
Qwen: продукт от Alibaba, отлично справляется с заданиями на китайском языке, имеет сильные общие способности, подходит в качестве первого выбора для отечественных разработчиков.
ChatGLM: выдающийся эффект диалога на китайском языке, подходит для специализированного обслуживания клиентов и локализованных сцен.
Deepseek: Выдающиеся результаты в генерации кода и математическом выводе, подходит для инструментов поддержки интеллектуальной разработки.
Gemma: легкая модель, выпущенная Google, с четкой структурой, легко осваивается и подходит для быстрого эксперимента.
Falcon: Ранее был эталоном производительности, подходит для фундаментальных исследований или сравнительных тестов, но активность сообщества снизилась.
BLOOM: Поддержка нескольких языков довольно сильная, но производительность вывода слабая, подходит для исследований с охватом языков.
GPT-2: Классическая ранняя модель, подходит только для учебных и верификационных целей, не рекомендуется для практического развертывания.
Хотя комбинация моделей OpenLedger не включает в себя последние высокопроизводительные модели MoE или многомодальные модели, ее стратегия не устарела, а представляет собой «приоритет практичности» на основе реальных ограничений развертывания на блокчейне (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).
Model Factory как инструмент без кода, все модели имеют встроенный механизм доказательства вклада, что обеспечивает права как участников данных, так и разработчиков моделей, обладая низким порогом, возможностью монетизации и компоновки, по сравнению с традиционными инструментами разработки моделей:
Для разработчиков: предоставление полного пути к инкубации, распространению и доходам моделей;
Для платформы: формирование экосистемы обращения и комбинации модельных активов;
Для пользователей: можно комбинировать модели или агенты так же, как при вызове API.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)
3.2 OpenLoRA, токенизация on-chain активов модели дообучения
LoRA (Low-Rank Adaptation) — это эффективный метод дообучения параметров, который позволяет изучать новые задачи, вставляя «низкоранговые матрицы» в предварительно обученные большие модели, не изменяя параметры оригинальной модели, что значительно снижает затраты на обучение и требования к хранению. Традиционные большие языковые модели обычно имеют десятки миллиардов или даже сотни миллиардов параметров. Чтобы использовать их для конкретных задач, нужно выполнить дообучение. Основная стратегия LoRA заключается в следующем: «заморозить параметры оригинальной большой модели и обучить только вставленные новые матричные параметры». Эта стратегия эффективна по параметрам, быстро обучается и гибко внедряется, что делает её основной методикой дообучения, наиболее подходящей для развертывания и комбинированного вызова моделей Web3.
OpenLoRA — это легковесный фреймворк для инференса, разработанный OpenLedger, специально предназначенный для развертывания нескольких моделей и совместного использования ресурсов. Его основной целью является решение распространенных проблем, связанных с развертыванием AI моделей, таких как высокие затраты, низкая повторная использование и неэффективное использование GPU ресурсов, и содействие реализации «платежеспособного AI» (Payable AI).
Ядро компонентов архитектуры системы OpenLoRA, основанное на модульном дизайне, охватывает ключевые этапы, такие как хранение моделей, выполнение вывода, маршрутизация запросов и т. д., реализуя эффективные и экономичные возможности развертывания и вызова нескольких моделей:
Модуль хранения LoRA Adapter: отрегулированный LoRA adapter размещается на OpenLedger, обеспечивая загрузку по мере необходимости, избегая предварительной загрузки всех моделей в видеопамять, что экономит ресурсы.
Хостинг моделей и динамический слой объединения: все модели с доработкой используют основную большую модель, во время вывода адаптер LoRA динамически объединяется, поддерживает совместный вывод нескольких адаптеров, повышая производительность.
Интеллектуальный движок: интеграция множества CUDA-оптимизаций, таких как Flash-Attention, Paged-Attention, SGMV.
Модуль маршрутизации запросов и потокового вывода: динамически маршрутизирует к правильному адаптеру в зависимости от требуемой модели в запросе, реализует потоковое генерирование на уровне токенов через оптимизацию ядра.
Процесс вывода OpenLoRA относится к техническому уровню «зрелых универсальных» модельных сервисов «процессов, как показано ниже:
Загрузка базовой модели: система предварительно загружает базную большую модель
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
12 Лайков
Награда
12
6
Поделиться
комментарий
0/400
Rugpull幸存者
· 07-19 11:55
Этот ловушка с интеллектом слишком знакома.
Посмотреть ОригиналОтветить0
GasFeeNightmare
· 07-18 01:52
Модель сжигает деньги, лучше прямо торговать в мире криптовалют.
Посмотреть ОригиналОтветить0
GateUser-aa7df71e
· 07-18 01:50
Снова рассказывают истории, чтобы Будут играть для лохов.
Посмотреть ОригиналОтветить0
ContractCollector
· 07-18 01:49
ai очень бык, но не падай туда!
Посмотреть ОригиналОтветить0
BrokenYield
· 07-18 01:46
фу... еще один нарратив о gpu, который умрет, как luna, если честно
Посмотреть ОригиналОтветить0
OnChainDetective
· 07-18 01:39
хмм... паттерн указывает на очередной шиллинг gpt/ai, но *проверяет исторические данные* инфраструктура op stack может быть легитимной, честно говоря
OpenLedger Глубина анализа: построение инфраструктуры экономики агентов на основе OP Stack и EigenDA
Подробный исследовательский отчет по OpenLedger: Построение управляемой данными и компонуемой агентской экономикой на основе OP Stack+EigenDA
Один. Введение | Переход модельного слоя Crypto AI
Данные, модели и вычислительная мощность являются тремя основными элементами инфраструктуры ИИ, аналогично топливу (данные), двигателю (модель) и энергии (вычислительная мощность), которые необходимы друг для друга. Подобно эволюции инфраструктуры традиционной ИИ-отрасли, область Crypto AI также прошла через аналогичные стадии. В начале 2024 года рынок был в значительной степени под контролем децентрализованных GPU-проектов, которые в основном подчеркивали логику грубого роста, основанную на "сравнении вычислительной мощности". Однако с наступлением 2025 года внимание отрасли постепенно сместилось к уровню моделей и данных, что знаменует собой переход Crypto AI от конкуренции за базовые ресурсы к более устойчивому и ценному приложению на среднем уровне.
Универсальная модель (LLM) против специализированной модели (SLM)
Традиционные крупные языковые модели (LLM) в высокой степени зависят от масштабных наборов данных и сложной распределенной архитектуры, размер параметров варьируется от 70B до 500B, а стоимость одной тренировки часто достигает нескольких миллионов долларов. В то время как SLM (Специализированная Языковая Модель) представляет собой легковесный подход к тонкой настройке, основанный на повторно используемой базовой модели, обычно использует открытые модели, сочетая небольшое количество качественных специализированных данных и технологии LoRA, быстро создавая экспертные модели с определенными областными знаниями, что значительно снижает затраты на обучение и технические барьеры.
Стоит отметить, что SLM не будет интегрирован в веса LLM, а будет работать в сотрудничестве с LLM через архитектуру Agent, динамическую маршрутизацию системы плагинов, горячую замену модулей LoRA, RAG (усиленная генерация с помощью поиска) и другие методы. Эта архитектура сохраняет широкие возможности LLM и одновременно усиливает профессиональные показатели с помощью модуля тонкой настройки, формируя высоко адаптивную составную интеллектуальную систему.
Ценность и границы Crypto AI на уровне модели
Крипто AI проекты по своей сути сложно напрямую улучшить основные возможности больших языковых моделей (LLM), основная причина заключается в том,
Однако на основе открытых моделей, проекты Crypto AI все еще могут реализовать ценностное расширение через тонкую настройку специализированных языковых моделей (SLM) и сочетание проверяемости и механизмов стимулирования Web3. В качестве «периферийного интерфейсного слоя» в цепочке поставок AI это проявляется в двух основных направлениях:
Анализ классификации типов AI моделей и их применимости в блокчейне
Таким образом, видно, что жизнеспособные точки приложения моделей типа Crypto AI в основном сосредоточены на легковесной донастройке маломасштабных SLM, интеграции и проверке данных в цепочке на основе RAG, а также на локальном развертывании и стимулировании Edge моделей. В сочетании с проверяемостью блокчейна и токеномикой, Crypto может предложить уникальную ценность для этих сценариев моделей с ограниченными ресурсами, формируя дифференцированную ценность «интерфейсного слоя» AI.
Блокчейн AI цепь на основе данных и моделей позволяет четко и неизменно фиксировать источник вклада каждой единицы данных и модели, значительно повышая доверие к данным и прослеживаемость обучения моделей. В то же время, благодаря механизму смарт-контрактов, автоматическое распределение вознаграждений срабатывает при вызове данных или модели, превращая поведение AI в измеримую и торгуемую токенизированную ценность, создавая устойчивую систему стимулов. Кроме того, пользователи сообщества могут оценивать производительность моделей с помощью голосования токенами, участвовать в разработке и итерации правил, улучшая архитектуру децентрализованного управления.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, Обзор проекта | Видение AI Chain OpenLedger
OpenLedger — это один из немногих блокчейн-AI проектов на текущем рынке, сосредоточенный на данных и моделях стимулирования. Он первым предложил концепцию «Payable AI», стремясь создать справедливую, прозрачную и комбинируемую среду для работы AI, которая будет стимулировать участников, вносящих данные, разработчиков моделей и создателей AI приложений, сотрудничать на одной платформе и получать доходы на блокчейне в зависимости от их фактического вклада.
OpenLedger предоставляет полный цепной замкнутый цикл от «предоставления данных» до «развертывания моделей» и «вызова распределения прибыли», его основные модули включают:
С помощью вышеуказанных модулей OpenLedger построил «инфраструктуру экономических агентов», основанную на данных и моделях, которая способствует онлайнизации цепочки создания ценности в AI.
А в применении технологии блокчейна OpenLedger использует OP Stack + EigenDA в качестве основы, создавая высокопроизводительную, низкозатратную и проверяемую среду для данных и выполнения контрактов для моделей ИИ.
По сравнению с такими более низкоуровневыми, ориентированными на суверенитет данных и архитектуру «AI Agents on BOS» универсальными AI цепями, как NEAR, OpenLedger больше сосредоточен на создании специализированной цепи AI, ориентированной на стимулы для данных и моделей, стремясь обеспечить возможность отслеживания, комбинирования и устойчивого замыкания ценности для разработки и вызова моделей на цепи. Это инфраструктура для стимулов моделей в мире Web3, объединяющая хостинг моделей, выставление счетов за использование и комбинируемые интерфейсы на цепи, способствующие реализации пути «модель как актив».
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)
Три. Основные компоненты и техническая архитектура OpenLedger
3.1 Модельный завод, не требует кодирования модельного завода
ModelFactory — это платформа для дообучения больших языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных фреймворков для дообучения, ModelFactory предлагает чисто графический интерфейс, не требующий командной строки или интеграции API. Пользователи могут дообучать модели на основе наборов данных, полученных с авторизацией и проверкой на OpenLedger. Реализован интегрированный рабочий процесс, охватывающий авторизацию данных, обучение моделей и их развертывание, основной процесс включает в себя:
Система архитектуры Model Factory включает в себя шесть основных модулей, охватывающих аутентификацию личности, права доступа к данным, тонкую настройку модели, оценку развертывания и трассировку RAG, создавая интегрированную модельную сервисную платформу с безопасным контролем, интерактивным взаимодействием в реальном времени и устойчивыми возможностями монетизации.
Краткая таблица возможностей крупных языковых моделей, которые в настоящее время поддерживает ModelFactory:
Хотя комбинация моделей OpenLedger не включает в себя последние высокопроизводительные модели MoE или многомодальные модели, ее стратегия не устарела, а представляет собой «приоритет практичности» на основе реальных ограничений развертывания на блокчейне (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).
Model Factory как инструмент без кода, все модели имеют встроенный механизм доказательства вклада, что обеспечивает права как участников данных, так и разработчиков моделей, обладая низким порогом, возможностью монетизации и компоновки, по сравнению с традиционными инструментами разработки моделей:
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)
3.2 OpenLoRA, токенизация on-chain активов модели дообучения
LoRA (Low-Rank Adaptation) — это эффективный метод дообучения параметров, который позволяет изучать новые задачи, вставляя «низкоранговые матрицы» в предварительно обученные большие модели, не изменяя параметры оригинальной модели, что значительно снижает затраты на обучение и требования к хранению. Традиционные большие языковые модели обычно имеют десятки миллиардов или даже сотни миллиардов параметров. Чтобы использовать их для конкретных задач, нужно выполнить дообучение. Основная стратегия LoRA заключается в следующем: «заморозить параметры оригинальной большой модели и обучить только вставленные новые матричные параметры». Эта стратегия эффективна по параметрам, быстро обучается и гибко внедряется, что делает её основной методикой дообучения, наиболее подходящей для развертывания и комбинированного вызова моделей Web3.
OpenLoRA — это легковесный фреймворк для инференса, разработанный OpenLedger, специально предназначенный для развертывания нескольких моделей и совместного использования ресурсов. Его основной целью является решение распространенных проблем, связанных с развертыванием AI моделей, таких как высокие затраты, низкая повторная использование и неэффективное использование GPU ресурсов, и содействие реализации «платежеспособного AI» (Payable AI).
Ядро компонентов архитектуры системы OpenLoRA, основанное на модульном дизайне, охватывает ключевые этапы, такие как хранение моделей, выполнение вывода, маршрутизация запросов и т. д., реализуя эффективные и экономичные возможности развертывания и вызова нескольких моделей:
Процесс вывода OpenLoRA относится к техническому уровню «зрелых универсальных» модельных сервисов «процессов, как показано ниже: