OpenLedgerの詳細な分析:OPスタックとEigenDAに基づくインテリジェントなツイン経済インフラストラクチャの構築

OpenLedgerデプス研報:OP Stack+EigenDAを基盤に、データ駆動型でモデルのコンビネーションが可能なエージェント経済を構築する

一、引言 | Crypto AI のモデルレイヤーの飛躍

データ、モデルと算力は AI インフラストラクチャの三大核心要素であり、燃料(データ)、エンジン(モデル)、エネルギー(算力)の類比で欠かせない。従来の AI 業界のインフラストラクチャの進化パスに似て、Crypto AI 分野も同様の段階を経てきた。2024 年初頭、市場は一時去中心化 GPU プロジェクトが主導し、一般的に「算力を競う」粗放的な成長ロジックが強調された。しかし、2025 年に入ると、業界の関心は徐々にモデルとデータ層に移り、Crypto AI が基盤リソース競争からより持続可能で応用価値のある中層構築へと移行していることを示している。

General Large Model(LLM)とSpecialized Model(SLM)

従来の大規模言語モデル(LLM)の訓練は、大規模なデータセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模は70B~500Bに達し、一度の訓練にかかるコストは数百万ドルに及ぶことが常です。一方、SLM(Specialized Language Model)は、再利用可能な基盤モデルの軽量な微調整パラダイムとして、通常はオープンソースモデルを基にし、少量の高品質な専門データとLoRAなどの技術を組み合わせて、特定の分野の知識を備えた専門モデルを迅速に構築し、訓練コストと技術的なハードルを大幅に低下させます。

注意すべきは、SLM は LLM の重みには統合されず、エージェントアーキテクチャの呼び出し、プラグインシステムの動的ルーティング、LoRA モジュールのホットプラグ、RAG(検索強化生成)などの方法で LLM と協力して動作することです。このアーキテクチャは LLM の広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールによって専門的なパフォーマンスを強化し、高度に柔軟なコンビネーション型インテリジェントシステムを形成しています。

Crypto AI のモデル層における価値と境界

Crypto AI プロジェクトは本質的に大規模言語モデル(LLM)のコア能力を直接向上させることが難しい。核心的な理由は

  • 技術的なハードルが高すぎる:Foundation Modelのトレーニングに必要なデータ規模、計算リソース、エンジニアリング能力は非常に膨大であり、現在はテクノロジーの巨人のみがそれに対応できる能力を持っています。
  • オープンソースエコシステムの限界:主流の基盤モデルはすでにオープンソースですが、モデルの突破を推進する鍵は依然として研究機関とクローズドソースエンジニアリングシステムに集中しており、オンチェーンプロジェクトのコアモデル層への参加スペースは限られています。

しかし、オープンソースの基盤モデルの上に、Crypto AIプロジェクトは、特化型言語モデル(SLM)をファインチューニングし、Web3の検証可能性とインセンティブメカニズムを組み合わせることで価値の拡張を実現できます。AI産業チェーンの「周辺インターフェース層」として、2つのコア方向に具現化されています。

  • 信頼できる検証層:チェーン上にモデル生成パス、データ貢献および使用状況を記録することで、AI出力のトレーサビリティと改ざん耐性を強化します。
  • インセンティブメカニズム:ネイティブトークンを活用して、データのアップロード、モデルの呼び出し、エージェント(Agent)の実行などの行動を奨励し、モデルのトレーニングとサービスの正の循環を構築します。

AIモデルタイプの分類とブロックチェーンの適用性分析

ここからわかるように、モデル型 Crypto AI プロジェクトの実行可能な落ちどころは、主に小型 SLM の軽量化調整、RAG アーキテクチャのチェーン上データの接続と検証、そして Edge モデルのローカルデプロイとインセンティブに集中しています。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Crypto はこれらの中低リソースモデルシナリオに特有の価値を提供し、AI の「インターフェース層」の差別化された価値を形成します。

データとモデルに基づくブロックチェーン AI チェーンは、各データおよびモデルの貢献源に対して明確で改ざん不可能なオンチェーン記録を提供し、データの信頼性とモデルのトレーニングの追跡可能性を大幅に向上させます。同時に、スマートコントラクトメカニズムを通じて、データまたはモデルが呼び出されたときに自動的に報酬配布をトリガーし、AI の行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブシステムを構築します。さらに、コミュニティユーザーはトークン投票を通じてモデルの性能を評価し、ルールの策定と改訂に参加し、分散型ガバナンス構造を強化することができます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)

二、プロジェクト概要 | OpenLedgerのAIチェーンビジョン

OpenLedgerは現在の市場で数少ない、データとモデルのインセンティブメカニズムに特化したブロックチェーンAIプロジェクトです。これは「Payable AI」という概念を初めて提唱し、公平で透明かつ組み合わせ可能なAI運用環境を構築することを目指しています。データ提供者、モデル開発者、AIアプリケーション構築者が同じプラットフォームで協力し、実際の貢献に基づいてオンチェーンの報酬を得ることを奨励します。

OpenLedgerは「データ提供」から「モデルデプロイメント」、さらには「呼び出し分配」に至るまでの全チェーンのクローズドループを提供しており、その核心モジュールには次のものが含まれます:

  • モデルファクトリー:プログラミングなしで、オープンソースのLLMに基づいてLoRA微調整トレーニングを行い、カスタムモデルをデプロイできます;
  • OpenLoRA:千モデルの共存をサポートし、必要に応じて動的にロードし、展開コストを大幅に削減します。
  • PoA(Proof of Attribution):コントリビューションの測定と報酬の分配は、オンチェーンの通話記録を通じて実現されます。
  • Datanets:垂直シーン向けの構造化データネットワークで、コミュニティの協力によって構築され、検証される;
  • モデル提案プラットフォーム(Model Proposal Platform):組み合わせ可能で、呼び出し可能で、支払い可能なオンチェーンモデル市場。

上記のモジュールを通じて、OpenLedgerはデータ駆動型でモデルが組み合わさる「エージェント経済インフラ」を構築し、AIの価値チェーンのオンチェーン化を推進しました。

そして、ブロックチェーン技術の採用において、OpenLedgerはOP Stack + EigenDAを基盤に、高性能で低コスト、検証可能なデータと契約の実行環境をAIモデルのために構築しました。

  • OP Stackに基づく構築:Optimismテクノロジースタックに基づき、高スループットと低コストの実行をサポート;
  • イーサリアムメインネットでの決済: 取引の安全性と資産の完全性を保証する;
  • EVM互換:開発者がSolidityに基づいて迅速にデプロイと拡張を行うことができます;
  • EigenDAはデータの可用性サポートを提供します:ストレージコストを大幅に削減し、データの検証可能性を保証します。

NEARのようなより基盤的な、データ主権と「AI Agents on BOS」アーキテクチャを主力とする汎用AIチェーンに対して、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築に注力しており、モデルの開発と呼び出しがチェーン上で追跡可能、組み合わせ可能、持続可能な価値のクローズドループを実現することを目指しています。これはWeb3の世界におけるモデルインセンティブのインフラストラクチャであり、モデルホスティング、使用課金、チェーン上の組み合わせ可能なインターフェースを組み合わせて「モデルは資産である」という実現への道を推進しています。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)

三、OpenLedger のコアコンポーネントと技術アーキテクチャ

3.1 モデルファクトリー,コード不要のモデルファクトリー

ModelFactoryはOpenLedgerエコシステムにおける大規模言語モデル(LLM)微調整プラットフォームです。従来の微調整フレームワークとは異なり、ModelFactoryは完全にグラフィカルなインターフェース操作を提供し、コマンドラインツールやAPI統合は必要ありません。ユーザーはOpenLedger上で完了した承認と審査のデータセットに基づいてモデルを微調整できます。データの承認、モデルのトレーニング、デプロイメントの統合ワークフローを実現し、その核心的なプロセスには以下が含まれます:

  • データアクセス制御:ユーザーがデータリクエストを提出し、プロバイダーが審査して承認し、データが自動的にモデル訓練インターフェースに接続されます。
  • モデル選択と設定: 主流のLLMをサポートし、GUIを通じてハイパーパラメータを設定します。
  • 軽量微調整:内蔵のLoRA / QLoRAエンジンで、トレーニング進捗をリアルタイムで表示。
  • モデル評価とデプロイ:内蔵評価ツール、エクスポートデプロイまたはエコシステム共有呼び出しをサポートします。
  • インタラクティブ検証インターフェース: チャット形式のインターフェースを提供し、モデルの質問応答能力を直接テストするのに便利です。
  • RAG生成トレーサビリティ:出典を引用した回答で、信頼性と監査可能性を強化します。

Model Factory システムアーキテクチャは、アイデンティティ認証、データ権限、モデル微調整、評価デプロイメントおよび RAG 溯源を貫通する6つの主要モジュールを含み、安全かつ制御可能で、リアルタイムのインタラクション、持続可能な収益化を実現する統合モデルサービスプラットフォームを構築します。

ModelFactory が現在サポートしている大規模言語モデルの能力の簡易表は以下の通りです:

  • LLaMA シリーズ:エコシステムが最も広範で、コミュニティが活発で、汎用性能が高く、現在最も主流のオープンソース基盤モデルの一つです。
  • Mistral:アーキテクチャが効率的で、推論性能が非常に優れており、柔軟な展開やリソースが限られたシーンに適しています。
  • Qwen:アリババ製、中文タスクのパフォーマンスが優れており、総合的な能力が強く、国内の開発者に最適な選択。
  • ChatGLM:中国語の会話効果が優れており、特化型のカスタマーサービスやローカライズシーンに適しています。
  • Deepseek:コード生成と数学的推論に優れた性能を発揮し、スマート開発支援ツールに適しています。
  • Gemma:Googleが提供する軽量モデルで、構造が明確で、迅速に取り組むことや実験が容易です。
  • Falcon:かつてはパフォーマンスのベンチマークであり、基礎研究や比較テストに適していましたが、コミュニティの活発さは減少しています。
  • BLOOM:多言語サポートが強いが、推論性能は弱めで、言語カバレッジ型の研究に適しています。
  • GPT-2:クラシックな初期モデルで、教育および検証目的にのみ適しており、実際の展開には推奨されません。

OpenLedgerのモデルの組み合わせは最新の高性能MoEモデルやマルチモーダルモデルを含んでいませんが、その戦略は時代遅れではなく、オンチェーンでのデプロイメントにおける現実的な制約(推論コスト、RAG適応、LoRA互換性、EVM環境)に基づいた「実用優先」の構成となっています。

Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明メカニズムが内蔵されており、データ貢献者とモデル開発者の権益を確保しています。低いハードル、収益化可能、組み合わせ可能という利点を持ち、従来のモデル開発ツールと比較します:

  • 開発者へ:モデルの孵化、配布、収入の完全なパスを提供する;
  • プラットフォームについて:モデル資産の流通と組み合わせエコシステムを形成する;
  • アプリケーションユーザー向け:モデルまたはエージェントをAPIを呼び出すように組み合わせて使用できます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)

3.2 OpenLoRA、微調整モデルのオンチェーンアセット化

LoRA(Low-Rank Adaptation)は、高効率なパラメータ微調整手法であり、事前学習済みの大規模モデルに「低秩行列」を挿入することで新しいタスクを学習しますが、元のモデルパラメータは変更しません。これにより、トレーニングコストとストレージ要件を大幅に削減します。従来の大規模言語モデルは通常数十億から数千億のパラメータを持っています。それらを特定のタスクに使用するには微調整が必要です。LoRAの核心的な戦略は、「元の大規模モデルのパラメータを凍結し、挿入した新しいパラメータ行列のみを訓練する。」であり、そのパラメータ効率、トレーニングの速さ、デプロイの柔軟性から、現在のWeb3モデルのデプロイおよび組み合わせ呼び出しに最も適した主流の微調整方法です。

OpenLoRAはOpenLedgerが構築した、複数のモデル展開とリソース共有のために特別に設計された軽量推論フレームワークです。その核心的な目標は、現在のAIモデル展開における一般的な高コスト、低再利用、GPUリソースの無駄遣いといった問題を解決し、「支払い可能なAI」(Payable AI)の実現を推進することです。

OpenLoRAシステムアーキテクチャのコアコンポーネントは、モジュール設計に基づき、モデルストレージ、推論実行、リクエストルーティングなどの重要なプロセスをカバーし、高効率で低コストのマルチモデルデプロイおよび呼び出し能力を実現します:

  • LoRAアダプターストレージモジュール:微調整されたLoRAアダプターはOpenLedger上にホストされ、オンデマンドでロードされ、すべてのモデルを事前にVRAMにロードすることを避け、リソースを節約します。
  • モデルホスティングとダイナミックフュージョン層:すべてのファインチューニングモデルが基盤の大モデルを共有し、推論時にLoRAアダプタが動的に統合され、複数のアダプタによる共同推論をサポートし、性能を向上させます。
  • 推論エンジン:Flash-Attention、Paged-Attention、SGMV最適化など、複数のCUDA最適化技術を統合します。
  • リクエストルーティングとストリーミング出力モジュール: リクエストに必要なモデルに基づいて正しいアダプターに動的にルーティングし、最適化されたカーネルを通じてトークンレベルのストリーミング生成を実現します。

OpenLoRAの推論プロセスは、技術的な側面で「成熟した汎用」のモデルサービス「プロセス」に属します。以下の通りです:

  • 基本モデルのロード:システムは基本的大モデルをプリロードします
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 5
  • 共有
コメント
0/400
GasFeeNightmarevip
· 10時間前
モデルが資金を消費するよりも、直接暗号資産の世界で投資した方が良い。
原文表示返信0
GateUser-aa7df71evip
· 10時間前
またストーリーを語って初心者をカモにするのか
原文表示返信0
ContractCollectorvip
· 10時間前
aiはとても強気ですが、落ちないでくださいね。
原文表示返信0
BrokenYieldvip
· 10時間前
うーん... またルナみたいに死んでしまうGPUの話だね、正直。
原文表示返信0
OnChainDetectivevip
· 10時間前
うーん... パターンは別のgpt/aiシルを示唆しているが、*過去のデータをチェック* オペレーションスタックインフラは本物かもしれない、正直なところ。
原文表示返信0
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)