OpenLedgerはモジュール化されたスマートエージェント経済エコシステムを構築します

OpenLedgerデプス研報:OP Stack+EigenDAを基盤に、データ駆動型でモデル可コラボレーションのインテリジェントエコノミーを構築

一、引言 | Crypto AI のモデルレイヤーの飛躍

データ、モデルと算力はAIインフラの三大核心要素であり、燃料(データ)、エンジン(モデル)、エネルギー(算力)が欠かせないことに例えられます。従来のAI業界のインフラ進化の道筋に似て、Crypto AI分野も同様の段階を経てきました。2024年初頭、市場は一時去中心化GPUプロジェクトが主導し、「算力を競う」粗放的な成長論理が強調されました。しかし2025年に入ると、業界の関心は徐々にモデルとデータ層に移り、Crypto AIが基盤リソース競争からより持続可能で応用価値のある中層構築へと移行することを示しています。

General Large Model(LLM)とSpecialized Model(SLM)

従来の大規模言語モデル(LLM)のトレーニングは、大規模なデータセットと複雑な分散アーキテクチャに高度に依存し、パラメータ規模は70B~500Bに及び、1回のトレーニングコストは数百万ドルに達することがよくあります。一方、SLM(Specialized Language Model)は、再利用可能な基盤モデルの軽量微調整のパラダイムとして、通常はLLaMA、Mistral、DeepSeekなどのオープンソースモデルに基づき、少数の高品質な専門データとLoRAなどの技術を組み合わせて、特定の分野の知識を持つ専門モデルを迅速に構築し、トレーニングコストと技術的なハードルを大幅に低下させます。

注目すべきは、SLM は LLM の重みに統合されるのではなく、エージェントアーキテクチャの呼び出し、プラグインシステムの動的ルーティング、LoRA モジュールのホットプラグ、RAG(検索強化生成)などの方法で LLM と協力して動作するということです。このアーキテクチャは LLM の広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールによって専門的なパフォーマンスを強化し、高度に柔軟なコンビナトリアルインテリジェンスシステムを形成しました。

Crypto AI のモデル層における価値と境界

Crypto AI プロジェクトは本質的に大規模言語モデル(LLM)のコア能力を直接向上させることが難しい。その核心的な理由は

  • 技術的なハードルが高すぎる:Foundation Model をトレーニングするために必要なデータ規模、計算リソース、エンジニアリング能力は非常に膨大であり、現在、アメリカや中国などのテクノロジー大手のみが相応の能力を持っています。
  • オープンソースエコシステムの限界:主流の基盤モデルであるLLaMAやMixtralはオープンソース化されていますが、モデルの突破を推進する鍵は依然として研究機関とクローズドエンジニアリングシステムに集中しており、ブロックチェーンプロジェクトはコアモデルレイヤーでの参加の余地が限られています。

しかし、オープンソースの基盤モデルの上に、Crypto AI プロジェクトは、特化型言語モデル (SLM) を微調整し、Web3 の検証可能性とインセンティブメカニズムを組み合わせることで、価値の拡張を実現できます。AI 産業チェーンの「周辺インターフェース層」として、2 つのコア方向に具現化されます:

  • 信頼できる検証層:チェーン上でモデル生成のパス、データの貢献と使用状況を記録することにより、AIの出力のトレース可能性と改ざん耐性を強化します。
  • インセンティブメカニズム:ネイティブトークンを利用して、データのアップロード、モデルの呼び出し、エージェント(Agent)の実行などの行動を促進し、モデルのトレーニングとサービスの正の循環を構築します。

AIモデルタイプの分類とブロックチェーンの適用性分析

このことから、モデル型Crypto AIプロジェクトの実行可能な落ち着きどころは、主に小型SLMの軽量化調整、RAGアーキテクチャのチェーン上データ接続と検証、およびEdgeモデルのローカルデプロイとインセンティブに集中していることがわかります。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Cryptoはこれらの中低リソースモデルシナリオに特有の価値を提供し、AI「インターフェース層」の差別化された価値を形成することができます。

データとモデルに基づくブロックチェーン AI チェーンは、各データとモデルの貢献元を明確かつ改ざん不可能な上鎖記録として提供し、データの信頼性とモデルのトレーニングのトレーサビリティを大幅に向上させます。同時に、スマートコントラクトメカニズムを通じて、データやモデルが呼び出されると自動的に報酬配布をトリガーし、AI の行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブシステムを構築します。さらに、コミュニティユーザーはトークン投票を通じてモデルの性能を評価し、ルールの策定と反復に参加して、分散型ガバナンス構造を改善できます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)

二、プロジェクト概要 | OpenLedgerのAIチェーンビジョン

OpenLedgerは現在の市場で数少ない、データとモデルのインセンティブメカニズムに焦点を当てたブロックチェーンAIプロジェクトです。「Payable AI」という概念を初めて提案し、公平で透明性があり、かつコンポーザブルなAI運用環境を構築することを目指しています。データ提供者、モデル開発者、AIアプリケーション構築者が同じプラットフォームで協力し、実際の貢献に応じてオンチェーンの利益を得ることを促進します。

OpenLedgerは「データ提供」から「モデルデプロイメント」、さらには「呼び出し分配」までの全体的なクローズドループを提供しており、そのコアモジュールには以下が含まれます:

  • モデルファクトリー:プログラミング不要で、オープンソースの LLM を基に LoRA 微調整トレーニングとカスタムモデルのデプロイが可能;
  • OpenLoRA:千モデルの共存をサポートし、必要に応じて動的にロードし、展開コストを大幅に削減します。
  • PoA(Proof of Attribution):コントリビューションの測定と報酬の分配は、オンチェーンの通話記録を通じて実現されます。
  • Datanets:垂直シーン向けの構造化データネットワークで、コミュニティの協力によって構築および検証される;
  • モデル提案プラットフォーム(Model Proposal Platform):組み合わせ可能、呼び出し可能、支払い可能なオンチェーンモデルマーケット。

上記のモジュールを通じて、OpenLedgerはデータ駆動型でモデルが組み合わせ可能な「エージェント経済インフラ」を構築し、AIバリューチェーンのオンチェーン化を推進しています。

そして、ブロックチェーン技術の採用において、OpenLedger は OP Stack + EigenDA を基盤に、高性能、低コスト、検証可能なデータおよび契約の実行環境を AI モデルの構築のために提供しています。

  • OPスタックに基づく:Optimismテクノロジースタックに基づき、高スループットと低コストの実行をサポート;
  • イーサリアムメインネットでの決済: 取引の安全性と資産の完全性を確保する;
  • EVM互換:開発者がSolidityに基づいて迅速にデプロイおよび拡張するのに便利;
  • EigenDAはデータの可用性をサポートします:ストレージコストを大幅に削減し、データの検証可能性を保証します。

NEARのようなより基盤的で、データ主権と「BOS上のAIエージェント」を主に提供する汎用AIチェーンと比較して、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築に注力しており、モデルの開発と利用をチェーン上で追跡可能、コンポーザブル、持続可能な価値のサイクルを実現することに努めています。それはWeb3の世界におけるモデルインセンティブの基盤インフラであり、モデルホスティング、使用課金、チェーン上のコンポーザブルインターフェースを組み合わせて、「モデルは資産である」という実現の道を推進します。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)

三、OpenLedger のコアコンポーネントと技術アーキテクチャ

3.1 モデルファクトリー、コード不要モデルファクトリー

ModelFactory は OpenLedger エコシステム内の大規模言語モデル(LLM)ファインチューニングプラットフォームです。従来のファインチューニングフレームワークとは異なり、ModelFactory は純粋なグラフィカルインターフェース操作を提供し、コマンドラインツールや API 統合を必要としません。ユーザーは OpenLedger 上で完了した認可と審査のデータセットに基づいてモデルをファインチューニングできます。データの認可、モデルのトレーニング、およびデプロイメントの統合ワークフローを実現しており、そのコアプロセスには以下が含まれます:

  • データアクセス制御:ユーザーがデータリクエストを提出し、提供者が審査・承認し、データが自動的にモデルトレーニングインターフェースに接続されます。
  • モデルの選択と設定:主流の LLM(LLaMA、Mistral など)をサポートし、GUI を通じてハイパーパラメータを設定します。
  • 軽量化微調: 内蔵LoRA / QLoRAエンジン、リアルタイムでトレーニング進捗を表示。
  • モデル評価とデプロイ:内蔵評価ツール、エクスポートデプロイまたはエコシステム共有呼び出しをサポート。
  • インタラクティブ検証インターフェース:チャット式のインターフェースを提供し、モデルの質問応答能力を直接テストしやすくします。
  • RAG生成トレーサビリティ:出所を引用して回答し、信頼性と監査可能性を強化します。

Model Factory システムアーキテクチャは、アイデンティティ認証、データ権限、モデル微調整、評価展開、RAG 溯源を通じて、6 つの主要モジュールを含んでおり、安全で制御可能、リアルタイムでインタラクティブ、持続可能な収益化を実現する統合モデルサービスプラットフォームを構築しています。

ModelFactory 現在サポートしている大規模言語モデルの能力の簡易表は以下の通りです:

  • LLaMAシリーズ:エコシステムが最も広く、コミュニティが活発で、汎用性能が強く、現在最も主流なオープンソース基盤モデルの一つです。
  • Mistral:アーキテクチャが効率的で、推論性能が非常に優れており、柔軟なデプロイやリソースが限られたシナリオに適しています。
  • Qwen:アリババ製、中文のタスクパフォーマンスが優れており、総合能力が高く、国内の開発者に最適です。
  • ChatGLM:中文対話効果が突出しており、垂直型カスタマーサービスやローカライズシーンに適しています。
  • Deepseek:コード生成と数学的推論に優れ、スマート開発支援ツールに適しています。
  • Gemma:Googleによって提供された軽量モデルで、構造が明確で、迅速に習得し実験するのが容易です。
  • フェニックス:かつては性能のベンチマークで、基礎研究や比較テストに適していましたが、コミュニティの活動度は減少しました。
  • BLOOM:多言語サポートが強いが、推論性能はやや弱いため、言語カバレッジ型の研究に適している。
  • GPT-2:クラシックな初期モデルで、教育や検証目的にのみ適しており、実際のデプロイには推奨されません。

OpenLedgerのモデルコンビネーションには最新の高性能MoEモデルやマルチモーダルモデルは含まれていないが、その戦略は時代遅れではなく、オンチェーンデプロイメントの現実的な制約(推論コスト、RAGアダプテーション、LoRA互換、EVM環境)に基づいた「実用優先」の構成がなされている。

Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明メカニズムが組み込まれており、データ提供者とモデル開発者の権利を確保しています。低いハードル、収益化可能性、組み合わせ可能性という利点を持ち、従来のモデル開発ツールと比較して:

  • 開発者向け:モデルの孵化、配信、収益の完全なパスを提供;
  • プラットフォームについて:モデル資産の流通と組み合わせエコシステムを形成する;
  • アプリケーションユーザー向け:モデルやエージェントをAPIを呼び出すように組み合わせて使用できます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)

3.2 OpenLoRA、ファインチューニングモデルのオンチェーン資産化

LoRA(Low-Rank Adaptation)は、高効率のパラメータ微調整方法であり、事前訓練された大規模モデルに「低秩行列」を挿入して新しいタスクを学習します。元のモデルパラメータを変更することなく、トレーニングコストとストレージ要件を大幅に削減します。従来の大規模言語モデル(例えば、LLaMAやGPT-3)は通常、数十億から千億のパラメータを持っています。特定のタスク(例えば、法律に関する質問応答や医療診断)に使用するためには、微調整(fine-tuning)が必要です。LoRAの核心的な戦略は、「元の大規模モデルのパラメータを固定し、新しく挿入したパラメータ行列のみをトレーニングする。」であり、そのパラメータ効率、トレーニングの速さ、展開の柔軟性により、現在のWeb3モデルの展開と組み合わせ呼び出しに最も適した主流の微調整方法です。

OpenLoRAはOpenLedgerが構築した、多モデルのデプロイとリソース共有のために設計された軽量推論フレームワークです。その核心的な目標は、現在のAIモデルのデプロイにおける一般的な高コスト、低再利用、GPUリソースの浪費などの問題を解決し、「可支付AI」(Payable AI)の実現を推進することです。

OpenLoRA システムアーキテクチャのコアコンポーネントは、モジュール設計に基づき、モデルストレージ、推論実行、リクエストルーティングなどの重要なプロセスをカバーし、高効率で低コストのマルチモデルのデプロイおよび呼び出し能力を実現しています。

  • LoRAアダプターストレージモジュール (LoRAアダプターのストレージ):微調整されたLoRAアダプターはOpenLedgerにホスティングされており、必要に応じてロードされ、すべてのモデルを事前にVRAMにロードするのを避け、リソースを節約します。
  • モデルホスティングと動的マージレイヤー (Model Hosting & Adapter Merging Layer):すべてのファインチューニングモデルがベースモデル(base model)を共有し、推論時にLoRAアダプターが動的にマージされ、複数のアダプターによるアンサンブル推論をサポートし、性能を向上させます。
  • 推論エンジン:Flash-Attention、Paged-Attention、SGMV最適化など、複数のCUDA最適化技術を統合します。
原文表示
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • 報酬
  • 4
  • 共有
コメント
0/400
MetaverseVagabondvip
· 07-10 17:14
中不中 これはAIの皮を被ったOP L2プロジェクトではないですか
原文表示返信0
DeFiGraylingvip
· 07-10 17:05
古いプロジェクトのリニューアル、まるで大儲けしたようだ
原文表示返信0
GasWaster69vip
· 07-10 17:05
ラグプル倒计时.eth
原文表示返信0
AirdropCollectorvip
· 07-10 16:57
AIはほとんどGPUの損失を受けたでしょう。
原文表示返信0
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)