OpenLedger crée un écosystème économique d'agents intelligents modulaires.

OpenLedger Depth Rapport de recherche : construire une économie d'agents intelligente, pilotée par les données et modulable, sur la base de OP Stack + EigenDA

I. Introduction | La transition des couches de modèle de Crypto AI

Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, comparables à des carburants (données), un moteur (modèle) et une énergie (puissance de calcul), tous indispensables. Tout comme le chemin d'évolution des infrastructures de l'industrie de l'IA traditionnelle, le domaine de l'IA Crypto a également traversé des étapes similaires. Début 2024, le marché était dominé par des projets GPU décentralisés, soulignant généralement la logique de croissance extensive de "l'assemblage de puissance de calcul". Cependant, à partir de 2025, l'attention de l'industrie s'est progressivement déplacée vers les couches de modèles et de données, marquant la transition de l'IA Crypto d'une compétition pour les ressources de base vers une construction de niveau intermédiaire plus durable et ayant une valeur d'application.

Modèle de langage général (LLM) vs Modèle spécialisé (SLM)

Les modèles de langage de grande taille (LLM) traditionnels dépendent fortement de jeux de données massifs et d'architectures distribuées complexes, avec une taille de paramètres allant de 70B à 500B, et le coût d'un entraînement peut atteindre plusieurs millions de dollars. Le SLM (Modèle de Langage Spécialisé), en tant que paradigme d'ajustement léger d'un modèle de base réutilisable, est généralement basé sur des modèles open source tels que LLaMA, Mistral, DeepSeek, et combine une petite quantité de données professionnelles de haute qualité et des technologies telles que LoRA, pour construire rapidement des modèles d'experts dotés de connaissances spécifiques à un domaine, réduisant ainsi considérablement le coût d'entraînement et le seuil technique.

Il est important de noter que SLM ne sera pas intégré dans les poids de LLM, mais fonctionnera en collaboration avec LLM via des appels d'architecture Agent, un système de plugins pour le routage dynamique, des modules LoRA en hot-swapping, et RAG (génération augmentée par recherche). Cette architecture conserve la capacité de large couverture de LLM tout en améliorant la performance professionnelle grâce à des modules de fine-tuning, formant ainsi un système intelligent modulaire hautement flexible.

La valeur et les limites de l'IA crypto au niveau du modèle

Les projets de Crypto AI ont essentiellement du mal à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale étant que

  • Barrières techniques trop élevées : l'échelle des données, des ressources de calcul et des capacités d'ingénierie nécessaires pour entraîner un modèle fondamental est extrêmement vaste, et seules des géants technologiques comme les États-Unis et la Chine disposent actuellement de ces capacités.
  • Limites de l'écosystème open source : Bien que des modèles de base grand public tels que LLaMA et Mixtral aient été open source, la véritable clé pour faire progresser les modèles reste concentrée sur les institutions de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets sur la chaîne au niveau des modèles de base est limité.

Cependant, sur la base de modèles fondamentaux open source, les projets Crypto AI peuvent encore réaliser une extension de valeur grâce à l'ajustement des modèles de langage spécialisés (SLM) et à la combinaison de la vérifiabilité et des mécanismes d'incitation du Web3. En tant que « couche d'interface périphérique » de la chaîne de l'industrie de l'IA, cela se manifeste dans deux directions clés :

  • Couche de vérification fiable : enregistre les chemins de génération de modèles, les contributions de données et les utilisations sur la chaîne, renforçant la traçabilité et la capacité de résistance à la falsification des sorties d'IA.
  • Mécanisme d'incitation : Grâce au Token natif, utilisé pour inciter le téléchargement de données, l'appel de modèles, l'exécution d'agents (Agent), etc., construire un cycle positif de formation et de service des modèles.

Classification des types de modèles d'IA et analyse de l'applicabilité de la blockchain

On peut donc voir que les points de chute viables des projets Crypto AI de type modèle se concentrent principalement sur l'affinage léger des petits SLM, l'intégration et la vérification des données en chaîne de l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme de token, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant ainsi une valeur différenciée pour la "couche d'interface" de l'AI.

La chaîne de blocs AI basée sur les données et les modèles peut enregistrer de manière claire et immuable la source de contribution de chaque donnée et modèle, améliorant ainsi considérablement la crédibilité des données et la traçabilité de l'entraînement des modèles. En outre, grâce au mécanisme des contrats intelligents, la distribution des récompenses est automatiquement déclenchée lorsque des données ou des modèles sont appelés, transformant le comportement de l'IA en une valeur tokenisée mesurable et échangeable, et construisant un système d'incitation durable. De plus, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes tokenisés, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.

OpenLedger Depth Report : Construire une économie d'agents intelligente, basée sur OP Stack + EigenDA, axée sur les données et combinable par modèle

II. Présentation du projet | La vision de la chaîne AI d'OpenLedger

OpenLedger est l'un des rares projets de blockchain AI sur le marché actuel, axé sur les mécanismes d'incitation liés aux données et aux modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution AI équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications AI à collaborer sur une même plateforme et à obtenir des revenus sur la chaîne en fonction de leurs contributions réelles.

OpenLedger offre une boucle fermée complète allant de « fourniture de données » à « déploiement de modèle » puis à « appel de partage de bénéfices », dont les modules principaux comprennent :

  • Modèle d'usine : pas besoin de programmation, utilisez LoRA pour ajuster, entraîner et déployer des modèles personnalisés basés sur LLM open source ;
  • OpenLoRA : prend en charge la coexistence de milliers de modèles, chargement dynamique à la demande, réduisant considérablement les coûts de déploiement ;
  • PoA (Proof of Attribution) : mesure de contribution et répartition des récompenses via des enregistrements d'appels sur la chaîne.
  • Datanets : un réseau de données structuré orienté vers des scénarios verticaux, construit et vérifié par la collaboration de la communauté ;
  • Plateforme de proposition de modèle (Model Proposal Platform) : marché de modèles on-chain modulables, appelables et payables.

Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique d'agents intelligents » basée sur les données et modélisable, favorisant la chaîne de valeur de l'IA sur la blockchain.

Et en ce qui concerne l'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats hautes performances, à faible coût et vérifiable pour les modèles d'IA.

  • Construit sur l'OP Stack : Basé sur la pile technologique Optimism, supporte un haut débit et une exécution à faible coût ;
  • Règlement sur la chaîne principale d'Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
  • Compatible EVM : Permet aux développeurs de déployer et d'étendre rapidement en se basant sur Solidity ;
  • EigenDA fournit un support de disponibilité des données : réduit considérablement les coûts de stockage et garantit la vérifiabilité des données.

Comparé à des chaînes AI génériques comme NEAR, qui sont plus axées sur la couche de base et mettent l'accent sur la souveraineté des données et l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes AI dédiées aux incitations de données et de modèles, s'efforçant de rendre le développement et l'appel des modèles traçables, combinables et durables sur la chaîne. C'est une infrastructure d'incitation de modèle dans le monde Web3, combinant l'hébergement de modèles, la facturation d'utilisation et des interfaces combinables sur la chaîne, promouvant le chemin vers la réalisation de « modèles en tant qu'actifs ».

OpenLedger Depth Research Report : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et modélisable

Trois, les composants clés et l'architecture technique d'OpenLedger

3.1 Modèle d'usine, sans code modèle d'usine

ModelFactory est une plateforme de micro-ajustement de grands modèles de langage (LLM) au sein de l'écosystème OpenLedger. Contrairement aux cadres de micro-ajustement traditionnels, ModelFactory propose une interface entièrement graphique, sans nécessiter d'outils en ligne de commande ou d'intégration d'API. Les utilisateurs peuvent ajuster le modèle sur la base de jeux de données autorisés et vérifiés complétés sur OpenLedger. Cela permet de réaliser un flux de travail intégré pour l'autorisation des données, la formation et le déploiement du modèle, dont les processus clés incluent :

  • Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur examine et approuve, les données sont automatiquement intégrées à l'interface de formation du modèle.
  • Sélection et configuration du modèle : prend en charge les LLM grand public (comme LLaMA, Mistral), configuration des hyperparamètres via l'interface graphique.
  • Ajustement léger : Moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
  • Évaluation et déploiement des modèles : outils d'évaluation intégrés, support de l'exportation pour le déploiement ou l'appel de partage écologique.
  • Interface de validation interactive : Fournit une interface de type chat, facilitant le test direct des capacités de réponse du modèle.
  • RAG génération de traçabilité : Répondre avec des citations de source, renforçant la confiance et l'auditabilité.

L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement des évaluations et la traçabilité RAG, créant une plateforme de services de modèles intégrée, sécurisée, contrôlable, interactive en temps réel et capable de générer des revenus durables.

Le tableau ci-dessous résume les capacités des grands modèles de langage actuellement pris en charge par ModelFactory :

  • LLaMA Série : Écologie la plus large, communauté active, performances générales fortes, c'est l'un des modèles de base open source les plus courants actuellement.
  • Mistral : architecture efficace, performance d'inférence exceptionnelle, adaptée aux scénarios de déploiement flexibles et de ressources limitées.
  • Qwen : produit par Alibaba, excellent performance sur les tâches en chinois, capacités globales fortes, idéal pour les développeurs nationaux.
  • ChatGLM : Les effets de conversation en chinois sont remarquables, adaptés aux services clients de niche et aux scénarios de localisation.
  • Deepseek : excelle dans la génération de code et le raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
  • Gemma : un modèle léger lancé par Google, avec une structure claire, facile à prendre en main et à expérimenter.
  • Falcon : Ancien étalon de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
  • BLOOM : support multilingue fort, mais performance d'inférence faible, adapté aux recherches sur la couverture linguistique.
  • GPT-2 : modèle classique précoce, uniquement adapté à des fins d'enseignement et de validation, non recommandé pour une utilisation en déploiement réel.

Bien que le portefeuille de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais constitue une configuration « axée sur l'utilité » basée sur les contraintes réalistes de déploiement en chaîne (coûts d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).

Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages tels que la faible barrière d'entrée, la monétisation et la combinabilité, par rapport aux outils de développement de modèles traditionnels :

  • Pour les développeurs : fournir un chemin complet pour l'incubation, la distribution et les revenus des modèles ;
  • Pour la plateforme : former un écosystème de circulation et de combinaison des actifs modélisés ;
  • Pour les utilisateurs : vous pouvez combiner les modèles ou les agents comme si vous appeliez une API.

OpenLedger Depth Rapport de recherche : en utilisant OP Stack + EigenDA comme base, construire une économie d'agent intelligente axée sur les données et modélisable

3.2 OpenLoRA, la tokenisation des actifs on-chain du modèle de fine-tuning

LoRA (Low-Rank Adaptation) est une méthode de réglage des paramètres efficace qui apprend de nouvelles tâches en insérant une « matrice de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins en stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) possèdent généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser dans des tâches spécifiques (comme les questions juridiques, les consultations médicales), un réglage fin (fine-tuning) est nécessaire. La stratégie clé de LoRA est : « geler les paramètres du grand modèle original, ne former que la nouvelle matrice de paramètres insérée. » Elle est efficace en termes de paramètres, rapide à entraîner et flexible à déployer, ce qui en fait la méthode de réglage la plus adaptée au déploiement de modèles Web3 et à l'appel combiné.

OpenLoRA est un cadre d'inférence léger construit par OpenLedger, conçu spécifiquement pour le déploiement de plusieurs modèles et le partage de ressources. Son objectif principal est de résoudre les problèmes courants de coût élevé, de faible réutilisation et de gaspillage de ressources GPU dans le déploiement des modèles d'IA actuels, et de promouvoir l'exécution de l'« IA payante ».

OpenLoRA architecture core components, based on modular design, covering key aspects such as model storage, inference execution, and request routing, achieving efficient and low-cost multi-model deployment and invocation capabilities :

  • Module de stockage d'adaptateur LoRA (LoRA Adapters Storage) : l'adaptateur LoRA affiné est hébergé sur OpenLedger, permettant un chargement à la demande, évitant de précharger tous les modèles dans la mémoire vidéo, économisant des ressources.
  • Hébergement de modèle et couche de fusion dynamique (Model Hosting & Adapter Merging Layer) : Tous les modèles finement ajustés partagent le modèle de base (base model), lors de l'inférence, l'adaptateur LoRA se fusionne dynamiquement, prenant en charge plusieurs adaptateurs pour une inférence conjointe (ensemble), améliorant ainsi les performances.
  • Moteur d'inférence (Inference Engine) : intègre plusieurs technologies d'optimisation CUDA telles que Flash-Attention, Paged-Attention et SGMV.
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Récompense
  • 4
  • Partager
Commentaire
0/400
MetaverseVagabondvip
· 07-10 17:14
Est-ce que ça ne ressemble pas à un projet L2 déguisé en IA OP ?
Voir l'originalRépondre0
DeFiGraylingvip
· 07-10 17:05
Rénovation de vieux projets, j'ai complètement gagné de l'argent.
Voir l'originalRépondre0
GasWaster69vip
· 07-10 17:05
Rug Pull倒计时.eth
Voir l'originalRépondre0
AirdropCollectorvip
· 07-10 16:57
l'IA a presque assez souffert des GPU, non ?
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)