OpenLedger crea un ecosistema económico de agentes inteligentes combinables.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

I. Introducción | La transición del modelo de Crypto AI

Los datos, modelos y potencia de cálculo son los tres elementos centrales de la infraestructura de IA, análogos al combustible (datos), motor (modelo) y energía (potencia de cálculo), que son indispensables. Al igual que la trayectoria de evolución de la infraestructura de la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado estuvo dominado por proyectos de GPU descentralizados, que enfatizaban en gran medida la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia la capa de modelos y datos, marcando la transición de Crypto AI de la competencia por recursos básicos a una construcción intermedia más sostenible y de valor aplicado.

Modelo general (LLM) vs Modelo especializado (SLM)

Los modelos de lenguaje a gran escala (LLM) tradicionales dependen en gran medida de conjuntos de datos masivos y arquitecturas distribuidas complejas, con escalas de parámetros que oscilan entre 70B y 500B, y el costo de entrenar uno puede alcanzar fácilmente varios millones de dólares. Por otro lado, el SLM (Modelo de Lenguaje Especializado) es un paradigma de ajuste fino ligero que permite reutilizar modelos base, generalmente basado en modelos de código abierto como LLaMA, Mistral, DeepSeek, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos con conocimientos en dominios específicos, reduciendo significativamente los costos de entrenamiento y las barreras técnicas.

Cabe destacar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de arquitecturas de agentes, enrutamiento dinámico del sistema de plugins, conexión en caliente de módulos LoRA, RAG (Generación Aumentada por Recuperación) y otros métodos. Esta arquitectura mantiene la amplia capacidad de cobertura de LLM, al tiempo que mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente combinatorio de alta flexibilidad.

El valor y los límites de Crypto AI en la capa del modelo

Los proyectos de Crypto AI son esencialmente difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje de gran tamaño (LLM), y la razón principal es que

  • La barrera técnica es demasiado alta: la escala de datos, los recursos computacionales y las capacidades de ingeniería necesarias para entrenar un Modelo de Fundación son extremadamente grandes, actualmente solo las grandes empresas tecnológicas de EE. UU. y China poseen la capacidad correspondiente.
  • Limitaciones del ecosistema de código abierto: aunque modelos de base como LLaMA y Mixtral se han abierto, la clave para impulsar avances en los modelos sigue concentrándose en instituciones de investigación y sistemas de ingeniería de código cerrado, y el espacio de participación de los proyectos en cadena en el nivel del modelo central es limitado.

Sin embargo, sobre los modelos de base de código abierto, los proyectos de Crypto AI aún pueden lograr la extensión de valor mediante el ajuste fino de modelos de lenguaje especializados (SLM) y la combinación de la verificabilidad y los mecanismos de incentivo de Web3. Como "capa de interfaz periférica" de la cadena de industria de IA, se manifiesta en dos direcciones clave:

  • Capa de verificación confiable: a través del registro en cadena del camino de generación del modelo, la contribución de datos y el uso, se mejora la trazabilidad y la capacidad de resistencia a la manipulación de las salidas de IA.
  • Mecanismo de incentivos: Con la ayuda del Token nativo, se utiliza para incentivar comportamientos como la carga de datos, la llamada a modelos y la ejecución de agentes, construyendo un ciclo positivo de entrenamiento y servicio de modelos.

Clasificación de tipos de modelos de IA y análisis de aplicabilidad de blockchain

Por lo tanto, se puede ver que los puntos de viabilidad de los proyectos de tipo Crypto AI se concentran principalmente en la optimización ligera de pequeños SLM, la incorporación y verificación de datos en cadena de la arquitectura RAG, así como en el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de la blockchain y el mecanismo de tokens, Crypto puede proporcionar un valor único para estos escenarios de modelos de recursos medio-bajos, formando un valor diferencial en la "capa de interfaz" de la IA.

La cadena de bloques AI basada en datos y modelos puede registrar de manera clara e inmutable la procedencia de cada dato y la contribución del modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento del modelo. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se llama a los datos o modelos, convirtiendo el comportamiento de la IA en un valor tokenizado medible y comerciable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y perfeccionar la estructura de gobernanza descentralizada.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Resumen del Proyecto | La visión de la cadena AI de OpenLedger

OpenLedger es uno de los pocos proyectos de IA en blockchain que se centra en mecanismos de incentivos de datos y modelos en el mercado actual. Fue el primero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de ejecución de IA justo, transparente y combinable, que incentive a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en la misma plataforma y obtener ingresos en cadena según sus contribuciones reales.

OpenLedger ofrece un ciclo cerrado de toda la cadena que va desde "provisión de datos" hasta "despliegue de modelos" y luego "llamada de reparto de beneficios", cuyos módulos centrales incluyen:

  • Fábrica de Modelos: sin necesidad de programación, se puede utilizar LoRA para el ajuste fino, entrenamiento y despliegue de modelos personalizados basados en LLM de código abierto;
  • OpenLoRA: admite la coexistencia de miles de modelos, carga dinámica bajo demanda, lo que reduce significativamente los costos de implementación;
  • PoA (Prueba de Atribución): medir la contribución y distribuir recompensas a través de registros de llamadas en la cadena;
  • Datanets: Redes de datos estructurados orientadas a escenarios verticales, construidas y verificadas por la colaboración de la comunidad;
  • Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que es combinable, llamable y pagable.

A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y modelable, promoviendo la cadena de valor de la IA hacia la cadena.

Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base, creando un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.

  • Construido sobre OP Stack: Basado en la pila de tecnología de Optimism, soporta alta profundidad y ejecución de bajo costo;
  • Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
  • Compatible con EVM: facilita a los desarrolladores implementar y expandir rápidamente basado en Solidity;
  • EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.

En comparación con cadenas de IA genéricas como NEAR, que se centran más en la capa base y promueven la soberanía de datos junto con la arquitectura de "AI Agents on BOS", OpenLedger se enfoca en construir una cadena de IA especializada orientada a incentivos de datos y modelos, dedicada a lograr que el desarrollo y la invocación de modelos se realicen en la cadena de manera rastreable, combinable y sostenible. Es una infraestructura de incentivos de modelos en el mundo Web3, que combina alojamiento de modelos, facturación de uso e interfaces combinables en la cadena, impulsando el camino hacia la realización de "modelo como activo".

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Tres, los componentes centrales y la arquitectura técnica de OpenLedger

3.1 Modelo de Fábrica, fábrica de modelos sin necesidad de código

ModelFactory es una plataforma de ajuste fino de grandes modelos de lenguaje (LLM) bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica de usuario pura, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en los conjuntos de datos que han sido autorizados y revisados en OpenLedger. Se ha logrado un flujo de trabajo integrado de autorización de datos, entrenamiento de modelos y despliegue, cuyos procesos clave incluyen:

  • Control de acceso a datos: el usuario envía una solicitud de datos, el proveedor la revisa y aprueba, y los datos se conectan automáticamente a la interfaz de entrenamiento del modelo.
  • Selección y configuración del modelo: Soporta LLM populares (como LLaMA, Mistral), configurando hiperparámetros a través de la GUI.
  • Ajuste ligero: Motor LoRA / QLoRA integrado, muestra en tiempo real el progreso del entrenamiento.
  • Evaluación y despliegue del modelo: Herramientas de evaluación integradas, que permiten exportar para despliegue o compartir llamadas en el ecosistema.
  • Interfaz de verificación interactiva: Proporciona una interfaz de chat, facilitando la prueba directa de la capacidad de respuesta del modelo.
  • Generación de RAG de trazabilidad: Responder con citas de origen, aumentando la confianza y la auditabilidad.

La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, los permisos de datos, el ajuste fino del modelo, la evaluación y el despliegue, así como el rastreo RAG, creando una plataforma de servicio de modelos integrada que es segura y controlable, interactiva en tiempo real y sostenible en su monetización.

El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:

  • Serie LLaMA: el ecosistema más amplio, comunidad activa y alto rendimiento general, es uno de los modelos básicos de código abierto más populares en la actualidad.
  • Mistral: arquitectura eficiente, rendimiento de inferencia excelente, adecuado para escenarios flexibles y con recursos limitados.
  • Qwen: Producto de Alibaba, con un excelente rendimiento en tareas en chino, capacidad integral fuerte, adecuado como primera opción para desarrolladores nacionales.
  • ChatGLM: el efecto de conversación en chino es destacado, adecuado para atención al cliente en nichos y escenarios de localización.
  • Deepseek: destaca en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
  • Gemma: un modelo ligero lanzado por Google, con una estructura clara, fácil de usar y experimentar rápidamente.
  • Falcon: Fue un referente de rendimiento, adecuado para investigaciones básicas o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
  • BLOOM: Soporte multilingüe fuerte, pero el rendimiento de inferencia es débil, adecuado para investigaciones de cobertura de idiomas.
  • GPT-2: modelo clásico temprano, solo adecuado para fines de enseñanza y verificación, no se recomienda su uso en despliegues reales.

Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos MoE de alto rendimiento o modelos multimodales, su estrategia no está obsoleta, sino que se basa en las restricciones reales de implementación en cadena (costo de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM) para hacer una configuración "prioridad de utilidad".

Model Factory como una herramienta de cadena sin código, todos los modelos tienen un mecanismo de prueba de contribución integrado, asegurando los derechos de los contribuyentes de datos y los desarrolladores de modelos, con las ventajas de un bajo umbral, capacidad de monetización y combinabilidad, en comparación con las herramientas tradicionales de desarrollo de modelos:

  • Para los desarrolladores: proporcionar un camino completo para la incubación, distribución e ingresos del modelo;
  • Para la plataforma: formar un ecosistema de circulación y combinación de activos modelo;
  • Para los usuarios: se pueden combinar modelos o agentes de la misma manera que se llama a la API.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino

LoRA (Adaptación de Bajo Rango) es un método eficiente de ajuste de parámetros, que aprende nuevas tareas al insertar «matrices de bajo rango» en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce drásticamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) generalmente tienen decenas de miles de millones o incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas legales, consultas médicas), es necesario realizar un ajuste fino (fine-tuning). La estrategia clave de LoRA es: «congelar los parámetros del modelo grande original y solo entrenar las nuevas matrices de parámetros insertadas.», su eficiencia de parámetros, entrenamiento rápido y despliegue flexible lo convierten en el método de ajuste fino más adecuado para el despliegue y la llamada combinada de modelos Web3.

OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es resolver los problemas comunes de alto costo, baja reutilización y desperdicio de recursos GPU en el despliegue de modelos de IA actuales, promoviendo la ejecución de "IA Pagable".

OpenLoRA arquitectura del sistema componentes centrales, basado en diseño modular, cubre el almacenamiento de modelos, ejecución de inferencias, enrutamiento de solicitudes y otros enlaces clave, logrando una capacidad de despliegue y llamada de múltiples modelos de manera eficiente y de bajo costo:

  • Módulo de almacenamiento de adaptadores LoRA ( Almacenamiento de adaptadores LoRA ): el adaptador LoRA afinado se aloja en OpenLedger, permitiendo la carga bajo demanda, evitando la precarga de todos los modelos en la memoria de video y ahorrando recursos.
  • Modelos de alojamiento y capa de fusión dinámica (Model Hosting & Adapter Merging Layer): Todos los modelos ajustados comparten un modelo base (base model), durante la inferencia, se fusionan dinámicamente los adaptadores LoRA, lo que soporta la inferencia conjunta de múltiples adaptadores (ensemble), mejorando el rendimiento.
  • Motor de Inferencia (Inference Engine): integra múltiples tecnologías de optimización CUDA, como Flash-Attention, Paged-Attention y optimizaciones SGMV.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 6
  • Republicar
  • Compartir
Comentar
0/400
MetaverseVagabondvip
· 07-10 17:14
¿Es o no es? Esto no es más que un proyecto L2 con piel de IA de OP.
Ver originalesResponder0
DeFiGraylingvip
· 07-10 17:05
Renovación de proyectos antiguos, ganando un montón.
Ver originalesResponder0
GasWaster69vip
· 07-10 17:05
Rug Pull倒计时.eth
Ver originalesResponder0
AirdropCollectorvip
· 07-10 16:57
La IA ya ha sufrido bastante por culpa de las GPU.
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)