A OpenLedger cria um ecossistema econômico de agentes inteligentes combináveis.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

I. Introdução | A transição do nível de modelo do Crypto AI

Dados, modelos e capacidade de computação são os três principais elementos da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (capacidade de computação), todos essenciais. Assim como o caminho de evolução da infraestrutura na indústria de IA tradicional, o campo da Crypto AI também passou por fases semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competir em capacidade de computação". No entanto, ao entrar em 2025, a atenção da indústria começou a se deslocar gradualmente para as camadas de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos básicos para uma construção de meio mais sustentável e com valor de aplicação.

Modelo Geral (LLM) vs Modelo Especializado (SLM)

Os modelos de linguagem tradicionais de grande escala (LLM) dependem fortemente de conjuntos de dados em larga escala e de arquiteturas distribuídas complexas, com escalas de parâmetros que variam entre 70B e 500B, e o custo de um único treinamento pode chegar a milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve de um modelo base reutilizável, geralmente é baseado em modelos de código aberto como LLaMA, Mistral, DeepSeek, combinando um pequeno número de dados profissionais de alta qualidade e técnicas como LoRA, para construir rapidamente modelos de especialistas com conhecimento em domínios específicos, reduzindo significativamente os custos de treinamento e as barreiras técnicas.

Vale a pena notar que o SLM não será integrado nos pesos do LLM, mas sim funcionando em colaboração com o LLM através de chamadas da arquitetura Agent, roteamento dinâmico do sistema de plugins, hot-swapping do módulo LoRA, RAG (Geração Aumentada por Recuperação), entre outros. Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente modular altamente flexível.

Crypto AI no valor e limites da camada de modelo

Os projetos de IA Crypto, na sua essência, são difíceis de melhorar diretamente as capacidades centrais dos modelos de linguagem de grande dimensão (LLM), e a razão principal para isso é

  • Barreiras técnicas muito altas: a escala de dados, os recursos de computação e as capacidades de engenharia necessários para treinar um Modelo de Fundação são extremamente grandes, atualmente apenas gigantes da tecnologia como os EUA e a China possuem essa capacidade.
  • Limitações do ecossistema de código aberto: Embora modelos básicos como LLaMA e Mixtral tenham sido tornados abertos, a verdadeira chave para impulsionar a quebra dos modelos ainda está concentrada em instituições de pesquisa e sistemas de engenharia de código fechado, com espaço limitado para projetos on-chain na camada de modelos centrais.

No entanto, sobre modelos básicos de código aberto, os projetos de Crypto AI ainda podem estender seu valor através do ajuste fino de Modelos de Linguagem Especializados (SLM) e combinando a verificabilidade e os mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções principais:

  • Camada de validação confiável: Através do registo em cadeia do caminho de geração do modelo, da contribuição de dados e da utilização, aumenta a rastreabilidade e a resistência à manipulação das saídas de IA.
  • Mecanismo de incentivo: Com a ajuda do Token nativo, para incentivar o upload de dados, a chamada de modelos, a execução de agentes (Agent) e outras ações, construindo um ciclo positivo de treinamento e serviço de modelos.

Classificação de tipos de modelos de IA e análise da aplicabilidade da blockchain

Como pode ser visto, o ponto de viabilidade dos projetos de Crypto AI do tipo modelo concentra-se principalmente na afinação leve de SLM pequenos, na integração e verificação de dados em cadeia da arquitetura RAG, e na implementação local e incentivo de modelos de Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, a Crypto pode oferecer um valor único para esses cenários de modelos de recursos baixos a médios, formando um valor diferenciado da "camada de interface" da IA.

A cadeia de blockchain AI baseada em dados e modelos pode registrar claramente e de forma imutável a origem da contribuição de cada dado e modelo, melhorando significativamente a credibilidade dos dados e a rastreabilidade do treinamento do modelo. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando dados ou modelos são chamados, transformando o comportamento da IA em valor tokenizado, mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo através de votação com tokens, participar da formulação e iteração de regras, aperfeiçoando a estrutura de governança descentralizada.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Visão Geral do Projeto | A Visão da Rede AI da OpenLedger

OpenLedger é um dos poucos projetos de blockchain de IA no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Ele foi o primeiro a apresentar o conceito de "Payable AI", visando construir um ambiente de execução de IA justo, transparente e combinável, incentivando contribuintes de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborarem na mesma plataforma e a obterem rendimentos on-chain de acordo com suas contribuições reais.

OpenLedger oferece um ciclo fechado completo que vai desde "fornecimento de dados" até "implantação de modelos" e "chamada de distribuição de lucros", com os seguintes módulos principais:

  • Fábrica de Modelos: sem necessidade de programação, é possível usar o LoRA para afinar, treinar e implantar modelos personalizados com base em LLM de código aberto;
  • OpenLoRA: suporta a coexistência de milhares de modelos, carregamento dinâmico conforme a necessidade, reduzindo significativamente os custos de implementação;
  • PoA (Prova de Atribuição): através de chamadas na cadeia para registar a medição de contribuição e a distribuição de recompensas;
  • Datanets: Redes de dados estruturados voltadas para cenários verticais, construídas e validadas por colaboração comunitária;
  • Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos em cadeia, combinável, chamável e pagável.

Através dos módulos acima, a OpenLedger construiu uma "infraestrutura econômica de agentes inteligentes" baseada em dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.

E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base para construir um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.

  • Construído com OP Stack: Baseado na stack tecnológica Optimism, suporta alta capacidade de processamento e execução a baixo custo;
  • Liquidar na rede principal do Ethereum: Garantir a segurança das transações e a integridade dos ativos;
  • Compatível com EVM: permite que os desenvolvedores implantem e expandam rapidamente com base em Solidity;
  • EigenDA oferece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.

Em comparação com cadeias de IA genéricas como a NEAR, que são mais focadas em infraestrutura e defendem a soberania dos dados com a arquitetura "AI Agents on BOS", a OpenLedger se concentra mais na construção de cadeias de IA dedicadas à motivação de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos uma realidade com um ciclo de valor rastreável, combinável e sustentável na cadeia. É a infraestrutura de motivação de modelos no mundo Web3, combinando hospedagem de modelos, cobrança de uso e interfaces combináveis na cadeia, promovendo o caminho para a realização de "modelos como ativos".

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Três, Componentes principais e arquitetura técnica do OpenLedger

3.1 Fábrica de Modelos, fábrica de modelos sem código

ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário dos frameworks de ajuste fino tradicionais, o ModelFactory oferece uma interface gráfica puramente operativa, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar o modelo com base em conjuntos de dados que foram autorizados e revisados na OpenLedger. Isso realiza um fluxo de trabalho integrado de autorização de dados, treinamento e implantação de modelos, cujo processo central inclui:

  • Controle de acesso a dados: O usuário envia um pedido de dados, o provedor revisa e aprova, os dados são automaticamente integrados à interface de treinamento do modelo.
  • Seleção e configuração de modelos: Suporta LLMs populares (como LLaMA, Mistral), configurando hiperparâmetros através da GUI.
  • Ajuste leve: motor LoRA / QLoRA embutido, exibição em tempo real do progresso de treinamento.
  • Avaliação e implementação de modelos: Ferramentas de avaliação integradas, suportando exportação para implementação ou compartilhamento de chamadas na ecologia.
  • Interface de verificação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
  • Geração de RAG com rastreabilidade: Respostas com citações de origem, aumentando a confiança e a auditabilidade.

A arquitetura do sistema Model Factory inclui seis grandes módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação de implantação e rastreamento RAG, criando uma plataforma de serviços de modelo integrada, segura, controlável, interativa em tempo real e com monetização sustentável.

O resumo das capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory é o seguinte:

  • Série LLaMA: é um dos modelos básicos de código aberto mais populares, com a ecologia mais ampla, comunidade ativa e forte desempenho genérico.
  • Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequado para cenários de implantação flexíveis e com recursos limitados.
  • Qwen: Produzido pela Alibaba, apresenta um desempenho excelente em tarefas em chinês, com habilidades abrangentes, adequado como a primeira escolha para desenvolvedores nacionais.
  • ChatGLM: A eficácia em conversação em chinês é notável, adequado para atendimento ao cliente em nichos e cenários de localização.
  • Deepseek: apresenta um desempenho superior em geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
  • Gemma: Modelo leve lançado pelo Google, com estrutura clara, fácil de começar a usar e experimentar.
  • Falcon: Foi um padrão de desempenho, adequado para pesquisa básica ou testes comparativos, mas a atividade da comunidade diminuiu.
  • BLOOM: Suporte a múltiplas línguas é forte, mas o desempenho de inferência é fraco, adequado para pesquisas de cobertura linguística.
  • GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e validação, não recomendado para uso em produção.

Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos de alto desempenho MoE ou modelos multimodais, sua estratégia não está ultrapassada, mas sim baseada nas restrições reais da implementação on-chain (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM) que resultaram em uma configuração "prática em primeiro lugar".

Model Factory como uma ferramenta sem código, todos os modelos incorporam um mecanismo de prova de contribuição, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos, possuindo vantagens como baixo custo de entrada, capacidade de monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:

  • Para desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita de modelos;
  • Para a plataforma: formar a circulação de ativos de modelo e ecossistema de combinação;
  • Para os utilizadores: é possível combinar modelos ou Agentes como se estivesse a chamar uma API.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, a assetização em cadeia do modelo de ajuste fino

LoRA (Low-Rank Adaptation) é um método de ajuste fino de parâmetros eficiente, que aprende novas tarefas ao inserir "matrizes de baixa classificação" em grandes modelos pré-treinados, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais (como LLaMA, GPT-3) geralmente possuem dezenas de bilhões ou até centenas de bilhões de parâmetros. Para utilizá-los em tarefas específicas (como perguntas e respostas legais, consultas médicas), é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do modelo grande original e treinar apenas as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, tornando-se o método de ajuste fino mais adequado atualmente para a implantação e chamada combinada de modelos Web3.

OpenLoRA é uma estrutura leve de inferência projetada pela OpenLedger, especificamente para o desenvolvimento de múltiplos modelos e compartilhamento de recursos. Seu objetivo principal é resolver problemas comuns na implementação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos GPU, promovendo a execução de "IA Pagável" (Payable AI).

OpenLoRA arquitetura do sistema é um componente central, baseado em design modular, cobrindo armazenamento de modelos, execução de inferência, roteamento de solicitações e outras etapas-chave, realizando uma capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo:

  • Módulo de Armazenamento LoRA Adapter (LoRA Adapters Storage): O adaptador LoRA ajustado é hospedado no OpenLedger, permitindo o carregamento sob demanda, evitando carregar todos os modelos na memória gráfica, economizando recursos.
  • Camada de Alojamento de Modelos e Fusão Dinâmica (Model Hosting & Adapter Merging Layer): Todos os modelos ajustados partilham o modelo base (base model), durante a inferência, o adaptador LoRA é fundido dinamicamente, suportando a inferência conjunta de múltiplos adaptadores (ensemble), melhorando o desempenho.
  • Motor de Inferência (Inference Engine): integra várias tecnologias de otimização CUDA, como Flash-Attention, Paged-Attention e SGMV otimizado.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 4
  • Partilhar
Comentar
0/400
MetaverseVagabondvip
· 07-10 17:14
Não é isso um projeto OP L2 disfarçado de IA?
Ver originalResponder0
DeFiGraylingvip
· 07-10 17:05
Reformulação de um projeto antigo, ganhei uma fortuna.
Ver originalResponder0
GasWaster69vip
· 07-10 17:05
Puxar o tapete倒计时.eth
Ver originalResponder0
AirdropCollectorvip
· 07-10 16:57
a inteligência artificial já deve ter sofrido o suficiente com as GPUs
Ver originalResponder0
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)