OpenLedger создает модель комбинируемой экономики интеллектуальных агентов

Подробный исследовательский отчет по OpenLedger: Построение управляемой данными и компонуемой агентской экономикой на основе OP Stack+EigenDA

Один. Введение | Переход модели Crypto AI

Данные, модели и вычислительная мощность являются тремя основными элементами инфраструктуры ИИ, аналогично топливу (данные), двигателю (модель) и энергии (вычислительная мощность), без которых нельзя обойтись. Аналогично пути эволюции инфраструктуры традиционной ИИ-индустрии, область Crypto AI также прошла через аналогичные этапы. В начале 2024 года рынок был в значительной степени под контролем децентрализованных GPU-проектов, которые в основном подчеркивали логику грубого роста «конкуренции вычислительной мощности». Однако с наступлением 2025 года внимание отрасли постепенно переместилось на уровень моделей и данных, что ознаменовало переход Crypto AI от конкуренции за базовые ресурсы к более устойчивому и потенциально ценному среднему уровню построения.

Общая модель (LLM) vs Специализированная модель (SLM)

Традиционные крупные языковые модели (LLM) сильно зависят от больших наборов данных и сложной распределенной архитектуры, размер параметров которых колеблется от 70B до 500B, а стоимость одной тренировки часто достигает нескольких миллионов долларов. В то время как SLM (Специализированная языковая модель) представляет собой легковесный подход к тонкой настройке, использующий повторно применимые базовые модели, обычно основанные на таких открытых моделях, как LLaMA, Mistral, DeepSeek и др., сочетая небольшое количество высококачественных специализированных данных и технологии LoRA, что позволяет быстро создавать экспертные модели с конкретными знаниями в определенных областях и значительно снижать стоимость тренировки и технические барьеры.

Стоит отметить, что SLM не будет интегрирован в веса LLM, а будет взаимодействовать с LLM через архитектуру Agent, динамическую маршрутизацию с помощью системы плагинов, горячую замену модулей LoRA и RAG (усиление генерации с помощью поиска). Эта архитектура сохраняет широкую охватность LLM и одновременно улучшает профессиональные показатели за счет модуля тонкой настройки, формируя высоко гибкую комбинированную интеллектуальную систему.

Crypto AI в модели ценности и границы

Крипто AI проекты по своей сути трудно напрямую улучшить ключевые способности больших языковых моделей (LLM). Основная причина заключается в том, что

  • Технический барьер слишком высок: объем данных, вычислительные ресурсы и инженерные способности, необходимые для обучения Foundation Model, чрезвычайно велики; в настоящее время только такие технологические гиганты, как США и Китай, обладают соответствующими возможностями.
  • Ограничения открытой экосистемы: хотя основные модели, такие как LLaMA и Mixtral, уже открыты, ключ к прорыву модели все еще сосредоточен в научных учреждениях и закрытых инженерных системах, а пространство для участия цепочных проектов на уровне основных моделей ограничено.

Однако, на основе открытых моделей, проекты Crypto AI все еще могут расширять ценность через тонкую настройку специализированных языковых моделей (SLM) и сочетание с проверяемостью и механизмами стимулов Web3. В качестве "периферийного интерфейсного слоя" AI цепочки поставок это проявляется в двух основных направлениях:

  • Доверенный уровень верификации: через запись на цепочке модели генерирования пути, вклад данных и использование, усиливается прослеживаемость и защита от подделки AI-выходов.
  • Механизм стимулов: с помощью родного токена для стимулирования загрузки данных, вызова моделей, выполнения агентов (Agent) и других действий, создание положительного цикла обучения моделей и обслуживания.

Классификация типов AI моделей и анализ их применимости к блокчейну

Таким образом, можно видеть, что жизнеспособные направления моделей типа Crypto AI в основном сосредоточены на легкой настройке небольших SLM, подключении и верификации данных на блокчейне в архитектуре RAG, а также на локальном развертывании и стимулировании Edge моделей. В сочетании с проверяемостью блокчейна и токеномикой, Crypto может предложить уникальную ценность для этих сценариев моделей с низкими и средними ресурсами, формируя дифференцированную ценность «интерфейсного уровня» AI.

Блокчейн AI цепь, основанная на данных и моделях, может обеспечить четкую, неизменяемую запись источников вклада каждой записи данных и модели, значительно повышая доверие к данным и прослеживаемость обучения моделей. В то же время, с помощью механизма смарт-контрактов автоматически инициируется распределение вознаграждений, когда данные или модели используются, превращая действия AI в измеримую, торговую токенизированную ценность, создавая устойчивую систему стимулов. Кроме того, пользователи сообщества могут также оценивать производительность модели с помощью голосования токенами, участвовать в разработке и итерации правил, улучшая архитектуру децентрализованного управления.

! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)

Два, Обзор проекта | Видение AI цепи OpenLedger

OpenLedger является одним из немногих блокчейн-AI проектов на текущем рынке, сосредоточенных на механизмах стимуляции данных и моделей. Он первым предложил концепцию «Payable AI», нацеленную на создание справедливой, прозрачной и компонуемой среды для работы AI, стимулируя участников, предоставляющих данные, разработчиков моделей и создателей AI-приложений к сотрудничеству на одной платформе и получению дохода на блокчейне в зависимости от их реального вклада.

OpenLedger предоставляет полный замкнутый цикл от «предоставления данных» до «развертывания модели» и «вызова распределения прибыли», ключевые модули которого включают:

  • Модельный завод:не требуется программирования, можно использовать LoRA для тонкой настройки, обучения и развертывания пользовательских моделей на основе открытых LLM;
  • OpenLoRA: поддержка совместного использования тысяч моделей, динамическая загрузка по мере необходимости, значительное снижение затрат на развертывание;
  • PoA (Доказательство атрибуции): измерение вклада и распределение вознаграждений через записи вызовов в цепочке;
  • Datanets: структурированная сеть данных, ориентированная на вертикальные сценарии, построенная и проверенная сообществом;
  • Платформа предложений моделей (Model Proposal Platform): комбинируемый, вызываемый и оплачиваемый рынок моделей на блокчейне.

С помощью вышеуказанных модулей OpenLedger создала «инфраструктуру экономики агентов», основанную на данных и комбинируемых моделях, способствуя онлайнизации цепочки создания ценности AI.

А в применении технологии блокчейн OpenLedger использует OP Stack + EigenDA в качестве основы для создания высокопроизводительной, низкозатратной и верифицируемой среды выполнения данных и контрактов для моделей ИИ.

  • Построено на базе OP Stack: основано на технологии Optimism, поддерживающей высокую пропускную способность и низкую стоимость выполнения;
  • Расчет в основной сети Ethereum: Обеспечение безопасности транзакций и целостности активов;
  • Совместимость с EVM: удобно для разработчиков быстро разрабатывать и расширять на основе Solidity;
  • EigenDA предоставляет поддержку доступности данных: значительно снижает затраты на хранение, обеспечивает проверяемость данных.

По сравнению с NEAR, который больше ориентирован на уровень инфраструктуры и нацелен на суверенитет данных, а также на архитектуру «AI Agents on BOS», OpenLedger более сосредоточен на создании специализированной цепи для ИИ, направленной на стимуляцию данных и моделей, стремясь обеспечить возможность отслеживания, комбинирования и устойчивой ценности для разработки и использования моделей в цепи. Это инфраструктура стимуляции моделей в мире Web3, которая сочетает в себе хостинг моделей, расчет за использование и интерфейсы для комбинирования на цепи, способствуя реализации концепции «модель как актив».

! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)

Три, основные компоненты и технологическая архитектура OpenLedger

3.1 Модель Фабрика,无需代码模型工厂

ModelFactory является крупной платформой для дообучения языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных фреймворков дообучения, ModelFactory предлагает чисто графический интерфейс, без необходимости использования командной строки или интеграции API. Пользователи могут дообучать модели на основе датасетов, прошедших авторизацию и проверку на OpenLedger. Реализован интегрированный рабочий процесс авторизации данных, обучения моделей и развертывания, в который входят основные этапы:

  • Контроль доступа к данным: пользователь подает запрос на данные, провайдер проверяет и одобряет, данные автоматически подключаются к интерфейсу обучения модели.
  • Выбор и конфигурация модели: поддержка основных LLM (таких как LLaMA, Mistral), настройка гиперпараметров через GUI.
  • Легкая настройка: Встроенный движок LoRA / QLoRA, отображающий прогресс обучения в реальном времени.
  • Оценка и развертывание модели: встроенные инструменты оценки, поддерживающие экспорт развертывания или совместное использование в экосистеме.
  • Интерфейс взаимодействия для проверки: предоставляет чатовый интерфейс, удобный для прямого тестирования способности модели к вопросам и ответам.
  • Генерация RAG следов: Ответ включает ссылки на источники, что повышает доверие и возможность аудита.

Архитектура системы Model Factory включает шесть основных модулей, охватывающих аутентификацию личности, права доступа к данным, микронастройку моделей, оценку и развертывание, а также трассировку RAG, создавая безопасную, контролируемую, интерактивную и устойчивую модельную сервисную платформу.

МодельFactory в настоящее время поддерживает следующие возможности крупных языковых моделей:

  • Серия LLaMA: самая широкая экосистема, активное сообщество, высокая общая производительность, является одной из самых популярных открытых базовых моделей на сегодняшний день.
  • Mistral: Архитектура эффективна, производительность вывода отличная, подходит для гибкого развертывания в условиях ограниченных ресурсов.
  • Qwen: продукт от Alibaba, демонстрирует отличные результаты в китайских задачах, обладает высокой общей способностью, подходит в качестве первого выбора для отечественных разработчиков.
  • ChatGLM: выдающийся эффект китайского диалога, подходит для специализированного обслуживания клиентов и локализованных сценариев.
  • Deepseek:в кодогенерации и математическом выводе показывает превосходство, подходит для инструментов вспомогательной разработки.
  • Gemma: легкая модель, выпущенная Google, с четкой структурой, легко освоить и экспериментировать.
  • Falcon:Ранее был эталоном производительности, подходит для базовых исследований или сравнительных тестов, но активность сообщества снизилась.
  • BLOOM: Поддержка нескольких языков сильная, но производительность вывода слабая, подходит для исследований по охвату языков.
  • GPT-2: Классическая ранняя модель, подходит только для учебных и верификационных целей, не рекомендуется для фактического развертывания.

Хотя комбинация моделей OpenLedger не включает в себя последние высокопроизводительные модели MoE или мультимодальные модели, их стратегия не устарела, а представляет собой конфигурацию с приоритетом на практичность, основанную на реальных ограничениях развертывания в цепочке (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).

Model Factory как инструмент без кода, все модели встроены в механизм доказательства вклада, который обеспечивает права участников данных и разработчиков моделей, обладает низким порогом, возможностью монетизации и компоновки, по сравнению с традиционными инструментами разработки моделей:

  • Для разработчиков: предоставление полного пути к инкубации моделей, распространению и доходам;
  • Для платформы: формирование модели циркуляции активов и комбинированной экосистемы;
  • Для пользователей: можно комбинировать модели или агента так же, как при вызове API.

! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)

3.2 OpenLoRA,资产化 на блокчейне модели тонкой настройки

LoRA (Low-Rank Adaptation) — это эффективный метод тонкой настройки параметров, который позволяет обучать новые задачи, вставляя «низкоранговую матрицу» в предобученную большую модель, не изменяя параметры оригинальной модели, что значительно снижает затраты на обучение и требования к хранению. Традиционные большие языковые модели (такие как LLaMA, GPT-3) обычно имеют десятки миллиардов, а иногда и сотни миллиардов параметров. Для их использования в конкретных задачах (например, юридические вопросы, медицинские консультации) необходимо проводить тонкую настройку (fine-tuning). Ключевая стратегия LoRA заключается в следующем: «заморозить параметры оригинальной большой модели и обучать только вставленные новые параметрические матрицы». Эта стратегия эффективна по количеству параметров, быстро обучается и гибко развертывается, что делает ее наиболее подходящим современным методом тонкой настройки для развертывания моделей Web3 и их комбинированного вызова.

OpenLoRA — это легковесный фреймворк для вывода, разработанный OpenLedger, специально предназначенный для развертывания нескольких моделей и совместного использования ресурсов. Его основной целью является решение распространенных проблем развертывания AI-моделей, таких как высокие затраты, низкая повторная использованность и расточительство ресурсов GPU, а также продвижение реализации «платежеспособного ИИ» (Payable AI).

Ядро системы OpenLoRA состоит из основных компонентов, основанных на модульном дизайне, охватывающих ключевые этапы, такие как хранение моделей, выполнение вывода, маршрутизация запросов и т.д., что обеспечивает эффективную и недорогую возможность развертывания и вызова нескольких моделей:

  • LoRA адаптер хранилище (LoRA Adapters Storage): дообученный LoRA адаптер размещается на OpenLedger, что позволяет загружать его по мере необходимости, избегая предзагрузки всех моделей в видеопамять, экономя ресурсы.
  • Модуль хостинга моделей и слой динамического слияния (Model Hosting & Adapter Merging Layer): Все донастроенные модели используют базовую большую модель (base model), во время вывода LoRA адаптер динамически сливается, поддерживается совместный вывод нескольких адаптеров (ensemble), что повышает производительность.
  • Инференс-движок (Inference Engine): интеграция множества технологий CUDA-оптимизации, таких как Flash-Attention, Paged-Attention, SGMV-оптимизация.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 4
  • Поделиться
комментарий
0/400
MetaverseVagabondvip
· 07-10 17:14
Неужели это не просто проект OP L2, замаскированный под ИИ?
Посмотреть ОригиналОтветить0
DeFiGraylingvip
· 07-10 17:05
Старый проект обновлен, целиком заработал.
Посмотреть ОригиналОтветить0
GasWaster69vip
· 07-10 17:05
Мошенничество倒计时.eth
Посмотреть ОригиналОтветить0
AirdropCollectorvip
· 07-10 16:57
AI, похоже, уже наелся убытков от GPU.
Посмотреть ОригиналОтветить0
  • Закрепить