Подробный исследовательский отчет по OpenLedger: Построение управляемой данными и компонуемой агентской экономикой на основе OP Stack+EigenDA
Один. Введение | Переход модели Crypto AI
Данные, модели и вычислительная мощность являются тремя основными элементами инфраструктуры ИИ, аналогично топливу (данные), двигателю (модель) и энергии (вычислительная мощность), без которых нельзя обойтись. Аналогично пути эволюции инфраструктуры традиционной ИИ-индустрии, область Crypto AI также прошла через аналогичные этапы. В начале 2024 года рынок был в значительной степени под контролем децентрализованных GPU-проектов, которые в основном подчеркивали логику грубого роста «конкуренции вычислительной мощности». Однако с наступлением 2025 года внимание отрасли постепенно переместилось на уровень моделей и данных, что ознаменовало переход Crypto AI от конкуренции за базовые ресурсы к более устойчивому и потенциально ценному среднему уровню построения.
Общая модель (LLM) vs Специализированная модель (SLM)
Традиционные крупные языковые модели (LLM) сильно зависят от больших наборов данных и сложной распределенной архитектуры, размер параметров которых колеблется от 70B до 500B, а стоимость одной тренировки часто достигает нескольких миллионов долларов. В то время как SLM (Специализированная языковая модель) представляет собой легковесный подход к тонкой настройке, использующий повторно применимые базовые модели, обычно основанные на таких открытых моделях, как LLaMA, Mistral, DeepSeek и др., сочетая небольшое количество высококачественных специализированных данных и технологии LoRA, что позволяет быстро создавать экспертные модели с конкретными знаниями в определенных областях и значительно снижать стоимость тренировки и технические барьеры.
Стоит отметить, что SLM не будет интегрирован в веса LLM, а будет взаимодействовать с LLM через архитектуру Agent, динамическую маршрутизацию с помощью системы плагинов, горячую замену модулей LoRA и RAG (усиление генерации с помощью поиска). Эта архитектура сохраняет широкую охватность LLM и одновременно улучшает профессиональные показатели за счет модуля тонкой настройки, формируя высоко гибкую комбинированную интеллектуальную систему.
Crypto AI в модели ценности и границы
Крипто AI проекты по своей сути трудно напрямую улучшить ключевые способности больших языковых моделей (LLM). Основная причина заключается в том, что
Технический барьер слишком высок: объем данных, вычислительные ресурсы и инженерные способности, необходимые для обучения Foundation Model, чрезвычайно велики; в настоящее время только такие технологические гиганты, как США и Китай, обладают соответствующими возможностями.
Ограничения открытой экосистемы: хотя основные модели, такие как LLaMA и Mixtral, уже открыты, ключ к прорыву модели все еще сосредоточен в научных учреждениях и закрытых инженерных системах, а пространство для участия цепочных проектов на уровне основных моделей ограничено.
Однако, на основе открытых моделей, проекты Crypto AI все еще могут расширять ценность через тонкую настройку специализированных языковых моделей (SLM) и сочетание с проверяемостью и механизмами стимулов Web3. В качестве "периферийного интерфейсного слоя" AI цепочки поставок это проявляется в двух основных направлениях:
Доверенный уровень верификации: через запись на цепочке модели генерирования пути, вклад данных и использование, усиливается прослеживаемость и защита от подделки AI-выходов.
Механизм стимулов: с помощью родного токена для стимулирования загрузки данных, вызова моделей, выполнения агентов (Agent) и других действий, создание положительного цикла обучения моделей и обслуживания.
Классификация типов AI моделей и анализ их применимости к блокчейну
Таким образом, можно видеть, что жизнеспособные направления моделей типа Crypto AI в основном сосредоточены на легкой настройке небольших SLM, подключении и верификации данных на блокчейне в архитектуре RAG, а также на локальном развертывании и стимулировании Edge моделей. В сочетании с проверяемостью блокчейна и токеномикой, Crypto может предложить уникальную ценность для этих сценариев моделей с низкими и средними ресурсами, формируя дифференцированную ценность «интерфейсного уровня» AI.
Блокчейн AI цепь, основанная на данных и моделях, может обеспечить четкую, неизменяемую запись источников вклада каждой записи данных и модели, значительно повышая доверие к данным и прослеживаемость обучения моделей. В то же время, с помощью механизма смарт-контрактов автоматически инициируется распределение вознаграждений, когда данные или модели используются, превращая действия AI в измеримую, торговую токенизированную ценность, создавая устойчивую систему стимулов. Кроме того, пользователи сообщества могут также оценивать производительность модели с помощью голосования токенами, участвовать в разработке и итерации правил, улучшая архитектуру децентрализованного управления.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, Обзор проекта | Видение AI цепи OpenLedger
OpenLedger является одним из немногих блокчейн-AI проектов на текущем рынке, сосредоточенных на механизмах стимуляции данных и моделей. Он первым предложил концепцию «Payable AI», нацеленную на создание справедливой, прозрачной и компонуемой среды для работы AI, стимулируя участников, предоставляющих данные, разработчиков моделей и создателей AI-приложений к сотрудничеству на одной платформе и получению дохода на блокчейне в зависимости от их реального вклада.
OpenLedger предоставляет полный замкнутый цикл от «предоставления данных» до «развертывания модели» и «вызова распределения прибыли», ключевые модули которого включают:
Модельный завод:не требуется программирования, можно использовать LoRA для тонкой настройки, обучения и развертывания пользовательских моделей на основе открытых LLM;
OpenLoRA: поддержка совместного использования тысяч моделей, динамическая загрузка по мере необходимости, значительное снижение затрат на развертывание;
PoA (Доказательство атрибуции): измерение вклада и распределение вознаграждений через записи вызовов в цепочке;
Datanets: структурированная сеть данных, ориентированная на вертикальные сценарии, построенная и проверенная сообществом;
Платформа предложений моделей (Model Proposal Platform): комбинируемый, вызываемый и оплачиваемый рынок моделей на блокчейне.
С помощью вышеуказанных модулей OpenLedger создала «инфраструктуру экономики агентов», основанную на данных и комбинируемых моделях, способствуя онлайнизации цепочки создания ценности AI.
А в применении технологии блокчейн OpenLedger использует OP Stack + EigenDA в качестве основы для создания высокопроизводительной, низкозатратной и верифицируемой среды выполнения данных и контрактов для моделей ИИ.
Построено на базе OP Stack: основано на технологии Optimism, поддерживающей высокую пропускную способность и низкую стоимость выполнения;
Расчет в основной сети Ethereum: Обеспечение безопасности транзакций и целостности активов;
Совместимость с EVM: удобно для разработчиков быстро разрабатывать и расширять на основе Solidity;
EigenDA предоставляет поддержку доступности данных: значительно снижает затраты на хранение, обеспечивает проверяемость данных.
По сравнению с NEAR, который больше ориентирован на уровень инфраструктуры и нацелен на суверенитет данных, а также на архитектуру «AI Agents on BOS», OpenLedger более сосредоточен на создании специализированной цепи для ИИ, направленной на стимуляцию данных и моделей, стремясь обеспечить возможность отслеживания, комбинирования и устойчивой ценности для разработки и использования моделей в цепи. Это инфраструктура стимуляции моделей в мире Web3, которая сочетает в себе хостинг моделей, расчет за использование и интерфейсы для комбинирования на цепи, способствуя реализации концепции «модель как актив».
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)
Три, основные компоненты и технологическая архитектура OpenLedger
3.1 Модель Фабрика,无需代码模型工厂
ModelFactory является крупной платформой для дообучения языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных фреймворков дообучения, ModelFactory предлагает чисто графический интерфейс, без необходимости использования командной строки или интеграции API. Пользователи могут дообучать модели на основе датасетов, прошедших авторизацию и проверку на OpenLedger. Реализован интегрированный рабочий процесс авторизации данных, обучения моделей и развертывания, в который входят основные этапы:
Контроль доступа к данным: пользователь подает запрос на данные, провайдер проверяет и одобряет, данные автоматически подключаются к интерфейсу обучения модели.
Выбор и конфигурация модели: поддержка основных LLM (таких как LLaMA, Mistral), настройка гиперпараметров через GUI.
Легкая настройка: Встроенный движок LoRA / QLoRA, отображающий прогресс обучения в реальном времени.
Оценка и развертывание модели: встроенные инструменты оценки, поддерживающие экспорт развертывания или совместное использование в экосистеме.
Интерфейс взаимодействия для проверки: предоставляет чатовый интерфейс, удобный для прямого тестирования способности модели к вопросам и ответам.
Генерация RAG следов: Ответ включает ссылки на источники, что повышает доверие и возможность аудита.
Архитектура системы Model Factory включает шесть основных модулей, охватывающих аутентификацию личности, права доступа к данным, микронастройку моделей, оценку и развертывание, а также трассировку RAG, создавая безопасную, контролируемую, интерактивную и устойчивую модельную сервисную платформу.
МодельFactory в настоящее время поддерживает следующие возможности крупных языковых моделей:
Серия LLaMA: самая широкая экосистема, активное сообщество, высокая общая производительность, является одной из самых популярных открытых базовых моделей на сегодняшний день.
Mistral: Архитектура эффективна, производительность вывода отличная, подходит для гибкого развертывания в условиях ограниченных ресурсов.
Qwen: продукт от Alibaba, демонстрирует отличные результаты в китайских задачах, обладает высокой общей способностью, подходит в качестве первого выбора для отечественных разработчиков.
ChatGLM: выдающийся эффект китайского диалога, подходит для специализированного обслуживания клиентов и локализованных сценариев.
Deepseek:в кодогенерации и математическом выводе показывает превосходство, подходит для инструментов вспомогательной разработки.
Gemma: легкая модель, выпущенная Google, с четкой структурой, легко освоить и экспериментировать.
Falcon:Ранее был эталоном производительности, подходит для базовых исследований или сравнительных тестов, но активность сообщества снизилась.
BLOOM: Поддержка нескольких языков сильная, но производительность вывода слабая, подходит для исследований по охвату языков.
GPT-2: Классическая ранняя модель, подходит только для учебных и верификационных целей, не рекомендуется для фактического развертывания.
Хотя комбинация моделей OpenLedger не включает в себя последние высокопроизводительные модели MoE или мультимодальные модели, их стратегия не устарела, а представляет собой конфигурацию с приоритетом на практичность, основанную на реальных ограничениях развертывания в цепочке (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).
Model Factory как инструмент без кода, все модели встроены в механизм доказательства вклада, который обеспечивает права участников данных и разработчиков моделей, обладает низким порогом, возможностью монетизации и компоновки, по сравнению с традиционными инструментами разработки моделей:
Для разработчиков: предоставление полного пути к инкубации моделей, распространению и доходам;
Для платформы: формирование модели циркуляции активов и комбинированной экосистемы;
Для пользователей: можно комбинировать модели или агента так же, как при вызове API.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)
3.2 OpenLoRA,资产化 на блокчейне модели тонкой настройки
LoRA (Low-Rank Adaptation) — это эффективный метод тонкой настройки параметров, который позволяет обучать новые задачи, вставляя «низкоранговую матрицу» в предобученную большую модель, не изменяя параметры оригинальной модели, что значительно снижает затраты на обучение и требования к хранению. Традиционные большие языковые модели (такие как LLaMA, GPT-3) обычно имеют десятки миллиардов, а иногда и сотни миллиардов параметров. Для их использования в конкретных задачах (например, юридические вопросы, медицинские консультации) необходимо проводить тонкую настройку (fine-tuning). Ключевая стратегия LoRA заключается в следующем: «заморозить параметры оригинальной большой модели и обучать только вставленные новые параметрические матрицы». Эта стратегия эффективна по количеству параметров, быстро обучается и гибко развертывается, что делает ее наиболее подходящим современным методом тонкой настройки для развертывания моделей Web3 и их комбинированного вызова.
OpenLoRA — это легковесный фреймворк для вывода, разработанный OpenLedger, специально предназначенный для развертывания нескольких моделей и совместного использования ресурсов. Его основной целью является решение распространенных проблем развертывания AI-моделей, таких как высокие затраты, низкая повторная использованность и расточительство ресурсов GPU, а также продвижение реализации «платежеспособного ИИ» (Payable AI).
Ядро системы OpenLoRA состоит из основных компонентов, основанных на модульном дизайне, охватывающих ключевые этапы, такие как хранение моделей, выполнение вывода, маршрутизация запросов и т.д., что обеспечивает эффективную и недорогую возможность развертывания и вызова нескольких моделей:
LoRA адаптер хранилище (LoRA Adapters Storage): дообученный LoRA адаптер размещается на OpenLedger, что позволяет загружать его по мере необходимости, избегая предзагрузки всех моделей в видеопамять, экономя ресурсы.
Модуль хостинга моделей и слой динамического слияния (Model Hosting & Adapter Merging Layer): Все донастроенные модели используют базовую большую модель (base model), во время вывода LoRA адаптер динамически сливается, поддерживается совместный вывод нескольких адаптеров (ensemble), что повышает производительность.
Инференс-движок (Inference Engine): интеграция множества технологий CUDA-оптимизации, таких как Flash-Attention, Paged-Attention, SGMV-оптимизация.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
19 Лайков
Награда
19
4
Поделиться
комментарий
0/400
MetaverseVagabond
· 07-10 17:14
Неужели это не просто проект OP L2, замаскированный под ИИ?
OpenLedger создает модель комбинируемой экономики интеллектуальных агентов
Подробный исследовательский отчет по OpenLedger: Построение управляемой данными и компонуемой агентской экономикой на основе OP Stack+EigenDA
Один. Введение | Переход модели Crypto AI
Данные, модели и вычислительная мощность являются тремя основными элементами инфраструктуры ИИ, аналогично топливу (данные), двигателю (модель) и энергии (вычислительная мощность), без которых нельзя обойтись. Аналогично пути эволюции инфраструктуры традиционной ИИ-индустрии, область Crypto AI также прошла через аналогичные этапы. В начале 2024 года рынок был в значительной степени под контролем децентрализованных GPU-проектов, которые в основном подчеркивали логику грубого роста «конкуренции вычислительной мощности». Однако с наступлением 2025 года внимание отрасли постепенно переместилось на уровень моделей и данных, что ознаменовало переход Crypto AI от конкуренции за базовые ресурсы к более устойчивому и потенциально ценному среднему уровню построения.
Общая модель (LLM) vs Специализированная модель (SLM)
Традиционные крупные языковые модели (LLM) сильно зависят от больших наборов данных и сложной распределенной архитектуры, размер параметров которых колеблется от 70B до 500B, а стоимость одной тренировки часто достигает нескольких миллионов долларов. В то время как SLM (Специализированная языковая модель) представляет собой легковесный подход к тонкой настройке, использующий повторно применимые базовые модели, обычно основанные на таких открытых моделях, как LLaMA, Mistral, DeepSeek и др., сочетая небольшое количество высококачественных специализированных данных и технологии LoRA, что позволяет быстро создавать экспертные модели с конкретными знаниями в определенных областях и значительно снижать стоимость тренировки и технические барьеры.
Стоит отметить, что SLM не будет интегрирован в веса LLM, а будет взаимодействовать с LLM через архитектуру Agent, динамическую маршрутизацию с помощью системы плагинов, горячую замену модулей LoRA и RAG (усиление генерации с помощью поиска). Эта архитектура сохраняет широкую охватность LLM и одновременно улучшает профессиональные показатели за счет модуля тонкой настройки, формируя высоко гибкую комбинированную интеллектуальную систему.
Crypto AI в модели ценности и границы
Крипто AI проекты по своей сути трудно напрямую улучшить ключевые способности больших языковых моделей (LLM). Основная причина заключается в том, что
Однако, на основе открытых моделей, проекты Crypto AI все еще могут расширять ценность через тонкую настройку специализированных языковых моделей (SLM) и сочетание с проверяемостью и механизмами стимулов Web3. В качестве "периферийного интерфейсного слоя" AI цепочки поставок это проявляется в двух основных направлениях:
Классификация типов AI моделей и анализ их применимости к блокчейну
Таким образом, можно видеть, что жизнеспособные направления моделей типа Crypto AI в основном сосредоточены на легкой настройке небольших SLM, подключении и верификации данных на блокчейне в архитектуре RAG, а также на локальном развертывании и стимулировании Edge моделей. В сочетании с проверяемостью блокчейна и токеномикой, Crypto может предложить уникальную ценность для этих сценариев моделей с низкими и средними ресурсами, формируя дифференцированную ценность «интерфейсного уровня» AI.
Блокчейн AI цепь, основанная на данных и моделях, может обеспечить четкую, неизменяемую запись источников вклада каждой записи данных и модели, значительно повышая доверие к данным и прослеживаемость обучения моделей. В то же время, с помощью механизма смарт-контрактов автоматически инициируется распределение вознаграждений, когда данные или модели используются, превращая действия AI в измеримую, торговую токенизированную ценность, создавая устойчивую систему стимулов. Кроме того, пользователи сообщества могут также оценивать производительность модели с помощью голосования токенами, участвовать в разработке и итерации правил, улучшая архитектуру децентрализованного управления.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, Обзор проекта | Видение AI цепи OpenLedger
OpenLedger является одним из немногих блокчейн-AI проектов на текущем рынке, сосредоточенных на механизмах стимуляции данных и моделей. Он первым предложил концепцию «Payable AI», нацеленную на создание справедливой, прозрачной и компонуемой среды для работы AI, стимулируя участников, предоставляющих данные, разработчиков моделей и создателей AI-приложений к сотрудничеству на одной платформе и получению дохода на блокчейне в зависимости от их реального вклада.
OpenLedger предоставляет полный замкнутый цикл от «предоставления данных» до «развертывания модели» и «вызова распределения прибыли», ключевые модули которого включают:
С помощью вышеуказанных модулей OpenLedger создала «инфраструктуру экономики агентов», основанную на данных и комбинируемых моделях, способствуя онлайнизации цепочки создания ценности AI.
А в применении технологии блокчейн OpenLedger использует OP Stack + EigenDA в качестве основы для создания высокопроизводительной, низкозатратной и верифицируемой среды выполнения данных и контрактов для моделей ИИ.
По сравнению с NEAR, который больше ориентирован на уровень инфраструктуры и нацелен на суверенитет данных, а также на архитектуру «AI Agents on BOS», OpenLedger более сосредоточен на создании специализированной цепи для ИИ, направленной на стимуляцию данных и моделей, стремясь обеспечить возможность отслеживания, комбинирования и устойчивой ценности для разработки и использования моделей в цепи. Это инфраструктура стимуляции моделей в мире Web3, которая сочетает в себе хостинг моделей, расчет за использование и интерфейсы для комбинирования на цепи, способствуя реализации концепции «модель как актив».
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)
Три, основные компоненты и технологическая архитектура OpenLedger
3.1 Модель Фабрика,无需代码模型工厂
ModelFactory является крупной платформой для дообучения языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных фреймворков дообучения, ModelFactory предлагает чисто графический интерфейс, без необходимости использования командной строки или интеграции API. Пользователи могут дообучать модели на основе датасетов, прошедших авторизацию и проверку на OpenLedger. Реализован интегрированный рабочий процесс авторизации данных, обучения моделей и развертывания, в который входят основные этапы:
Архитектура системы Model Factory включает шесть основных модулей, охватывающих аутентификацию личности, права доступа к данным, микронастройку моделей, оценку и развертывание, а также трассировку RAG, создавая безопасную, контролируемую, интерактивную и устойчивую модельную сервисную платформу.
МодельFactory в настоящее время поддерживает следующие возможности крупных языковых моделей:
Хотя комбинация моделей OpenLedger не включает в себя последние высокопроизводительные модели MoE или мультимодальные модели, их стратегия не устарела, а представляет собой конфигурацию с приоритетом на практичность, основанную на реальных ограничениях развертывания в цепочке (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).
Model Factory как инструмент без кода, все модели встроены в механизм доказательства вклада, который обеспечивает права участников данных и разработчиков моделей, обладает низким порогом, возможностью монетизации и компоновки, по сравнению с традиционными инструментами разработки моделей:
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)
3.2 OpenLoRA,资产化 на блокчейне модели тонкой настройки
LoRA (Low-Rank Adaptation) — это эффективный метод тонкой настройки параметров, который позволяет обучать новые задачи, вставляя «низкоранговую матрицу» в предобученную большую модель, не изменяя параметры оригинальной модели, что значительно снижает затраты на обучение и требования к хранению. Традиционные большие языковые модели (такие как LLaMA, GPT-3) обычно имеют десятки миллиардов, а иногда и сотни миллиардов параметров. Для их использования в конкретных задачах (например, юридические вопросы, медицинские консультации) необходимо проводить тонкую настройку (fine-tuning). Ключевая стратегия LoRA заключается в следующем: «заморозить параметры оригинальной большой модели и обучать только вставленные новые параметрические матрицы». Эта стратегия эффективна по количеству параметров, быстро обучается и гибко развертывается, что делает ее наиболее подходящим современным методом тонкой настройки для развертывания моделей Web3 и их комбинированного вызова.
OpenLoRA — это легковесный фреймворк для вывода, разработанный OpenLedger, специально предназначенный для развертывания нескольких моделей и совместного использования ресурсов. Его основной целью является решение распространенных проблем развертывания AI-моделей, таких как высокие затраты, низкая повторная использованность и расточительство ресурсов GPU, а также продвижение реализации «платежеспособного ИИ» (Payable AI).
Ядро системы OpenLoRA состоит из основных компонентов, основанных на модульном дизайне, охватывающих ключевые этапы, такие как хранение моделей, выполнение вывода, маршрутизация запросов и т.д., что обеспечивает эффективную и недорогую возможность развертывания и вызова нескольких моделей: