OpenLedger Глибина дослідження: на базі OP Stack + EigenDA створити економіку агентів, що базується на даних та комбінованих моделях
Одне. Вступ | Модельний рівень Crypto AI переходить
Дані, моделі та обчислювальна потужність є трьома основними компонентами інфраструктури ШІ, аналогічно паливу (дані), двигуну (моделі), енергії (обчислювальна потужність) – жоден з них не може бути відсутній. Подібно до еволюційного шляху інфраструктури традиційної індустрії ШІ, область Crypto AI також пройшла через подібні етапи. На початку 2024 року ринок в певний момент контролювався децентралізованими GPU проектами, які в основному підкреслювали логіку грубого зростання "змагання в обчислювальній потужності". А з початком 2025 року увага індустрії поступово перемістилася на рівень моделей та даних, що свідчить про те, що Crypto AI переходить від конкуренції за базові ресурси до більш стійкого середнього будівництва з додатковою цінністю.
Загальний великий модел (LLM) проти спеціалізованої моделі (SLM)
Традиційні великі мовні моделі (LLM) в значній мірі залежать від масштабних наборів даних та складних розподілених архітектур, обсяг параметрів може становити від 70B до 500B, а вартість навчання може досягати кількох мільйонів доларів. У той час як SLM (Спеціалізована мовна модель) є легковажною парадигмою тонкої настройки, яка може бути повторно використана на основі моделей з відкритим кодом, таких як LLaMA, Mistral, DeepSeek, поєднуючи невелику кількість високоякісних спеціалізованих даних та технології LoRA, швидко створюючи експертні моделі з специфічними знаннями в певній галузі, значно знижуючи витрати на навчання та технологічні бар'єри.
Слід зазначити, що SLM не буде інтегровано в ваги LLM, а буде взаємодіяти з LLM через архітектуру Agent, динамічну маршрутизацію плагінів, гарячу заміну модулів LoRA, RAG (покращене генерування запитів) та інші методи. Ця архітектура зберігає широку охоплюючу здатність LLM і водночас покращує професійні результати за рахунок модулів тонкого налаштування, формуючи високо гнучку комбіновану розумну систему.
Цінність та межі Crypto AI на рівні моделей
Проекти Crypto AI по суті важко безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина полягає в тому,
Технічний поріг занадто високий: масштаб даних, обчислювальні ресурси та інженерні можливості, необхідні для навчання Foundation Model, є надзвичайно великими; наразі лише такі технологічні гіганти, як США та Китай, мають відповідні можливості.
Обмеження відкритої екосистеми: хоча основні базові моделі, такі як LLaMA, Mixtral, вже відкриті, справжній прорив у розвитку моделей все ще зосереджений у науково-дослідних установах і закритих інженерних системах, а участь проектів на блокчейні в ядрі моделей є обмеженою.
Проте, на основі відкритих базових моделей, проєкти Crypto AI все ще можуть здійснювати розширення вартості через тонку налаштування спеціалізованих мовних моделей (SLM) та поєднуючи перевірність і механізми стимулювання Web3. Як «периферійний інтерфейсний шар» в індустрії AI, це виявляється в двох основних напрямках:
Достовірний верифікаційний рівень: через записані в ланцюзі моделі генерування шляху, внесок у дані та їх використання, посилює простежуваність та стійкість до підробок виходу AI.
Механізм стимулювання: за допомогою рідного токена для стимулювання завантаження даних, виклику моделей, виконання агентів та інших дій, створення позитивного циклу навчання та обслуговування моделей.
Класифікація типів AI моделей та аналіз їх придатності для блокчейну
З цього видно, що можливі точки реалізації моделей класу Crypto AI в основному зосереджені на легкій тонкій налаштуванні малих SLM, підключенні та перевірці даних на ланцюзі в архітектурі RAG, а також локальному розгортанні та стимулюванні моделей Edge. Поєднуючи перевіряємість блокчейну та механізм токенів, Crypto може надати унікальну цінність для цих сценаріїв моделей з середніми та низькими ресурсами, формуючи диференційовану цінність «інтерфейсного шару» AI.
Базуючись на даних та моделях, блокчейн AI ланцюг може чітко та незмінно реєструвати джерела внесків кожного даних та моделі, що значно підвищує надійність даних та простежуваність навчання моделей. Одночасно, через механізм смарт-контрактів, при виклику даних або моделей автоматично запускається розподіл винагород, перетворюючи AI дії на вимірювальну, торгівельну токенізовану вартість, створюючи стійку систему стимулювання. Крім того, користувачі спільноти можуть оцінювати продуктивність моделей, голосуючи токенами, брати участь у розробці правил та ітерацій, вдосконалюючи децентралізовану управляючу структуру.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, огляд проекту | Візія AI ланцюга OpenLedger
OpenLedger є одним з небагатьох блокчейн AI проектів, які в даний час зосереджені на механізмах стимулювання даних і моделей. Він вперше запропонував концепцію «Payable AI», яка має на меті створити справедливе, прозоре та комбіноване середовище для роботи AI, стимулюючи внесок даних, розробників моделей та розробників AI додатків співпрацювати на одній платформі та отримувати прибуток на ланцюзі відповідно до фактичного внеску.
OpenLedger надає повний ланцюг замкнутого циклу від «надання даних» до «розгортання моделей», а потім до «виклику розподілу прибутку», основні модулі якого включають:
Модельна фабрика: без програмування можна використовувати LoRA для мікронастроювання, навчання та розгортання кастомізованих моделей на основі відкритого LLM;
OpenLoRA: підтримує спільне використання тисячі моделей, динамічне завантаження за потребою, значно знижуючи витрати на розгортання;
PoA (Доказ атрибуції): реалізація вимірювання внеску та розподілу винагороди через записи викликів в ланцюгу;
Datanets: структуровані мережі даних для вертикальних сценаріїв, побудовані та перевірені спільнотою;
Платформа пропозицій моделей (Model Proposal Platform): комбінований, викликаючий, платіжний ринковий простір для моделей на блокчейні.
За допомогою вищезгаданих модулів OpenLedger побудував «інфраструктуру економіки агентів», що керується даними та може комбінуватись, що сприяє онлайнізації ціннісного ланцюга AI.
А в впровадженні технології блокчейн OpenLedger використовує OP Stack + EigenDA як основу, створюючи високо продуктивне, низько вартісне та перевіряєме середовище для виконання даних та контрактів для AI моделей.
Побудовано на OP Stack: на базі технологічного стеку Optimism, що підтримує високу пропускну спроможність та низькі витрати на виконання;
Розрахунок в основній мережі Ethereum: Забезпечення безпеки транзакцій та цілісності активів;
EVM сумісний: зручно для розробників швидко розгортати та розширювати на основі Solidity;
EigenDA надає підтримку доступності даних: суттєво знижує витрати на зберігання, забезпечує перевірність даних.
У порівнянні з такими більш базовими, орієнтованими на суверенітет даних, як NEAR, і загальною архітектурою «AI Agents on BOS», OpenLedger більше зосереджується на створенні спеціалізованої ланцюга AI, орієнтованої на стимулювання даних та моделей, прагнучи забезпечити відстежуваність, комбінування та стійкість ціннісного кола для розробки та виклику моделей на ланцюгу. Це інфраструктура стимулювання моделей у світі Web3, яка поєднує в собі хостинг моделей, облік використання та комбіновані інтерфейси на ланцюгу, сприяючи реалізації «моделей як активів».
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)
Три, основні компоненти та технологічна архітектура OpenLedger
3.1 Модельна фабрика, безкодова модельна фабрика
ModelFactory є великим платформою для доопрацювання мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків доопрацювання, ModelFactory пропонує чистий графічний інтерфейс, без потреби в командному рядку або інтеграції API. Користувачі можуть доопрацьовувати моделі на основі наборів даних, які були авторизовані та перевірені на OpenLedger. Реалізовано інтегрований робочий процес з авторизації даних, навчання моделі та розгортання, основні етапи якого включають:
Контроль доступу до даних: Користувач подає запит на дані, постачальник перевіряє та затверджує, дані автоматично підключаються до інтерфейсу навчання моделі.
Вибір і налаштування моделі: підтримка основних LLM (таких як LLaMA, Mistral), налаштування гіперпараметрів через GUI.
Легка настройка: вбудований двигун LoRA / QLoRA, що демонструє прогрес навчання в реальному часі.
Оцінка та розгортання моделей: вбудовані інструменти оцінки, підтримка експорту для розгортання або спільного використання в екосистемі.
Інтерфейс взаємодії для перевірки: надає чат-інтерфейс, зручний для прямого тестування здатності моделі до відповіді на запитання.
Генерація RAG для відстеження: відповіді з посиланнями на джерела, що підвищують довіру та можливість аудиту.
Система архітектури Model Factory складається з шести основних модулів, які охоплюють аутентифікацію особистості, права доступу до даних, тонке налаштування моделей, оцінку впровадження та RAG трасування, створюючи інтегровану платформу моделей послуг, що забезпечує безпеку, контрольованість, реальний взаємодію та сталий монетизацію.
МодельFactory наразі підтримує такі можливості великих мовних моделей:
LLaMA серія: найбільша екосистема, активне співтовариство, універсальна потужність — це одна з найпоширеніших відкритих базових моделей на сьогодні.
Mistral: ефективна архітектура, відмінна продуктивність висновків, підходить для гнучкого розгортання в умовах обмежених ресурсів.
Qwen: продукт Alibaba, відмінні результати в китайських завданнях, сильні комплексні можливості, підходить для вибору вітчизняними розробниками.
ChatGLM: Видатні результати діалогу китайською мовою, підходить для нішевих сервісів підтримки та локалізованих сценаріїв.
Deepseek: має переваги в генерації коду та математичному мисленні, підходить для інструментів допомоги в розумному розвитку.
Gemma: легка модель, випущена Google, з чіткою структурою, зручною для швидкого освоєння та експериментів.
Falcon: Колись був еталоном продуктивності, підходить для базових досліджень або порівняльних тестів, але активність спільноти зменшилася.
BLOOM: Підтримка багатьох мов є досить сильною, але продуктивність висновків є слабшою, що робить його придатним для досліджень, що охоплюють мови.
GPT-2: класична рання модель, яка підходить лише для навчальних цілей та верифікації, не рекомендується для реального розгортання.
Хоча модельний набір OpenLedger не містить новітніх високопродуктивних моделей MoE або мультимодальних моделей, його стратегія не є застарілою, а базується на реальних обмеженнях, пов'язаних з ончейн-розгортанням (вартість виведення, адаптація RAG, сумісність LoRA, середовище EVM), що призвело до конфігурації «пріоритет практичності».
Model Factory як безкодова інструментальна ланка, всі моделі мають вбудований механізм доказу внеску, що забезпечує права учасників даних та розробників моделей, має низький бар'єр, можливість монетизації та комбінування, у порівнянні з традиційними інструментами розробки моделей:
Для розробників: забезпечити повний шлях до інкубації, розповсюдження та доходу моделі;
Для платформи: формування обігу модельних активів та комбінованої екосистеми;
Для користувачів: можна комбінувати моделі або агентів так, як ви викликаєте API.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)
3.2 OpenLoRA, активи на блокчейні для моделі тонкого налаштування
LoRA (Низькорангова адаптація) є ефективним методом тонкого налаштування параметрів, який навчає нові завдання, вставляючи «низькореневі матриці» у попередньо навченої великій моделі, не змінюючи параметри оригінальної моделі, що значно знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі (такі як LLaMA, GPT-3) зазвичай мають десятки мільярдів, а то й сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань (таких як юридичні запитання, медичні консультації), потрібно провести тонке налаштування. Основна стратегія LoRA полягає в тому, щоб: «заморозити параметри оригінальної великої моделі, навчати лише нові параметричні матриці». Її параметри є економічними, навчання швидким, а розгортання гнучким, що робить її нині найкращим методом тонкого налаштування для розгортання моделей Web3 та комбінованих викликів.
OpenLoRA — це легка інфраструктура для висновку, розроблена OpenLedger, спеціально для розгортання кількох моделей і спільного використання ресурсів. Її головна мета — вирішення типових проблем розгортання AI моделей, таких як високі витрати, низька повторна використання, марнотратство ресурсів GPU, та сприяння впровадженню "платного AI" (Payable AI).
Основні компоненти архітектури системи OpenLoRA, основані на модульному дизайні, охоплюють ключові етапи, такі як зберігання моделей, виконання інференції, маршрутизація запитів тощо, забезпечуючи ефективні та низькозатратні можливості для розгортання та виклику багатьох моделей:
LoRA Adapter Storage (LoRA Adapters Storage): Налаштовані LoRA адаптери зберігаються на OpenLedger, забезпечуючи завантаження за потребою, уникаючи попереднього завантаження всіх моделей у відеопам'ять, що економить ресурси.
Модельне хостингування та динамічний шар злиття (Model Hosting & Adapter Merging Layer): всі моделі з налаштуванням спільно використовують базову велику модель (base model), під час інференсу динамічно зливаються LoRA адаптери, підтримується спільний інференс декількох адаптерів (ensemble), що підвищує продуктивність.
Інференційний двигун (Inference Engine): інтегрує Flash-Attention, Paged-Attention, SGMV оптимізації та інші CUDA оптимізаційні технології.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
19 лайків
Нагородити
19
6
Репост
Поділіться
Прокоментувати
0/400
MetaverseVagabond
· 07-10 17:14
чи так, чи ні Це ж просто OP L2 проект, замаскований під AI
Переглянути оригіналвідповісти на0
DeFiGrayling
· 07-10 17:05
Старий проект перезапустили, заробили на цьому чимало.
OpenLedger створює модель комбінованої економіки розумних агентів.
OpenLedger Глибина дослідження: на базі OP Stack + EigenDA створити економіку агентів, що базується на даних та комбінованих моделях
Одне. Вступ | Модельний рівень Crypto AI переходить
Дані, моделі та обчислювальна потужність є трьома основними компонентами інфраструктури ШІ, аналогічно паливу (дані), двигуну (моделі), енергії (обчислювальна потужність) – жоден з них не може бути відсутній. Подібно до еволюційного шляху інфраструктури традиційної індустрії ШІ, область Crypto AI також пройшла через подібні етапи. На початку 2024 року ринок в певний момент контролювався децентралізованими GPU проектами, які в основному підкреслювали логіку грубого зростання "змагання в обчислювальній потужності". А з початком 2025 року увага індустрії поступово перемістилася на рівень моделей та даних, що свідчить про те, що Crypto AI переходить від конкуренції за базові ресурси до більш стійкого середнього будівництва з додатковою цінністю.
Загальний великий модел (LLM) проти спеціалізованої моделі (SLM)
Традиційні великі мовні моделі (LLM) в значній мірі залежать від масштабних наборів даних та складних розподілених архітектур, обсяг параметрів може становити від 70B до 500B, а вартість навчання може досягати кількох мільйонів доларів. У той час як SLM (Спеціалізована мовна модель) є легковажною парадигмою тонкої настройки, яка може бути повторно використана на основі моделей з відкритим кодом, таких як LLaMA, Mistral, DeepSeek, поєднуючи невелику кількість високоякісних спеціалізованих даних та технології LoRA, швидко створюючи експертні моделі з специфічними знаннями в певній галузі, значно знижуючи витрати на навчання та технологічні бар'єри.
Слід зазначити, що SLM не буде інтегровано в ваги LLM, а буде взаємодіяти з LLM через архітектуру Agent, динамічну маршрутизацію плагінів, гарячу заміну модулів LoRA, RAG (покращене генерування запитів) та інші методи. Ця архітектура зберігає широку охоплюючу здатність LLM і водночас покращує професійні результати за рахунок модулів тонкого налаштування, формуючи високо гнучку комбіновану розумну систему.
Цінність та межі Crypto AI на рівні моделей
Проекти Crypto AI по суті важко безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина полягає в тому,
Проте, на основі відкритих базових моделей, проєкти Crypto AI все ще можуть здійснювати розширення вартості через тонку налаштування спеціалізованих мовних моделей (SLM) та поєднуючи перевірність і механізми стимулювання Web3. Як «периферійний інтерфейсний шар» в індустрії AI, це виявляється в двох основних напрямках:
Класифікація типів AI моделей та аналіз їх придатності для блокчейну
З цього видно, що можливі точки реалізації моделей класу Crypto AI в основному зосереджені на легкій тонкій налаштуванні малих SLM, підключенні та перевірці даних на ланцюзі в архітектурі RAG, а також локальному розгортанні та стимулюванні моделей Edge. Поєднуючи перевіряємість блокчейну та механізм токенів, Crypto може надати унікальну цінність для цих сценаріїв моделей з середніми та низькими ресурсами, формуючи диференційовану цінність «інтерфейсного шару» AI.
Базуючись на даних та моделях, блокчейн AI ланцюг може чітко та незмінно реєструвати джерела внесків кожного даних та моделі, що значно підвищує надійність даних та простежуваність навчання моделей. Одночасно, через механізм смарт-контрактів, при виклику даних або моделей автоматично запускається розподіл винагород, перетворюючи AI дії на вимірювальну, торгівельну токенізовану вартість, створюючи стійку систему стимулювання. Крім того, користувачі спільноти можуть оцінювати продуктивність моделей, голосуючи токенами, брати участь у розробці правил та ітерацій, вдосконалюючи децентралізовану управляючу структуру.
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, огляд проекту | Візія AI ланцюга OpenLedger
OpenLedger є одним з небагатьох блокчейн AI проектів, які в даний час зосереджені на механізмах стимулювання даних і моделей. Він вперше запропонував концепцію «Payable AI», яка має на меті створити справедливе, прозоре та комбіноване середовище для роботи AI, стимулюючи внесок даних, розробників моделей та розробників AI додатків співпрацювати на одній платформі та отримувати прибуток на ланцюзі відповідно до фактичного внеску.
OpenLedger надає повний ланцюг замкнутого циклу від «надання даних» до «розгортання моделей», а потім до «виклику розподілу прибутку», основні модулі якого включають:
За допомогою вищезгаданих модулів OpenLedger побудував «інфраструктуру економіки агентів», що керується даними та може комбінуватись, що сприяє онлайнізації ціннісного ланцюга AI.
А в впровадженні технології блокчейн OpenLedger використовує OP Stack + EigenDA як основу, створюючи високо продуктивне, низько вартісне та перевіряєме середовище для виконання даних та контрактів для AI моделей.
У порівнянні з такими більш базовими, орієнтованими на суверенітет даних, як NEAR, і загальною архітектурою «AI Agents on BOS», OpenLedger більше зосереджується на створенні спеціалізованої ланцюга AI, орієнтованої на стимулювання даних та моделей, прагнучи забезпечити відстежуваність, комбінування та стійкість ціннісного кола для розробки та виклику моделей на ланцюгу. Це інфраструктура стимулювання моделей у світі Web3, яка поєднує в собі хостинг моделей, облік використання та комбіновані інтерфейси на ланцюгу, сприяючи реалізації «моделей як активів».
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)
Три, основні компоненти та технологічна архітектура OpenLedger
3.1 Модельна фабрика, безкодова модельна фабрика
ModelFactory є великим платформою для доопрацювання мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків доопрацювання, ModelFactory пропонує чистий графічний інтерфейс, без потреби в командному рядку або інтеграції API. Користувачі можуть доопрацьовувати моделі на основі наборів даних, які були авторизовані та перевірені на OpenLedger. Реалізовано інтегрований робочий процес з авторизації даних, навчання моделі та розгортання, основні етапи якого включають:
Система архітектури Model Factory складається з шести основних модулів, які охоплюють аутентифікацію особистості, права доступу до даних, тонке налаштування моделей, оцінку впровадження та RAG трасування, створюючи інтегровану платформу моделей послуг, що забезпечує безпеку, контрольованість, реальний взаємодію та сталий монетизацію.
МодельFactory наразі підтримує такі можливості великих мовних моделей:
Хоча модельний набір OpenLedger не містить новітніх високопродуктивних моделей MoE або мультимодальних моделей, його стратегія не є застарілою, а базується на реальних обмеженнях, пов'язаних з ончейн-розгортанням (вартість виведення, адаптація RAG, сумісність LoRA, середовище EVM), що призвело до конфігурації «пріоритет практичності».
Model Factory як безкодова інструментальна ланка, всі моделі мають вбудований механізм доказу внеску, що забезпечує права учасників даних та розробників моделей, має низький бар'єр, можливість монетизації та комбінування, у порівнянні з традиційними інструментами розробки моделей:
! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)
3.2 OpenLoRA, активи на блокчейні для моделі тонкого налаштування
LoRA (Низькорангова адаптація) є ефективним методом тонкого налаштування параметрів, який навчає нові завдання, вставляючи «низькореневі матриці» у попередньо навченої великій моделі, не змінюючи параметри оригінальної моделі, що значно знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі (такі як LLaMA, GPT-3) зазвичай мають десятки мільярдів, а то й сотні мільярдів параметрів. Щоб використовувати їх для конкретних завдань (таких як юридичні запитання, медичні консультації), потрібно провести тонке налаштування. Основна стратегія LoRA полягає в тому, щоб: «заморозити параметри оригінальної великої моделі, навчати лише нові параметричні матриці». Її параметри є економічними, навчання швидким, а розгортання гнучким, що робить її нині найкращим методом тонкого налаштування для розгортання моделей Web3 та комбінованих викликів.
OpenLoRA — це легка інфраструктура для висновку, розроблена OpenLedger, спеціально для розгортання кількох моделей і спільного використання ресурсів. Її головна мета — вирішення типових проблем розгортання AI моделей, таких як високі витрати, низька повторна використання, марнотратство ресурсів GPU, та сприяння впровадженню "платного AI" (Payable AI).
Основні компоненти архітектури системи OpenLoRA, основані на модульному дизайні, охоплюють ключові етапи, такі як зберігання моделей, виконання інференції, маршрутизація запитів тощо, забезпечуючи ефективні та низькозатратні можливості для розгортання та виклику багатьох моделей: