OpenLedger تبني نموذجًا اقتصاديًا لتجميع الذكاء الاصطناعي

OpenLedger العمق تقرير بحثي: باستخدام OP Stack+EigenDA كقاعدة، بناء اقتصاد وكيل مدفوع بالبيانات وقابل للتجميع بالنماذج

أ. المقدمة | الانتقال النموذجي لـ Crypto AI

البيانات والنماذج والقوة الحاسوبية هي العناصر الأساسية الثلاثة للبنية التحتية للذكاء الاصطناعي، ومثيلها في الوقود (البيانات) والمحرك (النموذج) والطاقة (القوة الحاسوبية) لا غنى عنه. على غرار مسار تطور البنية التحتية في صناعة الذكاء الاصطناعي التقليدية، شهدت أيضًا مجال الذكاء الاصطناعي التشفيري مراحل مشابهة. في أوائل عام 2024، هيمن السوق لفترة من الوقت على مشاريع GPU اللامركزية، مشددًا عمومًا على منطق النمو الواسع النطاق "تجميع القوة الحاسوبية". ومع دخول عام 2025، بدأ تركيز الصناعة يتحول تدريجيًا نحو طبقة النماذج والبيانات، مما يشير إلى أن الذكاء الاصطناعي التشفيري ينتقل من المنافسة على الموارد الأساسية إلى بناء أكثر استدامة وقيمة تطبيقية في الطبقة المتوسطة.

نموذج عام (LLM) مقابل نموذج متخصص (SLM)

تدريب نماذج اللغة الكبيرة التقليدية (LLM) يعتمد بشكل كبير على مجموعات البيانات الكبيرة والهياكل الموزعة المعقدة، حيث يصل حجم المعلمات إلى 70B~500B، وغالبًا ما تصل تكلفة التدريب لمرة واحدة إلى مئات الآلاف من الدولارات. بينما تعتبر SLM (نموذج اللغة المتخصص) نمطًا لتعديل خفيف قابل لإعادة الاستخدام يعتمد على نماذج أساسية، وعادة ما تستند إلى نماذج مفتوحة المصدر مثل LLaMA، Mistral، DeepSeek، وتجمع بين كمية قليلة من البيانات المتخصصة عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء تمتلك معرفة في مجالات معينة بسرعة، مما يقلل بشكل كبير من تكاليف التدريب وعقبات التقنية.

من المهم ملاحظة أن SLM لن يتم دمجه في أوزان LLM، بل سيتم تشغيله بالتعاون مع LLM من خلال استدعاء بنية Agent، ونظام المكونات البرمجية للتوجيه الديناميكي، وLoRA لوحدات الإضافية، وRAG (التوليد المعزز بالاسترجاع) وغيرها من الطرق. هذه البنية تحتفظ بقدرة LLM على التغطية الواسعة، بينما تعزز الأداء المتخصص من خلال وحدات الضبط الدقيقة، مما يشكل نظامًا ذكيًا مرنًا للغاية.

قيمة و حدود الذكاء الاصطناعي في مستوى النموذج

مشاريع الذكاء الاصطناعي للعملات المشفرة من الصعب بشكل أساسي تحسين القدرة الأساسية لنماذج اللغة الكبيرة (LLM) بشكل مباشر، والسبب الرئيسي في ذلك هو

  • العوائق التقنية مرتفعة جداً: حجم البيانات، موارد الحوسبة، والقدرات الهندسية المطلوبة لتدريب نموذج Foundation كبيرة للغاية، حالياً لا تمتلك القدرات اللازمة سوى الشركات الكبرى في الولايات المتحدة والصين.
  • قيود النظام البيئي مفتوح المصدر: على الرغم من أن النماذج الأساسية السائدة مثل LLaMA و Mixtral قد تم فتح مصدرها، إلا أن القاعدة الحقيقية لدفع النموذج نحو الاختراق لا تزال مركزة على المؤسسات البحثية ونظام الهندسة المغلقة، حيث أن مساحة مشاركة المشاريع على السلسلة في طبقة النموذج الأساسية محدودة.

ومع ذلك، على أساس نموذج المصدر المفتوح، يمكن لمشروع Crypto AI أن يحقق تمدد القيمة من خلال تعديل نموذج اللغة المتخصص (SLM) ودمجه مع قابلية التحقق وآلية التحفيز في Web3. كـ "طبقة واجهة محيطية" لسلسلة صناعة الذكاء الاصطناعي، يتجلى ذلك في اتجاهين رئيسيين:

  • طبقة التحقق الموثوق: من خلال تسجيل مسار توليد النموذج، ومساهمات البيانات، وحالات الاستخدام على السلسلة، يتم تعزيز إمكانية تتبع مخرجات الذكاء الاصطناعي وقدرتها على مقاومة التلاعب.
  • آلية التحفيز: باستخدام الرمز الأصلي، لتحفيز تحميل البيانات، استدعاء النماذج، وتنفيذ الوكلاء (Agent) وغيرها من السلوكيات، لبناء دورة إيجابية لتدريب النماذج والخدمات.

تصنيف أنواع نماذج الذكاء الاصطناعي وتحليل ملاءمتها للبلوكشين

من هنا، يتضح أن النقاط القابلة للتطبيق لمشاريع Crypto AI من نوع نموذجية تركز بشكل رئيسي على تحسين خفة نموذج SLM الصغيرة، وإدخال البيانات على السلسلة والتحقق من بنية RAG، بالإضافة إلى النشر المحلي لنموذج Edge والحوافز المتعلقة به. من خلال الجمع بين قابلية التحقق من blockchain وآلية الرموز، يمكن لـ Crypto أن توفر قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يخلق قيمة متميزة لطبقة واجهة AI.

سلسلة بلوكشين AI المعتمدة على البيانات والنماذج، يمكنها تسجيل المصدر الواضح وغير القابل للتلاعب لكل بيانات ونماذج بشكل موثوق، مما يعزز من مصداقية البيانات وقابلية تتبع تدريب النماذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تفعيل توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النماذج، وتحويل سلوك AI إلى قيمة رمزية قابلة للقياس والتداول، لبناء نظام تحفيزي مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع تقييم أداء النماذج من خلال التصويت بالرموز والمشاركة في وضع القواعد والتكرار، مما يحسن من هيكل الحوكمة اللامركزية.

! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)

٢. نظرة عامة على المشروع | رؤية OpenLedger لسلسلة AI

OpenLedger هو أحد المشاريع القليلة في سوق blockchain AI التي تركز على بيانات وآليات تحفيز النماذج. وقد قدمت مفهوم "Payable AI" ، بهدف بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، وتحفيز المساهمين في البيانات، ومطوري النماذج، وبناة تطبيقات AI للتعاون على نفس المنصة، والحصول على عوائد على السلسلة بناءً على المساهمات الفعلية.

OpenLedger تقدم سلسلة مغلقة كاملة من "توفير البيانات" إلى "نشر النماذج" ثم إلى "استدعاء الأرباح"، وتشمل وحداتها الأساسية:

  • مصنع النماذج: لا حاجة للبرمجة، يمكنك استخدام LoRA لضبط التدريب ونشر النماذج المخصصة استنادًا إلى LLM مفتوح المصدر؛
  • OpenLoRA: يدعم وجود آلاف النماذج معًا، تحميل ديناميكي حسب الحاجة، مما يقلل بشكل ملحوظ من تكاليف النشر؛
  • PoA (إثبات النسبة): تحقيق قياس المساهمة وتوزيع المكافآت من خلال سجلات الاستدعاء على السلسلة؛
  • Datanets: شبكة بيانات هيكلية موجهة نحو مشاهد العمق، تم بناؤها والتحقق منها من خلال التعاون المجتمعي؛
  • منصة اقتراح النماذج (Model Proposal Platform): سوق نماذج على السلسلة يمكن تجميعها واستدعاؤها والدفع مقابلها.

من خلال الوحدات المذكورة أعلاه، قامت OpenLedger ببناء "بنية تحتية للاقتصاد الذكي المدفوع بالبيانات والقابلة للتكوين بالنماذج"، مما يعزز من تسلسل قيمة الذكاء الاصطناعي على السلسلة.

وفي اعتماد تقنية البلوكشين، تستخدم OpenLedger OP Stack + EigenDA كقاعدة، لبناء بيئة تشغيل عالية الأداء ومنخفضة التكلفة وقابلة للتحقق للبيانات والعقود لنماذج الذكاء الاصطناعي.

  • مبني على OP Stack: مبني على تقنية Optimism، يدعم تنفيذ عالي السعة ومنخفض التكلفة؛
  • تسوية على شبكة الإيثيريوم الرئيسية: ضمان أمان المعاملات وسلامة الأصول؛
  • التوافق مع EVM: يسهل على المطورين نشر وتوسيع التطبيقات بسرعة استنادًا إلى Solidity؛
  • EigenDA توفر دعم توفر البيانات: تقلل بشكل ملحوظ من تكاليف التخزين، وتضمن قابلية التحقق من البيانات.

بالمقارنة مع سلاسل الذكاء الاصطناعي العامة مثل NEAR التي تركز أكثر على البنية التحتية الأساسية وحقوق البيانات و"وكالات الذكاء الاصطناعي على BOS"، تركز OpenLedger بشكل أكبر على بناء سلاسل الذكاء الاصطناعي المخصصة التي تستهدف البيانات والنماذج، وتهدف إلى تحقيق حلقة قيمة قابلة للتتبع وقابلة للتجميع ومستدامة لتطوير النماذج واستخدامها على السلسلة. إنها بنية تحتية لتحفيز النماذج في عالم Web3، تجمع بين استضافة النماذج، وفوترة الاستخدام، وواجهات قابلة للتجميع على السلسلة، مما يعزز مسار تحقيق "النموذج كأصل".

! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)

ثلاثة، المكونات الأساسية و الهيكل التكنولوجي لـ OpenLedger

3.1 مصنع النماذج، نموذج المصنع بدون كود

ModelFactory هو منصة كبيرة لنماذج اللغة (LLM) تحت نظام OpenLedger. على عكس إطار العمل التقليدي لضبط النماذج، فإن ModelFactory يوفر واجهة رسومية بالكامل، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين ضبط النموذج استنادًا إلى مجموعة البيانات التي تم الحصول على إذنها ومراجعتها على OpenLedger. تم تحقيق سير العمل المتكامل لترخيص البيانات وتدريب النموذج ونشره، وتشمل العمليات الأساسية ما يلي:

  • التحكم في وصول البيانات: يقدم المستخدم طلب البيانات، يقوم المزود بمراجعة الموافقة، وتدخل البيانات تلقائياً إلى واجهة تدريب النموذج.
  • اختيار النموذج وتكوينه: يدعم LLM الرائجة (مثل LLaMA، Mistral)، من خلال واجهة المستخدم الرسومية لتكوين المعلمات الفائقة.
  • تعديل خفيف الوزن: محرك LoRA / QLoRA المدمج، يعرض تقدم التدريب في الوقت الحقيقي.
  • تقييم النموذج ونشره: أدوات تقييم مدمجة، تدعم تصدير النشر أو مشاركة استدعاء البيئة.
  • واجهة التحقق التفاعلية: توفر واجهة دردشة، مما يسهل اختبار قدرة النموذج على الإجابة.
  • توليد تتبع RAG: الإجابة مع الاستشهاد بالمصدر، مما يعزز الثقة وقابلية التدقيق.

يتكون هيكل نظام Model Factory من ستة وحدات، تشمل مصادقة الهوية، وصلاحيات البيانات، وضبط النماذج الدقيقة، ونشر التقييم وRAG، مما يخلق منصة خدمة نماذج متكاملة آمنة وقابلة للتحكم، وتفاعلية في الوقت الحقيقي، وقابلة للت Monetization المستدام.

نموذج مصنع يدعم حاليًا الجدول الملخص لقدرات نماذج اللغة الكبيرة كما يلي:

  • سلسلة LLaMA: الأكثر انتشارًا في البيئة، المجتمع نشط، والأداء العام قوي، وهي واحدة من أكثر النماذج الأساسية مفتوحة المصدر شيوعًا حاليًا.
  • Mistral: هيكل فعال، أداء استدلال ممتاز، مناسب للتطبيقات المرنة والموارد المحدودة.
  • Qwen: منتج ألي، أداء المهام باللغة الصينية ممتاز، قدرة شاملة قوية، مناسب ليكون الخيار الأول للمطورين المحليين.
  • ChatGLM: تأثير المحادثة باللغة الصينية بارز، مناسب لخدمة العملاء المتخصصة والمشاهد المحلية.
  • Deepseek: يتميز بأداء متفوق في توليد الشيفرات والاستدلال الرياضي، ويستخدم كأداة مساعدة للتطوير الذكي.
  • Gemma: نموذج خفيف الوزن من جوجل، هيكل واضح، سهل الاستخدام والتجربة بسرعة.
  • فالكون: كان معيار الأداء، مناسب للأبحاث الأساسية أو اختبارات المقارنة، ولكن نشاط المجتمع قد تراجع.
  • BLOOM: دعم لغات متعددة قوي، لكن أداء الاستدلال ضعيف، مناسب للأبحاث التي تغطي اللغات.
  • GPT-2: نموذج كلاسيكي مبكر، مناسب فقط لأغراض التعليم والتحقق، لا يُنصح باستخدامه في النشر الفعلي.

على الرغم من أن مجموعة نماذج OpenLedger لا تتضمن أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست قديمة، بل هي تكوين "الأولوية العملية" بناءً على القيود الواقعية للتوزيع على السلسلة (تكاليف الاستدلال، توافق RAG، توافق LoRA، بيئة EVM).

تعمل Model Factory كأداة بدون كود، حيث تم تضمين آلية إثبات المساهمة في جميع النماذج، لضمان حقوق المساهمين في البيانات ومطوري النماذج، وتتميز بمتطلبات دخول منخفضة، وقابلية للتسييل، وقابلية للتجميع، مقارنة بأدوات تطوير النماذج التقليدية:

  • للمطورين: توفير مسار كامل لنمذجة الحضانة والتوزيع والإيرادات؛
  • بالنسبة للمنصة: تشكيل تدفق الأصول النموذجية وإيكولوجيا التركيب؛
  • للمستخدمين: يمكن استخدام النماذج أو الوكلاء بشكل مجمع كما هو الحال عند استدعاء واجهة برمجة التطبيقات.

! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)

3.2 OpenLoRA،资产化 على السلسلة لنموذج Fine-tuning

LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات، من خلال إدخال "مصفوفات منخفضة الرتبة" في نموذج كبير تم تدريبه مسبقًا لتعلم مهام جديدة، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكاليف التدريب ومتطلبات التخزين. عادةً ما تحتوي نماذج اللغة الكبيرة التقليدية (مثل LLaMA وGPT-3) على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام محددة (مثل أسئلة وأجوبة قانونية، استشارات طبية)، تحتاج إلى ضبط (fine-tuning). الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب فقط مصفوفات المعلمات الجديدة المدخلة." تتميز بكفاءة المعلمات، وسرعة التدريب، ومرونة النشر، وهي الطريقة الرئيسية الأكثر ملاءمة لنشر نماذج Web3 واستدعاء المجموعات.

OpenLoRA هو إطار استدلال خفيف الوزن تم تطويره بواسطة OpenLedger ومصمم لنشر نماذج متعددة ومشاركة الموارد. الهدف الأساسي منه هو معالجة المشكلات الشائعة في نشر نماذج الذكاء الاصطناعي الحالية، مثل التكلفة العالية، وانخفاض إعادة الاستخدام، وإهدار موارد GPU، وتعزيز تنفيذ "الذكاء الاصطناعي القابل للدفع".

المكونات الأساسية لهيكل نظام OpenLoRA، تعتمد على تصميم معياري، تغطي تخزين النماذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من الجوانب الرئيسية، لتحقيق القدرة على نشر واستدعاء نماذج متعددة بكفاءة وتكلفة منخفضة:

  • وحدة تخزين LoRA Adapter (LoRA Adapters Storage): يتم استضافة LoRA adapter الذي تم تعديله في OpenLedger، مما يتيح التحميل عند الطلب وتجنب تحميل جميع النماذج مسبقًا في ذاكرة الفيديو، مما يوفر الموارد.
  • استضافة النموذج وطبقة دمج المحولات (Model Hosting & Adapter Merging Layer): جميع نماذج التعديل الدقيقة تشترك في نموذج أساسي (base model)، خلال الاستدلال يتم دمج محول LoRA ديناميكياً، يدعم الاستدلال المشترك لعدة محولات (ensemble)، مما يعزز الأداء.
  • محرك الاستدلال (Inference Engine): يتضمن تقنيات تحسين CUDA متعددة مثل Flash-Attention و Paged-Attention و SGMV.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 4
  • مشاركة
تعليق
0/400
MetaverseVagabondvip
· 07-10 17:14
أليس هذا مجرد مشروع OP L2 في جلد الذكاء الاصطناعي
شاهد النسخة الأصليةرد0
DeFiGraylingvip
· 07-10 17:05
تجديد مشروع قديم، لقد جنيت الكثير من المال
شاهد النسخة الأصليةرد0
GasWaster69vip
· 07-10 17:05
RunawayCountdown.eth
شاهد النسخة الأصليةرد0
AirdropCollectorvip
· 07-10 16:57
لقد عانت الذكاء الاصطناعي تقريبًا بما يكفي من خسائر وحدات معالجة الرسومات.
شاهد النسخة الأصليةرد0
  • تثبيت