OpenLedger Kedalaman Penelitian: Membangun ekonomi agen yang didorong oleh data dan dapat digabungkan model dengan OP Stack + EigenDA sebagai dasar
I. Pendahuluan | Lompatan lapisan model Crypto AI
Data, model, dan daya komputasi adalah tiga elemen inti dari infrastruktur AI, yang dapat dis类比 sebagai bahan bakar (data), mesin (model), dan energi (daya komputasi) yang tidak dapat dipisahkan. Mirip dengan jalur evolusi infrastruktur industri AI tradisional, bidang Crypto AI juga mengalami tahap yang serupa. Pada awal tahun 2024, pasar sempat didominasi oleh proyek GPU terdesentralisasi, yang secara umum menekankan logika pertumbuhan yang bersifat "mengandalkan daya komputasi". Namun, setelah memasuki tahun 2025, fokus industri secara bertahap beralih ke lapisan model dan data, menandakan bahwa Crypto AI sedang bertransisi dari kompetisi sumber daya dasar menuju pembangunan lapisan menengah yang lebih berkelanjutan dan bernilai aplikasi.
Model Besar Umum (LLM) vs Model Khusus (SLM)
Model bahasa besar tradisional (LLM) sangat bergantung pada dataset besar dan arsitektur terdistribusi yang kompleks, dengan skala parameter mencapai 70B hingga 500B, dan biaya pelatihan sekali bisa mencapai jutaan dolar. SLM (Model Bahasa Khusus) sebagai paradigma penyesuaian ringan dari model dasar yang dapat digunakan kembali, biasanya didasarkan pada model sumber terbuka seperti LLaMA, Mistral, DeepSeek, yang menggabungkan sejumlah kecil data profesional berkualitas tinggi dan teknologi seperti LoRA, untuk dengan cepat membangun model ahli yang memiliki pengetahuan di bidang tertentu, secara signifikan mengurangi biaya pelatihan dan ambang teknis.
Perlu dicatat bahwa SLM tidak akan diintegrasikan ke dalam bobot LLM, melainkan beroperasi dengan berkolaborasi dengan LLM melalui panggilan arsitektur Agent, sistem plugin untuk pengalihan dinamis, hot-swappable modul LoRA, dan RAG (Retrieval-Augmented Generation). Arsitektur ini mempertahankan kemampuan cakupan luas LLM sambil meningkatkan kinerja profesional melalui modul fine-tuning, membentuk sistem cerdas kombinasi yang sangat fleksibel.
Nilai dan batasan Crypto AI di lapisan model
Proyek Crypto AI pada dasarnya sulit untuk secara langsung meningkatkan kemampuan inti dari model bahasa besar (LLM), penyebab utamanya adalah
Hambatan teknis terlalu tinggi: Skala data, sumber daya komputasi, dan kemampuan rekayasa yang diperlukan untuk melatih Model Dasar sangat besar, saat ini hanya perusahaan teknologi besar di Amerika Serikat dan China yang memiliki kemampuan tersebut.
Keterbatasan ekosistem sumber terbuka: Meskipun model dasar utama seperti LLaMA dan Mixtral telah sumber terbuka, kunci untuk mendorong terobosan model tetap terfokus pada lembaga penelitian dan sistem rekayasa tertutup, ruang partisipasi proyek on-chain di tingkat model inti sangat terbatas.
Namun, di atas model dasar sumber terbuka, proyek Crypto AI masih dapat memperpanjang nilai melalui penyetelan model bahasa khusus (SLM), dan menggabungkan verifikasi dan mekanisme insentif Web3. Sebagai "lapisan antarmuka perifer" dari rantai industri AI, hal ini terwujud dalam dua arah inti:
Lapisan verifikasi yang dapat dipercaya: Meningkatkan daya jejak dan ketahanan terhadap perubahan pada keluaran AI dengan mencatat jalur generasi model, kontribusi data, dan penggunaan melalui blockchain.
Mekanisme insentif: Dengan menggunakan Token asli, digunakan untuk mendorong perilaku seperti pengunggahan data, pemanggilan model, dan eksekusi agen, membangun siklus positif untuk pelatihan dan layanan model.
Klasifikasi Tipe Model AI dan Analisis Kelayakan Blockchain
Dari sini dapat dilihat bahwa titik jatuh yang layak untuk proyek Crypto AI jenis model terutama terfokus pada penyesuaian ringan untuk SLM kecil, pengintegrasian dan verifikasi data on-chain dari arsitektur RAG, serta penyebaran lokal dan insentif untuk model Edge. Menggabungkan verifikasi blockchain dan mekanisme token, Crypto dapat menawarkan nilai unik untuk skenario model dengan sumber daya menengah ke bawah, membentuk nilai diferensiasi dari "lapisan antarmuka" AI.
Blockchain AI chain berbasis data dan model dapat mencatat secara jelas dan tidak dapat diubah sumber kontribusi setiap data dan model, secara signifikan meningkatkan kredibilitas data dan keterlacakan pelatihan model. Selain itu, melalui mekanisme kontrak pintar, penghargaan akan secara otomatis dipicu saat data atau model dipanggil, mengubah perilaku AI menjadi nilai tokenisasi yang terukur dan dapat diperdagangkan, membangun sistem insentif yang berkelanjutan. Selain itu, pengguna komunitas juga dapat mengevaluasi kinerja model melalui pemungutan suara token, berpartisipasi dalam pembuatan dan iterasi aturan, serta menyempurnakan struktur tata kelola terdesentralisasi.
Dua, Ringkasan Proyek | Visi Rantai AI OpenLedger
OpenLedger adalah salah satu dari sedikit proyek blockchain AI yang saat ini berfokus pada mekanisme insentif data dan model di pasar. Ia pertama kali mengemukakan konsep "Payable AI", yang bertujuan untuk membangun lingkungan operasional AI yang adil, transparan, dan dapat dikombinasikan, mendorong kolaborasi antara kontributor data, pengembang model, dan pembangun aplikasi AI di satu platform, serta mendapatkan keuntungan on-chain berdasarkan kontribusi nyata.
OpenLedger menyediakan rantai penuh dari "penyediaan data" hingga "penempatan model" dan "panggilan pembagian keuntungan", dengan modul inti yang mencakup:
Model Factory: Tanpa perlu pemrograman, Anda dapat menggunakan LoRA untuk penyesuaian pelatihan dan penyebaran model kustom berdasarkan LLM sumber terbuka;
OpenLoRA: Mendukung co-existence seribu model, memuat secara dinamis sesuai kebutuhan, secara signifikan mengurangi biaya penyebaran;
PoA (Proof of Attribution): Mengukur kontribusi dan distribusi hadiah melalui pencatatan panggilan di blockchain;
Datanets: Jaringan data terstruktur yang ditujukan untuk skenario vertikal, dibangun dan divalidasi melalui kolaborasi komunitas;
Platform Usulan Model (Model Proposal Platform): pasar model on-chain yang dapat digabungkan, dipanggil, dan dibayar.
Melalui modul di atas, OpenLedger membangun "infrastruktur ekonomi agen cerdas" yang berbasis data dan dapat dikombinasikan dengan model, mendorong on-chain dari rantai nilai AI.
Dan dalam penerapan teknologi blockchain, OpenLedger menggunakan OP Stack + EigenDA sebagai dasar, untuk membangun lingkungan operasional data dan kontrak yang berkinerja tinggi, biaya rendah, dan dapat diverifikasi untuk model AI.
Dibangun di atas OP Stack: Berdasarkan tumpukan teknologi Optimism, mendukung throughput tinggi dan biaya rendah dalam eksekusi;
Settling di jaringan utama Ethereum: Memastikan keamanan transaksi dan integritas aset;
Kompatibel EVM: Memudahkan pengembang untuk dengan cepat menerapkan dan memperluas berdasarkan Solidity;
EigenDA menyediakan dukungan ketersediaan data: secara signifikan mengurangi biaya penyimpanan, menjamin verifikasi data.
Dibandingkan dengan NEAR yang lebih fokus pada lapisan dasar, menekankan kedaulatan data dan arsitektur "AI Agents on BOS", OpenLedger lebih berfokus pada pembangunan rantai khusus AI yang diarahkan pada insentif data dan model, berusaha untuk menjadikan pengembangan dan pemanggilan model di blockchain dapat dilacak, dapat digabungkan, dan berkelanjutan dalam nilai. Ini adalah infrastruktur insentif model di dunia Web3, menggabungkan pengelolaan model, penagihan penggunaan, dan antarmuka kombinasi di blockchain, mendorong jalur pencapaian "model sebagai aset".
Tiga, Komponen Inti dan Arsitektur Teknologi OpenLedger
3.1 Model Factory, tidak perlu kode model pabrik
ModelFactory adalah platform fine-tuning model bahasa besar (LLM) di bawah ekosistem OpenLedger. Berbeda dengan kerangka fine-tuning tradisional, ModelFactory menyediakan antarmuka grafis murni untuk operasi, tanpa memerlukan alat baris perintah atau integrasi API. Pengguna dapat melakukan fine-tuning model berdasarkan dataset yang telah disetujui dan diaudit di OpenLedger. Ini mewujudkan alur kerja terintegrasi untuk otorisasi data, pelatihan model, dan penyebaran, dengan proses inti yang mencakup:
Kontrol akses data: Pengguna mengajukan permintaan data, penyedia meninjau dan menyetujui, data secara otomatis terhubung ke antarmuka pelatihan model.
Pemilihan dan konfigurasi model: Mendukung LLM utama (seperti LLaMA, Mistral), melalui GUI untuk mengonfigurasi hiperparameter.
Penyesuaian ringan: Mesin LoRA / QLoRA bawaan, menampilkan kemajuan pelatihan secara real-time.
Evaluasi dan Penempatan Model: Alat evaluasi bawaan, mendukung ekspor penempatan atau panggilan berbagi ekosistem.
Antarmuka Verifikasi Interaktif: Menyediakan antarmuka berbasis obrolan, memudahkan pengujian langsung kemampuan tanya jawab model.
RAG menghasilkan jejak: Menyediakan rujukan sumber dalam jawaban, meningkatkan kepercayaan dan dapat diaudit.
Arsitektur sistem Model Factory terdiri dari enam modul, mencakup autentikasi identitas, izin data, penyesuaian model, evaluasi dan penerapan, serta pelacakan RAG, membangun platform layanan model terintegrasi yang aman, terkendali, interaktif secara real-time, dan dapat dihasilkan secara berkelanjutan.
ModelFactory saat ini mendukung kemampuan model bahasa besar sebagai berikut:
LLaMA Series: ekosistem terluas, komunitas aktif, kinerja umum yang kuat, adalah salah satu model dasar sumber terbuka yang paling umum saat ini.
Mistral: Arsitektur efisien, kinerja inferensi sangat baik, cocok untuk penerapan yang fleksibel dan sumber daya terbatas.
Qwen: Produk dari Alibaba, kinerja tugas dalam bahasa Mandarin sangat baik, kemampuan komprehensif yang kuat, cocok sebagai pilihan utama bagi pengembang domestik.
ChatGLM: Efek percakapan dalam bahasa Mandarin yang menonjol, cocok untuk layanan pelanggan vertikal dan skenario lokal.
Deepseek: Unggul dalam penghasil kode dan penalaran matematis, cocok untuk alat bantu pengembangan cerdas.
Gemma: Model ringan yang diluncurkan oleh Google, memiliki struktur yang jelas, mudah untuk dipahami dan dieksperimen.
Falcon: Pernah menjadi patokan kinerja, cocok untuk penelitian dasar atau pengujian perbandingan, tetapi aktivitas komunitas telah menurun.
BLOOM: Dukungan multi-bahasa cukup kuat, tetapi kinerja inferensi lemah, cocok untuk penelitian yang mencakup banyak bahasa.
GPT-2: Model klasik awal, hanya cocok untuk tujuan pengajaran dan verifikasi, tidak disarankan untuk digunakan dalam penerapan nyata.
Meskipun kombinasi model OpenLedger tidak mencakup model MoE berkinerja tinggi terbaru atau model multimodal, strateginya tidak ketinggalan zaman, melainkan merupakan konfigurasi "prioritas praktis" yang dibuat berdasarkan batasan realitas dari penyebaran on-chain (biaya inferensi, penyesuaian RAG, kompatibilitas LoRA, lingkungan EVM).
Model Factory sebagai rantai alat tanpa kode, semua model dilengkapi dengan mekanisme bukti kontribusi, memastikan hak-hak kontributor data dan pengembang model, memiliki keunggulan dalam hal ambang rendah, dapat dimonetisasi, dan dapat dikombinasikan, dibandingkan dengan alat pengembangan model tradisional:
Untuk pengembang: Menyediakan jalur lengkap untuk inkubasi, distribusi, dan pendapatan model;
Untuk platform: membentuk sirkulasi aset model dan ekosistem kombinasi;
Untuk pengguna: Anda dapat menggabungkan penggunaan model atau Agen seperti memanggil API.
3.2 OpenLoRA, aset on-chain dari model fine-tuning
LoRA (Low-Rank Adaptation) adalah metode penyesuaian parameter yang efisien, yang belajar tugas baru dengan menyisipkan "matriks rendah-rank" ke dalam model besar yang telah dilatih sebelumnya, tanpa mengubah parameter model asli, sehingga secara signifikan mengurangi biaya pelatihan dan kebutuhan penyimpanan. Model bahasa besar tradisional (seperti LLaMA, GPT-3) biasanya memiliki puluhan miliar bahkan ratusan miliar parameter. Untuk menggunakannya untuk tugas tertentu (seperti tanya jawab hukum, konsultasi medis), perlu dilakukan penyesuaian (fine-tuning). Strategi inti LoRA adalah: "membekukan parameter model besar asli, hanya melatih matriks parameter baru yang disisipkan." Metode ini efisien dalam parameter, cepat dalam pelatihan, dan fleksibel dalam penerapan, menjadikannya metode penyesuaian utama yang paling cocok untuk penerapan dan pemanggilan kombinasi model Web3 saat ini.
OpenLoRA adalah kerangka inferensi ringan yang dirancang khusus untuk penyebaran multi-model dan berbagi sumber daya yang dibangun oleh OpenLedger. Tujuan inti dari OpenLoRA adalah untuk mengatasi masalah umum dalam penyebaran model AI saat ini, seperti biaya tinggi, rendahnya penggunaan kembali, dan pemborosan sumber daya GPU, serta mendorong penerapan "AI yang dapat dibayar" (Payable AI).
Komponen inti arsitektur sistem OpenLoRA, berdasarkan desain modular, mencakup penyimpanan model, eksekusi inferensi, routing permintaan, dan aspek kunci lainnya, untuk mewujudkan kemampuan penyebaran dan pemanggilan multi-model yang efisien dan biaya rendah:
Modul Penyimpanan LoRA Adapter (LoRA Adapters Storage): LoRA adapter yang telah disesuaikan dikelola di OpenLedger, memungkinkan pemuatan sesuai permintaan, menghindari pemuatan semua model ke dalam memori grafis, menghemat sumber daya.
Model Hosting dan Layer Penggabungan Adaptor (Model Hosting & Adapter Merging Layer): Semua model fine-tuning berbagi model dasar (base model), saat inferensi LoRA adapter digabungkan secara dinamis, mendukung inferensi gabungan dengan beberapa adaptor (ensemble), meningkatkan kinerja.
Mesin Inferensi (Inference Engine): Mengintegrasikan berbagai teknologi optimasi CUDA seperti Flash-Attention, Paged-Attention, dan SGMV optimasi.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
19 Suka
Hadiah
19
4
Bagikan
Komentar
0/400
MetaverseVagabond
· 07-10 17:14
Tidak tidak, ini hanyalah proyek OP L2 yang dibungkus dengan kulit AI.
Lihat AsliBalas0
DeFiGrayling
· 07-10 17:05
Proyek lama diperbarui, benar-benar menghasilkan banyak uang.
Lihat AsliBalas0
GasWaster69
· 07-10 17:05
Rug Pull倒计时.eth
Lihat AsliBalas0
AirdropCollector
· 07-10 16:57
ai hampir cukup merasakan kerugian dari gpu bukan?
OpenLedger menciptakan ekosistem ekonomi agen pintar yang dapat dipadukan.
OpenLedger Kedalaman Penelitian: Membangun ekonomi agen yang didorong oleh data dan dapat digabungkan model dengan OP Stack + EigenDA sebagai dasar
I. Pendahuluan | Lompatan lapisan model Crypto AI
Data, model, dan daya komputasi adalah tiga elemen inti dari infrastruktur AI, yang dapat dis类比 sebagai bahan bakar (data), mesin (model), dan energi (daya komputasi) yang tidak dapat dipisahkan. Mirip dengan jalur evolusi infrastruktur industri AI tradisional, bidang Crypto AI juga mengalami tahap yang serupa. Pada awal tahun 2024, pasar sempat didominasi oleh proyek GPU terdesentralisasi, yang secara umum menekankan logika pertumbuhan yang bersifat "mengandalkan daya komputasi". Namun, setelah memasuki tahun 2025, fokus industri secara bertahap beralih ke lapisan model dan data, menandakan bahwa Crypto AI sedang bertransisi dari kompetisi sumber daya dasar menuju pembangunan lapisan menengah yang lebih berkelanjutan dan bernilai aplikasi.
Model Besar Umum (LLM) vs Model Khusus (SLM)
Model bahasa besar tradisional (LLM) sangat bergantung pada dataset besar dan arsitektur terdistribusi yang kompleks, dengan skala parameter mencapai 70B hingga 500B, dan biaya pelatihan sekali bisa mencapai jutaan dolar. SLM (Model Bahasa Khusus) sebagai paradigma penyesuaian ringan dari model dasar yang dapat digunakan kembali, biasanya didasarkan pada model sumber terbuka seperti LLaMA, Mistral, DeepSeek, yang menggabungkan sejumlah kecil data profesional berkualitas tinggi dan teknologi seperti LoRA, untuk dengan cepat membangun model ahli yang memiliki pengetahuan di bidang tertentu, secara signifikan mengurangi biaya pelatihan dan ambang teknis.
Perlu dicatat bahwa SLM tidak akan diintegrasikan ke dalam bobot LLM, melainkan beroperasi dengan berkolaborasi dengan LLM melalui panggilan arsitektur Agent, sistem plugin untuk pengalihan dinamis, hot-swappable modul LoRA, dan RAG (Retrieval-Augmented Generation). Arsitektur ini mempertahankan kemampuan cakupan luas LLM sambil meningkatkan kinerja profesional melalui modul fine-tuning, membentuk sistem cerdas kombinasi yang sangat fleksibel.
Nilai dan batasan Crypto AI di lapisan model
Proyek Crypto AI pada dasarnya sulit untuk secara langsung meningkatkan kemampuan inti dari model bahasa besar (LLM), penyebab utamanya adalah
Namun, di atas model dasar sumber terbuka, proyek Crypto AI masih dapat memperpanjang nilai melalui penyetelan model bahasa khusus (SLM), dan menggabungkan verifikasi dan mekanisme insentif Web3. Sebagai "lapisan antarmuka perifer" dari rantai industri AI, hal ini terwujud dalam dua arah inti:
Klasifikasi Tipe Model AI dan Analisis Kelayakan Blockchain
Dari sini dapat dilihat bahwa titik jatuh yang layak untuk proyek Crypto AI jenis model terutama terfokus pada penyesuaian ringan untuk SLM kecil, pengintegrasian dan verifikasi data on-chain dari arsitektur RAG, serta penyebaran lokal dan insentif untuk model Edge. Menggabungkan verifikasi blockchain dan mekanisme token, Crypto dapat menawarkan nilai unik untuk skenario model dengan sumber daya menengah ke bawah, membentuk nilai diferensiasi dari "lapisan antarmuka" AI.
Blockchain AI chain berbasis data dan model dapat mencatat secara jelas dan tidak dapat diubah sumber kontribusi setiap data dan model, secara signifikan meningkatkan kredibilitas data dan keterlacakan pelatihan model. Selain itu, melalui mekanisme kontrak pintar, penghargaan akan secara otomatis dipicu saat data atau model dipanggil, mengubah perilaku AI menjadi nilai tokenisasi yang terukur dan dapat diperdagangkan, membangun sistem insentif yang berkelanjutan. Selain itu, pengguna komunitas juga dapat mengevaluasi kinerja model melalui pemungutan suara token, berpartisipasi dalam pembuatan dan iterasi aturan, serta menyempurnakan struktur tata kelola terdesentralisasi.
Dua, Ringkasan Proyek | Visi Rantai AI OpenLedger
OpenLedger adalah salah satu dari sedikit proyek blockchain AI yang saat ini berfokus pada mekanisme insentif data dan model di pasar. Ia pertama kali mengemukakan konsep "Payable AI", yang bertujuan untuk membangun lingkungan operasional AI yang adil, transparan, dan dapat dikombinasikan, mendorong kolaborasi antara kontributor data, pengembang model, dan pembangun aplikasi AI di satu platform, serta mendapatkan keuntungan on-chain berdasarkan kontribusi nyata.
OpenLedger menyediakan rantai penuh dari "penyediaan data" hingga "penempatan model" dan "panggilan pembagian keuntungan", dengan modul inti yang mencakup:
Melalui modul di atas, OpenLedger membangun "infrastruktur ekonomi agen cerdas" yang berbasis data dan dapat dikombinasikan dengan model, mendorong on-chain dari rantai nilai AI.
Dan dalam penerapan teknologi blockchain, OpenLedger menggunakan OP Stack + EigenDA sebagai dasar, untuk membangun lingkungan operasional data dan kontrak yang berkinerja tinggi, biaya rendah, dan dapat diverifikasi untuk model AI.
Dibandingkan dengan NEAR yang lebih fokus pada lapisan dasar, menekankan kedaulatan data dan arsitektur "AI Agents on BOS", OpenLedger lebih berfokus pada pembangunan rantai khusus AI yang diarahkan pada insentif data dan model, berusaha untuk menjadikan pengembangan dan pemanggilan model di blockchain dapat dilacak, dapat digabungkan, dan berkelanjutan dalam nilai. Ini adalah infrastruktur insentif model di dunia Web3, menggabungkan pengelolaan model, penagihan penggunaan, dan antarmuka kombinasi di blockchain, mendorong jalur pencapaian "model sebagai aset".
Tiga, Komponen Inti dan Arsitektur Teknologi OpenLedger
3.1 Model Factory, tidak perlu kode model pabrik
ModelFactory adalah platform fine-tuning model bahasa besar (LLM) di bawah ekosistem OpenLedger. Berbeda dengan kerangka fine-tuning tradisional, ModelFactory menyediakan antarmuka grafis murni untuk operasi, tanpa memerlukan alat baris perintah atau integrasi API. Pengguna dapat melakukan fine-tuning model berdasarkan dataset yang telah disetujui dan diaudit di OpenLedger. Ini mewujudkan alur kerja terintegrasi untuk otorisasi data, pelatihan model, dan penyebaran, dengan proses inti yang mencakup:
Arsitektur sistem Model Factory terdiri dari enam modul, mencakup autentikasi identitas, izin data, penyesuaian model, evaluasi dan penerapan, serta pelacakan RAG, membangun platform layanan model terintegrasi yang aman, terkendali, interaktif secara real-time, dan dapat dihasilkan secara berkelanjutan.
ModelFactory saat ini mendukung kemampuan model bahasa besar sebagai berikut:
Meskipun kombinasi model OpenLedger tidak mencakup model MoE berkinerja tinggi terbaru atau model multimodal, strateginya tidak ketinggalan zaman, melainkan merupakan konfigurasi "prioritas praktis" yang dibuat berdasarkan batasan realitas dari penyebaran on-chain (biaya inferensi, penyesuaian RAG, kompatibilitas LoRA, lingkungan EVM).
Model Factory sebagai rantai alat tanpa kode, semua model dilengkapi dengan mekanisme bukti kontribusi, memastikan hak-hak kontributor data dan pengembang model, memiliki keunggulan dalam hal ambang rendah, dapat dimonetisasi, dan dapat dikombinasikan, dibandingkan dengan alat pengembangan model tradisional:
3.2 OpenLoRA, aset on-chain dari model fine-tuning
LoRA (Low-Rank Adaptation) adalah metode penyesuaian parameter yang efisien, yang belajar tugas baru dengan menyisipkan "matriks rendah-rank" ke dalam model besar yang telah dilatih sebelumnya, tanpa mengubah parameter model asli, sehingga secara signifikan mengurangi biaya pelatihan dan kebutuhan penyimpanan. Model bahasa besar tradisional (seperti LLaMA, GPT-3) biasanya memiliki puluhan miliar bahkan ratusan miliar parameter. Untuk menggunakannya untuk tugas tertentu (seperti tanya jawab hukum, konsultasi medis), perlu dilakukan penyesuaian (fine-tuning). Strategi inti LoRA adalah: "membekukan parameter model besar asli, hanya melatih matriks parameter baru yang disisipkan." Metode ini efisien dalam parameter, cepat dalam pelatihan, dan fleksibel dalam penerapan, menjadikannya metode penyesuaian utama yang paling cocok untuk penerapan dan pemanggilan kombinasi model Web3 saat ini.
OpenLoRA adalah kerangka inferensi ringan yang dirancang khusus untuk penyebaran multi-model dan berbagi sumber daya yang dibangun oleh OpenLedger. Tujuan inti dari OpenLoRA adalah untuk mengatasi masalah umum dalam penyebaran model AI saat ini, seperti biaya tinggi, rendahnya penggunaan kembali, dan pemborosan sumber daya GPU, serta mendorong penerapan "AI yang dapat dibayar" (Payable AI).
Komponen inti arsitektur sistem OpenLoRA, berdasarkan desain modular, mencakup penyimpanan model, eksekusi inferensi, routing permintaan, dan aspek kunci lainnya, untuk mewujudkan kemampuan penyebaran dan pemanggilan multi-model yang efisien dan biaya rendah: