OpenLedger Derinlik Analizi: OP Stack ve EigenDA'ya Dayalı Akıllı Ekonomi Altyapısının İnşası

OpenLedger Derinlik Raporu: OP Stack+EigenDA tabanlı, veri odaklı, model birleştirilebilir bir akıllı ekonomi inşa etmek

Bir, Giriş | Crypto AI'nin Model Katmanı Sıçraması

Veri, model ve hesaplama gücü, AI altyapısının üç temel unsurudur; yakıt (veri), motor (model) ve enerji (hesaplama gücü) birbirini tamamlar. Geleneksel AI endüstrisinin altyapı evrimi ile benzer bir yol izleyen Crypto AI alanı da benzer aşamalardan geçmiştir. 2024 yılının başlarında, piyasa merkeziyetsiz GPU projeleri tarafından yönetiliyordu ve genellikle "hesaplama gücünü birleştirme" mantığına dayanan yaygın bir büyüme modeli vurgulanıyordu. Ancak 2025 yılına girerken, sektörün odak noktası giderek model ve veri katmanına kaydı; bu da Crypto AI'nın taban kaynak rekabetinden daha sürdürülebilir ve uygulama değeri taşıyan orta katman inşasına geçişini işaret ediyor.

Genel Büyük Model (LLM) vs Spesifik Model (SLM)

Geleneksel büyük dil modelleri (LLM) eğitimi, büyük ölçekli veri setlerine ve karmaşık dağıtık mimarilere yüksek derecede bağımlıdır, parametre ölçeği genellikle 70B ile 500B arasında değişir, bir seferdeki eğitim maliyeti genellikle milyonlarca dolara ulaşır. Öte yandan, SLM (Özelleşmiş Dil Modeli) tekrar kullanılabilir temel bir modelin hafif ince ayar paradigması olarak, genellikle açık kaynaklı modeller temel alınarak, az sayıda yüksek kaliteli uzman verisi ve LoRA gibi teknolojilerle bir araya getirilerek, belirli bir alandaki bilgiye sahip uzman modelleri hızlıca inşa eder, eğitim maliyetlerini ve teknik engelleri önemli ölçüde azaltır.

Dikkate değer bir nokta, SLM'nin LLM ağırlıklarıyla entegre edilmemesi, bunun yerine Agent mimarisi aracılığıyla çağrılması, eklenti sistemi dinamik yönlendirme, LoRA modülü sıcak eklentisi, RAG (retrieve-augmented generation) gibi yöntemlerle LLM ile işbirliği içinde çalışmasıdır. Bu mimari, LLM'nin geniş kapsama yeteneğini korurken, ince ayar modülleri aracılığıyla uzman performansını artırarak yüksek derecede esnek bir bileşik akıllı sistem oluşturmuştur.

Kripto AI'nin model katmanındaki değeri ve sınırları

Crypto AI projeleri esasen büyük dil modellerinin (LLM) çekirdek yeteneklerini doğrudan artırmakta zorluk çekmektedir, bunun temel nedeni şudur:

  • Teknik engel çok yüksek: Foundation Model'i eğitmek için gereken veri ölçeği, hesaplama kaynakları ve mühendislik yetenekleri son derece büyük, şu anda yalnızca teknoloji devleri bu yeteneklere sahip.
  • Açık kaynak ekosisteminin sınırlamaları: Ana akım temel modeller açık kaynak olsa da, model atılımlarını gerçekten teşvik eden anahtar hala araştırma kurumları ve kapalı kaynak mühendislik sistemlerinde yoğunlaşmaktadır, zincir üzerindeki projelerin temel model katmanındaki katılım alanı sınırlıdır.

Ancak, açık kaynak temel modellerinin üzerine, Crypto AI projeleri hâlâ özel dil modellerini (SLM) ince ayar yaparak ve Web3'ün doğrulanabilirliği ile teşvik mekanizmalarını birleştirerek değer uzantısı gerçekleştirebilir. AI endüstrisi zincirinin "kenar arayüz katmanı" olarak, iki temel yönde kendini göstermektedir:

  • Güvenilir Doğrulama Katmanı: Modelin oluşturulma yolu, veri katkısı ve kullanımını zincir üzerindeki kayıtlarla takip ederek, AI çıktısının izlenebilirliğini ve değiştirilemezliğini artırır.
  • Teşvik Mekanizması: Yerel Token kullanarak veri yükleme, model çağrısı, ajan (Agent) yürütme gibi davranışları teşvik etmek için model eğitimi ve hizmetinin pozitif döngüsünü oluşturmak.

AI model türleri sınıflandırması ve blok zinciri uygunluk analizi

Buna göre, model türü Crypto AI projelerinin uygulanabilir noktaları, öncelikle küçük SLM'nin hafif ince ayarı, RAG mimarisinin zincir üzerindeki veri erişimi ve doğrulaması ile Edge modelinin yerel dağıtımı ve teşviki üzerine yoğunlaşmaktadır. Blok zincirinin doğrulanabilirliği ve token mekanizması ile birleştirildiğinde, Crypto bu orta ve düşük kaynaklı model senaryolarına özgü bir değer sunarak AI "arayüz katmanı"nın farklılaşmış değerini oluşturabilir.

Veri ve model tabanlı blok zinciri AI ağı, her bir veri ve modelin katkı kaynağının net, değiştirilemez bir şekilde ağa kaydedilmesini sağlar, veri güvenilirliğini ve model eğitimine izlenebilirliği önemli ölçüde artırır. Aynı zamanda, akıllı sözleşme mekanizması sayesinde, veriler veya modeller çağrıldığında otomatik olarak ödül dağıtımını tetikler, AI davranışını ölçülebilir, ticarete konu olabilecek tokenleşmiş bir değer haline getirir ve sürdürülebilir bir teşvik sistemi kurar. Ayrıca, topluluk kullanıcıları token ile model performansını değerlendirmek, kuralların belirlenmesine ve iterasyona katılmak suretiyle merkeziyetsiz yönetişim yapısını geliştirebilir.

OpenLedger Derinlik研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

İki, Proje Özeti | OpenLedger'ın AI Zincir Vizyonu

OpenLedger, mevcut pazarda veri ve model teşvik mekanizmalarına odaklanan az sayıda blok zinciri AI projesinden biridir. "Ödenebilir AI" kavramını ilk kez ortaya koyarak, veri katkıcıları, model geliştiricileri ve AI uygulama inşaatçılarının aynı platformda işbirliği yapmalarını teşvik eden, adil, şeffaf ve birleştirilebilir bir AI çalışma ortamı oluşturmayı amaçlamaktadır ve bu işbirliğine dayalı gerçek katkılarına göre zincir üzerinde gelir elde etmektedir.

OpenLedger, "veri sağlama"dan "model dağıtım"ına ve ardından "kâr payı çağrısı"na kadar tam bir zincir kapama sunar. Ana modülleri şunlardır:

  • Model Factory: Programlamaya gerek kalmadan, açık kaynak LLM kullanarak LoRA ile ince ayar eğitimini yapabilir ve özelleştirilmiş modelleri dağıtabilirsiniz;
  • OpenLoRA: Binlerce modelin birlikte varlığını destekler, ihtiyaca göre dinamik olarak yüklenir ve dağıtım maliyetlerini önemli ölçüde düşürür;
  • PoA (Atıf Kanıtı): Zincir üzerindeki çağrı kayıtları aracılığıyla katkı ölçümü ve ödül dağıtımı gerçekleştirir;
  • Datanets: Sektörel senaryolar için yapılandırılmış veri ağı, topluluk işbirliği ile inşa ve doğrulanmaktadır;
  • Model Teklif Platformu: Birleştirilebilir, çağrılabilir ve ödenebilir zincir üzerindeki model pazarı.

Yukarıdaki modüller aracılığıyla, OpenLedger veri odaklı, modelle birleştirilebilir bir "akıllı varlık ekonomik altyapısı" inşa etti ve AI değer zincirinin zincir üstünde olmasını sağladı.

Ve blockchain teknolojisi benimsemesinde, OpenLedger, AI modelleri için yüksek performanslı, düşük maliyetli ve doğrulanabilir bir veri ve sözleşme çalışma ortamı oluşturmak amacıyla OP Stack + EigenDA tabanını kullanıyor.

  • OP Stack üzerine inşa edilmiştir: Optimism teknoloji yığınına dayanmaktadır, yüksek işlem hacmi ve düşük maliyetli yürütmeyi destekler;
  • Ethereum ana ağında hesaplama: İşlem güvenliği ve varlık bütünlüğünü sağlamak;
  • EVM uyumlu: Geliştiricilerin Solidity tabanlı hızlı dağıtım ve genişletme yapmasını kolaylaştırır;
  • EigenDA, veri kullanılabilirliği desteği sağlar: depolama maliyetlerini önemli ölçüde azaltır ve verilerin doğrulanabilirliğini garanti eder.

NEAR gibi daha çok temel katman olan, veri egemenliği ve "BOS'taki AI Ajansları" mimarisine odaklanan genel AI zincirlerine kıyasla, OpenLedger daha çok veri ve model teşviklerine yönelik AI özel zincirini inşa etmeye odaklanmaktadır. Modellerin geliştirilmesi ve çağrılması, zincir üzerinde izlenebilir, birleştirilebilir ve sürdürülebilir bir değer döngüsü gerçekleştirmeyi hedeflemektedir. Web3 dünyasında model teşvik altyapısıdır, model barındırma, kullanım ücreti ve zincir üzerindeki birleştirilebilir arayüzü birleştirerek "model varlık olarak" gerçekleştirme yolunu ilerletmektedir.

OpenLedger Derinlik araştırması: OP Stack+EigenDA tabanlı, veri odaklı, model kombinlenebilir bir akıllı ekonomi inşa etme

Üç, OpenLedger'ın Temel Bileşenleri ve Teknik Mimarisi

3.1 Model Fabrikası, kodsuz model fabrikası

ModelFactory, OpenLedger ekosisteminde büyük bir dil modeli (LLM) ince ayar platformudur. Geleneksel ince ayar çerçevelerinin aksine, ModelFactory tamamen grafik arayüzü ile işlem yapma imkanı sunar, komut satırı araçlarına veya API entegrasyonuna ihtiyaç duyulmaz. Kullanıcılar, OpenLedger üzerinde yetkilendirme ve inceleme işlemlerini tamamladıkları veri setlerine dayanarak modeli ince ayar yapabilirler. Veri yetkilendirilmesi, model eğitimi ve dağıtımını birleştiren entegre bir iş akışı gerçekleştirilmiştir, temel süreçler şunları içerir:

  • Veri erişim kontrolü: Kullanıcı veri talebi gönderir, sağlayıcı onaylar, veriler otomatik olarak model eğitim arayüzüne bağlanır.
  • Model Seçimi ve Konfigürasyonu: Ana akım LLM'leri destekler, hiper parametreleri GUI aracılığıyla yapılandırır.
  • Hafifletilmiş ince ayar: Dahili LoRA / QLoRA motoru, eğitim ilerlemesini gerçek zamanlı olarak gösterir.
  • Model değerlendirme ve dağıtım: Yerleşik değerlendirme araçları, dağıtım veya ekosistem paylaşım çağrısını destekler.
  • Etkileşimli doğrulama arayüzü: Modelin soru-cevap yeteneğini doğrudan test etmek için sohbet tarzı bir arayüz sağlar.
  • RAG oluşturma izlenebilirliği: Kaynak alıntıları ile cevap verme, güveni ve denetlenebilirliği artırır.

Model Factory sistem mimarisi, kimlik doğrulama, veri izinleri, model ince ayarı, değerlendirme dağıtımı ve RAG izleme dahil altı ana modülü içermektedir ve güvenli, kontrol edilebilir, gerçek zamanlı etkileşim sağlayan, sürdürülebilir gelir elde eden entegre bir model hizmet platformu oluşturur.

ModelFactory şu anda desteklediği büyük dil modeli yetenekleri tablosu aşağıdadır:

  • LLaMA Serisi: En geniş ekosisteme, aktif bir topluluğa ve güçlü genel performansa sahip olup, günümüzdeki en yaygın açık kaynaklı temel modellerden biridir.
  • Mistral: Verimli bir mimari, mükemmel çıkarım performansı ile esnek ve kaynakların sınırlı olduğu senaryolar için uygundur.
  • Qwen: Alibaba ürünü, Çince görevlerde mükemmel performans gösteriyor, kapsamlı yetenekleri güçlü, yerel geliştiriciler için en iyi seçim.
  • ChatGLM: Çince diyalog performansı belirgin, dikey müşteri hizmetleri ve yerelleştirilmiş senaryolar için uygundur.
  • Deepseek: Kod üretimi ve matematiksel akıl yürütmede üstün performans sergileyen, akıllı geliştirme yardımcı araçları için uygundur.
  • Gemma: Google tarafından sunulan hafif bir model, yapısı net, hızlı bir şekilde öğrenme ve deneme için kolay.
  • Falcon: Daha önce performans ölçütüydü, temel araştırmalar veya karşılaştırmalı testler için uygundur, ancak topluluk etkinliği azalmıştır.
  • BLOOM: Çok dilli destek oldukça güçlü, ancak çıkarım performansı zayıf, dil kapsama araştırmaları için uygundur.
  • GPT-2: Klasik erken dönem modeli, yalnızca eğitim ve doğrulama amaçları için uygundur, gerçek dağıtımda kullanılması önerilmez.

OpenLedger'in model kombinasyonu en son yüksek performanslı MoE modeli veya çok modlu modeli içermese de, stratejisi geri kalmış değil, aksine zincir üzerindeki dağıtımın gerçek kısıtlamalarına (çıkarsama maliyeti, RAG uyumu, LoRA uyumluluğu, EVM ortamı) dayanan "pratik öncelikli" bir yapılandırma ile yapılmıştır.

Model Factory, bir kodsuz araç zinciri olarak, tüm modeller katkı kanıtı mekanizmasını entegre etmiştir. Bu, veri katkı sağlayıcılarının ve model geliştiricilerin haklarını güvence altına alır. Düşük giriş engeli, dönüştürülebilirlik ve birleştirilebilirlik gibi avantajlara sahiptir ve geleneksel model geliştirme araçlarıyla karşılaştırıldığında:

  • Geliştiriciler için: Model kuluçkası, dağıtım ve gelir için tam bir yol sunar;
  • Platform için: model varlık dolaşımı ve kombinasyon ekosistemi oluşturmak;
  • Uygulayıcılar için: Modelleri veya Ajanları API çağrısı yapar gibi birleştirerek kullanabilirsiniz.

OpenLedger Derinlik Araştırması: OP Stack+EigenDA tabanlı, veri odaklı, model kombinlenebilir bir zeka ekonomisi inşa etmek

3.2 OpenLoRA, ince ayar modeli için zincir üzerindeki varlıkların şekillendirilmesi

LoRA (Düşük-Rank Uyarlama), önceden eğitilmiş büyük modellere "düşük rank matrisleri" ekleyerek yeni görevleri öğrenen etkili bir parametre ince ayar yöntemidir ve orijinal model parametrelerini değiştirmeden eğitim maliyetini ve depolama gereksinimini büyük ölçüde azaltır. Geleneksel büyük dil modellerinin genellikle on milyarlarca hatta yüz milyarlarca parametreye sahip olduğu bilinmektedir. Belirli görevler için kullanılabilmesi adına ince ayar yapılması gerekmektedir. LoRA'nın temel stratejisi, "orijinal büyük modelin parametrelerini dondurmak, yalnızca eklenen yeni parametre matrislerini eğitmektir." Bu, parametre verimliliği, hızlı eğitim ve esnek dağıtım sağlamakta olup, günümüzde Web3 model dağıtımı ve bir araya getirilmesi için en uygun ana akım ince ayar yöntemidir.

OpenLoRA, OpenLedger tarafından çoklu model dağıtımı ve kaynak paylaşımı için tasarlanmış hafif bir çıkarım çerçevesidir. Temel hedefi, mevcut AI model dağıtımında yaygın olarak görülen yüksek maliyet, düşük yeniden kullanım, GPU kaynak israfı gibi sorunları çözmek ve "ödenebilir AI" (Payable AI) uygulamasını teşvik etmektir.

OpenLoRA sistem mimarisi çekirdek bileşenleri, modüler tasarım temelinde, model depolama, çıkarım yürütme, talep yönlendirme gibi kritik aşamaları kapsayarak, verimli, düşük maliyetli çoklu model dağıtımı ve çağrısı yeteneğini gerçekleştirmektedir:

  • LoRA Adaptörü Depolama Modülü: İnce ayarlanmış LoRA adaptörü OpenLedger'de barındırılır, ihtiyaç duyulduğunda yüklenir, tüm modellerin önceden yüklenmesini önler, kaynakları tasarruf sağlar.
  • Model barındırma ve dinamik birleşim katmanı: Tüm ince ayar modelleri temel büyük modelden ortaklaşa yararlanır, çıkarım sırasında LoRA adaptörü dinamik olarak birleştirilir, birden fazla adaptörün ortak çıkarımını destekler, performansı artırır.
  • Çıkarım motoru: Flash-Attention, Paged-Attention, SGMV optimizasyonu gibi bir dizi CUDA optimizasyon teknolojisini entegre eder.
  • İstek yönlendirme ve akış çıktısı modülü: İstek içerisinde gerekli modele göre dinamik olarak doğru adaptöre yönlendirme yaparak, çekirdek optimizasyonu ile token seviyesinde akış üretimi gerçekleştirir.

OpenLoRA'nın çıkarım süreci teknik açıdan "olgun ve genel" model hizmeti "akışı" şeklindedir, aşağıda:

  • Temel model yükleniyor: Sistem, temel büyük modeli önceden yüklüyor.
OP-6.95%
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • 6
  • Share
Comment
0/400
Rugpull幸存者vip
· 07-19 11:55
Akıllı varlık bu tuzak da çok tanıdık değil mi?
View OriginalReply0
GasFeeNightmarevip
· 07-18 01:52
Modelin para harcaması, doğrudan kripto dünyasında işlem yapmaktan daha iyi.
View OriginalReply0
GateUser-aa7df71evip
· 07-18 01:50
Yine hikaye anlatıp enayileri oyuna getirdiler.
View OriginalReply0
ContractCollectorvip
· 07-18 01:49
ai çok boğa ama içine düşme sakın
View OriginalReply0
BrokenYieldvip
· 07-18 01:46
ugh... başka bir gpu anlatısı daha, açıkçası luna gibi ölecek
View OriginalReply0
OnChainDetectivevip
· 07-18 01:39
hmm... desen başka bir gpt/ai şişirmesi öneriyor ama *tarihsel verileri kontrol et* op stack altyapısı cidden legit olabilir
View OriginalReply0
  • Pin
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)