شبكات وحدات معالجة الرسومات اللامركزية (GPU) تتصدر المشهد كطبقة منخفضة التكلفة لتشغيل أحمال العمل في الذكاء الاصطناعي، بينما تظل أكثر عمليات التدريب تطلبًا مركزة في مراكز البيانات ذات السعة الفائقة. يأتي الدفع نحو نقل المزيد من حسابات الذكاء الاصطناعي إلى أنظمة موزعة مع إعادة ضبط الصناعة لمكانة الكفاءة، الكمون والتكلفة الحقيقية للأحمال الإنتاجية. بينما لا تزال عملية تدريب نماذج ضخمة تتطلب أجهزة مركزية مرتبطة بشكل محكم، فإن الطريق إلى الذكاء الاصطناعي العملي اليوم يتجه بشكل متزايد نحو الاستنتاج، إعداد البيانات، والمهام المعتمدة على الوكلاء التي يمكنها تحمل تنسيق أضعف وجغرافيا أوسع.
نقاط رئيسية
لا تزال عمليات تدريب الذكاء الاصطناعي في الطليعة مركزة للغاية، مع تشغيل الآلاف من وحدات معالجة الرسومات في مجموعات متزامنة داخل مراكز بيانات كبيرة، مما يجعل التدريب الموزع على نطاق واسع غير عملي بسبب قيود الكمون والموثوقية.
الاستنتاج والأعباء الثانوية — تنظيف البيانات، المعالجة المسبقة، ونشر النماذج ذات الجودة الإنتاجية — مناسبة تمامًا لشبكات GPU اللامركزية، وتوفر وفورات في التكاليف، ومرونة، وتشتت جغرافي.
النماذج مفتوحة المصدر التي تعمل بكفاءة على وحدات معالجة الرسومات للمستهلكين تتكاثر، مما يساهم في التحول نحو طرق معالجة أكثر اقتصادية وتقليل الحواجز أمام الفرق الصغيرة لنشر الذكاء الاصطناعي محليًا.
الشراكات الخاصة والعامة، جنبًا إلى جنب مع ديناميكيات تسعير وحدات معالجة الرسومات للمستهلكين، تعيد تشكيل الطلب على وحدات المعالجة، مع تقارير تشير إلى تزايد حصة الحوسبة المخصصة للاستنتاج بدلاً من التدريب بحلول عام 2026.
تسلط دراسات الحالة الضوء على الاستخدام العملي للحوسبة اللامركزية لمهام محددة، بينما تظل أجهزة الذكاء الاصطناعي الرائدة محسنة للبيئات المركزية، مما يخلق طبقة حوسبة تكاملية بدلاً من استبدال لمزودي السعة الفائقة.
الإجراءات القانونية المستمرة والإفصاحات الشركات حول المنصات اللامركزية تضيف نغمة من الحذر مع توسع القطاع، مما يؤكد على الحاجة للشفافية وقياسات الأداء القابلة للتحقق.
الأسهم المذكورة: $THETA، $NVDA، $META
المشاعر: محايد
سياق السوق: تتجه الصناعة نحو نموذج حوسبة هجين، حيث تتولى مراكز البيانات المركزية تدريبًا مكثفًا، بينما تمتص الشبكات اللامركزية الاستنتاج، إعداد البيانات، والأعباء المعيارية، متماشية مع الاتجاهات الأوسع في الذكاء الاصطناعي مفتوح المصدر والحوسبة الموزعة.
لماذا يهم الأمر
الفجوة بين تدريب الذكاء الاصطناعي في الطليعة والاستنتاج اليومي لها آثار ملموسة على المطورين، الشركات، والنظام البيئي الأوسع للعملات المشفرة والأجهزة. يتفق المراقبون على أن غالبية أعمال الذكاء الاصطناعي الإنتاجية اليوم لا تشبه تدريب نموذج بترليون معلمة في مركز بيانات واحد. بدلاً من ذلك، فهي تتعلق بتشغيل نماذج مدربة على نطاق واسع، تحديث الأنظمة ببيانات التدفق، وتنظيم سير عمل يعتمد على الوكلاء يستجيب للمدخلات في الوقت الحقيقي. في هذا المشهد، تظهر الشبكات اللامركزية لوحدات معالجة الرسومات كحل عملي للعمليات الحساسة للتكلفة والكمون التي يمكنها الاستفادة من الموارد الموزعة دون المطالبة بالتساوي المطلق في الاتصال بين جميع العقد.
سلط Mitch Liu، المؤسس المشارك والرئيس التنفيذي لـ Theta Network، الضوء على تحول حاسم: العديد من النماذج مفتوحة المصدر والنماذج المدمجة الأخرى يمكن تشغيلها بكفاءة على وحدات معالجة الرسومات للمستهلكين. يدعم هذا الاتجاه الانتقال نحو أدوات مفتوحة المصدر ومعالجة أكثر اقتصادية، مما يوسع بشكل فعال عالم أعباء العمل القابلة للنشر للذكاء الاصطناعي خارج نطاق مراكز السعة الفائقة. السؤال المركزي يصبح كيف يتم معايرة الحوسبة للمهمة — مع تخصيص قدرات عالية الإنتاجية، منخفضة الكمون للمركزية، مع استخدام البنية التحتية الموزعة لدعم الاستنتاج والمهام اليومية للذكاء الاصطناعي.
في الممارسة العملية، تكون الشبكات اللامركزية مناسبة بشكل أفضل للأعباء التي يمكن تقسيمها، توجيهها وتنفيذها بشكل متزامن، دون الحاجة إلى تزامن مستمر وموحد عبر كل عقدة. أكد Evgeny Ponomarev، المؤسس المشارك لمنصة الحوسبة الموزعة Fluence، أن أعباء الاستنتاج تتزايد مع نشر النماذج وحلقات الوكلاء. بالنسبة للعديد من النشر، يكون معدل المعالجة والتوزيع الجغرافي أكثر أهمية من التوصيلات المثالية. يتوافق هذا الملاحظة مع الواقع الذي يفيد بأن الأجهزة ذات الجودة للمستهلكين — غالبًا مع VRAM أقل واتصالات شبكية متواضعة — قد تكون كافية لبعض مهام الذكاء الاصطناعي، بشرط أن يتم هيكلة عبء العمل لاستغلال التوازي بدلاً من التزامن الضيق من الأسفل إلى الأعلى.
الاستنتاج العملي هو أن الحوسبة اللامركزية يمكن أن تزدهر في خطوط إنتاج تتطلب الكفاءة من حيث التكلفة والمرونة تجاه تقلبات الشبكة. بالنسبة لأعباء العمل مثل تنظيم البيانات، تنظيفها، وإعدادها لتدريب النماذج، تصبح وحدات معالجة الرسومات الموزعة خيارًا قابلاً للتنفيذ. أكد Bob Miles، الرئيس التنفيذي لشركة Salad Technologies، التي تجمع بين وحدات معالجة الرسومات للمستهلكين غير المستخدمة، أن الأعباء التي تتطلب تدريبًا مكثفًا لا تزال تتطلب بنية تحتية قوية، لكن العديد من مهام الذكاء الاصطناعي — المدفوعة بنماذج الانتشار، وتوليد النص إلى صورة/فيديو، ومعالجة البيانات على نطاق واسع — مناسبة تمامًا لتوازن السعر والأداء لوحدات معالجة الرسومات للمستهلكين.
تم الإشارة إلى Sam Altman، شخصية OpenAI التي ناقشت علنًا نشرات وحدات معالجة الرسومات على نطاق واسع، في النقاشات الصناعية حول حجم تجمعات وحدات المعالجة المستخدمة في التدريب والاستنتاج. على الرغم من أن OpenAI لم تكشف علنًا عن أحجام التجمعات الدقيقة لـ GPT-5، فمن المعروف علنًا أن عمليات التدريب والاستنتاج تتنافس على الموارد، مع ذكر أن النشر على نطاق واسع يتطلب عادة مئات الآلاف من وحدات المعالجة. كما أُبرز في النقاش حول أجهزة Vera Rubin للذكاء الاصطناعي، فإن تحسينات Nvidia لمراكز البيانات تلعب دورًا رئيسيًا في كفاءة عمليات التدريب، مما يعزز الفكرة أن البنية التحتية المركزية لا تزال السائدة للأبحاث والتطوير في الطليعة.
يُنظر بشكل متزايد إلى الاستنتاج على أنه نقطة تحول — الحوسبة المستخدمة لتوليد مخرجات في الوقت الحقيقي من النماذج المدربة. أشار Ellidason إلى أن ما يصل إلى 70% من طلب وحدات المعالجة يمكن أن يكون مدفوعًا بالاستنتاج، الوكلاء، وأعباء التنبؤ بحلول عام 2026. يعيد هذا التحول تصور الحوسبة كخدمة متكررة وقابلة للتوسع بدلاً من نفقات بحث لمرة واحدة، ويدعم الحجة بأن الحوسبة اللامركزية تكمل طبقة الذكاء الاصطناعي بدلاً من استبدالها بالكامل لمزودي السعة الفائقة.
ومع ذلك، فإن المشهد ليس خاليًا من العقبات. تواجه شبكة Theta، لاعبًا بارزًا في مجال الحوسبة اللامركزية للذكاء الاصطناعي، دعوى قضائية رفعت في لوس أنجلوس في ديسمبر 2025 تتهمها بالاحتيال والتلاعب بالرموز. نفت Theta هذه الادعاءات، وأشار Mitch Liu إلى أنه لا يمكنه التعليق على الدعوى الجارية. تؤكد المسألة القانونية على الحاجة للشفافية في الحوكمة والإفصاح مع توسع مشاريع الحوسبة اللامركزية وتنافسها على المواهب والشراكات مع الأجهزة.
مكانة شبكات GPU اللامركزية في مكدس الذكاء الاصطناعي
لا تُعرض شبكات GPU اللامركزية كبديل شامل لمراكز البيانات المركزية. بدلاً من ذلك، تُعتبر طبقة تكميلية يمكنها فتح قدرات إضافية للأعباء التي تتطلب استنتاجًا، خاصة عندما يترجم التوزيع الجغرافي والمرونة إلى وفورات ملموسة في التكاليف. توفر اقتصاديات وحدات معالجة الرسومات للمستهلكين — خاصة عند نشرها على نطاق واسع — ميزة سعرية مقابل FLOP مقنعة للأعباء غير الحساسة للكمون. في السيناريوهات التي يتم فيها الوصول إلى النماذج من قبل المستخدمين عبر العالم، يمكن أن يقلل توزيع وحدات المعالجة بالقرب من المستخدمين النهائيين من الكمون ويحسن تجربة المستخدم.
من الناحية العملية، لا تعتبر وحدات معالجة الرسومات للمستهلكين، مع VRAM الأقل واتصالات الإنترنت ذات الجودة للمستهلكين، مثالية للتدريب أو الأعباء الحساسة للكمون. ومع ذلك، فإن لمهام مثل جمع البيانات، تنظيفها، والمعالجة المسبقة التي تغذي النماذج الكبيرة، يمكن أن تكون الشبكات اللامركزية فعالة للغاية. يتوافق هذا مع ملاحظات الصناعة التي تشير إلى أن جزءًا كبيرًا من حسابات الذكاء الاصطناعي يتضمن معالجة البيانات التكرارية وتنسيق النماذج بدلاً من تدريب نموذج ضخم واحد من الصفر.
تواصل عمالقة الذكاء الاصطناعي استيعاب حصة متزايدة من إمدادات وحدات معالجة الرسومات العالمية. المصدر: Sam Altman
مع تطور مشهد الأجهزة وزيادة قدرة النماذج مفتوحة المصدر، يمكن أن يتحرك جزء أوسع من أعباء العمل في الذكاء الاصطناعي خارج مراكز البيانات المركزية. هذا يوسع قاعدة المساهمين المحتملين الذين يمكنهم المشاركة في حسابات الذكاء الاصطناعي، من الباحثين والمطورين إلى الهواة الأفراد الذين يعيدون استخدام وحدات معالجة الرسومات غير المستخدمة للتجربة والأعمال الإنتاجية. الرؤية ليست لمحو مزودي السعة الفائقة، بل لإضافة طبقة مرنة وواعية بالتكلفة تتيح التجربة، والتكرار السريع، والاستنتاج المحلي.
بالإضافة إلى اعتبارات الأداء، هناك جانب عملي يركز على البيانات. تدعم الشبكات اللامركزية مهام جمع البيانات، تنظيفها، والمعالجة المسبقة التي غالبًا ما تتطلب وصولاً واسعًا إلى الويب وتنفيذًا متوازيًا. في مثل هذه السياقات، تقلل اللامركزية من نقاط الفشل المفردة ويمكن أن تقصر خطوط أنابيب البيانات من خلال توزيع عمليات المعالجة جغرافيًا، مما يوفر وقتًا أسرع للوصول إلى الرؤى حيث يمكن أن يضعف الكمون تجربة المستخدم.
بالنسبة للمستخدمين والمطورين، يسلط احتمال تشغيل نماذج الانتشار، سير عمل إعادة البناء ثلاثي الأبعاد، وغيرها من مهام الذكاء الاصطناعي محليًا — باستخدام وحدات معالجة الرسومات للمستهلكين — الضوء على إمكانية وجود نظام بيئي أكثر ديمقراطية للذكاء الاصطناعي. تتصور شبكة Theta ومنصات مماثلة تمكين الأفراد من المساهمة بأجهزة GPU الخاصة بهم في نسيج حوسبة موزعة، مما يخلق تجمع موارد يقوده المجتمع ويكمل العمود الفقري للحوسبة المركزية.
طبقة تكميلية في حوسبة الذكاء الاصطناعي
تشير المسيرة التي يصفها مؤيدو شبكات GPU اللامركزية إلى نموذج من مستويين. يظل تدريب الذكاء الاصطناعي في الطليعة من مسؤولية المشغلين ذات السعة الفائقة الذين يمتلكون مجموعات GPU ضخمة ومرتبطة بشكل محكم. في حين أن فئة متزايدة من أعباء العمل — بما يشمل الاستنتاج، reasoning الوكيل، وخطوط أنابيب البيانات الجاهزة للإنتاج — يمكن استضافتها على شبكات موزعة قادرة على تقديم التوسع والوصول الجغرافي بتكلفة هامشية أقل.
الاستنتاج العملي هو أن الأمر لا يتطلب إعادة كتابة جذرية لمكدس حسابات الذكاء الاصطناعي، بل إعادة توازن لمكان تنفيذ المهام المختلفة. مع تزايد توفر الأجهزة، واستفادة النماذج من تحسينات لوحدات معالجة الرسومات للمستهلكين، يمكن أن تعمل الحوسبة اللامركزية كطبقة حسابية منخفضة التكلفة وقريبة من المصدر تقلل من حركة البيانات والكمون لمجموعة واسعة من المخرجات. يسرع نضوج النماذج مفتوحة المصدر هذا التحول، مما يمكّن الفرق الصغيرة من التجربة، والنشر، والتكرار دون استثمار كبير مقدم عادة في أبحاث الذكاء الاصطناعي.
من وجهة نظر المستهلك، يتيح توفر الحوسبة الموزعة أنواعًا جديدة من التجارب والتعاون المحلي. عند الجمع بين شبكات GPU العالمية، يمكن للأفراد المساهمة في مشاريع الذكاء الاصطناعي، والمشاركة في مهام التصيير الموزعة، والمساعدة في بناء خطوط أنابيب ذكاء اصطناعي أكثر قوة تتجاوز جدران مراكز البيانات الكبرى.
ما الذي يجب مراقبته بعد ذلك
حسم وتداعيات الدعوى القضائية في لوس أنجلوس المتعلقة بـ Theta Network، مع احتمالية تأثيرها على الحوكمة وإدارة الرموز.
معدلات اعتماد أعباء الاستنتاج اللامركزية بين الشركات والمطورين، بما في ذلك أي شراكات أو تجارب جديدة.
التقدم في النماذج مفتوحة المصدر التي تعمل بكفاءة على وحدات معالجة الرسومات للمستهلكين وتأثيرها على مزيج الطلب بين التدريب والاستنتاج.
تحديثات على نشرات الأجهزة لمشاريع التدريب في الطليعة (مثل Vera Rubin) وما إذا كانت القدرة المركزية لا تزال تمثل عنق الزجاجة لأكثر النماذج طموحًا.
المصادر والتحقق
ملاحظات التطوير الداخلية وتصريحات عامة من قيادة Theta Network حول تحسين النماذج مفتوحة المصدر على وحدات معالجة الرسومات للمستهلكين.
التقارير عن استخدام وحدات معالجة الرسومات لتدريب Meta’s Llama 4 وGPT-5 من OpenAI، بما في ذلك الإشارات الخارجية إلى نشرات Nvidia H100.
تعليقات من Ovia Systems (المعروفة سابقًا بـ Gaimin) وSalad Technologies حول استخدام وحدات معالجة الرسومات اللامركزية، وديناميكيات السعر والأداء.
تعليقات الصناعة حول التحول من الطلب على وحدات المعالجة المتمركز بشكل رئيسي في التدريب إلى الطلب على الاستنتاج، والنظرية الأوسع للحوسبة اللامركزية كمكمل لمزودي السعة الفائقة.
الملفات العامة والتغطية المتعلقة بالدعوى القضائية في لوس أنجلوس لشركة Theta Network في ديسمبر 2025 وردود الشركة.
ما يراقبه السوق
مع استمرار نضوج سير عمل الذكاء الاصطناعي، من المحتمل أن تتلاشى الحدود بين الحوسبة المركزية واللامركزية بشكل أكبر. سيراقب القطاع عروضًا ملموسة لتوفير التكاليف، وتحسينات في وقت التشغيل، وتقليل الكمون في البيئات الإنتاجية التي تعتمد على الاستنتاج اللامركزي. كما سيكون من المهم أيضًا الشفافية في الحوكمة وقياسات الأداء القابلة للتحقق من المنصات اللامركزية مع توسع شبكاتها بعد التجارب الأولية.
مع تزايد القدرات على الأجهزة للمستهلكين وازدهار نظام بيئي من النماذج مفتوحة المصدر، يمكن أن تلعب وحدات معالجة الرسومات اللامركزية دورًا متزايدًا في تمكين تجارب الذكاء الاصطناعي الميسورة والتشغيل عند الحافة. هذا التطور لا يمحو الدور المركزي لمراكز السعة الفائقة، بل يضيف طبقة عملية ومرنة تتوافق مع المهمة والجغرافيا والتكلفة — وهو ترتيب قد يحدد المرحلة التالية من بنية تحتية الذكاء الاصطناعي.
https://platform.twitter.com/widgets.js
تم نشر هذا المقال في الأصل بعنوان ما الدور الذي لا يزال لشبكات GPU اللامركزية في الذكاء الاصطناعي؟ على Crypto Breaking News — مصدر موثوق لأخبار العملات الرقمية، أخبار البيتكوين، وتحديثات البلوكتشين.