تقوم شركة ميتا بإعادة تشكيل استراتيجيتها للبنية التحتية للذكاء الاصطناعي من خلال شراكة واسعة في مجال الأجهزة تركز على معالجات نفيديا إلى جانب وحدات معالجة الرسومات من الجيل التالي.
وقعت شركة فيسبوك الأم ميتا اتفاقية متعددة السنوات مع نفيديا لشراء ملايين الرقائق، تشمل كل من وحدات معالجة الرسومات (GPU) و، للمرة الأولى، وحدات المعالجة المركزية المستقلة (CPU). تتضمن الصفقة وحدات معالجة Blackwell الحالية، ووحدات Rubin القادمة، والمعالجات الجديدة Grace وVera كمنتجات مستقلة. ومع ذلك، لم تكشف أي من الطرفين عن القيمة الإجمالية للعقد.
قدر بن باجيرين، الرئيس التنفيذي والمحلل الرئيسي في شركة الاستشارات التقنية Creative Strategies، أن قيمة الحزمة ستصل إلى مليارات الدولارات. علاوة على ذلك، أفاد موقع The Register أن الاتفاق من المحتمل أن يضيف عشرات المليارات إلى أرباح نفيديا خلال مدة العقد. وهذا يبرز مدى سرعة توسع ميتا في مجال الذكاء الاصطناعي.
كان الرئيس التنفيذي لميتيا مارك زوكربيرج قد أشار سابقًا إلى هذا التحول في أولويات الإنفاق. وأعلن أن ميتا تخطط لمضاعفة استثمارها في بنية الذكاء الاصطناعي تقريبًا في عام 2026، مع إجمالي نفقات قد يصل إلى 135 مليار دولار. ومع ذلك، فإن صفقة الرقائق الجديدة توفر صورة أوضح للسوق حول وجهة معظم تلك الاستثمارات.
استراتيجية نفيديا في المعالجات المركزية تتجه نحو أعباء العمل الخاصة بالاستنتاج
أبرز عنصر في الاتفاقية ليس شراء وحدات معالجة الرسومات، بل قرار ميتا اعتماد معالجات نفيديا على نطاق واسع كمنتجات مستقلة. حتى أوائل عام 2026، كانت معالجات Grace تُعرض تقريبًا حصريًا كجزء من ما يُعرف بـ “Superchips”، التي تجمع بين معالج وGPU على وحدة واحدة. ومع ذلك، غيرت نفيديا استراتيجيتها في المبيعات رسميًا في يناير 2026 وبدأت في بيع هذه المعالجات بشكل مستقل.
أول عميل معروف علنًا لوحدة المعالجة المركزية المستقلة في ذلك الوقت كان مزود الحوسبة السحابية CoreWeave. الآن، تنضم ميتا إلى تلك القائمة، مما يشير إلى تزايد الطلب على البنى التحتية المرنة المعتمدة على المعالجات المركزية. يتماشى ذلك مع تحول أوسع في الذكاء الاصطناعي من تدريب نماذج ضخمة إلى خدمتها في بيئات الإنتاج.
تستهدف الشركة قطاع الاستنتاج سريع النمو. في السنوات الأخيرة، ركز قطاع الذكاء الاصطناعي بشكل كبير على تدريب نماذج ضخمة باستخدام وحدات معالجة رسومات مكثفة. ومع ذلك، يتغير التركيز بشكل متزايد نحو الاستنتاج، وهو عملية تشغيل وتوسيع تلك الأنظمة المدربة. بالنسبة للعديد من مهام الاستنتاج، تعتبر وحدات المعالجة الرسومية التقليدية مبالغ فيها من حيث التكلفة والطاقة.
قال بن باجيرين لصحيفة Financial Times: “كنا في عصر التدريب، والآن نتحول أكثر إلى عصر الاستنتاج، الذي يتطلب نهجًا مختلفًا تمامًا.” ومع ذلك، فإن هذا التحول لا يلغي الطلب على وحدات المعالجة الرسومية؛ بل يغير التوازن بين أعباء العمل على وحدات المعالجة الرسومية والمعالجات المركزية داخل مراكز البيانات ذات السعة الكبيرة.
معالجات Grace وVera: التفاصيل التقنية وخطط نشر ميتا
قال إيان باك، نائب الرئيس والمدير العام لوحدة Hyperscale وHPC في نفيديا، وفقًا لـ The Register، إن معالج Grace يمكنه “تقديم ضعف الأداء لكل واط على تلك الأعباء الخلفية” مثل تشغيل قواعد البيانات. وأضاف أن “ميتيا قد أتيحت لها بالفعل فرصة استخدام Vera وتشغيل بعض تلك الأعباء، والنتائج تبدو واعدة جدًا.” يسلط هذا الضوء على جهود نفيديا لتحسين كفاءة الطاقة للاستنتاج على نطاق واسع ومعالجة البيانات.
يحتوي معالج Grace على 72 نواة Arm Neoverse V2 ويستخدم ذاكرة LPDDR5x، التي توفر مزايا في عرض النطاق الترددي والمساحات المحدودة. بالمقابل، يجلب معالج Vera من نفيديا، وهو من الجيل التالي، 88 نواة مخصصة من نوع Arm مع دعم متعدد الخيوط المزامن وميزات الحوسبة السرية المدمجة. تؤكد هذه المواصفات طموح نفيديا في المنافسة المباشرة مع مزودي معالجات الخوادم الراسخين.
وفقًا لنفيديا، تخطط ميتا لاستخدام Vera للمعالجة الخاصة وميزات الذكاء الاصطناعي في خدمة الرسائل المشفرة WhatsApp. من المقرر نشر Vera في عام 2027، مما يشير إلى خارطة طريق متعددة السنوات لتحديث البنية التحتية الخلفية لميتيا. ومع ذلك، لم تقدم الشركة جداول زمنية مفصلة لإطلاق كل منطقة من مراكز البيانات أو الخدمات المحددة، بخلاف المهام المتعلقة بالرسائل والأمان.
السوق التنافسية: نفيديا تدخل مجال معالجات الخوادم
تحول نفيديا لبيع المعالجات المركزية كمنتجات مستقلة يضعها في منافسة مباشرة مع إنتل وAMD في سوق الخوادم المربح. سابقًا، كانت معظم نماء نفيديا يأتي من وحدات معالجة الرسومات، لكن إضافة المعالجات المركزية يمنح الشركة مجموعة أكثر تكاملًا من منتجات مراكز البيانات. كما يتيح للعملاء بناء أنظمة كاملة من نفس المورد بدلاً من مزج مكونات من موردين متعددين.
من خلال شراء معالجات نفيديا المستقلة، تبتعد ميتا عن الاستراتيجية التي تتبعها شركات السحابة الكبرى الأخرى. تعتمد أمازون على معالجات Graviton الخاصة بها، بينما تعتمد جوجل على شرائح Axion المخصصة. بالمقابل، تشتري ميتا من نفيديا بينما تواصل تصميم معجلات الذكاء الاصطناعي الخاصة بها. ومع ذلك، أفاد تقرير من Financial Times أن جهود ميتا الداخلية في تطوير الرقائق واجهت “بعض التحديات التقنية وتأخيرات في الإطلاق.”
بالنسبة لنفيديا، يزداد الضغط التنافسي أيضًا. أعلنت جوجل وأمازون ومايكروسوفت عن شرائح جديدة داخلية خلال الأشهر الأخيرة. بالتوازي، طورت شركة OpenAI معالجًا بالتعاون مع Broadcom ووقعت اتفاقية توريد مهمة مع AMD. كما أن العديد من الشركات الناشئة، بما في ذلك Cerebras، تدفع بتقنيات خاصة للاستنتاج يمكن أن تقلل من هيمنة نفيديا إذا تم تبنيها على نطاق واسع.
التوترات السوقية وردود فعل الأسهم واستراتيجيات متعددة الموردين
في ديسمبر، استحوذت نفيديا على مواهب من شركة شرائح الاستنتاج Groq في صفقة ترخيص، بهدف تعزيز قاعدة تقنيتها في مرحلة الحوسبة الجديدة للاستنتاج. ومع ذلك، لا تزال معنويات المستثمرين حساسة تجاه أي علامة على تنويع العملاء. في نهاية العام الماضي، انخفض سهم نفيديا بنسبة أربعة بالمئة بعد تقارير تشير إلى أن ميتا كانت تتحدث مع جوجل حول استخدام وحدات المعالجة التنسورية (TPUs). ولم يُعلن عن أي اتفاق رسمي بشأن TPUs منذ ذلك الحين.
كما أن ميتا ليست ملتزمة حصريًا بأجهزة نفيديا. وفقًا لـ The Register، تدير الشركة أسطولًا من وحدات معالجة الرسومات AMD Instinct وشاركت مباشرة في تصميم أنظمة رف Helios من AMD، المقرر إصدارها في وقت لاحق من هذا العام. علاوة على ذلك، يمنح هذا النهج متعدد الموردين ميتا قوة تفاوض في الأسعار ويساعد على تقليل مخاطر التوريد عبر بنيتها التحتية المتزايدة بسرعة للذكاء الاصطناعي.
مع توسع الشركة في مراكز البيانات، يتم الإجابة عمليًا على سؤال “هل تبيع نفيديا معالجات مركزية” من خلال عمليات النشر مثل هذه. يوضح الاتفاق العام بين ميتا ونفيديا كيف أصبحت معالجات نفيديا جزءًا مركزيًا من بنى الاستنتاج على نطاق واسع، حتى مع تجربة شركات السحابة الكبرى مع شرائحها المخصصة ومنصات المعجلين المنافسة.
ختامًا، تؤكد صفقة الأجهزة متعددة السنوات التي أبرمتها ميتا على تحول هيكلي في الذكاء الاصطناعي من تجمعات وحدات معالجة الرسومات الموجهة للتدريب إلى هياكل محسنة للاستنتاج مبنية حول معالجات متقدمة مثل Grace وVera. ومع ذلك، مع وجود منافسة من إنتل وAMD ومعالجات سحابية أصلية وشركات ناشئة متخصصة، تواجه نفيديا تحديًا معقدًا لتحويل استراتيجيتها الجديدة في المعالجات المركزية إلى سيطرة طويلة الأمد على مراكز البيانات.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
ميتا تراهن على معالجات Nvidia في صفقة بنية تحتية للذكاء الاصطناعي تمتد لسنوات متعددة مع معالجات Grace و Vera
تقوم شركة ميتا بإعادة تشكيل استراتيجيتها للبنية التحتية للذكاء الاصطناعي من خلال شراكة واسعة في مجال الأجهزة تركز على معالجات نفيديا إلى جانب وحدات معالجة الرسومات من الجيل التالي.
وقعت شركة فيسبوك الأم ميتا اتفاقية متعددة السنوات مع نفيديا لشراء ملايين الرقائق، تشمل كل من وحدات معالجة الرسومات (GPU) و، للمرة الأولى، وحدات المعالجة المركزية المستقلة (CPU). تتضمن الصفقة وحدات معالجة Blackwell الحالية، ووحدات Rubin القادمة، والمعالجات الجديدة Grace وVera كمنتجات مستقلة. ومع ذلك، لم تكشف أي من الطرفين عن القيمة الإجمالية للعقد.
قدر بن باجيرين، الرئيس التنفيذي والمحلل الرئيسي في شركة الاستشارات التقنية Creative Strategies، أن قيمة الحزمة ستصل إلى مليارات الدولارات. علاوة على ذلك، أفاد موقع The Register أن الاتفاق من المحتمل أن يضيف عشرات المليارات إلى أرباح نفيديا خلال مدة العقد. وهذا يبرز مدى سرعة توسع ميتا في مجال الذكاء الاصطناعي.
كان الرئيس التنفيذي لميتيا مارك زوكربيرج قد أشار سابقًا إلى هذا التحول في أولويات الإنفاق. وأعلن أن ميتا تخطط لمضاعفة استثمارها في بنية الذكاء الاصطناعي تقريبًا في عام 2026، مع إجمالي نفقات قد يصل إلى 135 مليار دولار. ومع ذلك، فإن صفقة الرقائق الجديدة توفر صورة أوضح للسوق حول وجهة معظم تلك الاستثمارات.
استراتيجية نفيديا في المعالجات المركزية تتجه نحو أعباء العمل الخاصة بالاستنتاج
أبرز عنصر في الاتفاقية ليس شراء وحدات معالجة الرسومات، بل قرار ميتا اعتماد معالجات نفيديا على نطاق واسع كمنتجات مستقلة. حتى أوائل عام 2026، كانت معالجات Grace تُعرض تقريبًا حصريًا كجزء من ما يُعرف بـ “Superchips”، التي تجمع بين معالج وGPU على وحدة واحدة. ومع ذلك، غيرت نفيديا استراتيجيتها في المبيعات رسميًا في يناير 2026 وبدأت في بيع هذه المعالجات بشكل مستقل.
أول عميل معروف علنًا لوحدة المعالجة المركزية المستقلة في ذلك الوقت كان مزود الحوسبة السحابية CoreWeave. الآن، تنضم ميتا إلى تلك القائمة، مما يشير إلى تزايد الطلب على البنى التحتية المرنة المعتمدة على المعالجات المركزية. يتماشى ذلك مع تحول أوسع في الذكاء الاصطناعي من تدريب نماذج ضخمة إلى خدمتها في بيئات الإنتاج.
تستهدف الشركة قطاع الاستنتاج سريع النمو. في السنوات الأخيرة، ركز قطاع الذكاء الاصطناعي بشكل كبير على تدريب نماذج ضخمة باستخدام وحدات معالجة رسومات مكثفة. ومع ذلك، يتغير التركيز بشكل متزايد نحو الاستنتاج، وهو عملية تشغيل وتوسيع تلك الأنظمة المدربة. بالنسبة للعديد من مهام الاستنتاج، تعتبر وحدات المعالجة الرسومية التقليدية مبالغ فيها من حيث التكلفة والطاقة.
قال بن باجيرين لصحيفة Financial Times: “كنا في عصر التدريب، والآن نتحول أكثر إلى عصر الاستنتاج، الذي يتطلب نهجًا مختلفًا تمامًا.” ومع ذلك، فإن هذا التحول لا يلغي الطلب على وحدات المعالجة الرسومية؛ بل يغير التوازن بين أعباء العمل على وحدات المعالجة الرسومية والمعالجات المركزية داخل مراكز البيانات ذات السعة الكبيرة.
معالجات Grace وVera: التفاصيل التقنية وخطط نشر ميتا
قال إيان باك، نائب الرئيس والمدير العام لوحدة Hyperscale وHPC في نفيديا، وفقًا لـ The Register، إن معالج Grace يمكنه “تقديم ضعف الأداء لكل واط على تلك الأعباء الخلفية” مثل تشغيل قواعد البيانات. وأضاف أن “ميتيا قد أتيحت لها بالفعل فرصة استخدام Vera وتشغيل بعض تلك الأعباء، والنتائج تبدو واعدة جدًا.” يسلط هذا الضوء على جهود نفيديا لتحسين كفاءة الطاقة للاستنتاج على نطاق واسع ومعالجة البيانات.
يحتوي معالج Grace على 72 نواة Arm Neoverse V2 ويستخدم ذاكرة LPDDR5x، التي توفر مزايا في عرض النطاق الترددي والمساحات المحدودة. بالمقابل، يجلب معالج Vera من نفيديا، وهو من الجيل التالي، 88 نواة مخصصة من نوع Arm مع دعم متعدد الخيوط المزامن وميزات الحوسبة السرية المدمجة. تؤكد هذه المواصفات طموح نفيديا في المنافسة المباشرة مع مزودي معالجات الخوادم الراسخين.
وفقًا لنفيديا، تخطط ميتا لاستخدام Vera للمعالجة الخاصة وميزات الذكاء الاصطناعي في خدمة الرسائل المشفرة WhatsApp. من المقرر نشر Vera في عام 2027، مما يشير إلى خارطة طريق متعددة السنوات لتحديث البنية التحتية الخلفية لميتيا. ومع ذلك، لم تقدم الشركة جداول زمنية مفصلة لإطلاق كل منطقة من مراكز البيانات أو الخدمات المحددة، بخلاف المهام المتعلقة بالرسائل والأمان.
السوق التنافسية: نفيديا تدخل مجال معالجات الخوادم
تحول نفيديا لبيع المعالجات المركزية كمنتجات مستقلة يضعها في منافسة مباشرة مع إنتل وAMD في سوق الخوادم المربح. سابقًا، كانت معظم نماء نفيديا يأتي من وحدات معالجة الرسومات، لكن إضافة المعالجات المركزية يمنح الشركة مجموعة أكثر تكاملًا من منتجات مراكز البيانات. كما يتيح للعملاء بناء أنظمة كاملة من نفس المورد بدلاً من مزج مكونات من موردين متعددين.
من خلال شراء معالجات نفيديا المستقلة، تبتعد ميتا عن الاستراتيجية التي تتبعها شركات السحابة الكبرى الأخرى. تعتمد أمازون على معالجات Graviton الخاصة بها، بينما تعتمد جوجل على شرائح Axion المخصصة. بالمقابل، تشتري ميتا من نفيديا بينما تواصل تصميم معجلات الذكاء الاصطناعي الخاصة بها. ومع ذلك، أفاد تقرير من Financial Times أن جهود ميتا الداخلية في تطوير الرقائق واجهت “بعض التحديات التقنية وتأخيرات في الإطلاق.”
بالنسبة لنفيديا، يزداد الضغط التنافسي أيضًا. أعلنت جوجل وأمازون ومايكروسوفت عن شرائح جديدة داخلية خلال الأشهر الأخيرة. بالتوازي، طورت شركة OpenAI معالجًا بالتعاون مع Broadcom ووقعت اتفاقية توريد مهمة مع AMD. كما أن العديد من الشركات الناشئة، بما في ذلك Cerebras، تدفع بتقنيات خاصة للاستنتاج يمكن أن تقلل من هيمنة نفيديا إذا تم تبنيها على نطاق واسع.
التوترات السوقية وردود فعل الأسهم واستراتيجيات متعددة الموردين
في ديسمبر، استحوذت نفيديا على مواهب من شركة شرائح الاستنتاج Groq في صفقة ترخيص، بهدف تعزيز قاعدة تقنيتها في مرحلة الحوسبة الجديدة للاستنتاج. ومع ذلك، لا تزال معنويات المستثمرين حساسة تجاه أي علامة على تنويع العملاء. في نهاية العام الماضي، انخفض سهم نفيديا بنسبة أربعة بالمئة بعد تقارير تشير إلى أن ميتا كانت تتحدث مع جوجل حول استخدام وحدات المعالجة التنسورية (TPUs). ولم يُعلن عن أي اتفاق رسمي بشأن TPUs منذ ذلك الحين.
كما أن ميتا ليست ملتزمة حصريًا بأجهزة نفيديا. وفقًا لـ The Register، تدير الشركة أسطولًا من وحدات معالجة الرسومات AMD Instinct وشاركت مباشرة في تصميم أنظمة رف Helios من AMD، المقرر إصدارها في وقت لاحق من هذا العام. علاوة على ذلك، يمنح هذا النهج متعدد الموردين ميتا قوة تفاوض في الأسعار ويساعد على تقليل مخاطر التوريد عبر بنيتها التحتية المتزايدة بسرعة للذكاء الاصطناعي.
مع توسع الشركة في مراكز البيانات، يتم الإجابة عمليًا على سؤال “هل تبيع نفيديا معالجات مركزية” من خلال عمليات النشر مثل هذه. يوضح الاتفاق العام بين ميتا ونفيديا كيف أصبحت معالجات نفيديا جزءًا مركزيًا من بنى الاستنتاج على نطاق واسع، حتى مع تجربة شركات السحابة الكبرى مع شرائحها المخصصة ومنصات المعجلين المنافسة.
ختامًا، تؤكد صفقة الأجهزة متعددة السنوات التي أبرمتها ميتا على تحول هيكلي في الذكاء الاصطناعي من تجمعات وحدات معالجة الرسومات الموجهة للتدريب إلى هياكل محسنة للاستنتاج مبنية حول معالجات متقدمة مثل Grace وVera. ومع ذلك، مع وجود منافسة من إنتل وAMD ومعالجات سحابية أصلية وشركات ناشئة متخصصة، تواجه نفيديا تحديًا معقدًا لتحويل استراتيجيتها الجديدة في المعالجات المركزية إلى سيطرة طويلة الأمد على مراكز البيانات.