في-في لي: لماذا يعتمد مستقبل الذكاء الاصطناعي على إبقاء البشر في السيطرة

عندما تتحدث فيي-في لي عن الذكاء الاصطناعي، تحمل وزن شخص ساهم في تشكيل هذا المجال. كأستاذة في جامعة ستانفورد و force رائدة وراء ImageNet — قاعدة البيانات الضخمة للصور التي أشعلت ثورة التعلم العميق — قضت فيي-في لي 25 عامًا تشهد تطور الذكاء الاصطناعي من سعي أكاديمي إلى قوة تغير الحضارة. ومع ذلك، تعترف حتى هي: “لم أتوقع أن يصبح بهذا الحجم”. في حديثها الواسع النطاق مؤخرًا، تأمل فيي-في لي في مكانة الذكاء الاصطناعي اليوم، واتجاهه، والخيارات البشرية التي ستحدد تأثيره.

لماذا ترى فيي-في لي أن الذكاء الاصطناعي سيف ذو حدين للبشرية

على مدى أكثر من عقدين، لاحظت فيي-في لي مسار الذكاء الاصطناعي من المختبر إلى الاعتماد السائد. وتؤكد حقيقة حاسمة: التكنولوجيا دائمًا لها جانبان. منذ فجر الحضارة، كانت الأدوات التي صنعها الإنسان تُستخدم عادة للخير — لكنها يمكن أيضًا أن تُسَخَّر عمدًا كسلاح أو تتسبب في أضرار غير مقصودة. والذكاء الاصطناعي ليس استثناءً.

ما يميز هذه اللحظة، وفقًا لفين-في لي، هو نطاق الذكاء الاصطناعي. “هذه تقنية على مستوى حضاري”، تشرح. السبب ليس فقط قوتها، بل مدى تأثيرها — فهي تؤثر بطريقة ما على عمل الجميع، وسبل عيشهم، ورفاهيتهم، ومستقبلهم. هذا التأثير الشامل هو بالضبط سبب إصرارها على أن الرقابة لا يمكن أن تترك لعدد قليل من الشركات.

تتصور فيي-في لي مشهدًا للذكاء الاصطناعي حيث يتم توزيع القوة بدلاً من تركيزها. “آمل أن تصبح هذه التقنية أكثر ديمقراطية”، تقول. “من يصنعها أو يمتلكها يجب أن يستخدمها بمسؤولية، ويجب أن يكون للجميع القدرة على التأثير في هذه التقنية.” هذا الت democratization ليس مجرد مثالية — إنه وجودي. عندما تسيطر عدد قليل من الشركات بشكل غير متناسب، تتصدع المساءلة ويصبح عدم التوافق أكثر احتمالًا.

من محل تنظيف جاف إلى رائدة في الذكاء الاصطناعي: كيف تشكلت فيي-في لي

فهم قناعتها بشأن الوكالة البشرية يتطلب فهم رحلتها. وصلت إلى الولايات المتحدة في سن 15، تتحدث الإنجليزية بشكل محدود، ومن خلفية متواضعة في الصين. كان والداها يعملان كصرافين؛ وأدى اليأس المالي في النهاية إلى فتح عائلة فيي-في لي محل تنظيف جاف عندما كانت في الجامعة.

“أمزح أنني كنت المدير التنفيذي”، تتذكر. من سن 18 وحتى منتصف دراستها العليا — سبع سنوات — كانت تدير العمل عن بُعد، تتلقى مكالمات العملاء، وتدير الفواتير، وتفحص الجودة، بينما تتابع أبحاثها العلمية المتقدمة. علمتها هذه الحياة المزدوجة الصمود. “تحتاج إلى الصمود لإجراء البحوث العلمية، لأن مسار العلم غير خطي — لا أحد لديه إجابات جاهزة”، تتأمل. “كهاجرة، عليك أيضًا أن تتعلم أن تكون صامدة.”

كان بطل طفولتها الفيزياء. نشأت في مدينة صغيرة في الصين، ووجدت في الفيزياء مهربًا — بابًا لأسئلة عن الكون، والنوى الذرية، وطبيعة الوجود نفسه. ألهمها شخصيات مثل نيوتن، وماكسويل، وشرودنغر، وآينشتاين لطرح أسئلة جريئة. لكن بحلول الجامعة، تغيرت استفساراتها: ما هو الذكاء؟ كيف ينشأ؟ كيف يمكننا إنشاء آلات ذكية؟ أصبح هذا السؤال نجمها الشمالي.

جاء الاختراق عبر جسر غير متوقع. أثناء دراستها لكيفية تنظيم الدماغ البشري للمفاهيم البصرية، صادفت WordNet — تصنيف لغوي ينظم المفاهيم الدلالية ليس أبجديًا، بل بحسب العلاقات. تفاحة وكمثرى أقرب من تفاحة وغسالة. وأشعلت هذه الرؤية إدراكًا: إذا كانت اللغة تصف ملايين الأشياء، والكائنات الذكية تمتص كميات هائلة من البيانات لفهم العالم، فإن الآلات بحاجة أيضًا إلى هذه القدرة.

وهذا أدى إلى ImageNet. في أوائل العقد الأول من القرن الحادي والعشرين، عندما كانت مجموعات البيانات تحتوي على 4-20 فئة من الكائنات، أنشأت فيي-في لي وزملاؤها قاعدة بيانات تضم 22,000 فئة من الكائنات و15 مليون صورة موسومة. كان هذا التحول في الحجم بمثابة ثورة — شرط ضروري لازدهار التعلم العميق. اليوم، تُعرف فيي-في لي بأنها مهندسة هذا التحول، و"العرابة" للذكاء الاصطناعي، رغم تأكيدها على أن الاكتشافات العلمية هي جهد جماعي.

الذكاء المكاني: الرؤية القادمة لفين-في لي للذكاء الاصطناعي

بعد أن شكّلت الذكاء البصري، تقود فيي-في لي الآن شركة وورلد لابز، وهي شركة ناشئة تركز على ما تسميه “الحدود التالية” للذكاء الاصطناعي: الذكاء المكاني. قيمتها السوقية 1.1 مليار دولار، وتطور Marble — نموذج متقدم يولد عوالم ثلاثية الأبعاد من أوامر بسيطة.

الفرق مهم. في النصف الأول من مسيرتها، كانت فيي-في لي تتعامل مع مشكلة “الرؤية” — استقبال المعلومات بشكل سلبي. لكن التطور يُعلمنا أن الذكاء لا ينفصل عن الفعل. نرى لأننا نتحرك؛ نتحرك بشكل أفضل لأننا نرى. “كيف نبني هذا الاتصال؟” تسأل. “نحتاج إلى فهم الفضاء ثلاثي الأبعاد، كيف تتحرك الأشياء، كيف أمد يدي لأمسك كوبًا — جوهر كل هذا هو الذكاء المكاني.”

تطبيقات Marble تتنوع عبر القطاعات. المصممون يبتكرون في بيئات ثلاثية الأبعاد؛ مطورو الألعاب يختبرون المشاهد بسرعة؛ الروبوتات تتدرب في محاكاة قبل الانتقال إلى الواقع؛ والمعلمون يغمرون الطلاب في عوالم افتراضية لفهم مفاهيم معقدة. تخيل فتيات أفغانيات يحضرن دروسًا في فصول افتراضية، أو طفل يبلغ من العمر 8 سنوات يمشي داخل خلية لمراقبة النوى، والإنزيمات، والأغشية. هذه ليست احتمالات بعيدة — إنها تطبيقات فورية تنتظر التطوير.

تؤكد فيي-في لي أن الذكاء المكاني يكمل بدلاً من أن يحل محل الذكاء اللغوي. “الذكاء المكاني مهم تمامًا مثل الذكاء اللغوي، وهما يكملان بعضهما البعض”، تصر.

كيف تتعامل فيي-في لي مع تهديدات الذكاء الاصطناعي للوظائف

من بين الأسئلة الأكثر إلحاحًا حول الذكاء الاصطناعي: هل سيدمر الوظائف؟ لا تتجنب فيي-في لي الواقع. فيسفورس، قال مارك بنيوف، إن 50% من أدوار خدمة العملاء قد تم أتمتتها بالفعل. “هذا يحدث حقًا”، تعترف فيي-في لي.

لكنها تعيد صياغة النقاش. كل تقنية تحويلية — البخار، والكهرباء، والحواسيب، والسيارات — سببت ألمًا أثناء إعادة تشكيل سوق العمل. السؤال ليس فقط هل تزداد الوظائف أو تنقص؛ بل كيف تدير المجتمع هذا الانتقال. “يجب على الأفراد أن يواصلوا التعلم، وعلى الشركات والمجتمع أيضًا أن يتحملوا مسؤوليات”، تقول فيي-في لي.

هذه المسؤولية المشتركة تتجاوز الشركات. يسألها الآباء باستمرار: “ماذا يجب أن يدرس طفلي؟ هل ستكون هناك وظائف؟” تركز إجاباتها على تنمية الإنسان أكثر من التدريب التقني. “امنحهم الوكالة، والكرامة، والفضول، والقيم الأبدية مثل الصدق، والاجتهاد، والإبداع، والتفكير النقدي”، تنصح. “لا تقتصر على الاهتمامات الأكاديمية؛ فهم ميول طفلك وشخصيته، ووجههم بناءً على ذلك. القلق لا يحل شيئًا.”

لكن قلقها الأكبر يركز على المعلمين. “قلقي الحقيقي الوحيد هو معلمونا. هم العمود الفقري لمجتمعنا، وأساسيون لرعاية جيلنا القادم. هل نتواصل معهم بشكل صحيح؟ هل نشاركهم؟” هذا القلق يعكس قناعتها بأن التكنولوجيا يجب أن تعزز القدرات البشرية، وليس أن تحل محل الحكم البشري في مجالات مثل التعليم.

رأي فيي-في لي في مخاطر وجودية للذكاء الاصطناعي: ليست الآلات

يقدر جيفري هينتون، الحائز على جائزة نوبل ورائد التعلم العميق الذي تسميه فيي-في لي صديقًا منذ 25 عامًا، أن هناك فرصة بنسبة 10-20% أن يقود الذكاء الاصطناعي الفائق إلى انقراض الإنسان. تحترم هينتون — لكنها تختلف معها. “بالنسبة لـ ‘استبدال الإنسانية’، الأمر ليس مستحيلًا، لكن إذا واجهت البشرية أزمة حقيقية، فستكون بسبب أخطائنا نحن، وليس الآلات”، تقول فيي-في لي.

نقاشها يتحول من الآلات إلى الحوكمة. “لماذا تسمح البشرية بشكل جماعي بحدوث ذلك؟ أين مسؤوليتنا الجماعية، والحكم، والتنظيم؟” بدلاً من الخوف من استقلالية الذكاء الفائق، تؤكد فيي-في لي على الوكالة البشرية الجماعية. المشكلة ليست في قدرة الآلة، بل في إدارة البشر، والتعاون الدولي، والأطر التنظيمية.

وتعترف بعدم وجود اتفاقات عالمية رسمية بعد. “هذا المجال لا يزال في مهدّه؛ لا توجد معاهدات دولية أو توافق عالمي من هذا القبيل بعد. لكن أعتقد أن لدينا وعيًا عالميًا بالفعل.” والنتيجة: لدى البشرية وقت لبناء حواجز قبل وصول الذكاء الفائق.

مفارقة الطاقة: كيف توازن فيي-في لي بين مخاوف المناخ والابتكار

تدريب نماذج الذكاء الاصطناعي الكبيرة يتطلب كهرباء هائلة. يحذر البعض من أن مراكز البيانات الضخمة قد تجلب كارثة بيئية. لا تتجاهل فيي-في لي هذا القلق — لكنها توجهه. “لا أحد يقول إن مراكز البيانات هذه يجب أن تستخدم الوقود الأحفوري. سيكون الابتكار في قطاع الطاقة جزءًا رئيسيًا من الحل.”

الدول التي تبني مراكز بيانات ضخمة تواجه خيارًا: مراجعة سياسات الطاقة والهياكل الصناعية، أو تسريع استثمار الطاقة المتجددة. ويُظهر ازدهار الذكاء الاصطناعي، بشكل غريب، فرصة لتحفيز الانتقال إلى الطاقة الخضراء. “هذا يمنحنا فرصة للاستثمار وتطوير المزيد من الطاقة المتجددة”، تقترح فيي-في لي — إعادة صياغة عملية بشكل عملي لأزمة ظاهرية.

موقف فيي-في لي الوسيط: لا أوتوبيا ولا ديستوبيا

عند سؤالها عن رؤيتها للعالم، ترفض فيي-في لي كل من التصورات اليوتوبية والكابوسية. “أنا في الواقع وسطية متواضعة”، تضحك. “الوسطية المتواضعة تريد أن تنظر إلى هذه القضية من منظور أكثر براغماتية وعلمية.”

يتجلى هذا البراغماتية عندما تتحدث عن سوء الاستخدام. لقد غيرت النار الحضارة — لكن النار يمكن أن تحترق. الذكاء الاصطناعي سيساعد البشرية — لكن استخدامه بشكل خاطئ يقلقها. والأمر المقلق أيضًا هو التواصل العام. “أشعر أن هناك قلقًا واسعًا”، تلاحظ، وغالبًا ما ينبع هذا القلق من الإثارة الإعلامية بدلاً من النقاش المتوازن.

قلقها الخاص: كيف يصوغ السياسيون ووسائل الإعلام صورة الذكاء الاصطناعي. لاحظت أن قادة العالم يطرحون أسئلة مثل “ماذا نفعل عندما يظهر الحكام الآليون؟” — وهو إطار يخلط بين الخيال العلمي والواقع السياسي. “يجب أن يتجاوز نقاشنا العام حول الذكاء الاصطناعي السؤال، ‘ماذا نفعل عندما يظهر الحكام الآليون؟’” تصر فيي-في لي.

الرسالة الأساسية لفين-في لي: المبادرة البشرية في عصر الذكاء الاصطناعي

تختتم فيي-في لي بقناعة مستمدة من عقود في المجال. “في عصر الذكاء الاصطناعي، المبادرة يجب أن تكون في يد الإنسان. المبادرة ليست مع الآلات، بل معنا نحن.” هذا ليس عودة إلى الحنين للزمن الرقمي — إنه دعوة لأن نكون متعمدين في استخدام التكنولوجيا.

تطبق ذلك على أطفالها وغيرهم حول العالم. “لا تكن كسولًا فقط لأن لديك الذكاء الاصطناعي”، تنصح. استخدام نماذج اللغة الكبيرة للحصول على إجابات يختصر التعلم. فهم الرياضيات يتطلب جهدًا؛ ويجب أن يكمل الذكاء الاصطناعي هذا الجهد، لا أن يحل محله. “اطرح الأسئلة الصحيحة”، تقول. وعلى الجانب الآخر، لا تستخدم الذكاء الاصطناعي كسلاح. قاوم الفيديوهات المزيفة، والوسائط المُولَّدة، والمعلومات المضللة المنسقة.

بالنسبة لفين-في لي، القيم الإنسانية التقليدية — الفضول، والصدق، والإبداع، والتفكير النقدي، والمسؤولية — ليست آثارًا قديمة. إنها البنية التحتية الأساسية لعالم يعتمد على الذكاء الاصطناعي. “كمعلمة وأم، أؤمن أن بعض القيم الإنسانية أبدية، ويجب أن ندرك ذلك.” هذه القيم، التي تُنمَّى من خلال التعليم والتجربة الحية، تشكل أساس الحكمة في إدارة التكنولوجيا التحولية.

رحلتها من مراهقة لا تتحدث الإنجليزية وتعمل في محل تنظيف جاف إلى باحثة عالمية مؤثرة في الذكاء الاصطناعي تؤكد على رسالتها المركزية: أن الوكالة البشرية، والمرونة، والنية المقصودة هي التي تشكل النتائج أكثر من القوة التكنولوجية. تلك الرسالة — المستمدة من خبرتها الحية و25 عامًا من الغمر في الذكاء الاصطناعي — قد تكون أهم إسهام لها في النقاش المستمر حول مستقبل التكنولوجيا.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.4Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.41Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$2.44Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$2.46Kعدد الحائزين:2
    0.20%
  • تثبيت