العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
الدفعة الأولى من وكلاء الذكاء الاصطناعي، قد بدأت بعدم الاستماع بالفعل
المؤلف: ديفيد، تكنولوجيا شينتشاو TechFlow
مؤخرًا، أثناء تصفحي Reddit، لاحظت أن قلق المستخدمين الأجانب بشأن الذكاء الاصطناعي يختلف قليلاً عن القلق في الداخل.
داخل البلاد، لا يزال الموضوع نفسه يتكرر: هل سيحل الذكاء الاصطناعي محل عملي؟ منذ سنوات نتحدث عن ذلك، وكل عام لا يحدث ذلك؛ هذا العام، أصبح Openclaw مشهورًا، لكنه لا يزال بعيدًا عن الاستبدال الكامل.
أما على Reddit، فالمشاعر منقسمة مؤخرًا. في قسم التعليقات على بعض المنشورات التقنية، تظهر صوتان متناقضان غالبًا:
أحدهما يقول إن الذكاء الاصطناعي قوي جدًا، وسيمثل خطرًا كبيرًا في المستقبل. والآخر يقول إن الذكاء الاصطناعي يفسد حتى أبسط الأمور، فكيف يمكن الاعتماد عليه؟
الخوف من أن يكون الذكاء الاصطناعي قويًا جدًا، وفي الوقت ذاته اعتقاد أنه غبي جدًا.
ما يجعل هاتين المشاعر تتواجدان معًا هو خبر حديث عن Meta.
من يتحمل المسؤولية إذا لم يلتزم الذكاء الاصطناعي بالتعليمات؟
في 18 مارس، نشر مهندس داخلي في Meta مشكلة تقنية على منتدى الشركة، حيث استخدم زميل له وكيل ذكاء اصطناعي للمساعدة في التحليل. وهو إجراء طبيعي.
لكن بعد أن أنهى الوكيل التحليل، نشر ردًا بنفسه على المنتدى التقني. لم يطلب إذن أحد، ولم ينتظر موافقة، وتجاوز صلاحياته في النشر.
ثم قام زملاؤه بتنفيذ ما أوصاهم به الوكيل، مما أدى إلى تغييرات في الصلاحيات، وكشف بيانات حساسة للشركة والمستخدمين لموظفين داخليين ليس لديهم صلاحية الاطلاع عليها.
تم إصلاح المشكلة بعد ساعتين. وقررت Meta أن مستوى خطورة الحادث هو Sev 1، وهو ثاني أعلى مستوى.
انتشرت هذه الأخبار بسرعة على قسم r/technology، وتحول قسم التعليقات إلى معسكرين متصارعين.
فريق يقول إن هذا هو نموذج حقيقي لمخاطر وكيل الذكاء الاصطناعي، وفريق آخر يعتقد أن المشكلة الحقيقية كانت في الشخص الذي تصرف دون تحقق. وكل طرف له وجهة نظره، لكن المشكلة الحقيقية تكمن في أن حادثة وكيل الذكاء الاصطناعي لا يمكن تحديد المسؤول عنها بوضوح.
وهذا ليس أول مرة يتجاوز فيها الذكاء الاصطناعي صلاحياته.
في الشهر الماضي، طلبت مديرة الأبحاث في مختبر الذكاء الاصطناعي المتقدم في Meta، Summer Yue، من OpenClaw مساعدتها في تنظيم البريد الإلكتروني. وأعطت تعليمات واضحة: أخبرني أولًا بما تنوي حذفه، وأوافق على ذلك قبل أن تبدأ.
لكن الوكيل بدأ الحذف الجماعي مباشرة دون انتظار موافقتها.
حاولت عبر هاتفها إيقاف العملية بثلاث رسائل، لكن الوكيل تجاهلها جميعًا. وفي النهاية، اضطرت إلى إيقاف العملية يدويًا على الكمبيوتر، وحُذفت أكثر من 200 رسالة.
رد الوكيل بعد ذلك كان: نعم، أتذكر أنك قلتِ أن تتأكدي أولًا، لكنني خالفت المبدأ. والمضحك أن وظيفة هذا الشخص الأساسية هي دراسة كيفية جعل الذكاء الاصطناعي يسمع كلام البشر.
في العالم السيبراني، الذكاء الاصطناعي المتقدم يُستخدم من قبل البشر المتقدمين، وبدأ يتصرف بشكل غير طيع.
ماذا لو لم يطِع الروبوت أيضًا؟
إذا كانت حادثة Meta لا تزال داخل الشاشة، فإن حادثة أخرى هذا الأسبوع وضعت المشكلة على المائدة.
في مطعم Haidilao في كوبرتينو، كاليفورنيا، كانت روبوت إنسان آلي من نوع Agibot X2 يرقص ويُسلي الزبائن. لكن أحد الموظفين أخطأ في تشغيل جهاز التحكم عن بعد، مما أدى إلى تفعيل وضع الرقص عالي القوة في مساحة ضيقة بجانب الطاولة.
بدأ الروبوت يرقص بشكل مجنون ويستمتع، دون سيطرة من الموظفين. حاول ثلاثة من الموظفين التدخل: أحدهم من الخلف يعتنقه، وآخر يحاول إيقافه عبر تطبيق الهاتف، واستمر المشهد لأكثر من دقيقة.
رد فعل المطعم كان أن الروبوت لم يتعرض لعطل، وأن حركاته كانت مبرمجة مسبقًا، وأنه فقط تم وضعه قريبًا جدًا من الطاولة. من الناحية التقنية، هذا ليس خروجًا عن السيطرة من قبل الذكاء الاصطناعي، بل خطأ بشري.
لكن الأمر المزعج هنا ليس فقط من ضغط على الزر بشكل خاطئ.
عندما حاول الثلاثة التدخل، لم يكن أحد منهم يعرف كيف يوقف الروبوت على الفور. بعضهم حاول عبر التطبيق، وآخر أمسك بذراع الآلة يدويًا، وكل ذلك يعتمد على القوة.
هذه ربما تكون مشكلة جديدة بعد أن دخل الذكاء الاصطناعي العالم المادي.
في العالم الرقمي، إذا تجاوز الوكيل صلاحياته، يمكنك إيقاف العملية، تعديل الصلاحيات، أو استرجاع البيانات. أما في العالم المادي، إذا تعطلت الآلة، فإن الحل الطارئ الوحيد هو الإمساك بها، وهو حل غير مناسب تمامًا.
الآن، لم تعد المشكلة مقتصرة على المطاعم فقط. في المستودعات، تستخدم روبوتات الترتيب من أمازون، وفي المصانع، هناك أذرع روبوتية للتعاون، وفي المولات، توجد روبوتات إرشاد، وفي دور رعاية المسنين، توجد روبوتات رعاية. الأتمتة تتسرب إلى أماكن يشارك فيها البشر والآلات بشكل متزايد.
من المتوقع أن تصل قيمة تركيب الروبوتات الصناعية العالمية إلى 167 مليار دولار بحلول 2026، وكل روبوت يقترب أكثر من تقليل المسافة الفيزيائية بين الإنسان والآلة.
عندما تتغير مهمة الروبوت من الرقص إلى تقديم الطعام، ومن الأداء إلى الجراحة، ومن الترفيه إلى الرعاية، فإن تكلفة الخطأ تتصاعد.
وفي الوقت الحالي، لا توجد إجابة واضحة على سؤال: من يتحمل المسؤولية إذا أصاب الروبوت شخصًا في مكان عام؟
الطاعة المفرطة مشكلة، وعدم وجود حدود أكثر مشكلة
في الحادثتين السابقتين، الأولى كانت أن الذكاء الاصطناعي أصدر منشورًا خاطئًا من تلقاء نفسه، والثانية كانت أن روبوتًا رقص في مكان غير مناسب. بغض النظر عن التصنيف، فالمشكلة أن هناك خللاً، وهو حادث غير متعمد، ويمكن إصلاحه.
لكن ماذا لو كان الذكاء الاصطناعي يلتزم بدقة بالتعليمات، ومع ذلك تشعر بعدم الارتياح؟
في هذا الشهر، أطلقت شركة Tinder، أحد تطبيقات المواعدة الشهيرة، خلال مؤتمر إطلاق المنتج، ميزة جديدة تسمى Camera Roll Scan. ببساطة:
يستخدم الذكاء الاصطناعي لمسح جميع الصور في معرض هاتفك، وتحليل اهتماماتك، شخصيتك، ونمط حياتك، لمساعدتك في إنشاء ملف تعريف للمواعدة، يوضح نوع الأشخاص الذي تفضله.
صور السيلفي الرياضية، مناظر السفر، صور الحيوانات الأليفة، كلها مقبولة. لكن قد تحتوي الصور على لقطات من البنك، تقارير فحوصات، صور مع شريك سابق… فماذا لو قام الذكاء الاصطناعي بمراجعة هذه الصور أيضًا؟
قد لا يكون لديك خيار في اختيار ما يراه وما لا يراه. إما تفعله بالكامل، أو لا تستخدمه على الإطلاق.
هذه الميزة تتطلب تفعيلًا يدويًا من المستخدم، وليست مفعلة بشكل افتراضي. وتؤكد Tinder أن المعالجة تتم بشكل رئيسي على الجهاز، مع فلترة المحتوى الفاضح، وتعتيم الوجوه.
لكن قسم التعليقات على Reddit كان غاضبًا جدًا، واعتبر أن الأمر يتعلق بجمع البيانات بدون حدود. الذكاء الاصطناعي يعمل وفقًا للتصميم، لكن هذا التصميم يتجاوز حدود المستخدم.
وهذا ليس قرارًا خاصًا بـ Tinder فقط.
في الشهر الماضي، أطلقت Meta أيضًا وظيفة مماثلة، تسمح للذكاء الاصطناعي بمسح الصور غير المنشورة على هاتفك واقتراح تعديلات عليها. الذكاء الاصطناعي يراقب المحتوى الخاص للمستخدم، ويبدأ في أن يصبح جزءًا من تصميم المنتج بشكل افتراضي.
تقول بعض البرامج الخبيثة المحلية: “لقد اعتدنا على هذا الأسلوب”.
عندما تتجه المزيد من التطبيقات إلى تقديم “الذكاء الاصطناعي لمساعدتك في اتخاذ القرارات” كوسيلة مريحة، فإن ما يقدمه المستخدمون يتطور بشكل خفي. من سجل الدردشة، إلى الصور، إلى آثار حياتك على الهاتف كله…
وظيفة يطورها مدير منتج في اجتماع، ليست حادثة أو خطأ، ولا تحتاج إلى إصلاح.
ربما يكون هذا هو أصعب جزء في مسألة حدود الذكاء الاصطناعي، وهو السؤال الذي يصعب الإجابة عليه.
وفي النهاية، عند وضع كل هذه الأمور معًا، ستدرك أن القلق من أن الذكاء الاصطناعي سيحل محلك ويجعلك عاطلاً عن العمل هو أمر بعيد جدًا.
لا يمكن تحديد متى سيحل الذكاء الاصطناعي مكانك بشكل دقيق، لكن في الوقت الحالي، يكفي أن يتخذ بعض القرارات نيابة عنك دون علمك، ليجعلك تشعر بعدم الارتياح.
نشر منشور لم تمنحه إذنًا، حذف رسائل البريد الإلكتروني التي أخبرته بعدم حذفها، تصفح الصور التي لا تنوي مشاركتها مع أحد… كل واحدة منها ليست قاتلة، لكنها تشبه نوعًا من القيادة الذكية المفرطة في التهور:
تعتقد أنك لا تزال تتحكم في المقود، لكن دواسة الوقود تحت قدميك لم تعد تمامًا من صنعك.
بحلول 2026، إذا استمر الحديث عن الذكاء الاصطناعي، فربما يكون الأمر الأكثر أهمية بالنسبة لي ليس متى سيصبح ذكيًا جدًا، بل سؤال أكثر قربًا وواقعية:
من يحدد ما يمكن للذكاء الاصطناعي فعله وما لا يمكنه فعله؟ من يرسم هذا الخط؟