تقنية الذكاء الاصطناعي (AI) أصبحت سلاحًا فعالًا في ترسانة المجرمين الإلكترونيين المعاصرين. يخلق هذا التحول مشهد تهديدات أكثر تعقيدًا، مع هجمات أسرع، وأرخص في التنفيذ، وأكثر صعوبة في الكشف عنها. يحذر الخبراء من أن الجريمة الإلكترونية دخلت عصرًا جديدًا حيث الحجم والنطاق هما العاملان الرئيسيان.
الجريمة الإلكترونية تتطور بسرعة من خلال أتمتة الذكاء الاصطناعي
أبلغت شركات الذكاء الاصطناعي الرائدة مثل Anthropic وOpenAI وGoogle عن زيادة ملحوظة في استخدام منصاتها للأنشطة الخبيثة. يستغل المجرمون هذه التكنولوجيا لتصميم عمليات تصيد مستهدفة معقدة، وتطوير برامج ضارة متقدمة، وتنفيذ هجمات رقمية متعددة المستويات.
واحدة من التغييرات الأكثر لفتًا للنظر هي ظهور الصوت والفيديو المزيف العميق الذي يُستخدم لخداع الموظفين. يمكن للمحتالين الآن إنشاء محتوى وسائط متعددة مزيف يُحاكي قادة الشركات، مما يجبر الموظفين على الكشف عن معلومات حساسة أو تحويل أموال دون شك.
تشرح أليس مارويك، الباحثة في Data & Society، هذه الظاهرة لصحيفة وول ستريت جورنال بتصريح بسيط لكنه مؤثر: “التغيير الحقيقي هو في الحجم والنطاق. الاحتيال أكبر، وأكثر استهدافًا، وأكثر إقناعًا.”
رسائل التصيد الاحتيالي عبر الذكاء الاصطناعي تهيمن على مشهد التهديدات
يتوقع الباحث بريان سينغر من جامعة كارنيجي ميلون، المتخصص في استخدام نماذج اللغة الكبيرة في الهجمات الإلكترونية، أن نصف إلى ثلاثة أرباع جميع الرسائل المزعجة ورسائل التصيد الاحتيالي حول العالم الآن تأتي من أنظمة الذكاء الاصطناعي.
تصل مصداقية هذه الرسائل إلى مستوى جديد. يمكن لنظام الذكاء الاصطناعي المدرب على أسلوب التواصل الخاص بالشركة أن ينتج آلاف الرسائل التي تبدو طبيعية ومتسقة مع نمط كتابة المنظمة المستهدفة. تتضمن هذه الرسائل:
تقليد أسلوب التنفيذيين بدقة عالية
الإشارة إلى أخبار حديثة من السجلات العامة
إزالة الأخطاء اللغوية التي كانت تكشف سابقًا عن محاولات الاحتيال الدولية
يوصف هذا التحول من قبل جون هولتسكيت، رئيس محللي مجموعة التهديدات الاستخباراتية في Google، بأنه “مصداقية على نطاق واسع.”
الاستهداف القائم على البيانات: تحديد الضحايا الضعفاء
يصبح المستخدمون الخبيثون أكثر ذكاءً في اختيار أهدافهم. يستخدمون الذكاء الاصطناعي لفرز وسائل التواصل الاجتماعي وتحديد الأفراد الذين يواجهون صعوبات كبيرة في الحياة—كالطلاق، وفاة أحد أفراد الأسرة، فقدان الوظيفة—مما يجعلهم أكثر عرضة للاحتيال الرومانسي، الاحتيال الاستثماري، أو العروض الوظيفية المزيفة.
يعزز هذا النهج القائم على البيانات معدلات تحويل الاحتيال بشكل كبير.
السوق السوداء تخفض حواجز الدخول للجريمة الإلكترونية
لقد تطور النظام البيئي غير القانوني ليصبح مركز توزيع لخدمات الذكاء الاصطناعي الإجرامية. تقدم هذه المنصات أدوات اختراق بأسعار معقولة—ابتداءً من $90 شهريًا—مع دعم عملاء متعدد المستويات.
تعمل هذه الخدمات بأسماء مثل WormGPT وFraudGPT وDarkGPT. وتتيح:
إنشاء برامج ضارة بدون برمجة يدوية
حملات تصيد احتيالي تلقائية واسعة النطاق
دروس تقنية للاختراق منظمة للمبتدئين
يوضح نيكولاس كريستين، قائد قسم البرمجيات والأنظمة في Carnegie Mellon، نموذج العمل هذا: “يبيع المطورون اشتراكات لمنصات الهجوم بأسعار متعددة مع دعم كامل للعملاء.”
تلخص مارجريت كاونينغهام، نائبة رئيس الأمن والاستراتيجية في Darktrace، الحواجز المعرفية قائلة: “لست بحاجة لمعرفة كيفية كتابة الكود، فقط تعرف أين تجد الأدوات.”
تسمح التطورات الأخيرة المعروفة باسم “vibe-coding” أو “vibe-hacking” للمجرمين المحتملين باستخدام الذكاء الاصطناعي لإنشاء برامجهم الضارة الخاصة بدلاً من شرائها من السوق السوداء. كشفت شركة Anthropic في بداية هذا العام أنها أوقفت عدة محاولات لاستخدام Claude AI الخاص بهم لإنشاء برامج فدية من قبل “مجرمين ذوي مهارات تقنية قليلة.”
تصعيد العمليات الإجرامية الإلكترونية
لطالما عملت الجريمة الإلكترونية كبيئة أعمال متخصصة لسنوات. غالبية عمليات الفدية تتضمن تقسيم العمل:
وسطاء الوصول يقتحمون شبكات الشركات ويبيعون الوصول للمجموعات التالية.
فريق الاختراق يتنقل عبر الأنظمة لسرقة البيانات القيمة.
مزودو خدمات الفدية يطلقون البرامج الضارة، يديرون المفاوضات، ويوزعون الأرباح.
لقد أحدث الذكاء الاصطناعي ثورة في هذا النموذج من خلال زيادة السرعة، والأتمتة، والقابلية للتوسع. يمكن الآن تنفيذ الأعمال التي كانت تتطلب خبرة تقنية خاصة بشكل تلقائي، مما يسمح للجماعات الإجرامية بالعمل بعدد أقل من الأفراد، مع مخاطر أقل، وأرباح أعلى.
يقول كريستين بمقاربة مناسبة: “فكر في هذا كالثورة الصناعية التالية. الذكاء الاصطناعي يعزز الإنتاجية دون الحاجة لمزيد من العمالة الماهرة.”
هل يمكن للذكاء الاصطناعي تنفيذ هجمات كاملة بنفسه؟
لم تتوفر إجابة قاطعة على هذا السؤال بعد. يقارن الخبراء الوضع بتطور المركبات الذاتية القيادة. لقد تم تحقيق خمسة بالمئة من الأتمتة، لكن الخمسة بالمئة الأخيرة التي تتيح التشغيل المستقل تمامًا لا تزال بعيدة المنال.
يجري الباحثون اختبار قدرات الاختراق باستخدام الذكاء الاصطناعي في بيئة المختبرات. نجح فريق في Carnegie Mellon، بدعم من Anthropic، في إعادة محاكاة اختراق بيانات شركة Equifax الشهيرة باستخدام الذكاء الاصطناعي في بداية هذا العام—وصفه سينغر بأنه “قفزة كبيرة” في قدرات الأتمتة للهجمات.
دور الذكاء الاصطناعي في الدفاع: هل هناك أمل؟
على الرغم من أن المجرمين يستغلون الذكاء الاصطناعي لأغراض خبيثة، إلا أن التكنولوجيا ذاتها تقدم أدوات دفاع قوية. تعمل Anthropic وOpenAI على تطوير أنظمة يمكنها فحص الشفرات البرمجية باستمرار للكشف عن الثغرات قبل أن يعثر عليها المجرمون.
أظهر برنامج الذكاء الاصطناعي الأخير الذي طوره باحثو Stanford أداءً أفضل من بعض مختبري الأمان البشريين في تحديد مشكلات الثغرات الشبكية.
ومع ذلك، يؤكد هولتسكيت أن الذكاء الاصطناعي ليس حبة سحرية. يجب على المؤسسات التركيز على بناء شبكات مقاومة للهجمات—أنظمة تظل تعمل حتى أثناء الهجوم. الوقاية المطلقة غير ممكنة؛ المقاومة هي الهدف الحقيقي.
لقد أصبح المنظمات والأفراد الذين يفهمون تطور الجريمة الإلكترونية خطوة متقدمة في دفاعاتهم.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تهديدات الجرائم الإلكترونية تتصاعد بشكل حاد: كيف تغير الذكاء الاصطناعي تكتيكات الاختراق
تقنية الذكاء الاصطناعي (AI) أصبحت سلاحًا فعالًا في ترسانة المجرمين الإلكترونيين المعاصرين. يخلق هذا التحول مشهد تهديدات أكثر تعقيدًا، مع هجمات أسرع، وأرخص في التنفيذ، وأكثر صعوبة في الكشف عنها. يحذر الخبراء من أن الجريمة الإلكترونية دخلت عصرًا جديدًا حيث الحجم والنطاق هما العاملان الرئيسيان.
الجريمة الإلكترونية تتطور بسرعة من خلال أتمتة الذكاء الاصطناعي
أبلغت شركات الذكاء الاصطناعي الرائدة مثل Anthropic وOpenAI وGoogle عن زيادة ملحوظة في استخدام منصاتها للأنشطة الخبيثة. يستغل المجرمون هذه التكنولوجيا لتصميم عمليات تصيد مستهدفة معقدة، وتطوير برامج ضارة متقدمة، وتنفيذ هجمات رقمية متعددة المستويات.
واحدة من التغييرات الأكثر لفتًا للنظر هي ظهور الصوت والفيديو المزيف العميق الذي يُستخدم لخداع الموظفين. يمكن للمحتالين الآن إنشاء محتوى وسائط متعددة مزيف يُحاكي قادة الشركات، مما يجبر الموظفين على الكشف عن معلومات حساسة أو تحويل أموال دون شك.
تشرح أليس مارويك، الباحثة في Data & Society، هذه الظاهرة لصحيفة وول ستريت جورنال بتصريح بسيط لكنه مؤثر: “التغيير الحقيقي هو في الحجم والنطاق. الاحتيال أكبر، وأكثر استهدافًا، وأكثر إقناعًا.”
رسائل التصيد الاحتيالي عبر الذكاء الاصطناعي تهيمن على مشهد التهديدات
يتوقع الباحث بريان سينغر من جامعة كارنيجي ميلون، المتخصص في استخدام نماذج اللغة الكبيرة في الهجمات الإلكترونية، أن نصف إلى ثلاثة أرباع جميع الرسائل المزعجة ورسائل التصيد الاحتيالي حول العالم الآن تأتي من أنظمة الذكاء الاصطناعي.
تصل مصداقية هذه الرسائل إلى مستوى جديد. يمكن لنظام الذكاء الاصطناعي المدرب على أسلوب التواصل الخاص بالشركة أن ينتج آلاف الرسائل التي تبدو طبيعية ومتسقة مع نمط كتابة المنظمة المستهدفة. تتضمن هذه الرسائل:
يوصف هذا التحول من قبل جون هولتسكيت، رئيس محللي مجموعة التهديدات الاستخباراتية في Google، بأنه “مصداقية على نطاق واسع.”
الاستهداف القائم على البيانات: تحديد الضحايا الضعفاء
يصبح المستخدمون الخبيثون أكثر ذكاءً في اختيار أهدافهم. يستخدمون الذكاء الاصطناعي لفرز وسائل التواصل الاجتماعي وتحديد الأفراد الذين يواجهون صعوبات كبيرة في الحياة—كالطلاق، وفاة أحد أفراد الأسرة، فقدان الوظيفة—مما يجعلهم أكثر عرضة للاحتيال الرومانسي، الاحتيال الاستثماري، أو العروض الوظيفية المزيفة.
يعزز هذا النهج القائم على البيانات معدلات تحويل الاحتيال بشكل كبير.
السوق السوداء تخفض حواجز الدخول للجريمة الإلكترونية
لقد تطور النظام البيئي غير القانوني ليصبح مركز توزيع لخدمات الذكاء الاصطناعي الإجرامية. تقدم هذه المنصات أدوات اختراق بأسعار معقولة—ابتداءً من $90 شهريًا—مع دعم عملاء متعدد المستويات.
تعمل هذه الخدمات بأسماء مثل WormGPT وFraudGPT وDarkGPT. وتتيح:
يوضح نيكولاس كريستين، قائد قسم البرمجيات والأنظمة في Carnegie Mellon، نموذج العمل هذا: “يبيع المطورون اشتراكات لمنصات الهجوم بأسعار متعددة مع دعم كامل للعملاء.”
تلخص مارجريت كاونينغهام، نائبة رئيس الأمن والاستراتيجية في Darktrace، الحواجز المعرفية قائلة: “لست بحاجة لمعرفة كيفية كتابة الكود، فقط تعرف أين تجد الأدوات.”
تسمح التطورات الأخيرة المعروفة باسم “vibe-coding” أو “vibe-hacking” للمجرمين المحتملين باستخدام الذكاء الاصطناعي لإنشاء برامجهم الضارة الخاصة بدلاً من شرائها من السوق السوداء. كشفت شركة Anthropic في بداية هذا العام أنها أوقفت عدة محاولات لاستخدام Claude AI الخاص بهم لإنشاء برامج فدية من قبل “مجرمين ذوي مهارات تقنية قليلة.”
تصعيد العمليات الإجرامية الإلكترونية
لطالما عملت الجريمة الإلكترونية كبيئة أعمال متخصصة لسنوات. غالبية عمليات الفدية تتضمن تقسيم العمل:
وسطاء الوصول يقتحمون شبكات الشركات ويبيعون الوصول للمجموعات التالية.
فريق الاختراق يتنقل عبر الأنظمة لسرقة البيانات القيمة.
مزودو خدمات الفدية يطلقون البرامج الضارة، يديرون المفاوضات، ويوزعون الأرباح.
لقد أحدث الذكاء الاصطناعي ثورة في هذا النموذج من خلال زيادة السرعة، والأتمتة، والقابلية للتوسع. يمكن الآن تنفيذ الأعمال التي كانت تتطلب خبرة تقنية خاصة بشكل تلقائي، مما يسمح للجماعات الإجرامية بالعمل بعدد أقل من الأفراد، مع مخاطر أقل، وأرباح أعلى.
يقول كريستين بمقاربة مناسبة: “فكر في هذا كالثورة الصناعية التالية. الذكاء الاصطناعي يعزز الإنتاجية دون الحاجة لمزيد من العمالة الماهرة.”
هل يمكن للذكاء الاصطناعي تنفيذ هجمات كاملة بنفسه؟
لم تتوفر إجابة قاطعة على هذا السؤال بعد. يقارن الخبراء الوضع بتطور المركبات الذاتية القيادة. لقد تم تحقيق خمسة بالمئة من الأتمتة، لكن الخمسة بالمئة الأخيرة التي تتيح التشغيل المستقل تمامًا لا تزال بعيدة المنال.
يجري الباحثون اختبار قدرات الاختراق باستخدام الذكاء الاصطناعي في بيئة المختبرات. نجح فريق في Carnegie Mellon، بدعم من Anthropic، في إعادة محاكاة اختراق بيانات شركة Equifax الشهيرة باستخدام الذكاء الاصطناعي في بداية هذا العام—وصفه سينغر بأنه “قفزة كبيرة” في قدرات الأتمتة للهجمات.
دور الذكاء الاصطناعي في الدفاع: هل هناك أمل؟
على الرغم من أن المجرمين يستغلون الذكاء الاصطناعي لأغراض خبيثة، إلا أن التكنولوجيا ذاتها تقدم أدوات دفاع قوية. تعمل Anthropic وOpenAI على تطوير أنظمة يمكنها فحص الشفرات البرمجية باستمرار للكشف عن الثغرات قبل أن يعثر عليها المجرمون.
أظهر برنامج الذكاء الاصطناعي الأخير الذي طوره باحثو Stanford أداءً أفضل من بعض مختبري الأمان البشريين في تحديد مشكلات الثغرات الشبكية.
ومع ذلك، يؤكد هولتسكيت أن الذكاء الاصطناعي ليس حبة سحرية. يجب على المؤسسات التركيز على بناء شبكات مقاومة للهجمات—أنظمة تظل تعمل حتى أثناء الهجوم. الوقاية المطلقة غير ممكنة؛ المقاومة هي الهدف الحقيقي.
لقد أصبح المنظمات والأفراد الذين يفهمون تطور الجريمة الإلكترونية خطوة متقدمة في دفاعاتهم.