في ظل التطورات التكنولوجية المتسارعة، تتعدد انعكاسات الذكاء الاصطناعي على الأمن السيبراني، ليسهم إما في تعزيز القدرات الدفاعية، ومراقبة الشبكات والأنظمة بشكل لحظي، وتحليل كميات ضخمة من البيانات لرصد أنماط السلوك المشبوهة، والتنبؤ بالهجمات السيبرانية قبل وقوعها؛ وإما في تعقيد التهديدات السيبرانية، وتطوير برمجيات خبيثة، وتصميم هجمات سيبرانية ذكية تتجاوز وسائل الحماية التقليدية. وانطلاقاً من المعنى الثاني، برز مفهوم "الذكاء الاصطناعي المظلم"، مُخلّفاً تحديات أمنية وأخلاقية معقدة؛ حيث إنه يعني ضمناً إساءة استخدام الذكاء الاصطناعي، وبما يؤدي إلى زيادة تعقيد التهديدات والمخاطر السيبرانية.
الوجه المظلم:
تتمتع أدوات الذكاء الاصطناعي بالقدرة على طمس الحدود الفاصلة بين ما هو أصيل وما هو مزيف، وتوليد محتويات مزيفة تبدو حقيقية. ونتيجة لهذا، تزايدت عمليات الابتزاز والتهديد باستخدام تلك الأدوات لإجبار الضحايا على الامتثال للتهديدات ودفع الأموال والانخراط في أفعال غير مُباحة. ويستخدم الاستدراج الإلكتروني خوارزميات متقدمة لتحديد الضحايا المُحتملين واستهدافهم بفعالية أكبر عقب تحليل أنشطتهم وأنماط تواصلهم ومعلوماتهم الشخصية، لاستغلال نقاط ضعفهم. ولا يُسهّل التلاعب المُدار بالذكاء الاصطناعي عمليات تحديد الضحايا المُحتملين ويزيد من كفاءتها فحسب، بل يُمكّن أيضاً من تخصيص التفاعلات معهم لتكون أكثر إقناعاً، فيما يتضمن التزييف العميق المُدعم بالذكاء الاصطناعي التلاعب بالصور والصوت وإنشاء هويات مزيفة وانتحال هوية شخصيات معروفة.
وتأسيساً على هذا الجانب من الذكاء الاصطناعي، يُشير مصطلح "الذكاء الاصطناعي المُظلم" إلى استخدام الذكاء الاصطناعي، بما في ذلك الذكاء الاصطناعي التوليدي ونماذج اللغة الكبيرة (LLMs)، لأغراض خبيثة على شاكلة: شن هجمات سيبرانية، واختراق الأنظمة الآمنة، والتلاعب بالبيانات، وتوليد مُحتويات مُضللة، واستغلال نقاط الضعف في البنى التحتية الرقمية، وأتمتة الهجمات المُعقدة، وتهديد مجموعة واسعة من أنظمة المعلومات والأنظمة الرقمية (من البيانات الشخصية إلى البنية التحتية الحيوية).
وبعبارة أخرى؛ فإن "الذكاء الاصطناعي المظلم" لا يعدو كونه "تسليحاً عرضياً وإستراتيجياً" لأدوات الذكاء الاصطناعي، إن جاز التعبير، ولا سيّما أنه يُستخدم في الآتي:
- تحسين الهندسة الاجتماعية من خلال إنشاء رسائل بريد إلكتروني مُقنعة للتصيد الاحتيالي، ونسخ صفحات تسجيل الدخول لخداع المستخدمين لاختراق أنظمتهم.
- البحث الدقيق عن الثغرات القابلة للاستغلال ونقاط الضعف البشرية أو التقنية لاختراق البيانات الحساسة.
- اختراق أنظمة تكنولوجيا المعلومات وتجاوز وسائل الحماية المعروفة، والتسلل إلى البنية التحتية وترك أبواب خلفية للاختراق لاحقاً.
- التزييف العميق واستنساخ الأصوات وتقليد الأشخاص وانتحال هوياتهم.
- شن هجمات سيبرانية مُخصصة، ونشر التهديدات السيبرانية الأكثر شيوعاً، مثل البرامج الضارة وبرامج الفدية.
- تطوير برمجيات خبيثة متحورة قادرة على تغيير شكلها تلقائياً وباستمرار لتفادي أنظمة الكشف التقليدية.
ويُشير ما سبق إلى المساحة التي يتقاطع فيها الذكاء الاصطناعي والأمن السيبراني في نقطة تلاقٍ تشهد نقلة نوعية في طبيعة المخاطر والتهديدات السيبرانية المُحتملة، مع تزايد قوة أدوات الذكاء الاصطناعي وسهولة الوصول إليها وإتاحتها، ليس فقط للمطورين والباحثين بل ومجرمي الإنترنت أيضاً، بعيداً عن أي قيود أخلاقية أو ضوابط أمنية. فقد بدأ المهاجمون المحترفون وجماعات القرصنة بالفعل في تسخير الذكاء الاصطناعي لتحقيق أهدافهم، وستتفاقم تلك المخاطر إذا تمكن غير المحترفين أيضاً من استخدامه بسهولة. كما أنه في الوقت الحاضر، لا يزال الذكاء الاصطناعي بحاجة إلى تدخل بشري لصياغة برمجيات خبيثة فعالة، بيد أن ذلك لن يستمر في المدى المنظور. وبعبارة أخرى؛ فإن النماذج الذكية يُمكنها حالياً إنتاج برمجيات خبيثة؛ لكنها لا تزال بحاجة إلى تعديلات يدوية لتجاوز أنظمة الحماية، لكن في القريب ستبرز نماذج قادرة على إنتاج برمجيات خبيثة مُتقدمة بشكل تلقائي دون تدخل بشري يُذكر، بل وقادرة على تنفيذ كل ما يُطلب منها من رسائل تصيد مُقنعة ونسخ مُزيفة من مواقع إلكترونية شهيرة.
منصات احتيالية:
منذ إطلاق "شات جي بي تي" ChatGPT)) في نوفمبر 2023، احتدمت النقاشات على الشبكة المظلمة ومنتديات الإنترنت المظلم حول سُبل الاستفادة من الذكاء الاصطناعي التوليدي للالتفاف على حواجز السلامة وتوظيفه في أنشطة خبيثة، ما يُنذر ببيئة خصبة لجيل جديد من الأدوات والتطبيقات المستقلة المدعومة بالذكاء الاصطناعي، والمُصممة لتلبية احتياجات مجرمي الإنترنت غير المشروعة. ونتيجة لذلك، صاحب ظهور "شات جي بي تي" ابتكارات احتيالية في صورة بعض المنصات الموجودة في عوالم الإنترنت المظلمة، والتي باتت لديها القدرة على تغيير مشهد الأمن السيبراني لقدرتها على إنتاج محتويات ضارة وغير قانونية وغير أخلاقية، ولدورها في تنفيذ جرائم إلكترونية بسهولة غير مسبوقة دون أي حدود أو ضمانات أخلاقية، ومن أمثلة ذلك ما يلي:
1- (DarkBERT): تم تدريب هذا البرنامج من قِبل باحثين في كوريا الجنوبية على بيانات من الشبكة المظلمة لأغراض مكافحة الجريمة السيبرانية؛ بهدف استكشاف المواقع التي يستخدمها مجرمو الإنترنت وفهم مصطلحاتهم وكلماتهم السرية، بيد أن البرنامج نفسه بات مُستخدماً من المجرمين أنفسهم للعثور على الموارد التي يحتاجونها لشن الهجمات.
2- (Fraught ) :هو نموذج ذكاء اصطناعي توليدي، وبوت مُتقدم لأغراض هجومية، وأداة خبيثة من أدوات الذكاء الاصطناعي التوليدي. وقد ظهر في يوليو 2023 على قنوات "تليغرام" ومنتديات الويب المظلم بواجهة مشابهة لتطبيق "شات جي بي تي". ويُستخدم لأغراض عدة، منها إنشاء برامج ضارة غير قابلة للكشف، وإنشاء رسائل وصفحات تصيد احتيالي، وتصميم وإنشاء أدوات اختراق، والبحث عن التسريبات والثغرات.
3- (AutoGPT): أداة مفتوحة المصدر يستخدمها المتسللون لأغراض خبيثة. وعلى الرغم من انتفاء طابعها التدميري؛ فإنها تسمح لمستخدميها بتحديد الأهداف الخبيثة، وتدريب النماذج على التعلم الذاتي لتحقيق هذه الأهداف، واختراق دفاعات المؤسسات المُستهدفة للوصول إلى بيانات حساسة.
4- (FreedomGPT): أداة مفتوحة المصدر فريدة من نوعها، يمكن لأي شخص تحميلها واستخدامها دون اتصال بالإنترنت، فتغيب عنها حواجز الحماية الموجودة في نظرائها الشائعة؛ ما يعني إساءة استخدامها بالضرورة وتزويدها ببيانات تدريب ضارة.
5- (WormGPT): تعتمد هذه الأداة على نموذج لغة كبير مفتوح المصدر، وتحديداً مجموعة واسعة من مصادر البيانات، ولا سيّما البيانات المتعلقة بالبرامج الضارة. وهي أقرب ما تكون إلى بديل غير قانوني لتطبيق "شات جي بي تي" للقراصنة، وقد تم إطلاقها في يوليو 2023، وتم الترويج لها وتسويقها تجارياً عبر تطبيق "تليغرام" والمنتديات السرية، وتُستخدم لتوليد برامج ضارة وبرامج فدية متطورة وكتابة أكواد ضارة.
إن الأدوات السابقة لا تعدو كونها أدوات بلا حدود، وقد صُممت لأغراض خبيثة تتجاوز الحدود الأخلاقية، وتُنذر بمستوى أكثر تعقيداً من الهندسة الاجتماعية. ويتم الترويج لهذه الأدوات على أنها إصدارات غير قانونية من نماذج الذكاء الاصطناعي التوليدي المُعترف بها، ليستخدمها المحتالون والمخترقون ومرسلو البريد العشوائي، وهي ليست سوى بداية لموجة جديدة من الجرائم السيبرانية المدعومة بالذكاء الاصطناعي، ما يقتضي نهجاً استباقياً لحماية الأمن السيبراني لمواجهة التهديدات الديناميكية والمتطورة.
تحذيرات متنامية:
تُمثل الأدوات سالفة الذكر تهديداً متصاعداً حذرت منه أصوات عدة، كان منها شركة "كراود سترايك" (CrowdStrike) التي أشار تقريرها الصادر في عام 2024، المعني برصد التهديدات، إلى توظيف الذكاء الاصطناعي في شن هجمات أسرع وأكثر تطوراً دون الحاجة إلى أي خبرات تقنية متقدمة؛ في إشارة واضحة إلى التطور المستمر في تكتيكات أكثر من 245 جهة معاصرة. وعلى صعيد شركة "غارتنر" (Gartner)، أكد عدد من مسؤولي إدارة مخاطر المؤسسات أن الهجمات السيبرانية المدعومة بالذكاء الاصطناعي تُمثل أبرز المخاطر الناشئة عام 2024، وأن المعلومات المضللة المدعومة بالذكاء الاصطناعي تُمثل التهديد الأشد خطورة، في صعود بارز لمخاطر "الذكاء الاصطناعي المُظلم".
واتصالاً بهذا، وتأكيداً لتنامي الحديث عن استخدام أدوات الذكاء الاصطناعي الخبيثة في عالم الجريمة الإلكترونية بشكل حاد في عام 2024، راقبت شركة "كيلا"، المتخصصة في استخبارات التهديدات، منتديات الجريمة السيبرانية على مدار العام، وأصدرت تقريرها المعنون "تهديدات الذكاء الاصطناعي لعام 2025: كيف يُسخّر مجرمو الإنترنت تقنية الذكاء الاصطناعي كسلاح"، والذي دفع بتزايد النقاشات ذات الصلة بكيفية تجاوز الحواجز الأمنية المُدمجة في أدوات الذكاء الاصطناعي الشرعية، على شاكلة "شات جي بي تي"، لتنفيذ أنشطة خبيثة بنسبة 52%، وتزايد الإشارة إلى أدوات وتكتيكات الذكاء الاصطناعي المظلم بنسبة 219%. وأشار التقرير إلى أن "أدوات الذكاء الاصطناعي المظلمة تلك قد تطورت في صورة خدمات إلكترونية منتشرة ومتاحة باشتراكات شهرية وسنوية؛ حتى أدى تزايد الطلب عليها إلى ظهور إصدارات مزيفة منها لأغراض الربح المادي".
أما شركة "جوجل"، فقد كشفت مؤخراً عن أن بعض جماعات القرصنة المدعومة من الدول تستخدم نموذج الذكاء الاصطناعي (Gemini) التابع للشركة، في برمجة أدوات ونصوص برمجية، وإجراء أبحاث حول الثغرات الأمنية المُعلنة، والبحث عن تفسيرات للتقنيات، والعثور على تفاصيل حول المؤسسات المستهدفة، والبحث عن أساليب لاختراق الشبكات المُخترقة. واتصالاً بهذا، اكتشفت وحدة أبحاث التهديدات (TRU) التابعة لشركة "أكرونيس" (Acronis)، ارتفاع عدد الهجمات عبر البريد الإلكتروني بنسبة تقارب 200% بين النصف الثاني من عام 2023 والنصف الثاني من عام 2024. وشهد التزييف العميق وهجمات التصيد الاحتيالي تزايداً ملحوظاً وصولاً إلى ثلاث من أصل أربع هجمات.
ختاماً، تُمثّل أدوات "الذكاء الاصطناعي المُظلم" حقبة جديدة يُمكن فيها تدريب أدوات الذكاء الاصطناعي على اختراق الشبكات باستخدام البرامج الضارة، وكتابة برامج الفدية للسيطرة على أنظمة الشركات، وإنتاج مقاطع فيديو مزيفة للاستغلال أو الابتزاز. بيد أن هذا المفهوم لا يُعبّر عن خلل تقني، بقدر ما يكشف عن أوجه إساءة استخدام الذكاء الاصطناعي. وبعبارة أخرى، فإن الذكاء الاصطناعي ليس مظلماً في حد ذاته؛ لكنه يتحول إلى ذلك حين يُستخدم في "الظلام" بعيداً عن المساءلة والمعايير الأخلاقية؛ فالنموذج ذاته الذي يُستخدم في الترجمة أو توليد نصوص تعليمية، يمكن استخدامه أيضاً لتوليد محتوى متطرف أو لتضليل الرأي العام أو لإنشاء تعليمات برمجية ضارة.
المراجع:
رغدة البهي،10. 6.2025، مخاطر الأوجه المظلمة للذكاء الاصطناعي على الأمن السيبراني، مركز المستقبل.
رماح الدلقموني،11.6.2023، مستقبل الذكاء الاصطناعي.. ما هي أسوأ مخاطره المحتملة، الجزيرة نت.