تقرير السلامة الدولي للذكاء الاصطناعي وتداعياته المستقبلية
فرع القاهرة

يشهد العالم تسارعًا غير مسبوق في تطوير تقنيات الذكاء الاصطناعي، ما جعلها في صدارة التحولات التكنولوجية والاقتصادية والاجتماعية خلال العقد الأخير. وفي هذا السياق، حذّر التقرير السنوي الدولي لسلامة الذكاء الاصطناعي، الصادر بقيادة عالم الحاسوب الكندي يوشوا بنجيو وبمشاركة أكثر من مائة خبير مستقل، من جملة مخاطر ناشئة ترتبط بالاستخدامات المتقدمة لهذه التقنيات، بدءًا من الاحتيال والتزييف العميق وصولًا إلى المخاطر البيولوجية والاضطرابات المحتملة في سوق العمل. ويأتي التقرير ضمن سلسلة أُطلقت عقب قمة السلامة الدولية للذكاء الاصطناعي عام 2023، في محاولة لإرساء مقاربة علمية ومنهجية لتقييم الفجوة المتزايدة بين سرعة الابتكار التقني وقدرة الأطر التنظيمية على مواكبته. يهدف هذا التقرير إلى تحليل أبرز محاور التحذير الواردة في الدراسة الدولية، وقراءة انعكاساتها التقنية والاجتماعية والاقتصادية، واستشراف السيناريوهات المستقبلية المحتملة.

تطور النماذج وحدود الاستقلالية

شهد العام الماضي إطلاق جيل جديد من نماذج الذكاء الاصطناعي المتقدمة، من بينها GPT-5 الذي طورته OpenAI، ونموذج Claude Opus 4.5 من Anthropic، إضافة إلى Gemini 3 التابع لشركة Google. وتمثل هذه النماذج نقلة نوعية فيما يُعرف بأنظمة “الاستدلال”، القادرة على تحليل المشكلات عبر تقسيمها إلى خطوات منطقية متتابعة، وهو ما انعكس في تحسن ملحوظ في الأداء بمجالات الرياضيات والبرمجة والعلوم.

وقد وصف بنجيو هذا التطور بأنه “قفزة نوعية” في قدرات الاستدلال الآلي، خاصة بعد تحقيق أنظمة طورتها غوغل وأوبن إيه آي إنجازًا تاريخيًا بحصولها على الميدالية الذهبية في أولمبياد الرياضيات الدولي، وهو حدث غير مسبوق في تاريخ الذكاء الاصطناعي. ومع ذلك، يشير التقرير إلى أن هذه القدرات لا تزال “غير مكتملة”، إذ تُظهر النماذج براعة استثنائية في مهام محددة مقابل قصور واضح في مهام أخرى، خصوصًا تلك التي تتطلب فهمًا سياقيًا طويل الأمد أو تخطيطًا متعدد المراحل.

كما لا تزال ظاهرة “الهلوسة” - أي توليد معلومات خاطئة بثقة عالية - تمثل تحديًا تقنيًا جوهريًا. ورغم أن الدراسات تشير إلى تضاعف قدرة الأنظمة على إنجاز مهام هندسة البرمجيات كل سبعة أشهر تقريبًا، فإن أتمتة المشاريع الطويلة والمعقدة بشكل موثوق لم تتحقق بعد. إلا أن استمرار هذا التسارع قد يجعل الأنظمة قادرة بحلول 2030 على تنفيذ مهام تمتد لأيام كاملة دون تدخل بشري، وهو سيناريو يثير تساؤلات عميقة حول حدود الاستقلالية التقنية وإمكانات فقدان السيطرة.

التزييف العميق والتلاعب المعلوماتي

يُعدّ الانتشار المتزايد لتقنيات التزييف العميق أحد أبرز مصادر القلق التي رصدها التقرير، خاصة في ما يتعلق بالمحتوى الإباحي المفبرك والانتحال الرقمي. وتشير بيانات إلى أن نسبة ملحوظة من البالغين في بعض الدول الغربية اطّلعوا على هذا النوع من المحتوى، ما يعكس اتساع نطاق الظاهرة وسهولة إنتاجها بفضل الأدوات المتاحة تجاريًا.

وتكمن خطورة هذه التقنيات في قدرتها على تقويض الثقة العامة في المحتوى الرقمي، إذ أصبح من الصعب التمييز بين النصوص أو الصور أو المقاطع المرئية الحقيقية وتلك المُنشأة بواسطة الذكاء الاصطناعي. وقد أظهرت دراسة حديثة أن نسبة كبيرة من المشاركين أخفقوا في التعرف على نص مولد عبر ChatGPT التابع لشركة OpenAI، ما يعكس تحديًا معرفيًا وأخلاقيًا في آن واحد.

ورغم محدودية الأدلة حتى الآن على استخدام واسع النطاق لهذه الأدوات في حملات تلاعب سياسي منسقة، فإن انخفاض تكلفة الإنتاج وسرعة الانتشار عبر وسائل التواصل الاجتماعي يرفعان احتمالات توظيفها مستقبلًا في التضليل الإعلامي أو الابتزاز الرقمي أو زعزعة الاستقرار الاجتماعي. ومن ثم، يبرز التحدي أمام الجهات التنظيمية في تطوير أطر تشريعية وآليات تحقق رقمية تحافظ على حرية التعبير دون فتح المجال أمام إساءة الاستخدام.

المخاطر البيولوجية والسيبرانية

يتناول التقرير جانبًا بالغ الحساسية يتمثل في استخدام نماذج الذكاء الاصطناعي كمساعدين علميين قادرين على تقديم معلومات تفصيلية في مجالات البيولوجيا والكيمياء. فقد أصبحت بعض الأنظمة قادرة على اقتراح تصميمات جزيئية أو تقديم إرشادات مخبرية معقدة، وهو ما يفتح آفاقًا واعدة في تطوير الأدوية وتشخيص الأمراض، لكنه في الوقت ذاته يثير مخاوف من إساءة الاستخدام في تطوير مواد ضارة.

وقد دفعت هذه المخاوف شركات مثل Anthropic إلى تعزيز إجراءات الأمان في نماذجها المتقدمة، تحسبًا لإمكانية استغلالها من قبل جهات خبيثة. وتشير بعض الدراسات إلى أن الذكاء الاصطناعي قد يوفر دعمًا يفوق ما يمكن الحصول عليه عبر البحث التقليدي على الإنترنت، ما يزيد من تعقيد المعضلة السياسية: هل ينبغي تقييد هذه الأدوات خشية إساءة الاستخدام، أم دعم تطويرها نظرًا لفوائدها الطبية والعلمية؟

على الصعيد السيبراني، أصبحت الأنظمة قادرة على دعم الهجمات الإلكترونية في مراحل متعددة، من الاستطلاع إلى تطوير البرمجيات الخبيثة. وأفادت تقارير بأن أدوات برمجية مدعومة بالذكاء الاصطناعي استُخدمت في هجمات استهدفت كيانات دولية عدة، مع تنفيذ نسبة كبيرة من العمليات دون تدخل بشري مباشر. ورغم أن الأنظمة لا تزال عاجزة عن إدارة هجمات متعددة المراحل بشكل كامل، فإن تزايد استقلاليتها يفرض ضرورة تطوير بروتوكولات أمان أكثر صرامة وتعاون دولي في مجال الأمن السيبراني.

التأثيرات النفسية وسوق العمل

يبرز استخدام “رفقاء الذكاء الاصطناعي” بوصفه ظاهرة اجتماعية جديدة، حيث يُظهر بعض المستخدمين ارتباطًا عاطفيًا متزايدًا ببرامج الدردشة الذكية. وتشير بيانات صادرة عن OpenAI إلى أن نسبة صغيرة من المستخدمين تبدي مستويات مرتفعة من التعلق العاطفي، ما أثار قلقًا في أوساط المتخصصين في الصحة النفسية بشأن احتمالات الإفراط في الاعتماد على هذه الأنظمة.

وفي الوقت ذاته، لا توجد أدلة قاطعة تثبت أن برامج الدردشة تسبب اضطرابات نفسية مباشرة، لكن المخاوف تتركز حول الفئات الهشة التي قد تُفاقم حالتها نتيجة الاستخدام المكثف. وتعكس هذه الظاهرة الحاجة إلى مقاربات تنظيمية تأخذ في الاعتبار الأبعاد النفسية والاجتماعية، وليس فقط التقنية.

أما في ما يتعلق بسوق العمل، فيشير التقرير إلى أن تأثير الذكاء الاصطناعي لا يزال متفاوتًا بين الدول والقطاعات. فبينما تجاوزت معدلات الاستخدام 50% في بعض الاقتصادات المتقدمة، لا تزال محدودة في اقتصادات أخرى. وتظهر الدراسات أن التأثير المباشر على إجمالي التوظيف لم يتضح بعد، غير أن ثمة مؤشرات على تباطؤ التوظيف الجديد في بعض القطاعات التقنية والإبداعية. وإذا تطورت قدرات الأنظمة نحو استقلالية أكبر وإدارة مهام معقدة متعددة المجالات، فمن المرجح أن يتسارع اضطراب سوق العمل، خاصة في الوظائف القائمة على المعرفة والتحليل.

خاتماً: يعكس التقرير الدولي لسلامة الذكاء الاصطناعي مفارقة أساسية في مسار التطور التكنولوجي المعاصر: فالتقنيات ذاتها التي تعد بتسريع الابتكار العلمي وتحسين الإنتاجية يمكن أن تتحول إلى مصادر مخاطر عابرة للحدود إذا لم تُدار ضمن أطر حوكمة فعّالة وبينما لا تزال بعض السيناريوهات المتشائمة بعيدة التحقيق في المدى القريب، فإن سرعة التطور تستدعي استجابة استباقية تجمع بين التنظيم الذكي، والاستثمار في الأمان التقني، وتعزيز الوعي المجتمعي.

إن التحدي لا يكمن في إيقاف مسار الابتكار، بل في توجيهه نحو تحقيق منافع عامة مستدامة مع تقليل احتمالات الضرر. ومن ثم، فإن مستقبل الذكاء الاصطناعي سيعتمد على قدرة المجتمع الدولي على بناء منظومة توازن بين الطموح التكنولوجي والمسؤولية الأخلاقية، بما يضمن أن تبقى هذه الثورة الرقمية في خدمة الإنسان لا مصدر تهديد له.

 

 

المصدر: عربي بوست

التاريخ : 5/2/2026

----------------------------------------------------------------------------------------

المصدر:  الاكاديمية الدولية للوساطة والتحكيم

التاريخ : 22/3/2025


المقالات الأخيرة