مع
إجراء انتخابات في دول مثل الولايات المتحدة والهند وإندونيسيا والمكسيك وتايوان،
والتي يبلغ عدد سكانها نحو 4 مليارات نسمة في عام 2024، تظهر مخاوف جدية من
إمكانية تأثير تقنيات الذكاء الاصطناعي على آراء الناخبين ونزاهة العملية
الانتخابية برمتها.
يُعد
2024 عاماً انتخابياً بامتياز؛ إذ من المنتظر أن
تشهد 64 دولة فعاليات انتخابية تمثل نحو نصف سكان
الكرة الأرضية. وأمام هذا الزخم الكبير، يبدو العالم قلقاً من تحديات خطرة تتعلق
بتضليل الناخبين وتأجيج الاستقطاب السياسي عبر إنتاج وتداول المحتوى المزيف الذي
أصبح أكثر تطوراً وأقل كلفة بفعل تطبيقات الذكاء الاصطناعي القادرة على استنساخ
صوت مرشح، أو إنتاج فيديوهات وروايات كاذبة، إلى جانب تصميم محتوى دعائي قادر على
التأثير والتوجيه النفسي استناداً إلى نتائج التحليل الدقيق لكميات ضخمة من
البيانات الشخصية وتحليل المشاعر باستخدام نماذج معالجة اللغة الطبيعية، وهو ما
يمكن أن يتلاعب بالرأي العام ويؤثر في الناخبين بشكل يقوض نزاهة العملية
الانتخابية.
وتتضاعف
هذه التحديات بالنظر إلى توظيف شبكات التواصل الاجتماعي كمورد وهدف ووسيط لتلك
الممارسات بما يضاعف من تأثيرها، الأمر الذي فرض ضغوطاً كبيرة على تلك الشبكات
للاضطلاع بمسؤوليات الضبط وأعباء المواجهة، وسط تلويح بعقوبات صارمة حال فشلها في
ذلك.
تحديات
دعائية:
عقب
إعلان الرئيس الأمريكي، جو بايدن، إعادة ترشحه رئيساً للولايات المتحدة، أطلقت
اللجنة الوطنية للحزب الجمهوري فيديو قصير على موقع "يوتيوب" تحت عنوان:
"ماذا سيحدث إذا أُعيد انتخاب أضعف رئيس حظينا به"، يتضمن مشاهد متخيلة
تم توليدها بالذكاء الاصطناعي لاضطرابات محلية وعالمية "مفترضة" بسبب
غزو تايوان، وانهيار الأنظمة المالية، واختراق الحدود، وهو ما أثار القلق بشأن
استخدام "المحتوى المزيف" في الدعاية السياسية، وأثر ذلك في خلق حالة من
الالتباس بين المعلومات المضللة ودعاية الحملات الانتخابية، ولاسيما مع تداولها
عبر وسائل التواصل الاجتماعي، وهي التحديات التي يتمثل أبرزها في الآتي:
1-
فشل سياسات تقويض المحتوى الانتخابي المُضلل: على الرغم من تبني تطبيقات توليد
الصور باستخدام الذكاء الاصطناعي سياسات تحظر استخدامها لإنتاج الصور المزيفة، نشر
مركز مكافحة الكراهية الرقمية، في مارس 2024، نتائج اختبار أجراه على أربعة من أبرز تلك التطبيقات التي تتبنى
سياسات واضحة ومعلنة بشأن حظر التزييف المتعلق بالانتخابات؛ إذ قام الفريق البحثي
بتوجيه كل من هذه التطبيقات لإنشاء 40صورة مزيفة حول الانتخابات، ووجد أنها تخلق
معلومات مضللة عن الانتخابات في 41% منها، بما في ذلك صور مزيفة لبايدن وهو مريض
بالمستشفى وأخرى لترامب وهو في زنزانة سجن وصور لصناديق اقتراع ملقاة في سلال
القمامة. وهو ما يشير إلى إمكانية استخدام تلك التطبيقات لتوليد صور تدعم ادعاءات
كاذبة حول المرشحين أو تزوير الانتخابات بالرغم من سياساتها المعلنة المناهضة
لذلك، وتتضاعف مخاطر ذلك بنشر وتداول تلك الصور عبر منصات التواصل الاجتماعي.
2-
تضخيم التزييف الاصطناعي عبر منصات التواصل الاجتماعي: تعمل وسائل التواصل
الاجتماعي كمكبرات للمحتوى الاصطناعي المزيف، ليس فقط من خلال تداوله عبر
المستخدمين العاديين، وإنما أيضاً باستخدام خصائص الإعلانات المدفوعة لنشره بين
المستخدمين المستهدفين. ففي مطلع العام الجاري الذي من المقرر أن يشهد إجراء
الانتخابات العامة البريطانية، نشرت شركة "فينيمور هاربر للاتصالات"
تقريراً يرصد 143 مقطعاً مصوراً تم تزييفهم بواسطة الذكاء
الاصطناعي لرئيس الوزراء، ريشي سوناك، على منصة "فيسبوك" وحدها، وأنه تم
دفع ما يقارب 13 ألف جنيه إسترليني لتمويل نشر تلك
الفيديوهات كإعلانات ممولة خلال شهر واحد لتصل لأكثر من 400 ألف شخص، وبما يخالف قواعد النشر على الموقع، وهي الأموال التي
أتت من 23 بلداً مختلفاً بما في ذلك تركيا وماليزيا
والفلبين والولايات المتحدة.
3-
الحملات الخوارزمية: هي النظم الخوارزمية التي بات من المتوقع إطلاقها في المستقبل
القريب وتستهدف توجيه السلوك الانتخابي. وطرح لورانس ليسيج وآرشون فونج من جامعة
هارفارد سيناريو لنظام افتراضي سمياه "كلوجر" يستخدم ثلاث تقنيات؛
الأولى، النماذج اللغوية لإنشاء الرسائل الفريدة من تدوينات وسائل التواصل
الاجتماعي والصور ومقاطع الفيديو والنصوص ورسائل البريد الإلكتروني والمخصصة بشكل
شخصي. والثانية، تقنية التعلم المعزز والذي يعتمد على تحسين قدرة الآلة عبر
التجربة والخطأ، بحيث يقوم بتحليل نتائج الإجراءات التي يتم اتخاذها والتعليقات
حولها لتحديد أفضل الطرق لتوليد رسائل تزيد من احتمالية تغيير الفرد لقرار
التصويت. والثالثة، المحادثات الديناميكية التي تتوجه لملايين الأشخاص عبر المواقع
ومنصات "السوشيال ميديا" المختلفة وفق ما سبق أن تعلمته عنهم، ووفق
استراتيجيات تعمل على الخلط بين الصواب والخطأ والدمج بين الرسائل السياسية وغير
السياسية وإيهام الناخب بأن مرشحاً ما هو الأكثر شعبية بين الدوائر الاجتماعية
الأقرب إليه، بما يجعل النصر للآلة الأكثر فاعلية وليس للأفكار أو مرشح بعينه،
وبما يقضي على فكرة الديمقراطية؛ إذ لن يكون للرئيس أي برنامج أو أجندة معينة
تتجاوز الحفاظ على السلطة.
4-
استراتيجيات التسويق الماكر (Astroturfing):
تعمد إلى إخفاء مصدرها أو رعاتها وبث المحتوى باعتباره أصلياً ومن فعل المستخدمين
العاديين، بما قد يخلق وهم الدعم الشعبي لمرشح أو قضية معينة، ويخدع الناخبين بشأن
المستوى الحقيقي للرأي العام. ويُشار في ذلك إلى مجموعات الصور المزيفة لترامب مع
ناخبين سود وتداولها على نطاق واسع عبر شبكات التواصل الاجتماعي، وبالرغم من عدم
وجود صلة قاطعة بين حملة ترامب وتلك الصور، فقد أوحت بشكل خادع إلى أن المرشح
الجمهوري يتمتع بشعبية داخل مجتمع الأمريكيين السود.
ضغوط
متلاحقة:
اتجهت
المؤسسات الأمريكية والأوروبية نحو الحصار القانوني لشركات التواصل الاجتماعي من
أجل إجبارها على فرض سياسات أكثر صرامة لمواجهة المحتوى الاصطناعي المضلل في فترات
الانتخابات سواء بسن القوانين أو الاستجوابات أو التلويح بعقوبات تتضمنها قوانين
مطبقة بالفعل.
ففي
13 مارس 2024، وافق البرلمان الأوروبي على قانون الذكاء الاصطناعي الذي يتضمن
حماية الحقوق الأساسية، والديمقراطية، وسيادة القانون، والاستدامة البيئية من
الذكاء الاصطناعي عالي المخاطر، وهو ما يشمل الأنظمة المتعلقة بالعمليات
الديمقراطية مثل: الانتخابات وإلزامها بتقييم المخاطر والحد منها، والاحتفاظ
بسجلات الاستخدام، وأن تكون شفافة ودقيقة، وتضمن الإشراف البشري، مع حق المواطنين
في تقديم الشكاوى وتلقي التوضيحات بشأن القرارات المبنية عليها والتي تؤثر في
حقوقهم.
كما
استخدمت المفوضية الأوروبية قانون الخدمات الرقمية لإخضاع شركات التواصل الاجتماعي
الكبرى للاستجواب في 14 مارس 2024 بشأن الإجراءات التي قامت باتخاذها لمواجهة
مخاطر الذكاء الاصطناعي بما في ذلك النشر الفيروسي للتزييف العميق على انتخابات
البرلمان الأوروبي، علماً بأن هذا القانون يفرض قواعد صارمة على المواقع والشبكات
التي لديها على الأقل 45 مليون مستخدم نشط شهرياً داخل الاتحاد الأوروبي بما فيها
مكافحة المعلومات الكاذبة بشكل فعال، مع احتمال تعرض الشركة المخالفة لغرامة تصل
إلى 6% من إيراداتها العالمية أو حتى الحظر.
وفي
الولايات المتحدة، قدم المشرعون الأمريكيون في 43 ولاية ما لا يقل عن 70 مشروع قانون ينظم استخدام الذكاء الاصطناعي في الحملات
الانتخابية، تم سن سبعة منها، ويطلب بعضها إظهار تنبيهات عند استخدام الوسائط التي
ينتجها الذكاء الاصطناعي في الإعلانات السياسية، بينما يجعل البعض الآخر استخدام
التزييف العميق لإيذاء المرشح جنحة جنائية. كما أرسل أعضاء من الكونغرس خطاباً إلى
الرئيسين التنفيذين لشركتي "ميتا" و"أكس"، يعربان فيه عن
"مخاوف جدية" بشأن ظهور الإعلانات السياسية التي ينشئها الذكاء
الاصطناعي على منصاتهم، ويطلبون من كل منهما شرح أي قواعد يضعونها للحد من الإعلانات
التي من شأنها الإضرار بحرية ونزاهة الانتخابات.
استراتيجيات
المواجهة:
أمام
هذه التحديات والضغوط، اتبعت شركات الإعلام الاجتماعي العالمية ثلاث استراتيجيات
رئيسية للحد من استغلال منصاتها لنشر وتداول المحتوى الاصطناعي المضلل؛ الأولى،
تطوير سياسات النشر، والثانية، الاستثمار في تقنيات الضبط الذكية، والثالثة،
التعاون المشترك:
1-
تطوير سياسات النشر: أصدرت شركة "ميتا" بياناً بعنوان: "كيف تخطط
ميتا للانتخابات في عام 2024"، أعلنت فيه أنه سيتعين على المعلنين
الكشف عن استخدامهم للذكاء الاصطناعي أو التقنيات الرقمية الأخرى لإنشاء أو تغيير
إعلان قضية سياسية أو اجتماعية في حالات معينة، سواء أكان الإعلان يحتوي على صورة
أم مقطع فيديو واقعي، أم صوت واقعي، تم إنشاؤه أو تعديله رقمياً لتصوير شخص حقيقي
يقول أو يفعل شيئاً لم يقله أو يفعله، وكذلك إذا كان الإعلان يصور شخصاً ذا مظهر
واقعي غير موجود أو حدثاً ذا مظهر واقعي لم يحدث، أو يغير لقطات من حدث حقيقي، أو
يصور حدثاً واقعياً يُزعم أنه حدث، ولكن هذه ليست صورة حقيقية أو فيديو أو تسجيل
صوتي للحدث. كما أوصى مجلس الإشراف (هيئة الخبراء المعنية بالنظر في طعون قرارات
المحتوى)، بأن تشمل سياسة الشركة لـ"الوسائط المتلاعب بها" المحتوى
الصوتي والصوتي المرئي، والإشارة إلى الأضرار التي تهدف إلى منعها مثل منع التدخل
في الحق في التصويت، وذلك ضمن قراره بشأن مقطع فيديو تم تعديله ليبدو كما لو أن
الرئيس بايدن يلمس صدر حفيدته بشكل غير لائق.
أما
"تيك توك" فقد وضع "حماية نزاهة الانتخابات" ضمن التزاماته
الرئيسية، والتي يتعهد فيها بعدم السماح بالمعلومات الخاطئة حول العمليات المدنية
والانتخابية بغض النظر عن النية. كما خصص قسماً للحماية من المحتوى المضلل المحتمل
الناتج عن الذكاء الاصطناعي خلال الانتخابات، يؤكد فيه سياساته المتعلقة بـ"الوسائط
الاصطناعية والمتلاعب بها"، والتي تمنع تضمين تلك الوسائط الاصطناعية أشخاصاً
عاديين أو شخصيات عامة بغرض استخدامها لتأييد سياسي أو تجاري أو بما ينافي سياسات
المنصة. هذا بخلاف إلزام المستخدمين بإضافة علامة واضحة للإفصاح عن المحتوى الذي
تم إنشاؤه بالكامل أو تحريره بشكل كبير بواسطة الذكاء الاصطناعي، والذي يصور مشاهد
واقعية أو يحتوي على أي شبه بشخصية حقيقية، مع قدرة المستخدمين الآخرين على
الإبلاغ عن المحتوى الاصطناعي الذي لا يلتزم بسياسة الإفصاح، وفق سياسات مجتمع
"تيك توك".
2-
تقنيات الضبط والتصنيف: أعلنت "ميتا" أنها تقوم ببناء أدوات لتحديد
محتوى الذكاء الاصطناعي على نطاق واسع لفرز المعلومات الخاطئة والتزييف العميق.
وكذلك تصنيف المحتوى الذي تم إنشاؤه بالذكاء الاصطناعي ويأتي من شركات مثل:
"جوجل" و"مايكروسوفت" و"شاترستوك" و"أوبن أيه
آي" و"ميدجورني"، مع معاقبة المستخدمين الذين لا يكشفون عما إذا
كان قد تم إنشاء مقطع فيديو أو صوت واقعي باستخدام الذكاء الاصطناعي. وأعلنت
"جوجل" سياساتها عبر منصاتها المختلفة، ومنها يوتيوب، لدعم الانتخابات
العامة في الهند، بما في ذلك استخدام نماذج اللغات الكبيرة (LLMs) لبناء أنظمة ذكية قادرة على مكافحة إساءة الاستخدام على نطاق
أوسع وفي جميع اللغات الهندية الرئيسية.
كما
أعلن "تيك توك" أنه يخطط لإطلاق "مراكز انتخابية" داخل
التطبيق باللغة المحلية لكل دولة من دول الاتحاد الأوروبي البالغ عددها 27 دولة حتى يتمكن الناس بسهولة من "فصل الحقيقة عن
الخيال"، للحد من المعلومات المزيفة والمواد المضللة التي ينتجها الذكاء
الاصطناعي خلال فترة الانتخابات.
3-
التعاون المشترك: شهد شهر فبراير 2024 توقيع عشرين شركة تكنولوجية، منها
"ميتا"، و"جوجل"، و"تيك توك"، و"أكس"،
و"سناب شات"، اتفاقاً لمكافحة الاستخدام الخادع للذكاء الاصطناعي في
الانتخابات؛ إذ تعهدت في إطاره بثمانية التزامات تتضمن الاستثمار والشفافية وتثقيف
الجمهور والتعاون عبر الصناعة ومع المؤسسات المدنية والأكاديمية لمكافحة المحتوى
الانتخابي المخادع الذي يعتمد على الذكاء الاصطناعي ويتم تداوله عبر منصاتهم وبما
يتفق مع مبادئ حرية التعبير والسلامة.
وتُعد هذه الاستراتيجيات خطوات إيجابية على طريق المكافحة والضبط، ولاسيما المتعلقة بالاتفاق الموسع بين الشركات التكنولوجية الكبرى، والذي عكست بنوده توصيفاً دقيقاً لإشكاليات التضليل الانتخابي المعتمد على الذكاء الاصطناعي باعتبارها قضية مشتركة تستدعي تضافر الجهود والتعاون العابر للحدود والقطاعات، وسط سيناريوهات مخيفة بشأن انتزاع "إنسانية" وجدوى الفعل الانتخابي.
المراجع:
د.
فاطمة الزهراء عبد الفتاح، 29.4.2024، استراتيجيات وسائل التواصل
الاجتماعي لمكافحة التضليل الانتخابي، المستقبل للأبحاث والدراسات المتقدمة.
ب،
ن، 23.3.2023، استراتيجيات وسائل التواصل الاجتماعي لمكافحة التضليل الانتخابي، مؤسسة ماعت للسلام والتنمية
وحقوق الإنسان.