00:00:00
توقيت بغداد
2025يناير15
الأربعاء
39 °C
بغداد، صافي
الرئيسية أخبار نشاطات المكتبة الرقمية إتصل بنا

الديمقراطية ومخاطر الذكاء الاصطناعي المدمرة

تشهد التقنيات الحديثة مثل الذكاء الاصطناعي التوليدي تصاعدا في تأثيرها على الأنظمة الديمقراطية حيث باتت تستخدم بطرق تهدد نزاهة الانتخابات وتؤثر على الخطاب العام. في تقرير نشره معهد كارنيغي أوروبا وكتبته الباحثة المتخصصة في الشؤون التكنولوجية والديمقراطية رالوكا تشيرناتوني، أشير الى ان هذه الأدوات المتقدمة تتيح للجهات الفاعلة نشر المعلومات المضللة والتلاعب بالرأي العام على نطاق واسع مما يثير تساؤلات جوهرية حول مستقبل الديمقراطية في ظل هذا التطور التكنولوجي.

تتيح النماذج التوليدية مثل ChatGPT وDALL-E إنشاء محتوى متنوع يشمل النصوص والصور والفيديوهات والملفات الصوتية الاصطناعية. رغم إمكاناتها الإبداعية، فإنها تمثل أداة خطيرة بيد الجهات الخبيثة التي يمكنها استغلالها لنشر الأخبار المزيفة وتعزيز الدعاية السياسية وتشويه سمعة الخصوم. من أبرز التحديات التي تواجه الديمقراطيات بسبب الذكاء الاصطناعي هي التضليل واسع النطاق حيث يمكن نشر محتوى زائف بشكل أسرع وأوسع من قدرة الحكومات والجهات الرقابية على التعامل معه مثل الصور المزيفة للرئيس الأمريكي السابق دونالد ترامب والمغنية تايلور سويفت إضافة الى التلاعب المباشر في العمليات الانتخابية كما حدث في الانتخابات الأمريكية لعام 2024 عبر صور ومقاطع فيديو مزيفة انتشرت على نطاق واسع في منصات التواصل الاجتماعي. ظهرت تحديات مماثلة في بريطانيا وسلوفاكيا عندما انتشرت مقاطع صوتية مزيفة لقادة سياسيين قبل التحقق من زيفها.

التلاعب بالانتخابات لم يعد يقتصر على نشر محتوى زائف فقط بل أصبح يتضمن تسليح أدوات الذكاء الاصطناعي لتعزيز استراتيجيات الحروب المعلوماتية مثل استخدام صور دعائية موجهة والمساهمة في نشر رسائل تطرف وعنف عبر ما يعرف بحرب "الميمات".

يمكن للجهات الخبيثة استخدام روبوتات المحادثة لنشر معلومات كاذبة على نطاق واسع وبسرعة فائقة مما يزيد من تعقيد البيئة الإعلامية وتشويه النقاش العام. من الناحية النفسية، يساهم هذا التضليل في خلق ارتباك معرفي لدى الجمهور حيث يؤدي انتشار المحتوى المزيف الى التشويش المعلوماتي مما يجعل من الصعب على الأفراد التمييز بين الحقيقة والتزوير. هذا بدوره يؤثر بشكل خطير على الثقة العامة في المؤسسات الديمقراطية والإعلام التقليدي.

كما تواجه النساء في المجال السياسي تهديدات أكبر من خلال استهدافهن بمحتويات مزيفة ومحرّفة تهدف الى الإساءة لسمعتهن وتقويض مكانتهن السياسية خاصة عبر محتوى يتضمن تحريفات جنسية وهجمات شخصية مضللة. هذه الهجمات يمكن أن تؤثر على المشاركة السياسية للنساء وتعزز الصور النمطية السلبية المرتبطة بهن.

على مستوى أوسع، تستخدم الأنظمة الاستبدادية الذكاء الاصطناعي لتعزيز السيطرة الداخلية والتدخل الخارجي في شؤون الدول الأخرى. الصين مثال بارز حيث تستخدم تقنيات الذكاء الاصطناعي لفرض الرقابة والسيطرة على المحتوى الإعلامي كما تصدر هذه الأدوات عبر مشروع "طريق الحرير الرقمي" الى دول نامية وأنظمة استبدادية مثل بنغلاديش وكولومبيا والفلبين مما يعزز من سيطرة تلك الأنظمة على شعوبها. دول مثل روسيا وإيران وفنزويلا تستخدم هي الأخرى تقنيات الذكاء الاصطناعي لنشر دعاية مضللة وإضعاف المجتمعات الديمقراطية.

لمواجهة هذه التهديدات، تقترح رالوكا تشيرناتوني في تقريرها نهجا شاملا يتضمن عدة محاور. يجب تفعيل تشريعات صارمة مثل قانون الاتحاد الأوروبي للذكاء الاصطناعي الذي يلزم الشركات بوضع آليات لكشف المحتوى المزيف مثل العلامات المائية الرقمية. كما يجب تطوير أدوات تقنية متقدمة للكشف عن المحتوى المصطنع وتدريب المؤسسات الإعلامية على استخدامها بشكل فعال. يتطلب ذلك أيضا دورا محوريا لمنصات التواصل الاجتماعي التي ينبغي عليها تطبيق سياسات أكثر شفافية فيما يخص المحتوى المزيف مثل فرض فحوصات قبل نشر المحتويات الحساسة.

الجانب التعليمي لا يقل أهمية حيث تحتاج المجتمعات الى تعزيز الوعي الرقمي مثلما فعلت فنلندا ببرامجها الوطنية لنشر الوعي حول الذكاء الاصطناعي بهدف تمكين المواطنين من فهم المخاطر وتقييم المحتوى بشكل نقدي.

في النهاية، يخلص التقرير الى أن مواجهة تهديدات الذكاء الاصطناعي تتطلب تضافر الجهود بين الحكومات والمؤسسات الإعلامية وشركات التكنولوجيا والمجتمع المدني مع التركيز على تحقيق توازن بين الابتكار التقني والحفاظ على سلامة العمليات الديمقراطية.

تعليقات الزوار