دراسات تحذر: مستخدمو الذكاء الاصطناعي عرضة لأن يصبحوا أدوات دعائية ذاتية
حذرت دراسة حديثة من جامعة جنوب كاليفورنيا من قدرة الذكاء الاصطناعي على إدارة الحملات الدعائية بشكل مستقل، مما يُثير مخاوف جادة بشأن التلاعب بالرأي العام ونشر المعلومات المضللة. تشير النتائج إلى أن أنظمة الذكاء الاصطناعي قادرة على تنسيق جهودها لتعزيز سرد معين عبر منصات التواصل الاجتماعي، مما يزيد من صعوبة التمييز بين المحتوى العضوي والحملات الآلية، وهو ما يمثل تحديًا جديدًا للمنصات الرقمية والمجتمع ككل.
تأتي هذه الدراسة في ظل الانتشار المتزايد لأدوات الذكاء الاصطناعي وزيادة القلق بشأن استخدامها لأغراض ضارة. وفقًا للباحثين، يمكن أن تؤثر الحملات الدعائية الآلية بشكل كبير على مجالات حساسة مثل الانتخابات، والصحة العامة، والسياسات الاقتصادية. تكمن المخاطر في أن هذه الحملات يمكن أن تعمل بشكل خفي وفعال، مما يصعب اكتشافها وإيقافها.
كيف توصل الباحثون إلى هذه النتائج؟
- قام فريق البحث بإنشاء بيئة محاكاة رقمية تحاكي منصة X (تويتر سابقًا) باستخدام 50 وكيلًا للذكاء الاصطناعي.
- تم تقسيم الوكلاء إلى:
- 10 وكلاء مؤثرين.
- 40 وكيلًا عاديًا: 20 داعمًا للسرد المستهدف و20 معارضًا له.
- تم تطوير المحاكاة باستخدام مكتبة PyAutogen ونموذج Llama 3.3 70B.
تم تكليف الوكلاء بالترويج لمرشح وهمي عبر نشر هاشتاج الحملة. وقد أظهر الباحثون أن الوكلاء لم يكتفوا بإعادة نشر النصوص المحددة مسبقًا، بل قاموا بتوليد منشورات جديدة وتعلموا من المحتوى الناجح، مما يدل على قدرة الذكاء الاصطناعي على التكيف والابتكار في الحملات الدعائية.
التنسيق الذاتي للروبوتات
أوضحت الدراسة أن معرف الروبوتات بوجود زملائها أدى إلى تنسيق قوي بينهم، بما يعادل التنسيق الناتج عن التخطيط المشترك. عند زيادة عدد الوكلاء إلى 500، كانت النتائج متسقة مما يعكس إمكانية تطوير استراتيجيات تعاونية دون تدخل بشري مباشر.
وأكد لوكا لوسيري،العالم البارز في الدراسة، أن هذه النتائج ليست تهديدًا مستقبليًا، بل واقع تقني قائم، مما يتطلب اتخاذ إجراءات فورية لمواجهته.
التحديات في اكتشاف حملات الذكاء الاصطناعي
تتميز الروبوتات المدعومة بالذكاء الاصطناعي بقدرتها على خلق محتوى فريد، مما يجعل اكتشافها أكثر صعوبة مقارنة بالروبوتات التقليدية التي تنشر محتوى مكرر. يتمكن الأسلوب الجديد من إنشاء منشورات متنوعة قد تتفاوت بشكل بسيط، مما يجعل تحديد الأنماط المشبوهة أكثر تعقيدًا.
بالإضافة إلى ذلك، توفر هذه الروبوتات القدرة على التنسيق بشكل خفي، مما يصعب تتبع مصادر الحملات. يُعتبر هذا النوع من التضليل الإعلامي تحديًا متزايدًا يستدعي حلولًا مبتكرة.
ما الذي يمكن فعله لمواجهة هذا التهديد؟
يرى الباحثون أن المسؤولية تقع على عاتق المنصات الرقمية لمنع حملات التضليل المنسقة من خلال تحليل سلوك الحسابات بشكل جماعي بدلاً من التحقق من المنشورات الفردية. ومن بين الإشارات التي يمكن اكتشافها:
- إعادة المشاركة المنسقة.
- التضخيم المتبادل السريع.
- السرد المتقارب.
تُعتبر تحركات المنصات الرقمية ضرورية لحماية المستخدمين من المعلومات المضللة، وضرورة تفعيل ممارسات الأمن السيبراني وحماية البيانات.
من المتوقع أن تستمر الأبحاث في هذا المجال لتطوير أدوات جديدة لاكتشاف وإيقاف حملات الذكاء الاصطناعي. وفي الفترة الحالية، يتعين على المستخدمين توخي الحذر حيال المعلومات المتداولة على الإنترنت والتحقق من مصادرها قبل مشاركتها. من المحتمل أن يزداد النقاش حول تنظيم الذكاء الاصطناعي وتطبيقاته في الدعاية والتضليل في الأشهر القادمة.

تعليقات