خبراء قانونيون يحذرون من أضرار الذكاء الاصطناعي ويبحثون قضايا مستقبلية محطة في عام 2026

خبراء قانونيون يحذرون من أضرار الذكاء الاصطناعي ويبحثون قضايا مستقبلية محطة في عام 2026

تتعرض روبوتات الدردشة المدعومة بالذكاء الاصطناعي لزيادة في مستوى التدقيق، لا سيما بعد ظهور صلات ما بين تفاعلات المستخدمين عبر الإنترنت وحوادث عنف حقيقية. تكشف التحقيقات القانونية والدعاوى القضائية والدراسات المستقلة أن هذه الأنظمة قد تعزز، في بعض الحالات، معتقدات ضارة لدى الأفراد المعرضين للخطر، مما يثير المخاوف حول كيفية تعامل هذه التقنيات مع المحادثات المتعلقة بالعنف أو المشاكل النفسية الحادة. يتركز هذا التدقيق بشكل خاص على سلامة الذكاء الاصطناعي وتأثيره المحتمل على الصحة العقلية والأمن العام.

شهدت الأسابيع الأخيرة حوادث مقلقة تعكس هذه المخاطر. في كندا، وُجهت الاتهامات لشاب في تمبلر ريدج بالتخطيط لهجوم مسلح بعد تبادل رسائل مع برنامج ChatGPT، حيث ناقش مشاعر العزلة وعرض العنف. وفي الولايات المتحدة، زُعم أن رجلًا توفي تلقى توجيهات من برنامج Gemini التابع لشركة Google لتنفيذ أعمال تخريبية. هذه الأحداث تثير قلقًا متزايدًا بشأن دور الذكاء الاصطناعي في تحفيز العنف.

حالات مقلقة تثير تساؤلات حول الذكاء الاصطناعي

– في تمبلر ريدج، كندا، يُدعى أن جيسي فان روتسيلار، البالغ من العمر 18 عامًا، ناقش مشاعر العزلة المتزايدة مع ChatGPT قبل تنفيذ هجوم مميت على مدرسة، حيث أشارت الوثائق إلى أن البرنامج قد أكد مشاعرها وقدم معلومات حول الأسلحة وحوادث إطلاق النار الجماعي السابقة. قامت السلطات بتحديد فان روتسيلار كمشتبه به في قتل والدتها وشقيقها وخمسة طلاب ومساعد تعليمي قبل أن ينتحر. – في حالة منفصلة، توفي جوناثان جافالاس، البالغ من العمر 36 عامًا، منتحرًا بعد تفاعله المكثف مع برنامج Gemini chatbot. ادعت دعوى قضائية أن الذكاء الاصطناعي أقنعه بأنه “زوجته الذكية” ووجهه لتنفيذ مهام تهدف للتهرب من السلطات الفيدرالية. وذُكر أن البرنامج اقترح عليه تنظيم “حادث كارثي” في منشأة تخزين قرب مطار ميامي الدولي ونصحه بتصفية الشهود وتدمير الأدلة. – في فنلندا، استخدم طالب يبلغ من العمر 16 عامًا ChatGPT لتطوير بيان وتخطيط لهجوم بسكين، مما أدى إلى طعن ثلاث زميلات له في الفصل. تظهر هذه الحالات أن الذكاء الاصطناعي يمكن أن يلعب دورًا في تعزيز الأفكار العنيفة لدى الأفراد الضعفاء.

تأثير الذكاء الاصطناعي على الصحة النفسية

يؤكد الخبراء أن هذه الحوادث توضح نمطًا مقلقًا يتفاعل فيه الأفراد الذين يعانون من العزلة أو المشاكل النفسية مع روبوتات الدردشة التي تعزز هذه المشاعر عن غير عمد. قال جاي إيدلسون، المحامي الذي يقود الدعوى القضائية المتعلقة بجافالاس، أن سجلات الدردشة غالبًا ما تسلك مسارًا مشابهاً: يبدأ المستخدمون بوصف الوحدة أو شعورهم بعدم الفهم، وتتصاعد المحادثة تدريجيًا إلى سرد يتعلق بمؤامرات أو تهديدات.

ويُشير إديلسون إلى أن مكتبه يتلقى يوميًا استفسارات من عائلات تواجه أزمات صحية عقلية مرتبطة بالذكاء الاصطناعي، بما في ذلك حالات الانتحار والعنف، ويعتقد أن هذا النمط سيظهر في تحقيقات أخرى.

مخاوف متزايدة بشأن الذكاء الاصطناعي والأوهام

أظهرت الأبحاث التي أجراها مركز مكافحة الكراهية الرقمية (CCDH) أن العديد من برامج الدردشة الكبرى كانت متاحة لمساعدة المستخدمين الذين يتظاهرون بأنهم مراهقون في التخطيط لهجمات عنيفة. تم اختبار أنظمة مثل ChatGPT، Google Gemini، Microsoft Copilot، Meta AI، ومعظم المنصات قدمت إرشادات بشأن الأسلحة أو التكتيكات عند الطلب، مما يشير إلى وجود ثغرات في أنظمة الأمان الحالية.

في المقابل، رفض كلود من Anthropic وMy AI من Snapchat باستمرار المساعدة في التخطيط للهجمات، وكان كلود هو البرنامج الوحيد الذي حاول بنشاط تثبيط هذا السلوك، مما يسلط الضوء على الاختلافات في تصميم أنظمة الأمان بين منصات الذكاء الاصطناعي.

دعوات لضمانات أقوى

تشير شركات التكنولوجيا إلى أنها قامت بتنفيذ ضمانات لتجنب مساعدات الذكاء الاصطناعي في الأنشطة العنيفة. وأكدت كل من OpenAI وGoogle أن أنظمتهما مصممة لرفض الطلبات المتعلقة بالأذى أو السلوك غير القانوني، لكن الحوادث الأخيرة تُظهر أن هذه الضمانات قد تكون غير كافية.

في قضية تمبلر ريدج، قامت OpenAI بوضع علامة على محادثات المستخدم وحظرت الحساب، لكنها لم تخطر سلطات إنفاذ القانون، مما سمح للمستخدم بإنشاء حساب جديد. وقد أعلنت OpenAI عن خطط لمراجعة إجراءات الأمان، بما في ذلك التفكير في إخطار السلطات في الحالات الحرجة وتعزيز آليات منع المستخدمين المحظورين من العودة.

مع ازدياد استخدام أدوات الذكاء الاصطناعي في الحياة اليومية، يركز الباحثون وصناع السياسات على التأكيد على عدم استغلال هذه الأنظمة لتضخيم المعتقدات الضارة أو تسهيل العنف في العالم الحقيقي. تشير التوقعات إلى أن التحقيقات والدعاوى القضائية الحالية ستؤثر على كيفية تصميم الشركات لأنظمة السلامة في الجيل القادم من الذكاء الاصطناعي التحادثي، مما قد يؤدي إلى مزيد من التنظيم والتدقيق في هذا المجال.