الذكاء الاصطناعي والمسؤولية القانونية: من يُحاسَب عندما تخطئ الآلة؟ - جريدة هرم مصر

النشرة (لبنان) 0 تعليق ارسل طباعة تبليغ حذف

نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
الذكاء الاصطناعي والمسؤولية القانونية: من يُحاسَب عندما تخطئ الآلة؟ - جريدة هرم مصر, اليوم الثلاثاء 20 يناير 2026 01:33 صباحاً

سمر ضو* 

في عالم يتسارع فيه تبنّي الذكاء الاصطناعي في مختلف القطاعات، تتصاعد الأصوات التي تؤكد أن هذه التكنولوجيا، رغم قدراتها المتقدمة، ليست معصومة من الخطأ ولا بمنأى عن التحيّز أو سيناريوات الفشل. ومن هنا يبرز نقاش جوهري حول مدى أمان الاعتماد عليها، وإمكانية محاسبتها قانونياً، وتحديد المسؤولية عند وقوع الأخطاء، في ظل غياب أطر قانونية واضحة تواكب سرعة تطورها وانتشارها.

 عدد كبير من المستخدمين والمؤسسات يثقون في الذكاء الاصطناعي باعتباره أداة موضوعية، لكنه في الواقع قد يُنتج معلومات خاطئة أو مُضلِّلة تبدو صحيحة بثقة عالية  وهو ما يُعرف بـ "هلوسات الذكاء الاصطناعي".

 

iStock1277718299Artificialintelligencelo

 

هذا المصطلح يشير إلى قيام النماذج الذكية بإنتاج إجابات خاطئة تبدو صحيحة ظاهرياً. وقد تتراوح هذه الهلوسات بين أخطاء بسيطة كتواريخ مغلوطة، وأخرى أكثر خطورة مثل إنشاء مراجع علمية وهمية أو اختراع أحداث لم تقع.

    ويعود السبب الرئيسي لهذه الهلوسات إلى نقص جودة البيانات التي تُدرب عليها النماذج، أو ميل الذكاء الاصطناعي لإكمال الفجوات بالمعلومات المفترضة. كما أن بعض النماذج مصممة لتقديم إجابات سلسة، ما يدفعها لاختلاق المعلومات بهدف الإرضاء السريع للمستخدم.

وبالفعل، قد شهدنا حالات شهيرة لهلوسة الذكاء الاصطناعي؛ أبرزها اعتماد محامٍ على مخرجات ذكاء اصطناعي تضمنت قضايا قانونية غير موجودة، أو إصدار توصيات طبية خاطئة من أدوات ذكية دون سند علمي موثوق، ما يسلط الضوء على خطورة الظاهرة.

 ولتوضيح كيف يمكن أن تتحول هذه الهلوسات التقنية إلى آثار عملية ملموسة، يمكننا النظر إلى حادثة مدرسة كينوود الثانوية، التي أظهرت المخاطر الأمنية المباشرة لاعتماد أنظمة الذكاء الاصطناعي دون رقابة بشرية. ففي تشرين الأول/ أكتوبر 2025، شهدت المدرسة في مدينة بالتيمور وهي من أكبر مدن ولاية ميريلاند الأميركية حادثة أثارت جدلاً واسعاً حول الاعتماد على أنظمة الذكاء الاصطناعي في البيئات التعليمية والأمنية. إذ أخطأ نظام كشف يعمل بالذكاء الاصطناعي في اعتبار كيس رقائق بطاطس بحوزة طالب يبلغ من العمر 16 عاماً سلاحاً نارياً، ما دفع الشرطة إلى التدخل الفوري.

وبحسب إفادة الطالب، كان قد أنهى تناول كيس من رقائق ووضعه في جيبه، قبل أن يفاجأ بعد نحو 20 دقيقة برجال شرطة يوجّهون أسلحتهم نحوه ويأمرونه بالاستلقاء أرضاً. وقد كشفت هذه الحادثة بوضوح مخاطر الأخطاء التقنية عندما تُترجم مباشرة إلى إجراءات أمنية قسرية، وأعادت طرح أسئلة جدية حول حدود الثقة في الذكاء الاصطناعي، ومسؤولية الجهات التي تعتمد عليه دون تحقق بشري كافٍ. 

لا تُحاسَب أنظمة الذكاء الاصطناعي على أخطائها بشكل مباشر، بل تنعكس تلك الأخطاء على الواقع من خلال تأثيرها في القرارات البشرية والمواقف العملية. وغالباً ما يقتصر التعامل مع الخطأ، بعد وقوعه، على اعتذار أو توضيح تصدره الشركات المطوِّرة، من دون مساءلة تقنية أو قانونية فعلية.  

في هذا الإطار، كشف تحقيق أجرته صحيفة الغارديان أن خدمة الذكاء الاصطناعي “AI Overviews” قدّمت معلومات غير دقيقة ومضلِّلة عند الاستفسار منها عن فحوصات الدم. وأوضح التحقيق أن شركة غوغل اضطرت إلى إزالة بعض ملخصات المعلومات الصحية التي ينتجها الذكاء الاصطناعي، بعد أن تبيّن أن محتواها قد يعرّض المستخدمين لخطر الأذى نتيجة معلومات كاذبة أو مضلِّلة.

  وليس ببعيد عن ذلك، أظهرت حوادث متكررة أن أنظمة توليد النصوص المدعومة بالذكاء الاصطناعي قامت باختلاق تصريحات أو نسب أقوال غير صحيحة إلى شخصيات عامة وصحافيين، وقدّمتها للمستخدمين بصيغة تبدو موثوقة.  

وبناء على ما سبق أثار التطور المتسارع لتقنيات الذكاء الاصطناعي إشكاليات قانونية عميقة، خصوصاً في مجال المسؤولية الجنائية، حيث لم تعد الأفعال الضارة حكراً على السلوك البشري المباشر، بل أصبحت ناتجة أحياناً عن أنظمة ذكية تتخذ قرارات مستقلة نسبياً.  

 

وتتمثل الإشكالية الجوهرية في مساءلة الذكاء الاصطناعي جنائياً في غياب الشخصية القانونية له، إذ إن القوانين الجنائية التقليدية تفترض أن الجريمة لا تُرتكب إلا من شخص يتمتع بالإدراك والتمييز والقدرة على توجيه الإرادة. وبما أن أنظمة الذكاء الاصطناعي تفتقر إلى الوعي والإرادة الذاتية بالمعنى القانوني، فإن إخضاعها للمساءلة الجنائية المباشرة يثير إشكالات نظرية وعملية معقدة.

من هنا برز السؤال حول ما إذا كان بالإمكان الاعتراف للذكاء الاصطناعي بشكل من أشكال الشخصية القانونية المستقلة، على غرار الأشخاص الاعتباريين، بهدف تحميله المسؤولية الجنائية.  

 في المقابل، يذهب اتجاه إلى تحميل المسؤولية الجنائية للأشخاص الطبيعيين أو الاعتباريين المرتبطين بنظام الذكاء الاصطناعي، مثل المبرمج، أو المصنّع، أو المشغّل، أو المستخدم، استناداً إلى درجة السيطرة أو الإهمال أو الخطأ في التصميم أو التشغيل. وفي ضوء هذه التحديات، يدعو العديد من الباحثين إلى تطوير أطر قانونية جديدة للمساءلة الجنائية عن أفعال الذكاء الاصطناعي، تقوم على مزيج من المسؤولية الجنائية والمسؤولية التنظيمية والوقائية. وتشمل هذه الأطر فرض التزامات قانونية صارمة على المطورين والمشغّلين، وتعزيز معايير الشفافية، وإخضاع الأنظمة الذكية للرقابة المسبقة.

استجابة لهذه المخاطر، بدأت بعض الدول في وضع أطر قانونية تحاول تنظيم استخدام الذكاء الاصطناعي، مع التركيز على الأنظمة عالية المخاطر، في محاولة لتحديد المسؤولية وتقليل الضرر المحتمل."وعلى المستوى الدولي، بدأت بعض الدول بمحاولات تنظيمية، أبرزها قانون الذكاء الاصطناعي الأوروبي (EU AI Act)، الذي يصنّف أنظمة الذكاء الاصطناعي وفق مستوى الخطورة، ويفرض التزامات صارمة على الأنظمة عالية المخاطر، خاصة تلك المستخدمة في القضاء، والأمن، والتعليم، والتوظيف.

 

-المقاربة الواردة لا تعكس بالضرورة رأي مجموعة "النهار" الإعلامية.

إخترنا لك

أخبار ذات صلة

0 تعليق