المسؤولية الجنائية للذكاء الاصطناعي ✍️ دكتور الزبير حمزة الزبير

المسؤولية الجنائية للذكاء الاصطناعي تُعد من أحدث القضايا القانونية وأكثرها تعقيداً في الوقت الحالي، لأنها تمس العلاقة بين الآلة والقانون، خاصة بعد تطور قدرات الذكاء الاصطناعي على اتخاذ قرارات ذات طابع “ذاتي” دون تدخل مباشر من الإنسان.
فيما يلي عرض شامل ومبسط للموضوع
أولاً: المقصود بالمسؤولية الجنائية
المسؤولية الجنائية تعني إسناد الجريمة إلى شخصٍ معين ومساءلته عنها متى توافرت أركانها (الفعل، النتيجة، والعلاقة السببية، مع القصد أو الإهمال).
وهي تقوم على حرية الإرادة والتمييز، أي أن الجاني كان يعلم فعله ويريده
ثانياً: الإشكالية في حالة الذكاء الاصطناعي
هنا تظهر المشكلة:
هل يمكن اعتبار الذكاء الاصطناعي “شخصاً” ذا إرادة وإدراك حتى يتحمل المسؤولية الجنائية؟
الإجابة الحالية في أغلب الأنظمة القانونية:
لا يمكن، لأن الذكاء الاصطناعي لا يملك إرادة بشرية ولا وعي أخلاقي، بل يعمل وفق خوارزميات مبرمجة مسبقاً أو ذاتية التعلم.
ثالثاً: الاتجاهات الفقهية في تحميل المسؤولية
هناك ثلاثة اتجاهات رئيسية في الفقه القانوني الحديث هي:
1. الاتجاه التقليدي (المسؤولية تقع على الإنسان)
. يرى أن المسؤولية يجب أن تقع على الإنسان المسبب للفعل:
. المبرمج أو المطور (إذا كان الخطأ في التصميم).
•المستخدم أو المشغل (إذا استخدم النظام بطريقة خاطئة).
•الشركة المالكة (إذا قصرت في الصيانة أو المراقبة).
. هذا الاتجاه هو السائد حالياً في القوانين الوطنية والدولية.
2. الاتجاه الوسيط (المسؤولية المشتركة)
•يعتبر أن الذكاء الاصطناعي قد يسهم في وقوع الجريمة، لكن المسؤولية تبقى موزعة بين الإنسان والآلة بحسب درجة السيطرة البشرية على السلوك.
•يُقترح هنا نظام جديد يسمى “المسؤولية الجزائية التبعية” أو “المسؤولية المشتركة”.
3. الاتجاه المستقبلي (الذكاء الاصطناعي كشخص قانوني)
•بعض الفقهاء الأوروبيين يقترحون منح الذكاء الاصطناعي “شخصية قانونية رقمية” (electronic personhood)، شبيهة بالشخصية الاعتبارية للشركات.
•في هذه الحالة، يمكن تحميله مسؤولية محدودة، مع وجود تأمين أو صندوق مالي للتعويض.
. هذا الاتجاه ما زال نظرياً ولم يُطبّق بعد.
رابعاً: أمثلة تطبيقية
1.سيارة ذاتية القيادة تسببت في وفاة شخص.
•القانون يحمّل المسؤولية للمبرمج أو الشركة أو المستخدم، حسب السبب المباشر للخطأ.
2.روبوت طبي أخطأ في عملية جراحية.
•لمسؤولية تقع على المستشفى أو المصمم، وليس على الروبوت نفسه.
خامساً: التوجه القانوني الدولي
. الاتحاد الأوروبي يناقش منذ عام 2020 مشروعات لوضع “إطار قانوني للمسؤولية عن أفعال الذكاء الاصطناعي”.
•اليونسكو أصدرت عام 2021 توصيات حول أخلاقيات الذكاء الاصطناعي، تدعو إلى وضوح المسؤولية وعدم ترك فراغ قانوني.
•الدول العربية ما زالت تدرس هذا الجانب ضمن مشاريع حوكمة الذكاء الاصطناعي.
ويمكننا القول بأنه:
لا يُسأل الذكاء الاصطناعي جنائياً في الوقت الحالي، لأنه لا يملك وعياً ولا إرادة،
والمسؤولية تقع على من أنشأه أو استخدمه أو أشرف عليه.
ولكن المستقبل قد يشهد تطوير نظام قانوني جديد يخص “الجرائم الرقمية الذاتية” التي تُرتكب بواسطة الذكاء الاصطناعي
دكتور الزبير حمزة الزبير
المملكة العربية السعودية
استاذ جامعي





