الذكاء الاصطناعي والمسؤولية القانونية عن الأفعال الناتجة عنه
المقدمة
ابتداءً، يبقى التساؤل مطروحًا في ظل ما يقدمه الذكاء الاصطناعي من مميزات في شتى المجالات الحياتية والعملية: هل هو آفة العصر أم ثورته؟
ففي الوقت الذي يشهد فيه العالم تطورات متسارعة في مختلف المجالات، يبرز المجال التقني كأحد أهم محاور هذا التطور، وعلى رأسه الذكاء الاصطناعي الذي بات يُستخدم في مجالات متعددة تشمل الطب والتعليم والقضاء والاقتصاد، وغيرها من القطاعات الحيوية، تحت مفهوم: ” علم يهتم بدراسة وتصميم البرمجة لتحقيق المهام والأعمال التي تحتاج من البشر عادة استخدام ذكائها للقيام بها”، ونص دليل مبادئ أخلاقيات الذكاء الاصطناعي بأنه”: مجموعة من التقنيات التي تمكن آلة أو نظامًا من التعلم، والفهم، والتصرف والاستشعار، وقد أولت المملكة العربية السعودية اهتمامًا بالغًا بهذا المجال ضمن رؤية المملكة 2030م التي تسعى إلى تنويع مصادر الاقتصاد وتعزيز الابتكار والتكنولوجيا، فأطلقت العديد من المبادرات الرائدة مثل مبادرة المليون سعودي للذكاء الاصطناعي وغيرها من المشاريع التي تهدف إلى تمكين القدرات الوطنية وتوطين المعرفة التقنية.
إلا أن هذا التقدم التقني الهائل يطرح تساؤلات قانونية دقيقة حول المسؤولية القانونية عن الأفعال الناتجة عن الذكاء الاصطناعي، وهنا يبرز السؤال الجوهري: من يتحمل المسؤولية عند وقوع الضرر — هل هو المبرمج؟ أم المستخدم؟ أم الجهة المنتجة للنظام؟
وتكمن أهمية الدراسة في وضع أطر قانونية واضحة لتحديد المسؤولية القانونية الناتجة عن الأفعال الناتجة عن الذكاء الاصطناعي، وذلك يندرج تحت التساؤلات الآتية:
- التعريف بمفهوم الذكاء الاصطناعي ومراحل تطوره.
- مفهوم المسؤولية القانونية وأنواعها، والأساس النظامي لها في الأنظمة السعودية.
- بيان الأطراف التي تقع عليهم المسؤولية القانونية.
- التشريعات الوطنية والاتجاهات الدولية في تنظيم مسؤولية الذكاء الاصطناعي.
ونعتمد في هذه الدراسة على المنهج الوصفي، كونه الأمثل لعنوان الدراسة الحالية لتوضيح نطاقها الموضوعي كما هو، بالإضافة إلى المنهج التحليلي لتحليل نصوص الأنظمة الخاصة ذات الصلة لفهمها وتوضيحها وتطبيقها على موضوع البحث.
الفصل الأول: الإطار المفاهيمي والتقني للمسؤولية في الذكاء الاصطناعي
المبحث الأول: ماهية الذكاء الاصطناعي وتطوره
- النشأة التاريخية للذكاء الاصطناعي ومراحل تطوره.
تعد علاقة الإنسان بالآلة علاقة قديمة تعود جذورها إلى العصور الأولى، حيث سعى الإنسان إلى تسخير الأدوات والآلات لتسهيل حياته اليومية، بدءًا من اختراع الساعات، مرورًا بـ الهواتف الثابتة والمنقولة، وصولًا إلى الأنظمة الذكية التي نعرفها اليوم.
ومع تطور التقنية، لم تعد هذه العلاقة مجرد علاقة بين إنسان وجماد، بل تحولت إلى علاقة أكثر تعقيدًا، حيث أصبحت الآلة تتمتع بدرجة من الاستقلالية والقدرة على التعلم الذاتي، وأصبحت قادرة على أداء مهامٍ تحاكي ما يقوم به الإنسان في حياته العملية والعقلية.
وقد ظهر مصطلح “الذكاء الاصطناعي” لأول مرة عام 1956م خلال مؤتمر علمي نظمته جامعة دارتموث الأمريكية، عندما اقترح العالم جون مكارثي أن يُطلق هذا المصطلح على الأنظمة والآلات التي تحاكي السلوك البشري وقدرته على التفكير واتخاذ القرار.
وتطور الذكاء الاصطناعي ليشمل مجالات عديدة، في الطب والهندسة والتعليم، والمحاماة، والزراعة وغيرها.
- خصائص الأنظمة الذكية وتميّزها عن الأدوات التقليدية.
- تتميز الأنظمة الذكية عن غيرها من الأدوات التقليدية بعدة خصائص نذكرها على النحو الآتي:
- تمتلك موسوعة علمية كبيرة، تمكنها من التعامل مع المعلومات وإيجاد الحلول لها، حتى لو كانت ناقصة وغير مكتملة وبشكل سريع.
- القدرة على التعامل مع البيانات التي تناقض بعضها البعض ويشوبها بعض الأخطاء، أو تلك البيانات التي تحمل التكرار والإسهاب في الجمل دون معنى مفيد.
- القدرة على محاكاة السلوك الإنساني، حيث تمثل هذه الخاصية الهدف من الذكاء الاصطناعي، إذ يسعى إلى فهم طبيعة الذكاء الإنساني من خلال اللغة والسلوك والتفكير، والعمل على تطوير أنظمة قادرة على أداء مهام شبيهة بما يقوم به الإنسان في مختلف المجالات.
- أنواع الذكاء الاصطناعي وفق مستوى الاستقلالية واتخاذ القرار.
تم تصنيف الذكاء الاصطناعي وفقًا لما يتمتع به من قدرات ذكية إلى ثلاثة أنواع، وذلك على النحو الآتي:
- الذكاء الاصطناعي المحدود:
يعتبر هذا النوع أحد أضعف أنواع الذكاء الاصطناعي، وسمي بهذا الاسم استنادًا إلى محدودية المهام التي يقوم بها، ومن الأمثلة على ذلك: السيارات ذاتية القيادة ذات النظام البسيط، أو برامج التعرف على الكلام أو الصور، ويعد هذا النوع الأكثر شيوعًا في الوقت الحالي.
- الذكاء الاصطناعي العام:
يعد هذا النوع من الذكاء الاصطناعي أكثر قدرة وقوة عن النوع السابق، حيث يمكن لتطبيقاته أن تعمل بقدرة تتشابه مع قدرة الإنسان من حيث التفكير والإدراك، فالهدف منها محاكاة السلوك الإنساني تمامًا، كالروبوتات الذكية.
- الذكاء الاصطناعي الفائق:
يعد هذا النوع من أقوى أنواع الذكاء الاصطناعي، نظرًا لما يمتلكه من قدرات تفوق مستوى الفكر والذكاء الإنساني في مختلف المجالات، إذ يستطيع أداء المهام بكفاءة ودقة تفوق ما يقوم به الإنسان المتخصص وذو المعرفة العلمية.
المبحث الثاني: مفهوم المسؤولية القانونية في ظل الأنظمة التقنية
- التعريف العام بالمسؤولية القانونية وأركانها.
يضع القانون مجموعة من القواعد توصف بالقانونية، تعرف بأنها مجردة وعامة، تحكم سلوك الأفراد في المجتمع وهي ملزمة، ويترتب على مخالفتها جزاء توقعه السلطة المختصة، بناءً على هذا التعريف فإن المسؤولية القانونية تعني التزام الشخص بتحمل النتائج القانونية لأفعاله إذا خالفت ما يفرضه النظام أو سببت ضررًا للغير.
وللمسؤولية القانونية أركان لا تقوم إلا بتوافرها، ويعد الركن المادي أول هذه الأركان، ويقصد بالركن المادي السلوك المكون للفعل غير المشروع، أي توافر التصرف أو الامتناع الذي يشكل الجريمة أو المخالفة، يمثل في جوهره خطأ بالتالي هو فعل أو امتناع عن فعل كان من الواجب تجنبه.
كما يتطلب الركن المادي تحقق نتيجةٍ إجراميةٍ محددة، تتمثل في الضرر الواقع على الغير نتيجة فعل الجاني، إضافةً إلى قيام العلاقة السببية بين هذا الفعل والنتيجة المترتبة عليه، فالعلاقة السببية تعد الرابط الذي يصل بين السلوك الإجرامي والنتيجة الضارة، بحيث ينسب الضرر إلى الفاعل متى ثبت أن فعله كان السبب لتلك النتيجة.
- العلاقة بين الفعل الضار والإرادة القانونية.
يقصد بالفعل الضار السلوك غير المشروع الذي يصدر عن الشخص ويترتب عليه إلحاق ضرر بالغير، وهو يمثل الركن المادي للمسؤولية، ويقترن هذا الفعل بوجود الإرادة القانونية التي تشكل الركن المعنوي، أي اتجاه إرادة الفاعل إلى ارتكاب الفعل الضار مع علمه بأن سلوكه يُشكل مخالفة صريحة لأحكام النظام.
فلا تقوم المسؤولية إلا بتوافر هذين العنصرين معًا، إذ لا يسأل الشخص قانونيًا ما لم يكن فعله ناتجًا عن إرادة واعية ومدركة لنتائج السلوك غير المشروع.
وبتطبيق ذلك على الذكاء الاصطناعي وتطبيقاته، فإن عبء الإثبات يقع على المتضرر لإثبات أن الضرر قد تحقق فعلاً نتيجةً لفعلٍ صادر عن النظام الذكي أو الروبوت.
ومن أبرز الأمثلة على ذلك المكنسة الكهربائية الروبوتية، فإذا ترتب عنها ضرر لشخص ما، فإن على المتضرر أن يثبت أن هذا الضرر ناتج عن عيبٍ في المكنسة أو خلل في برمجتها، لا عن سبب خارجي آخر.
- أثر التقنية على مفهوم الخطأ والنية في الفعل القانوني.
يختلف مفهوم الخطأ والنية في الفعل القانوني عند الأنظمة الذكية عن تلك الأخطاء الناتجة عن الفعل البشري في عدة نقاط أساسية:
- غياب الإرادة المباشرة:
يرتبط الخطأ والنية ارتباطًا وثيقًا بإرادة الشخص الطبيعي أو الاعتباري وسلوكه، أما في سياق الأنظمة الذكية، فإن الوضع يختلف؛ إذ قد يصدر الفعل الضار نتيجة قرارات آلية ذاتية تتخذها الأنظمة استنادًا إلى خوارزميات مبرمجة مسبقًا أو عمليات تعلم ذاتي، دون تدخل مباشر من الإنسان في لحظة اتخاذ القرار.
وقد أثار هذا التطور جدلًا واسعًا في الفقه القانوني حول مدى إمكانية إضفاء الشخصية القانونية على الروبوت أو النظام الذكي، بحيث يُحمَّل تبعات أفعاله كالشخص الطبيعي أو الاعتباري.
فبينما يرى بعض الفقهاء أن الروبوت يفتقر إلى الإرادة والإدراك التي تشكل أساس المسؤولية القانونية، يذهب آخرون إلى أن الأنظمة الذكية ذاتية التعلم قد تكتسب درجة من الاستقلال تُبرر منحها الشخصية القانونية لتنظيم آثار تصرفاتها قانونيًا.
وعلاوةً على ما سبق فأن الوعي والإدراك في الأنظمة الذكية يظلان وعيًا برمجيًا محدودًا قائمًا على معالجة البيانات لا على إدراك حقيقي للعواقب أو المعاني القانونية، مما يجعل إرادتها اصطناعية وغير مؤهلة لتحمل المسؤولية القانونية الكاملة.
- توسع نطاق المسؤولية:
نظرًا لغياب الإرادة المباشرة، لا يمكن الاقتصار على تقييم الخطأ باعتباره سلوكًا شخصيًا فقط، إذ أن يجب تحديد مسؤولية المبرمج أو المصنّع أو المشرف على النظام الذكي، بناءً على مدى الإهمال أو التقصير في تصميم أو مراقبة النظام.
- إعادة تعريف معيار الخطأ:
الخطأ لم يعد مقصورًا على تصرف الإنسان، بل تعدى إلى أخطاء تقنية مثل:
- أخطاء البرمجة أو التصميم للنظام.
- أخطاء الإشراف على الأنظمة الذكية.
الفصل الثاني: الأساس النظامي للمسؤولية القانونية في الأنظمة السعودية
المبحث الأول: المسؤولية المدنية عن الأفعال الناتجة عن الذكاء الاصطناعي
- تطبيق قواعد المسؤولية التقصيرية والعقدية.
أولاً- المسؤولية العقدية:
تقوم المسؤولية العقدية على التزام عقدي، متوفر فيه الشروط الآتية:
- توافر الشروط العامة التي نص عليها الشرع والنظام.
- أن يكون عقد توافقت فيه إرادة الطرفين (الإيجاب والقبول)، وإلا يكون في حال عدم الوفاء بالعقد، فيكون لأحد طرفيه الحق في فسخ العقد بعد إعذار الطرف الآخر، حيث نصت المادة (107) من نظام المعاملات المدنية على:” في العقود الملزمة للجانبين، إذا لم يوف أحد المتعاقدين بالتزامه، فللمتعاقد الآخر بعد إعذاره المتعاقد المخل أن يطلب تنفيذ العقد أو فسخه، مع التعويض في الحالتين إن كان له مقتض، وللمحكمة أن ترفض طلب الفسخ إذا كان الجزء الذي لم يوف به المخل قليل الأهمية بالنسبة إلى الالتزام”.
- أن يكون محل العقد: مالاً مقومًا.
- أن يكون الضرر ناشىء عن عدم تنفيذ العقد.
ولتكييف قواعد المسؤولية العقدية على عمليات الذكاء الاصطناعي، فأنه يستلزم توافر الأركان التالية لقيامها:
- خطأ عقدي: كإخلال الطرف في العقد مثل: الطرف المنتج للآلة الذكية للالتزام الذي تفرضه عليه بنود العقد، كالتأخير في تسليم المنتج أو التنفيذ المعيب بعيب جوهري في الآلة خلاف المتفق عليه بين الطرفين، وأن يكون الخطأ صادرًا من الآلة محل تنفيذ العقد.
- أن يكون الضرر الواقع على المتضرر نتيجة للخطأ العقدي.
- توافر العلاقة السببية بين الخطأ العقدي والضرر، استنادًا على المادة (125) من نظام المعاملات المدنية التي تنص على مسؤولية الشخص عن الضرر الذي جنته يداه فقط.
ثانيًا- المسؤولية التقصيرية:
تقوم المسؤولية التقصيرية على مبدأ مفاده – أن كل خطأ سبب ضررًا للغير يلزم من تسبب به التعويض- بالتالي فهي تتمثل في الجزاء نتيجة فعل الإخلال بالواجب القانوني وترتب عليه الإضرار بالغير، ويشترط بجميع الحالات توافر العلاقة السببية بين الخطأ والضرر لقيام المسؤولية القانونية، حيث نصت المادة (122) من نظام المعاملات المدنية على:”
– يكون الشخص مسؤولًا عن الفعل الضار متى صدر منه وهو مميز.
– إذا وقع الضرر من غير المميز ولم يكن هناك من هو مسؤول عن الضرر أو تعذر الحصول على تعويضٍ من المسؤول، لزم غير المميز تعويضٌ مناسبٌ تقدره المحكمة.
– وبتطبيق ما سبق، على عمليات الذكاء الاصطناعي، نستخلص الأمور التالية:
1- يقوم تحقق المسؤولية القانونية على ثبوت الضرر وفقًا للمادة (122)، دون اشتراط الإدراك. وفي مجال الذكاء الاصطناعي، إذا نتج الضرر عن آلة ذكية، فلا تُسأل الآلة بذاتها لعدم تمتعها بالشخصية القانونية، وإنما تُثار مسؤولية المالك أو المشغل أو المستعمل، خاصةً في الحالات التي تتصرف فيها الآلة باستقلال، كالمركبات ذاتية القيادة عند وقوع حادث.
-فإن هذه المسألة ينظمها إحدى الفرضيتين التاليتين:
1- انفراد المركبة في وقوع التعدي:
كأن تتحرك وهي بوضع الإيقاف دون أمر من مالكها، فهنا لا يتم الرجوع على المالك إلا في حال ثبت أن هناك خلل مصنعي أدى إلى تحرك المركبة أي وجود تقصير من قبل المالك.
ومن ناحية أخرى، هل يمكن تطبيق القواعد الخاصة بمسؤولية حراسة الأشياء على عمليات الذكاء الاصطناعي؟ نعم، في حال توافر الشروط المنصوص عليها في المادة (132) من نظام المعاملات المدنية بقولها “كل من تولى حراسة أشياء تتطلب عنايةً خاصَّةً -بطبيعتها أو بموجب النصوص النظامية- للوقاية من ضررها؛ كان مسؤولًا عمَّا تحدثه تلك الأشياء من ضرر، ما لم يثبت أن الضرر كان بسبب لا يد له فيه”.
وبتطبيق نص هذه المادة على عمليات الذكاء الاصطناعي نذكر الشروط الآتية:
- أن يتولى شخص حراسة شيء-السيطرة الفعلية على الشيء- تتطلب طبيعته عناية خاصة للوقاية من ضررها، أو حراسة الآلات الميكانيكية.
- وقوع الضرر بفعل الشيء -المركبة أو الأجهزة وغيرها-، أي أن يكون الضرر قد حدث نتيجة فعل الشيء دون تدخل أي شخص أو ظروف أخرى.
بتوافر الشرطان هذه تقوم المسؤولية التقصيرية عن الأضرار التي سببتها المركبة ذاتية القيادة مثلاً أو الروبوت ويتحملها الشخص الحارس عنهما.
2- أن يكون الاعتداء بناء على أمر من مالكها: لا مناص في قيام مسؤولية المالك في حال إثبات ذلك.
- عبء الإثبات في الأفعال الناتجة عن أنظمة مستقلة.
الأصل في الإثبات على من يدعي وقوع الضرر، حيث يقع على عاتقه تقديم الأدلة المؤيدة لموقفه وادعاءه.
إلا أن الأفعال الناجمة عن أنظمة الذكاء الاصطناعي المستقلة تطرح تحديات في هذا السياق، إذ قد يتجاوز إثبات سبب الخطأ قدرة الشخص العادي ويستلزم الاستعانة بخبراء مختصين في الخوارزميات وأنظمة الذكاء الاصطناعي، على سبيل المثال لإثبات أن مالك النظام لم يكن له دور مباشر في الخطأ الذي أدى إلى الضرر.
- حدود مسؤولية المستخدم والمبرمج والمصنعّ.
بادئ ذي بدء، تتعدد أنظمة الذكاء الاصطناعي وتتنوع تطبيقاتها، حتى أصبح من الصعب أن يخلو أي مجال في وقتنا الحاضر من نظامٍ يعتمد على نسخةٍ حديثةٍ منه تعمل بشكلٍ ذاتي. وتبدأ هذه الأنظمة من النماذج البسيطة ذات الكفاءة المحدودة، وصولًا إلى الأنظمة فائقة الأداء مثل الروبوتات، والتي تبدأ مرحلة تصنيعها في المصانع وفق معايير دقيقة لضمان كفاءتها وسلامة تشغيلها.
وتبرز إشكالية تحديد حدود المسؤولية القانونية في حال وقوع ضرر ناتج عن هذه الأنظمة، إذ تتوزع المسؤولية بين أطرافٍ عدة وفقًا لمصدر الخطأ وطبيعته، نذكرها على النحو الآتي:
-المستخدم: فتقع المسؤولية على المستخدم إذا كان الضرر نتيجة سوء استخدامه للنظام أو إهماله.
-المبرمج: يتحمل المبرمج المسؤولية إذا نتج الخطأ عن خلل أو عيب في التصميم يمكن توقعه وتجنبه.
-المصنع: المصنع أو الشركة المنتجة فيُسأل عن الأضرار الناتجة عن عيبٍ في التصنيع أو قصورٍ في التعليمات والتحذيرات المصاحبة للمنتج.
بالتالي فإن توزيع المسؤولية يقوم على أساس تحديد مصدر الخطأ وما إذا كان سببه بشريًا أم تقنيًا، ومن أبرز الأمثلة التي يمكن الاستشهاد بها في هذا السياق، المثال التالي:
- الروبوت المستخدم في العمليات الجراحية، فإذا ترتب على استخدامه ضررٌ للمريض، فإن تحديد المسؤولية القانونية يتوقف على معرفة الجهة التي تملك السيطرة الفعلية على الروبوت، وذلك استنادًا إلى نظرية الحراسة على الأشياء، فقد يكون الطبيب الذي استخدم الروبوت وأخطأ في التشغيل، أو إلى مالك المستشفى بوصفه الحارس الفعلي للأداة، أو قد تمتد إلى الشركة المصنعة أو المبرمجة إذا ثبت أن الضرر ناتج عن عيبٍ في التصميم أو خللٍ في البرمجة.
المبحث الثاني: المسؤولية الجنائية والإدارية في ضوء النظام السعودي
- الركن المعنوي في الجرائم الناتجة عن الأنظمة الذكية.
للمسؤولية الجنائية أركان لا تقوم الجريمة إلا بتوافرها، وهي الركن المادي الذي يمثل العنصر الخارجي المتمثل في السلوك الإجرامي، والركن المعنوي بعنصريه العلم والإرادة، أي تحقق المعرفة أو القصد في ارتكاب هذا السلوك.
غير أن هذه الأركان، ولا سيما الركن المعنوي، يصعب تصوره في سياق تقنيات الذكاء الاصطناعي، إذ تفتقر هذه الأنظمة إلى الإدراك أو علمها بماهية الفعل فهي ليست إلا آلات مصممة لتقليد الخصائص البشرية من حيث المظهر والإدراك والسلوك، مما يجعل إسناد القصد الجنائي إليها أمرًا غير ممكن وفق المفهوم التقليدي للمسؤولية الجنائية.
- مدى قابلية الذكاء الاصطناعي للمساءلة الجنائية.
نظرًا لأن المسؤولية الجنائية تقوم على التزام الشخص بتحمل الآثار القانونية المترتبة على ارتكابه فعلًا يُعد جريمة يعاقب عليها القانون، وكان مناط هذه المسؤولية هو القدرة على تحمل الالتزامات واكتساب الحقوق، وتقوم هذه المسؤولية على أركان قانونية ابتداءً من الركن المادي (العنصر الخارجي) والركن المعنوي (القصد الجرمي) بالإضافة إلى الركن القانوني، إن توفرت في أي شخص ترتب على ذلك مساءلته جنائيًا.
ونرى ألا يمكن إقرار المسؤولية الجنائية على تطبيقات الذكاء الاصطناعي استنادًا على الحجج الآتية:
– استحالة إسناد الجريمة إلى الروبوت، لعدم تمتعه بالإدراك والتمييز اللازمين لفهم أن أفعاله تشكل جريمة وفقًا للقانون.
– انتفاء الغاية من العقوبة الجنائية، إذ تهدف إلى تحقيق الردع والزجر، وهي غايات لا يمكن أن تتحقق في الذكاء الاصطناعي، لأن العقوبة يفترض أن تمس الجاني في بدنه أو حريته أو ماله أو شرفه أو اعتباره، وهي صفات لا تنطبق إلا على الإنسان الطبيعي أو الاعتباري.
– عدم مساءلة الكيانات العاملة بتقنيات الذكاء الاصطناعي عن الأفعال الصادرة عنها، رغم التطور الذي وصلت إليه إلا أنها لم تصل بعد إلى الدرجة التي يمكنها من اتخاذ القرارات ومن ثم تحميلها المسؤولية كاملة، إذ لا يتصور ارتكاب جرم من قبلها بدون اشتراك أطراف أخرى، لأنها تعمل وفق خوارزميات وبرمجيات محددة مسبقًا يتم تغذيتها بها، وبالتالي فهي تفتقر إلى الإرادة والوعي اللذين تقوم عليهما المسؤولية الجنائية.
ويتم إسناد هذه المسؤولية إلى الأطراف الأخرى، سواء كان المصنع، أو المالك، أو المستخدم، أو طرف خارجي، ونذكرها على النحو الآتي:
-المسؤولية الجنائية للمصنع: سواء كان الخطأ عمديًا أو غير عمدي من جانب المصنع، فإن مسؤوليته تقوم متى ثبت أن الجريمة قد تحققت بأركانها.
فعلى سبيل المثال، إذا قام المصنع بإنتاج طائرة دون طيار دون مراعاة معايير الأمن والسلامة والجودة، أو برمجها عمدًا بطريقة تجعلها ترتكب سلوكًا إجراميًا كالقتل، فإن المسؤولية الجنائية تقع عليه متى توافرت الأركان المكونة للجريمة
– المسؤولية الجنائية للمالك أو المستخدم: يرتبط كل من المالك أو المستخدم مع كيان الذكاء الاصطناعي بعلاقة مباشرة، حيث إنهما على تواصل معه ويستفيدان من إمكانياته، لذا من المتوقع حدوث جريمة يعاقب عليها القانون ما إذا أساءا استخدامها، كأن يقوم أحدهما بتغيير برمجيات السيارة ذاتية القيادة بهدف ارتكاب جريمة كالدهس، فأنه في هذا الحال تقوم المسؤولية الجنائية.
– المسؤولية الجنائية لطرف خارجي: كأن يقوم طرف خارجي باختراق تقنيات الذكاء الاصطناعي سواء أكان يوجد إهمال من قبل المصنع أم لا.
- دور الجهات الإدارية في الرقابة على الاستخدام الآمن للذكاء الاصطناعي.
تلعب الجهات الإدارية دورًا هامًا في الرقابة على استخدامات الذكاء الاصطناعي وتطبيقاته، بما يحد من المخاطر المرتبطة به، وفي المملكة العربية السعودية تعتبر الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) هي الجهة العامة والمعنية لكل ما يخص تنظيم استخدام الذكاء الاصطناعي، وهي صاحبة الاختصاص الأصيل في كل ما يتعلق بالتشغيل والأبحاث والابتكار في قطاع البيانات والذكاء الاصطناعي.
وتشمل مهامها:
- وضع الاستراتيجية الوطنية للبيانات والذكاء الاصطناعي (NSDAI).
- تنظيم استخدام الذكاء الاصطناعي بما يضمن الشفافية والأمن والموثوقية.
- مراقبة الأنظمة التي تعتمد على الذكاء الاصطناعي وتقييم مخاطرها.
- إصدار الأدلة الإرشادية والسياسات الخاصة بالاستخدام الآمن.
الفصل الثالث: الإشكاليات القانونية والفقهية في مساءلة الذكاء الاصطناعي
المبحث الأول: صعوبة تحديد الفاعل القانوني
- تداخل الأدوار بين المصنع والمستخدم والجهة المالكة.
للذكاء الاصطناعي أطرافًا متصلة به، فهناك المالك والمصنع والمستخدم، وغالبًا ما تتداخل أدوارهم ومسؤولياتهم، ولا يمكن تقرير دور كل أحد منهما إلا بحسب ظروف كل واقعة على حدة وما تتضمنه من تفاصيل فنية وقانونية.
ويقف الأمر عند وسائل دفع المسؤولية عن الأفعال الناتجة عن الذكاء الاصطناعي، وذلك بتطبيق أحكام نظام المعاملات المدنية الذي قرر عدة نظريات يمكن الدفع بها للتنصل عن التهم سواء المالك أو المصنع أو المستخدم، وهذه النظريات يمكن ذكرها على النحو الآتي:
–القوة القاهرة: نصت المادة 125 من نظام المعاملات المدنية على اعتبار القوة القاهرة من موانع المسؤولية المدنية، وهي: ” كل حادث غير متوقع لا يد للشخص فيه، ولا يستطاع دفعه، ويترتب عليه أن يصبح تنفيذ الالتزام مستحيلاً”، فبناءً على التعريف فأنه يجب توافر عدة شروط لابد توافرها في الواقعة لانطباق وصف القوة القاهرة عليها، وهي:
1- عدم إمكانية توقعها.
2- استحالة دفعها.
3- أن يكون الحادث خارج عن إرادة الحارس.
–خطأ الغير: نصت المادة 125 من نظام المعاملات المدنية على:” لا يكون الشخص مسؤولًا إذا ثبت أن الضرر قد نشأ عن سببٍ لا يد له فيه، كقوةٍ قاهرةٍ أو خطأ الغير أو خطأ المتضرر؛ ما لم يُتفق على خلاف ذلك.”، فالأصل أن الشخص لا يحاسب إلا عن الأفعال التي كان سبب فيها.
-خطأ المتضرر: تنتفي المسؤولية عن الحارس متى ما كان للمتضرر يد في وقوع الخطأ بالنسبة التي تداخل فيها المتضرر بخطئه.
- المسؤولية الجماعية في الأفعال الناتجة عن خوارزميات متعددة المصادر.
في الوقت الذي تتداخل فيه أدوار الأطراف المتعاملة مع تقنيات الذكاء الاصطناعي، تجدر الإشارة إلى أن خوارزميات الذكاء الاصطناعي لا تعمل بذات الطريقة التي يعمل بها الإنسان، ولا تنتج بالضرورة نفس النتائج أو تتبع ذات المنطق في اتخاذ القرارات. ووفقًا لذلك، قد تُصمَّم خوارزميتان لأداء الغرض ذاته، إلا أنهما تختلفان من حيث النوع والأداء، بحيث يمكن لإحداهما أن تتسبب في حادث أو ضرر، بينما لا ينتج عن الأخرى الخطر ذاته.
ومن ثم، يصبح من الضروري الاستعانة بخبير فني لتقييم الخوارزميات وتحديد ما إذا كانت مصممة على نحوٍ معيبٍ أدى إلى وقوع الضرر، غير أن هذا الإجراء يُعد بالغ الصعوبة ومرتفع التكلفة، نظرًا للتعقيد الفني الذي تتسم به هذه الأنظمة.
- نماذج دولية في توزيع المسؤولية بين الأطراف.
تختلف النماذج القانونية في كيفية تحديد الطرف المسؤول عن الأفعال الناتجة عن أنظمة الذكاء الاصطناعي، وذلك تبعًا لطبيعة العلاقة بين الأطراف المشاركة في تصميم النظام أو تشغيله أو الاستفادة منه، فبعض الأنظمة تميل إلى تحميل المصنع أو المطوّر المسؤولية متى كان الضرر نتيجة خلل في البرمجة أو التصميم، في حين تحمل أنظمة أخرى المستخدم أو المطور المسؤولية إذا كان السبب سوء استخدام أو تقصير في المراقبة أو الصيانة.
كما توجد نماذج تقوم على المسؤولية المشتركة بين جميع الأطراف، بحيث يُنظر في مدى مساهمة كل طرف في وقوع الضرر، وعلى أساسه يحدد التعويض، ويعد هذا الاتجاه أكثر مرونة لأنه يراعي طبيعة الذكاء الاصطناعي بوصفه نظامًا معقّدًا تتداخل فيه أدوار متعددة.
الفصل الرابع: الاتجاهات الحديثة في تنظيم المسؤولية عن الذكاء الاصطناعي
المبحث الأول: التجارب الدولية المقارنة
- المبادرات الأوروبية (مشروع Al Act وAl Liability Directive)
أصدرت اللجنة القانونية للاتحاد الأوروبي لائحة شاملة لتنظيم الذكاء الاصطناعي وتقنياته، فأطلق مشروع “قانون الذكاء الاصطناعي” (AI Act) الذي يهدف إلى وضع إطار قانوني موحّد يضمن الاستخدام الآمن والمسؤول للذكاء الاصطناعي داخل دول الاتحاد. يقوم هذا المشروع على نهج قائم على المخاطر (Risk-Based Approach)، حيث تُصنَّف أنظمة الذكاء الاصطناعي بحسب مستوى المخاطر التي قد تشكلها على الأفراد والمجتمع، وتفرض على مطوريها ومستخدميها التزامات تتناسب مع درجة تلك المخاطر، من حيث الشفافية، وجودة البيانات، والمراقبة.
حيث نصت المادة الأولى على الغرض من هذه اللائحة بقولها:” الغرض من هذه اللائحة هو تحسين أداء السوق الداخلية وتعزيز استخدام الذكاء الاصطناعي الموثوق به والمتمركز حول الإنسان، مع ضمان مستوى عالٍ من حماية الصحة والسلامة والحقوق الأساسية المنصوص عليها في الميثاق، بما في ذلك الديمقراطية وسيادة القانون وحماية البيئة، ضد الآثار الضارة لأنظمة الذكاء الاصطناعي في الاتحاد ودعم الابتكار”.
أما مشروع توجيه المسؤولية عن الذكاء الاصطناعي (AI Liability Directive)، فقد جاء مكمِّلًا لـ (AI Act) بهدف معالجة مسألة إثبات المسؤولية المدنية في الأضرار الناشئة عن استخدام الذكاء الاصطناعي، إذ يضع آليات لتخفيف عبء الإثبات عن المتضرر، ويتيح له إمكانية الاعتماد على افتراض الخطأ أو العيب في النظام متى ثبت إخلال المصنع أو المشغل بالتزاماته المنصوص عليها في (AI Act).
- النموذج الأمريكي في التنظيم الذاتي والمسؤولية المحدودة.
يختلف النهج الأمريكي في تنظيم تقنيات الذكاء الاصطناعي عن النهج الأوروبي من حيث اعتماده على مبدأ التنظيم الذاتي، أي ترك المجال بدرجة كبيرة للشركات والمطورين لوضع معاييرهم الداخلية لضمان السلامة والأمان، دون تدخل تشريعي صارم، ويستند هذا التوجه إلى فلسفة تشجيع الابتكار وحماية حرية السوق، باعتبار أن التنظيم المفرط قد يعيق التطور التكنولوجي ويحد من التنافسية.
وفي سبيل ذلك أقر الكونغرس في الولايات المتحد الأمريكية في عام 2020م قانون مستقبل الذكاء الاصطناعي وآفاقه في العالم، وهو أول قانون فيدرالي ينظم أعمال الذكاء الاصطناعي، ونشأت لجنة مختصة للذكاء الاصطناعي واتخاذ القرارات اللازمة حياله، ودراسة آثار استخدامه على القوى العاملة في الولايات المتحدة الأمريكية.
- الدروس المستفادة للأنظمة الخليجية والعربية.
لم تُسنّ أيٌّ من الدول الخليجية أو العربية حتى الآن نظامًا مستقلًا لتنظيم أعمال الذكاء الاصطناعي، إذ اكتفت بإصدار أدلة إرشادية ولوائح تنظيمية تصدر عن الهيئات أو الوزارات المعنية، لمعالجة الإشكاليات التقنية والقانونية المرتبطة باستخدام الذكاء الاصطناعي. وتهدف هذه المبادرات إلى توفير إطار توجيهي عام يضمن سلامة التطبيق، ويحد من المخاطر المحتملة، مع الحفاظ على مرونة تسمح بتطور التقنيات دون قيود تشريعية صارمة.
وعلى الصعيد الوطني في المملكة العربية السعودية، أولت الدولة اهتمامًا مبكرًا بتقنيات الذكاء الاصطناعي ضمن رؤيتها الطموحة (رؤية 2030)، حيث أُنشئت الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) لتكون الجهة المشرفة على تطوير السياسات والأنظمة ذات الصلة.
كما أصدرت الهيئة عددًا من الأطر التنظيمية والأدلة الإرشادية، مثل “الاستراتيجية الوطنية للذكاء الاصطناعي” و “مبادئ أخلاقيات الذكاء الاصطناعي وضوابطه”، التي تهدف إلى تعزيز الابتكار وضمان الاستخدام الآمن والمسؤول لهذه التقنيات، ورغم ذلك، لا يزال غياب نظام قانوني مستقل ومتكامل يُعنى بتنظيم المسؤولية الناشئة عن أفعال أنظمة الذكاء الاصطناعي يمثل تحديًا أمام المشرع السعودي والعربي على حد سواء، مما يستلزم دراسة التجارب الدولية ووضع تشريعات واضحة.
المبحث الثاني: نحو إطار نظامي سعودي للمساءلة التقنية
- رؤية السعودية للذكاء الاصطناعي (سدايا والاستراتيجية الوطنية.)
ضمن رؤية المملكة 2030م، أولت المملكة اهتمامًا بالغًا بتقنيات الذكاء الاصطناعي لتحقيق رؤيتها في الارتقاء بالمملكة إلى موقع الريادة ضمن الاقتصادات المعتمدة على البيانات. وفي هذا السياق، تم تأسيس الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) لتكون الجهة الإشرافية المسؤولة عن تطوير السياسات الوطنية وتنظيم استخدام تقنيات الذكاء الاصطناعي.
ولتحقيق أهدافها، أطلقت الهيئة الاستراتيجية الوطنية للبيانات والذكاء الاصطناعي، وعملت على تفعيل مبادراتها لتوحيد الجهود الوطنية على كافة الجهات الحكومية والخاصة، وقد صدرت الموافقة على هذه الاستراتيجية من المقام السامي بتاريخ 26/11/1441هـ، حيث تهدف الاستراتيجية إلى ترسيخ موقع المملكة كمركز عالمي لتمكين أفضل تقنيات البيانات والذكاء الاصطناعي، مما يؤكد الالتزام الرسمي للمملكة بدعم الابتكار وتطوير منظومة الذكاء الاصطناعي على الصعيد الوطني.
- الحاجة إلى تشريع خاص بالمسؤولية عن الأفعال التقنية.
الحاجة إلى تشريع خاص بالمسؤولية عن الأفعال التقنية
تشير التجارب الدولية إلى أن غياب إطار قانوني مستقل لتنظيم المسؤولية عن أفعال أنظمة الذكاء الاصطناعي يؤدي إلى صعوبة إثبات المسؤولية وتحديد الأطراف المتضررة.
لذلك، تبرز الحاجة إلى تشريع خاص ينظم المسؤولية المدنية والجنائية الناشئة عن استخدام التقنيات الذكية، بما يضمن حماية الأفراد والمستثمرين والمجتمع، ويحد من المخاطر القانونية والتقنية المرتبطة بالأخطاء أو الأضرار الناتجة عن هذه الأنظمة، وفي سبيل ذلك تدعو الحاجة
إلى إصدار نظام مستقل في المملكة يعنى في تنظيم أحكام الذكاء الاصطناعي وتطبيقاته، بناءً عليه نذكر الفقرة الآتية:
-ملامح مقترحة لنظام سعودي للمساءلة عن الذكاء الاصطناعي.
يمكن للنظام المقترح أن يقوم على مجموعة من المواد الأساسية:
- الهدف من النظام
توضيح الغرض من النظام، مثل حماية المتضررين، تنظيم استخدام الذكاء الاصطناعي، وضمان بيئة آمنة ومحفزة للابتكار والاستثمار.
- التعريف بالذكاء الاصطناعي وتطبيقاته
تحديد مفهوم الذكاء الاصطناعي وأنظمته وخوارزمياته، مع توضيح نطاق التطبيقات المشمولة تحت هذا التعريف.
- الجرائم والعقوبات
تحديد أنواع الأفعال الناتجة عن استخدام الذكاء الاصطناعي التي يُعد ارتكابها مخالفًا للقانون، سواء أفعالًا تسبب ضررًا مباشرًا أو تؤدي إلى التعدي على حقوق الآخرين, والنص على أنواع العقوبات الممكنة، مثل الغرامات، التعويضات، أو العقوبات الجنائية في حالات الإهمال الجسيم أو سوء الاستخدام المتعمد.
- الاختصاص القضائي
توضيح المحكمة أو الهيئة القضائية المختصة بالفصل في المنازعات والأضرار الناجمة عن الأفعال المرتكبة بواسطة الذكاء الاصطناعي، سواء كانت مدنية أو جنائية.
- المسؤولية المدنية والجنائية
بيان مسؤولية كل طرف (مصنع، مالك، مطور، مستخدم) حسب دوره ونوع الضرر الناتج عن استخدام النظام، مع توضيح الحالات التي تتحمل فيها الأطراف المسؤولية مباشرة أو تبعًا للإهمال.
الفصل الخامس: التوازن بين الابتكار والمسؤولية
المبحث الأول: حماية المبتكرين والمستثمرين في مجال الذكاء الاصطناعي
- المخاطر القانونية وتأثيرها على الاستثمار التقني.
عند دراسة الأفعال التي قد تقع ضمن نطاق الذكاء الاصطناعي وتحديد مسؤولية كل طرف يتعامل معه، يتضح أن هذه البيئة ليست بمنأى عن المخاطر القانونية. فكل تصرف أو خطأ قد ينتج عنه ضرر يمكن أن يترتب عليه مسؤولية مدنية أو جنائية على المطوّر أو المستخدم، ومع تزايد استخدام تقنيات الذكاء الاصطناعي وتوسع نطاق تطبيقاتها، يزداد احتمال حدوث أضرار نتيجة خلل برمجي أو سوء استخدام للنظام، مما يؤدي إلى ارتفاع المخاطر القانونية المحتملة.
بالتالي، كلما تطورت هذه البيئة، زاد تأثير المخاطر القانونية على الاستثمار التقني، حيث يصبح المستثمرون أكثر حذرًا في تمويل المشاريع والخدمات القائمة على الذكاء الاصطناعي.
- آليات الحد من المسؤولية القانونية دون الإضرار بالمصلحة العامة.
لما كان هدف المملكة العربية السعودية هو تطوير قطاع الذكاء الاصطناعي وتدعو إلى الابتكار وتشجع عليه فأن الأمر يستوجب الحد من الأحكام التنظيمية المستعصية التي من شأنها الحد من المسؤولية القانونية أو الحد من عزوف المطورين والمبتكرين في الاستثمار في هذا القطاع
المبحث الثاني: نحو عدالة تقنية تراعي مبدأ المشروعية
- تعزيز الشفافية والرقابة على القرارات الآلية.
تعتبر الشفافية والرقابة من الركائز الأساسية لضمان عمل أنظمة الذكاء الاصطناعي بشكل آمن وموثوق، إذ تعد من أبرز المبادئ المنصوص عليها في الدليل الصادر عن الهيئة السعودية للبيانات والذكاء الاصطناعي بمسمى” مبادئ أخلاقيات الذكاء الاصطناعي”, والأخلاقيات هي:” مجموعة من القيم والمبادئ والأساليب لتوجيه السلوك الأخلاقي في تطوير تقنيات الذكاء الاصطناعي واستخدامها”.
ويمكن أن نذكر أبرز المبادئ المذكورة في الدليل، على النحو الآتي:
- النزاهة والإنصاف: على مطور نظام الذكاء الاصطناعي عند تصميم، أو جمع أو تطوير أو نشر أو استخدام أنظمة الذكاء الاصطناعي، اتخاذ الإجراءات اللازمة للتأكد من عدم وجود التحيز، أو التمييز، التي يتعرض لها الأفراد بسبب البيانات أو الخوارزميات ويمكن أن تؤدي إلى تمييز سلبي لفئة محددة.
- الخصوصية والأمن: يتم تطوير أنظمة الذكاء الاصطناعي لتكون محمية بطريقة آمنة وتراعي المتطلبات النظامية ذات العلاقة.
- الموثوقية والسلامة: أن يتم العمل على أنظمة الذكاء الاصطناعي وفق المواصفات النظامية التي تضمن سلامة النظام من الناحية التشغيلية والنتائج التي يسعى إلى تحقيقها.
- الشفافية والقابلية للتفسير: يلزم تصميم نظام الذكاء الاصطناعي بكل شفافية ووضوح، وذلك بإتاحة المستخدم على الاطلاع على قرارات نموذج الذكاء الاصطناعي وآلية عمله لتسجيل ومعالجة المشاكل والشكاوى التي قد تنشأ.
- ضمان حق المتضرر في التعويض أو المراجعة.
متى ما قامت أركان المسؤولية المدنية استحق على أثرها المتضرر تعويضًا جابرًا للضرر الذي أصابه جراء الخطأ الناشئ بفعل من أفعال الذكاء الاصطناعي، ومن النظريات التي تعرفنا عليها نظرية حراسة الأشياء التي تتشابه في أحكامها بذات النظرية التي تبنتها اللجنة القانونية للاتحاد الأوروبي، كونها اعتبرت الروبوتات شكل من أشكال الأشياء غير الحية.
وعليه، تتم محاسبة حارس الذكاء الاصطناعي عن الأضرار التي يتسبب فيها الذكاء الاصطناعي، وتم تعريف النائب الإنساني بأنه: ” نائب عن الروبوت، يتحمل المسؤولية عن تعويض المتضرر جراء أخطاء التشغيل بقوة القانون”.
كما تتحقق مسؤولية النائب الإنساني مدنيًا في الحالات الآتية:
- عند تحقق أركان المسؤولية كاملة من خطأ وضرر وعلاقة سببية بينهما، وذلك في مرحلة إنشاء وتصنيع الروبوت، أو بعد تصنيعه وتشغيله، أو أثناء إدارته من قبل النائب.
- إذا قصر النائب باتخاذ ما يلزم لتقليل المخاطر الناتجة عن عمل الروبوت أثناء استخدامه، فيتحمل في هذه الحالة نتيجة خطأ الذكاء الاصطناعي.
- الدعوة إلى مفهوم “المسؤولية المشتركة “بين الإنسان والآلة.
على الرغم من التطور الهائل الذي بلغته تقنيات الذكاء الاصطناعي في مختلف المجالات، إلا أنها لا تزال تفتقر إلى مقومات الوعي والإدراك التي يتميز بها الإنسان، وهما الركيزتان الأساسيتان لتحقق المسؤولية القانونية. فالمساءلة القانونية تقوم على الإرادة الواعية والتمييز بين الصواب والخطأ، وهي صفات لم يبلغها الذكاء الاصطناعي بعد.
ومن هذا المنطلق، تبرز أهمية تبني مفهوم المسؤولية المشتركة بين الإنسان والذكاء الاصطناعي، بحيث لا يتحمل النظام الآلي المسؤولية بمفرده ولا يتصور ذلك، ولا يُعفى الإنسان من المساءلة عند إساءة استخدامه أو إهماله في الإشراف عليه، إن هذا المفهوم يسهم في تحقيق التوازن بين تشجيع الابتكار وضمان عدم الإفلات من العقاب عند وقوع الضرر الناتج عن الأنظمة الذكية.
الخاتمة
في ختام هذا البحث، الذي تناول مفهوم الذكاء الاصطناعي والمسؤوليتين المدنية والجنائية، عُرضت مجموعة من المسائل القانونية المرتبطة بهذا الموضوع المعقد، فالعالم اليوم يقف على أعتاب ثورة جديدة يقودها الذكاء الاصطناعي في مختلف المجالات؛ الأمنية، والاقتصادية، والاجتماعية، وغيرها من القطاعات الحيوية.
ورغم أن هذه الثورة لا تزال في بدايتها، إلا أن الأفعال الصادرة عن أنظمة الذكاء الاصطناعي قد تترتب عليها نتائج إجرامية أكثر تعقيدًا من حيث التكييف القانوني والإثبات مقارنةً بالأفعال الواقعة من الإنسان مباشرة. وقد توصّل هذا البحث إلى أن الأفعال الناتجة عن الذكاء الاصطناعي ترتبط غالبًا بعدة أطراف، سواء بسبب أخطائهم السابقة وهي عند تصميم وإنتاج النظام، أو اللاحقة عند استخدامه وتشغيله، مما يستدعي إعادة النظر في تحديد المسؤولية القانونية بما يتلاءم مع طبيعة هذه التقنية الحديثة.
وقد توصلنا في هذا البحث إلى عدة نتائج، من أبرزها:
- أن الذكاء الاصطناعي لا يُعد كيانًا قانونيًا مستقلًا، وبالتالي لا يمكن مساءلته مدنيًا أو جنائيًا بذاته.
- أن المسؤولية القانونية تقع على عاتق الإنسان المتدخل في إنشاء النظام أو تشغيله أو توجيهه.
- أن التطور التقني المتسارع يستلزم وضع نظام قانوني خاص يحدد بوضوح أُطر المسؤولية والتعويض والعقوبات في حال الإخلال أو التجاوز الناتج عن الأفعال الصادرة من أنظمة الذكاء الاصطناعي.
- أن تطبيق أحكام المسؤولية الجنائية في الأنظمة الجزائية السعودية على تقنيات الذكاء الاصطناعي يواجه صعوبة، لارتباط تلك الأحكام أساسًا بفاعل بشري يملك إرادة وقصدًا جنائيًا، بخلاف الأفعال الضارة الصادرة من الأنظمة الذكية التي يصعب تحديد فاعلها البشري.
- أن تحقيق التوازن بين تشجيع الابتكار وضمان المسؤولية القانونية يعد ضرورة لتحقيق العدالة وصون المصلحة العامة.
-التوصيات:
- اعتماد نظام قانوني ينظم استخدامات الذكاء الاصطناعي والأفعال الناتجة عنه، على غرار النظام المقترح في دول الاتحاد الأوروبي.
- تعزيز الدراسات والأبحاث المتعلقة بتطبيقات وتقنيات الذكاء الاصطناعي داخل المملكة لتطوير المعرفة القانونية والتقنية.
- دعوة المشرع السعودي إلى سن تشريعات تنظم إنتاج وتطوير تقنيات الذكاء الاصطناعي، مع وضع أطر قانونية تحدد المسؤولية والعقوبات عن الجرائم المرتكبة بواسطة هذه التقنيات.
- وضع آليات واضحة لتحديد المسؤولية المدنية والجنائية على الأطراف المعنية عند حدوث أضرار ناتجة عن أنظمة الذكاء الاصطناعي.
قائمة المراجع والمصادر
- اللوائح والأنظمة القانونية:
- نظام المعاملات المدنية، الصادر بمرسوم ملكي رقم م/ 191 وتاريخ 29/11/ 1444 هـ.
- وثيقة الاستراتيجية الوطنية للبيانات والذكاء الاصطناعي، الصادرة عن الهيئة السعودية للبيانات والذكاء الاصطناعي، لعام2020م.
- وثيقة مبادئ أخلاقيات الذكاء الاصطناعي، الإصدار الأول، الصادرة عن الهيئة السعودية للبيانات والذكاء الاصطناعي، لعام 2023م.
- الأبحاث والدراسات:
- إدلبي، عمر. (2023م)،” المسؤولية الجنائية الناتجة عن أعمال الذكاء الاصطناعي”، كلية القانون، جامعة قطر.
- خزيمية، محمد. (2023م).” المسؤولية المدنية عن أضرار الذكاء الاصطناعي (دراسة مقارنة)”، جنين، الجامعة العربية الأمريكية.
- عبير، شداد. (2023م)، “المسؤولية المدنية عن الأضرار الناجمة عن الذكاء الاصطناعي”، كلية الحقوق والعلوم السياسية، جامعة غرداية.
- الدوريات:
- التونسي، آيات. المعلم، سليمان، (2025م)، “القواعد والإجراءات المنظمة لاستخدامات الذكاء الاصطناعي بالمملكة العربية السعودية وآثارها القانونية”, المجلة العربية للنشر العلمي، (73): 375-392.
- عبد الرحمن، دعاء. (2024م).” الذكاء الاصطناعي بين سندان الإبداع ومطرقة القانون (الشخصية القانونية-تطبيقات عملية- المسؤولية القانونية”، مجلة الدراسات القانونية والاقتصادية، (4): 2884-2885.
- فتيحة، بوهنوش. (2025م)، ” نحو إعادة تأسيس قواعد المسؤولية المدنية: قراءة تحليلية في تحديات الذكاء الاصطناعي ومآلاتها القانونية، مجلة بوابة الباحثين للدراسات والأبحاث، المجلد الأول (2): 656-667.
- الزامل، عبد الله. (2024م)،” الشخصية القانونية للروبوتات”, المجلة الدولية لدراسات القانون والسياسة، المجلد السادس، (19): 35-45.
- المالكي، خالد. (2024م)، ” المسؤولية المدنية عن فعل الذكاء الاصطناعي في النظام السعودي” دراسة تحليلية تأصيلية”، مجلة البحوث الفقهية والقانونية, 47: 1803-1804.
- عبد العزيز، اري. (2024م)،” المسؤولية الجزائية الناشئة عن جرائم الذكاء الاصطناعي”, مجلة زانكو للقانون والسياسة،22: 206-207.


أكتب تعليقا