المسئولية عن الذكاء الاصطناعي
بين القانون الخاص والقانون العام
إعداد
أ.د/ محمد محمد عبد اللطيف
أستاذ القانون العام
كلية الحقوق- جامعة المنصورة
تقديم وتقسيم:
أصبح الذكاء الاصطناعي مستخدما على نطاق واسع ومن ملايين البشر يوميا،وخصوصا في عمليات المساعدة في القرار في مجالات مختلفة: في مجال النقل، والطب، والمالية، والبيئة، والتنمية المستدامة، والفضاء، والسياسات العامة….إلخ.
وبفضل برامج المساعدة في القرار يمكن الوصول إلى حل لم يتمكن الإنسان من معرفته، أو إيجاد حلول لمشكلات جديدة لم يكن للإنسان أى خبرة بها، أو اخيرا الحكم على صحة الحل أو تأكيد أو تبرير قرارات.ويعتمد المستخدم غالبا على النتيجة التي انتهى إليها الذكاء الاصطناعي.
ويثير الاعتماد على نظم الذكاء الاصطناعي تساؤلات عديدة، وتتعلق بكيفية استيعاب القانون لمعالجة مشكلات المسئولية الناتجة عن استخدام هذه النظم الذي يمكن ان يسبب أضرارا بالأفراد. وتثار مشكلة المسئولية في فروع القانون المختلفة ويأتي في مقمدمتها القانون المدني وقانون العمل. غير أن هذه المشكلة لم تكن محلا حتى الآن للدراسة بشكل كاف في القانون الإداري.
وفي ضوء هذا التقديم رأينا معالجة موضوع البحث وفقا للخطة الآتية:
المبحث الأول: المسئولية عن الذكاء الاصطناعي والقانون المدني
المبحث الثاني: المسئولية عن الذكاء الاصطناعي وقانون العمل
المبحث الثالث: المسئولية عن الذكاء الاصطناعي والقانون العام
المبحث الأول
المسئولية عن الذكاء الاصطناعي والقانون المدني
تمهيد:
يثير الاستخدام الواسع النظاق والمتزايد للذكاء الاصطناعي وتكنولوجيا المعلومات التساؤل عن المسئولية الناجمة جراء هذا الاسخدام.ويأتي في مقدمة التي تتعلق بهذه المسئولية السؤال الذي يتعلق بمدى كفاية قواعد المسئولية المدنية الحالية للتعويض عن الأضرار الناجمة جراء استخدام الذكاء الاصطناعي، أو أنه يجب إقرار قواعد جديدة تتعلق بوجه خاص بالذكاء الاصطناعي؟
وإذا كان من السهل القول بوجوب إقرار قواعد جديدة، إلا أنه يجب أيضا دائما الحذر من إقرار نظم قانونية غير مفيدة؛ فالقوانين غير المفيدة، كما يقول Montesquieu، تضعف القوانين الضرورية. وعلى ذلك ينحصر البحث في بيان ما إذا كانت قواعد القانون المدني تبدو كافية وتغني عن تبني أى قواعد جديدة([1]).
ويبدو أن الاتجاه السائد حتى الآن هو عدم تدخل المشرع بإقراررار تشريع حاص لتنظيم المسئولية عن استخدام الذكاء الاصطناعي. وظهر ذلك واضحا في فرنسا في صيف العام ٢٠٢٠، فالاقتراح بقانون الذي قدم إلى مجلس الشيوخ بشأن إصلاح نظام المسئولية لم يتضمن أى إشارة إلى الذكاء الاصطناعي([2]).
ومع التسليم بتلك الحقيقة إلا أن الذكاء الاصطناعي أحدث تحولا كبيراً في مجال المسئولية. وعلى سبيل المثال برامج المساعدة في التشخيص الطبي تظهر إلى أى مدى يمكن لأجهزة الحاسب الآلي تنفيذ أعباء مركبة، فتقوم بالتحليل، والمساعدة في القرار، ومن ثم قد يتحول المستخدم إلى مجرد ملاحظ، ولم تعد المساعدة في القرار تنحصر في مساندة النشاط البشري، ولكن ربما تعديله والحلول محله، ومن ثم تأخذ المسئولية الناتجة عن تدخل الذكاء الاصطناعي بعداً جديداً مختلفاً.
تعريف الذكاء الاصطناعي:
لايوجد تعريف واحد أو محدد للذكاء الاصطناعي([3]). ويوجد تعريف واسع أو مفصل للذكاء الاصطناعي بأنه: نظم برمجيات وربما أجهزة صممها البشر ذات هدف معقد، وتعمل في العالم الحقيقي أو الرقمي من خلال إدراك البيئة، بواسطة الحصول على المعلومات، ومن خلال تفسير البيانات المهيكلة أو غير المهيكلة المجمعة، وتطبيق تحليل على المعارف أو معالجة المعلومات المستمدة من تلك البيانات، وتقرير الإجراء أو الإجراءات الأفضل الواجب اتخاذها من أجل تحقيق هدف معين. ويمكن لنظم الذكاء الاصطناعي إما استخدام قواعد رمزية، أو تعلم نموذج رقمي، كما يمكنها أيضا تكييف سلوكها من خلال تحليل كيفية تأثر اليبيئة بإجراءاتها السابقة([4]).
ومع ذلك يمكن تعريفه في إطار هذا الموضوع بأنه الإمكانية التي تتمتع بها بعض الآلات باستخدام عمليات معرفية تشبع العمليات التي يقوم بها الإنسان.
المطلب الأول
رفض الاعتراف للذكاء الاصطناعي بالمسئولية المدنية
الوضع القانوني للربوت الذكي أو الذكاء الاصطناعي:
تسود في القانون الفرنسي والمصري فكرة أساسية هى التمييز بين الشخص القانونيLes personnes والأشياء Les choses. والأشخاص هم أشخاص القانون sujets de droit، أما الأشياء فهى أشياء قانونية objets de droit.
وتنبغي الإشارة إلى أن الذكاء الاصطناعي هو نظام من نظم البرمجيات. أما الربوت فهوجهازقد يكون الذكاء الاصطناعي عنصراً فيه، ويطلق عليه حينئذ الربوت الذكي. وفي الحالتين نكون بصدد ذكاء اصطناعي.
والسائد أن الربوت الذكي هو شئ قانوني؛ لأنه من خلق الإنسان، وأنه نظراً لكونه مال مادي فيخضع لأحكام التقنين المدني بشأن الأموال، وتطبق عليه أحكام الملكية الفكرية، وتثبت له حقوق مثل براءة الاختراع. كما أن البرامج المخصصة لتشغيل الربوت، وتلك التي يستخدمها الربوت في تنفيذ مهمامه يمكن حمايتها بوصفها أعمالا فكرية بحق المؤلف.
والربوت الذكي مال قابل للتعامل التجاري، وله إسم يتم اختياره بعناية، ويتم تسجيله كعلامة تجارية.
الاعتراف للذكاء الاصطناعي بالشخصية القانونية:
توجد وجهة نظر ترنو إلى المستقبل مؤداها الاعتراف بالشخصية القانونية للربوتات الذين توافر لها الذكاء الاصطناعي؛ من أجل إلقاء المسئولية عليها لتعويض الأضرار التي يمكن أن تسببها([5]).
في نظر هؤلاء إن الربوت المستقل الذي يتمتع بالذكاء الاصطناعي هو شخص إليكتروني مسسئول([6])وهذا الرأى يعني بوضوح الاعتراف للربوت بالشخصية القانونية.
ودافع عن هذا الرأى أيضا تقرير نائب بالرلمان الأوروبي، كما تبناه أيضا قرار للبرلمان الأوروبي في 16 من فبراير ٢٠١٧ على الأقل بالنسبة للربوت المستقل الأكثر تقدما وهو الذي يأخذ قرارات مستقلة، او يتصرف بطريقة مستقلة مع الغير.
ويوضح قرار البرلمان الأوروبي المشار إليه أن إنشاء الشخصية القانونية يهدف إلى جعل الربوت نفسه مسئولا بحيث يلتزم بتعويض الأضرار الناجمة للغير، وبدلا من تقرير مسئولية مصمم الربوت، أو الصانع، أو المالك، أو المستخدم له عن فعل هذا الربوت فالمسئولية تقع على الربوت نفسه.
والاعتراف للربوت الذكي بالشخصية القانونية في نظر أصحاب هذا التصور يشبه الاعتراف بالشخصية القانونية للشحص الاعتباري، وإذا كانت الشخصية الاعتبارية مجرد مجاز فالأمر كذلك أيضاً بالنسبة للربوت الذكي الذي يمكن وفقاً لهذا التصور أن يعترف له بحقوق والتزامات. وهذا الاعتراف ليس غريباً؛ فالنظام القانوني للأشخاص المعنوية قد بني تقريبا وفقا للنظام القانوني للأشخاص الطبيعية، حتى الاعتراف لها بالحقوق الأساسية.
ويوضح بعض الفقه المؤيد لهذا الاقتراح حدود هذه الفكرة. فمن شأن الاعتراف بالشخصية القانونية للربوت أن تسمح له بإبرام العقود، وبوجه خاص عقود التأمين، وهو مايعني تمتعه بذمة مالية. ويتم تغذية هذه الذمة المالية بمبالغ يقدمها مصمم الربوت المتع بالذكاء الاصناعي، والملك عن الشراء والمستخدم أيضاً إذا كان شخصاً مختلفا عن المالك([7]).
والميزة الأساسية لهذا الاقتراح هى أن تعويض ضحايا الأضرار الناجمة جراء الربوت سيكون فعالا وسريعا، وبوجه خاص لايقع عليهم الإثبات من خلال خبرة قضائية طويلة ومكلفة لشذوذ الربوت anormalite الذكي والعيب الذي به أو خطأ المستخدم([8]).
ومع ذلك فقد رفضت لجنة الخبراء التي شكلتها اللجنة الأوروبية هذا الاقتراح صراحة في ٢٠٢٠، كما رفضها تقرير البرلمان الأوروبي في وقت لاحق في ٢٠ من أكتوبر ٢٠٢٠ (٣). وفي رأى للمجلس الاقتصادي والاجتماعي الأوروبي([9])رفض المجلس أيضا هذه الفكرة، وأكد على أنه يرفض منح شكل من الشخصية القانونية للربوت أو الذكاء الاصطناعي؛ بسبب المخاطر المعنوية غير المقبولة والمتعلقة بهذه الخطوة.كما رفض المكتب البرلماني للاختيارات العلمية والتكنولوجية في البرلمان الفرنسي هذا الاقتراح، ورأى أنه لايتوافر له أى أساس، أو أنه مايزال سابقا لأوانه تماما([10]). وفي رأى لجنة الخبراء التي شكلتها اللجنة الأوروبية أيضا لايجوز منح الشخصية القانونية لأنظمة مستقلة؛ لأن الضرر الذي تحدثه يمكن بل ويجب أن ينسب إلى أشخاص أو منظمات قائمة.
الانتقادات الموجهة إلى الاعتراف للذكاء الاصطناعي بالشخصية القانونية:
كانت وجهة النظر القائلة بالاعتراف للذكاء الاصطناعي بالشخصية القانونية محلاً للنقد. ورأى الفقه فضلا عن عدم تحديد نطاق تطبيقها أنها في آن واحد خطرة وغير مفيدة([11]).
عدم تحديد نطاق تطبيق الاعتراف بالشخصية القانونية لربوت الذكاء الاصطناعي:
تثير فكرة الاعتراف للربوت بالشخصية القانونية اعتراضات تأتي في مقمتها عدم تحديد مجال تطبيقها.فأى اجهزة الربوت تمنح هذه الشخصية القانونية، وماهى
الحدود التي ينبغي فرضها بين مختلف هذه الأجهزة؟ وهل هذه الحدود ستكمن في عدم مادية الربوت الذكي؟ وإذا كانت الإجابة بالإيجاب على هذا السؤال فهذا يعني الاعتراف للربوت الذي لايتكون من كيان مادي بالشخصية القانونية.وهذا التحديد يثير مشكلة كبيرة بالنسبة للبرامج الإليكترونية للمساعدة في القرار أو في قراءة الأشعة على سبيل المثال.
وللوصول إلى الاعتراف بالشخصية القانونية المستقلة للربوت ينبغي أن تكون قدرات الآلات على التعلم وأن تصحح لنفسها والتكيف مع بيئتها بإثبات قدرتها على المبادرة أصبحت واضحة.
ومعيير الاعتراف بالشخصية القانونية للربوت هى الذكاء والقدرة على الاستقلال.وهذه المعايير تثير صعوبات كبيرة كما سبق أن رأينا.
الانتقادات الموجهة إلى عدم مسئولية المصممين والمنتجين وملاك ومستخدمي الربوت:
عدم إلقاء المسئولية على عاتق المصممين أو المنتجين أو ملاك أو مستخدمي الربوت الذكي، وخصوصاً في المجال الطبي، ونقل هذه المسئولية على عاتق الربوت نفسه من شأنه إحداث تضارب قانوني، وربما يشجع هذه الفئات إلى تصميم أو إنتاج وتداول ربوتات ذكية خطرة، وهو ما لا يمكن السماح فيه في مجال مثل المجال الطبي.
وأخطر ما يمكن أن يؤدي إليه نقل المسئولية على الربوت أنه يمكن أن يحدث تحولاً كبيراً في علاقة المرضى بالأطباء، وتحديداً فيما يتعلق بمسئولية الأخيرين.فالأطباء مكلفون ببذل ما في وسعهم من أجل شفاء المرضى، وأنهم مسئولون لأنهم يملكون القرار النهائي العمل الطبي، ومن ثم يكونوا مسئولين عنه تماما. غير أن نقل المسئولية إلى الربوت سيؤدي إلى تعديل العلاقة بين المرضى والأطباء، وعلى الأرجح إلى قلب المهنة في مجموعها، وهذا مايدعو إلى رفض فكرة نقل المسئولية إلى عاتق الربوت([12]).
مخاطر فكرة الاعتراف للربوت بالشخصية القانونية على الأفكار الأساسية للمسئولية:
الفكرة تتميز بكونها خطرة؛لأنها تؤدي إلى إلغاء التقسيم الأساسي السائد في القانون وهو التقسيم إلى أشخاص وأشياء. قد يقول قائل إن الربوت يتساوى بالشخص الاعتباري الذي يمكن أن يكون مسئولا.
وهنا لامكن التسليم بهذا النظر؛لأن هذا التشبيه في غير مصلحة هذا الرأى؛ فالشخص الاعتباري فكرة مجردة أو مجرد تشخيص قانوني لذمة مالية، ولايتمتع بأى استقلال في مواجهة المديرين له. أما الشخص الإليكتروني أو الربوت فهو على العكس ليس مجرد كيان مجرد؛لأنه تشخيص قانوني لذكاء اصطناعي، فلديه الإمكانية في التطور بطريقة مستقلة بوصفه شخصاً قانونياً.
يضاف إلى ذلك أنه على عكس الشخص الاعتباري في القانون الخاص وهو تجمع أشخاص، وله موضوع محدد لفالهدف من الاعتراف بالشخصية القانونية للربوت الذكي هو تأطير النتائج القانونية لأعمال الربوت الذكي.وليس من المؤكد أن المعالجة القانونية سوف تتحسن في وجود ربوت ذكي متمتع بالشخصية القانونية فيما يتعلق بتعويض المضرور.
وأخيرا الاعتراف بالشخصية القانونية للربوت يمكن أن يؤدي مستقبلا أيضا إلى الاعتراف له بحقوق أساسية على غرار الأشخاص الطبيعية. وهذا الاعتراف سوف يثير مشكلات حادة أكثر من تلك التي تثور بالنسبة للأشخاص الاعتبارية. وهل يمكن أن تنافس الربوت الأشخاص الطبيعة في حقوقها في المجتمع؟
عدم فائدة فكرة الاعتراف للربوت بالشخصية القانونية:
تتميز الفكرة أيضا بكونها غير مفيدة؛ لأنها لاتسهم في تسهيل تعويض المضرورين. فالفكرة التي ترى الاعتراف بالشخصية القانونية للربوت لا يكون لها فائدة إلا إذا كانت تتوافر له ذمة مالية، ويغطى بتأمين المسئولية.ويجب من ثم أن يمثل الربوت قانونا شخص مثل المنتج أو الكالك أو المستخدم، فيبرم نيابة عنه العقود. وهنا يحق أن نتساءل لم لا يكون هذا الشخص الطبيعي هو المسئول بدلاً من هذا الالتفاف وتقرير مسئولية الربوت([13]).
فكرة التشخيص القانوني للربوت كما تقول محكمة استئناف باريس لا تفعل سوى نقل المشكلة، بمعنى أن الأشخاص الذين يقع عليهم المساهمة في تغذية الذمة المالية للربوت بهدف التمكين من تعويض الضحايا سيكونوا على الأرجح نفس الأشخاص الذين ستنعقد مسئوليتهم في حال تطبيق القواعد العامة في المسئولية([14]).
وأخيرا يؤدي نقل المسئولية إلى الربوت إلى مشكلة أخرى تتعلق بإعاقة وظيفة المسئولية المدنية في الردع والوقاية، فالفاعلون أو الأطراف التلقليدية لن يتحملوا على الأرجح عبئ دعاوى المسئولية التي ستوجه إليهم.
باختصار الذكاء الصناعي هو شئ يكون شخصا ما مسئولا عنه.
المطلب الثاني
نوع المسئولية عن الذكاء الاصطناعي
إذا كان الربوت الذكي أو الذكاء الاصطناعي شيئا أو مالا تجاريا، كما أسلفنا، فيمكنه إحداث أضرار، وهنا يثار التساؤل عن نوع المسئولية عنه أو أساسها.
وفقا للفقه تكون المسئولية عن الذكاء الاصطناعي إما مسئولية شخصية عن خطأ الأطباء، أو مسئولية عن فعل الأشياء، أو مسئولية عن المنتجات المعيبة.
مسئولية شخصية قائمة على الخطأ:
يمكن بحث المسئولية الشخصية عن الخطأ من خلال البحث عن معايير جديدة مثل تعقد النظام ودرجة مساعدته في اتخاذ القرار وإمكانية التدخل التي يعهد بها للمستخدم.
ويجب وفقا للقواعد العامة إثبات الخطأ، والضرر، وعلاقة السببية. وفيما يتعلق بالخطأ بوجه خاص فيجب إثبات خطأ المستحدم في الاستعمال، أو خطأ المنتج في برمجة الربوت، وسواء كان الخطأ عمدياً أو غير عمدي. غير أن المشكلة تكمن في صعوبة الإثبات من ناحية، ومن ناحية أخرى إذا ارتكب الربوت الذكي خطاً باتخاذ قرار دون وقوع سلوك متنازع فيه من جانب المالك أو المستخدم أو المنتج فلايمكن حينئذ تطبيق المسئولية القائمة على أساس الخطأ.
وفي المجال الطبي يثار التساؤل: ماذا عن الطبيب الذي لم يمتثل في تشخيصه لتشخيص الذكاء الاصطناعي الذي تبين أنه ضار بالمريض؟ هل يجب أن يكون الطبيب وحده مسئولاً عن استخدام البرنامج إذا تبين أنه يسبب تأثيراً سلبياً للمريض؟ وهل يمكن يوماً الوصول إلى آلية كل أو جزء من القرار الطبي، وتقرير مسئولية الأطباء الذين لايتبعوا تنبؤات الذكاء الاصطناعي؟
هل يمكن أن تكون المسئولية عن الذكاء الاصطناعي مسئولية عن فعل الحيوان؟
إذ كان برنامج المساعدة في التشخيص الطبي يقترح على الطبيب قراراً خطأ فهل يمكن بحث تطبيق المسئولية عن فعل الحيوان. ويقوم هذا النظام التقليدي للمسئولية على قرينة موزعة بين المالك ومن يمارس سلطة الرقابة الفعلية على الحيوان.
ويرى أنصار هذا الرأى أنه على الرغم من الاختلاف بير الربوت والحيوان إلأنه يمكن تطبيق نظام المسئولية عن الحيوان على الربوت، ووفقاً له يكون مالك الحيوان أو من يستفيد منه مسئولاً عن الأضرار التي يسببها الحيوان سواءً كان الحيوان تحت حراسته، أو سواءً فقد أو هرب. وعلى ذلك عدم سيطرة المالك أو المستخدم على الربوت يتم حلها عن طريق القياس مع وضع الحيوان الذي يهرب من مالكه أو مستخدمه.
وتدخل الربوت بارتكاب خطأ يكفي لانعقاد مسئولية المالك أو مستخدمه.والمسئولية عن الربوت مسئولية موضوعية تنتج فقط من مجرد فعل الربوت، وحارس الربوت هو المسئول عن الضرر أو الحادث، وفكرة الخطأ هما غير ذي أهمية([15]).
وهذا الحل يصطدم بفرضية تثير الاعتراض وهى تشبيه الآلة بكائنات حية تتمتع بالإحساس وفقاً للماد ٥١٥/١٤ من التقنين المدني الفرنسي؛ لأنه على الرغم من أن الحيوان يدخل في أسرة الأموال إلا انه يشكل طائفة قانونية خاصة يستحق حماية من القانون الجنائي.
والحيوان لايتمتع بالشخصية القانونية على الرغم من ذاتيته الطبيعية. وكما يقول البعض إذا لم يكن ممكنا التقارب بين الربوت والإنسان فالأمر كذلك أيضاً بالنسبة للتقريب بين الربوت والحيوان([16]).
المسئولية عن الذكاء الاصطناعي مسئولية عن فعل الأشياء:
يرى بعض الفقه أن المبدأ العام للمسئولية عن فعل الأشياء ([17])المنصوص عليه في المادة ١٢٤٢ من التقنين المدني الفرنسي من المرونة بحيث يستوعب الأضرار التي يحدثها الذكاء الاصطناعي. ومؤدى هذا التطبيق أن حارس الذكاء الصناعي هو مسئول بقوة القانون عن الأضرار التي يحدثها للغير سواء تجسد هذا الذكاء مادياً في ربوتات أو ظل مجرد برامج إليكترونية. وعلى ذلك إذا قامت الآلة بتحويل أموال، أو بيع أوراق مالية بطريقة ضارة؛ فإنها تعتبر أنها أحدثت فعلاً غير عادي، ويعتبر مستخدمها حينئذ حارسا مادام أعطى أوامر للآلة([18]).
ولايخفي هذا الفقه أن تطبيق المسئولية عن حراسة الأشياء على الذكاء الاصطناعي يثير نوعين من الصعوبات.
أما النوع من المشكلات فيتعلق بمدى تطبيق المسئولية عن فعل الأشياء على الأشياء غير المادية. فالذكاء الاصطناعي ليس بالضرورة مدمجاً في أشياء مادية. غير أن عموم مبدأ المسئولية عن فعل الأشياء الذي لا يقيم تمييزا بين الأشياء المادية والأشياء غير المادية. ينبغي أن يقم إجابة بالإيجاب([19]).
وأما النوع الثاني من الصعوبات فهو كيفية تحديد الحارس عن الذكاء الاصطناعي. فالحارس وفقا لأحكام القضاء هو الشخص الذي له استعمال، وتوجيه، ورقابة الشئ([20]). وهذه الفكرة عن الحراسة تأخذ في الاعتبار السيطرة الفعلية maîtrise effective،أو الفعالة على الشئ، وليس السلطة القانونية على الشئ
ومع ذلك لايخلو تطبيق هذه الفكرة المادية للحراسة على الذكاء الاصطناعي من بعض الصعوبات؛ لأن قدرات هذا الذكاء تفتح له قدراً من الاستقلال في العمل، الأمر الذي يجعله لا يخضع بالمعنى الضيق لسيطرة المستخدم؛ لنه يتمتع باستقلالية في القرار؛ بسبب قدرته المعرفية والتعليمية. ونظرا لأن أعماله ليست محددة سلفا بواسطة برامج إليكترونية، كما في الماضي، فسوف تفلت الآلة من تحكم الإنسان، وهو ما يعني استبعاد اللجوء إلى فكرة الحراسة.
غير ان هذه العقبة يمكن تجاوزها من خلال التمييز بين حراسة الهيكل([21])وحراسة المسلك ([22]). فالمنتج يظل هو حارس الهيكل، بينما المستخدم ليس إلا مجرد حارس المسلك.
باختصار ينتهي بعض الفقه إلى أنه ليس ضرورياً بناء نظام جديد للمسئولية عن الذكاء الاصطناعي، وأن المبدأ العام للمسئولية عن فعل الأشياء مرن إلى درجة استيعاب المخاطر الجديدة المتعلقة بالذكاء الاصطناعي([23]).
الرأى القائل بالصفة التكميلية لنظام المسئولية عن فعل الأشياء:
يرى بعض الكتاب أنه يمكن الاستعانة بالقواعد العامة للمسئولية عن فعل الأشياء، وذلك في المناطق التي توجد بها ثغرات لايملؤها النظام الخاص الخاص للمسئولية عن المنتجات المعيبة([24])، وخصوصاً في الحالة التي ينشأ فيها الضرر من التشغيل غير العادي لنظام المساعدة في القرار.
ففي هذه الحالة تضع المسئولية عبء التعويض على عاتق حارس الشئ، وهو من له سلطة الاستعمال، أو التوجيه، أو الرقابة.
وحتى يمكن رسم حدود هذه المسئولية في سياق المساعدة في القرار يمكن حينئذ من الرجوع إلى التمييز الذي أشرنا إليه من قبل بين حراسة الهيكل وحراسة السلوك. ومع ذلك قد يكون هناك ما يدفع إلى اعتبار المساعدة في القرار قد تطورت بما فيه الكفاية لتحقيق استقلالية كافية، مما يجعله واقعاً خارج سيطرة المستخدمين، وهو ما يؤدي إلى وجود تعارض بين نظام المساعدة والمسئولية عن فعل الأشياء.
وفي الحقيقة يمكن لنظم المساعدة في القرار تنفيذ عدد من المهام في استقلالية نسبية، لكنها تظل دائما تحت سيطرة المستخدم أو المصمم، لأن هؤلاء يمكنهم دائما إيقاف تشغيلها، او عدم اتباع التوصيات.ومن هنا يمكن أن تقع مسئولية مخاطر الهيكل المتعلقة بتصميم نظام المساعدة في القرار على الصانع وفقا لتطبيق قواعد المسئولية عن المنتجات المعيبة. وبالمقابل تقع مسئولية مخاطر السلوك المتعلقة باستعمال الشئ يمكن أن يقع عبئ التعويض على المالك، المستشفي على سبيل المثال، أو الطبيب مستخدم الشئ في مواجهة المريض. وهذا التمييز ليس مجرداً، لأنه يمكن أن نكون مخاطر السلوك راجعة في الأصل إلى مخاطر هيكلية([25]).
مدى تطبيق المسئولية عن المنتجات المعيبة:
لاتبدو القواعد العامة في المسئولية كافية لمواجهة الأبعاد المتميزة لاستخدام الذكاء الاصطناعي في مجال المساعدة في القرار، وخصوصا للمساعدة في قرار التشخيص الطبي.
توجد نظم خاصة للمسئولية المدنية تأتي في مقدمتها المسئولية عن المنتجات المعيبة ([26])الذي تبته المادة ١٢٤٥ والمواد التالية من التقنين المدني، تطبيقاً للتوجيه الأوروبي ٣٧٤/٨٥ للمجلس في ٢٥ من يوليو ١٩٨٥. ويثار التساؤل عن مدى تطبيق هذا النظام من المسئولية على الذكاء الاصطناعي.ويرى البعض أن قواعد المسئولية عن المنتجات المعيبة تصلح أن تكون القواعد العامة للمسئولية عن الذكاء الاصطناعي([27]). وعلى ذلك يكون منتجاً معيباً برنامجاً تسبب في ضرر؛ لأنه لا يقدم السلامة التي المتوقعة منه قانوناً.
ويتميز نظام المسئولية عن المنتجات المعيبة بتركيز المسئولية على المنتج، ويفهم المنتج producteur على أنه الصانع fabricant. فالأضرار يمكن أن ترتبط بعيب في الربوت الذكي.ويجوز للمضررين إذن مقاضاة الصانع لعيب في التصميم.
ويتميز نظام المسئولية عن المتجات المعيبة بأنه يقيم مسئولية موضوعية دون خطأ، ويسمح بالتمسك بمسئولية المتدخلين المهنيين المتعاقبين مادموا تدخلوا في عملية إنتاج أوتوزيع المنتج.وهنا يبدو في نظر البعض أن القانون الوضعي يتوافق جيدا مع البوت الذكي المعيب([28]).
ويثير تطبيق هذا النظام الخاص على الأضرار الناشئة عن الذكاء الاصطناعي بعض الصعوبات مرجعها أيضاً إلى التساؤل عن تطبيقه على الأشياء غير المادية. والإجابة في نظر الفقه هى بالإيجاب؛ نظرا لأن التوجيه الأوروبي، والقانون الصادر تطبيقاً له لم يتضمنا أى تحديد حول هذه النقطة. وفيما يتعلق تحديداً بالوسائل الإليكترونية الموضوعة لخدمة أدوات المساعدة في القرار ليست مادية ولامبرمجة تماماً على عكس النموذج الذي كان محلاً للتفكير في أثناء وضع التشريع الخاص بالمنتجات المعيبة. ويمكن أن تنعقد مسئولية مبرمج برنامج المساعدة في القرار مثل التشخيص الطبي على اعتبار البرنامج مال منقول غير مادي([29])
ويوجد تساؤل آخر هو كيفية تقدير شرط العيب في المنتجات، خصوصاً أن تعقد تشغيل الذكاء الاصطناعي يمكن أن يثير عقبة تتعلق بوجه خاص بالإثبات.
وأخيرا ووفقا لهذا النظام يحوز الإعفاء من المسئولية في الحالة التي تكون فيها حالة المعارف العلمية والتقنية في الوقت الذي طرح فيه الصانع المنتج للتداول لا تسمح بالكشف عن وجود هذا العيب(المادة ١٢٤٥/١٠ من التقنين المدني الفرنسي).
وهذا السبب للإعفاء المسمى مخاطر التنمية ([30])، يسمح للمنتج بالإعفاء من المسئولية بإثبات أنه كان يجهل وقت طرح المنتج للتداول بوجود العيب، وأن هذا الجهل كان حتمياً؛ نظراً لحالة المعارف العلمية والتقنية في ذلك التاريخ.
وتطبيق هذا الإعفاء على الذكاء الاصطناعي الذي يتميز بالتشغيل المعقد كما ذكرنا وبقدرته على التصرف بشكل مستقل يعني قبول الإعفاء من المسئولية على نطاق واسع. ويرى الفقه أن إصلاحاً سيكون ضرورياً؛ لإبعاد هكذا سبب للإعفاء من المسئولية فيما يتعلق بالأضرار التي يحدثها الذكاء الاصطناعي([31]).
ومن الوارد جداً أن النظام يتطور في الفترة من تداوله إلى ما قبل وقوع الحادث بعدة أشهر أو عدة سنوات مثل تعديل السلوك أو إضافة ميزات وظيفية جديدة من خلال
تنزيل برامج خاصة. علاوة على ذلك يمكن أن يعمل برنامج المساعدة في القرار كصندوق أسود ذات مدخلات ومخارج ولكن ليس نظاما للتفكير.
وإذا كانت هذه النتيجة عادية في نظم المعلومات الاستراتيجية التي تعتمد على مستودعات بيانات كبيرة لايؤدي الخطأ فيها إلا إلى عواقب محدودة، إلا أن الأمر على غير ذلك تماما مع برنامج من نوع Watson إذ تكون النتيجة وفاة كائنات بشرية.يضاف إلى ذلك أن هذه البرنامج تشير إلى تأخير طفيف بالمقارنة بالحالة الحالية للمعارف؛ لأنها تستخدم بيانات سابقة منشورة بعد عملية مراجعة قد تستغرق شهوراً.
وفي هذا السياق يصبح بحث مسئولية الشركة المصنعة التي لم يعد تطوير المنتج مسئوليتها وحدها أكثر صعوبة.ولهذا السبب يكون تحليل فكرة عيب المنتج بطريقة مجردة.ومن ثم يكون معيبا المنتج الذي لايقدم الأمن الذي يمكن توقعه قانونا. تطبيق نظام المسئولية في قانون ١٩٨٥:
أصبح ممكنا بفضل الذكاء الاصطناعي تسيير مركبات أرضية بمحركات ذاتية([32]). وتخضع المسئولية عن الأضرار الانشئة عن هذه المركبات لقانون ٨٧٧ في ٥ من يوليو ١٩٨٥، وهو القانون المعروف بقانون Badinter. ويقيم هذا القانون نظاما للمسئولية يكون الفعل المنشئ لها حادث مرور تؤدي إليه مركبة أرضية بمحرك.وتطبق الأفكار الخاصة بالضرر والحادث والمركبةراضية بمحرك سواء على المركبات الذاتية أو المركبات التي يقودها شخص طبيعي.
والقدرة الذاتية لهذا النوع من المركبات لاتزال محدودة؛ نظرا لأن الشخص الموجود في المركبة هو الذي يعطي توجيهات لها، ومن ثم يعد مسئولا في الحالة التي يكون له فيها استعادة السيطرة اليدوية، ويظل قائد المركبة الذاتية مسيطرا على المركبة في كل مناسبة، وتعود إليه سلطة اتخاذ القرارات المناسبة ([33]). غير أنه في المستقبل يمكن أن توجد أنظمة قيادة تتولى السيطرة تماما على المركبة، وحينئذ يكون تطبيق أحكام قانون ١٩٨٥ غير ممكن. وفي هذه الحالة يثار التساؤل عما إذا كان المنتج يكون هو المسئول عن الضرر الذي أحدثته المركبة.
باختصار إن تحديد المسئول ينبغي أن يتكيف مع المركبات الذاتية. فالمادة الثانية من هذا القانون تنص على أن المسئول هو القائد conducteur أو الحارس gardien للمركبة التي تسببت في الحادث. وهذه الأفكار ليست متلائمة مع المركبات الذاتية التي تقع قيادتها على نظام تابع للذكاء الاصطناعي. وأخيرا حتى ولو احتفظ مستخدم المركبة ببعض إمكانيات للتصرف، خصوصا بعدم تفعيل القيادة الأتوماتيكية إلا أن دوره قد أصابه التعديل بعمق إلى درجة تجريد معنى القائد من أى مضمون.
باختصار يمكن تطبيق النظم الخاصة للمسئولية على مخاطر الذكاء الاصطناعي مع بعض التعديلات التي تبجو مهمة.
المبحث الثاني
المسئولية عن الذكاء الاصطناعي وقانون العمل
تأثر قانون العمل بدوره كثيراً باستخدام نظام بالذكاء الاصطناعي، وخصوصاً في مجال التشغيل، وتنظيم العمل، وأخيراً المسئولية.
وفي مجال المسئولية بوجه خاص يثير استخدام الذكاء الاصطناعي عدة تساؤلات خاصة عن تحديد المسئولية عن استخدام نظام الذكاء الاصطناعي، وبوجه خاص من يكون مسئولاً عن الضرر الذي يحدثه هذا الاستخدام في مواجهة الغير وفي مواجهة العامل نفسه.
مسئولية استخدام انظمة الذكاء الاصطناعي في مواجهة الغير:
الفرض ان العامل باستخدام نظام ذكاء اصطناعي وضعه صاحب العمل في خدمته مثل برنامج للمساعدة في القرارقد أحدث ضرراً للغير. ومن ثم يكون للمضرور وفقاً للقواعد العامة مطالبة صاحب العمل بالتعويض.
ويستند الفقه إلى أن أساس دعوى المسئولية هنا في مواجهة صاحب العمل هو المسئولية عن فعل الشئ المنصوص عليها في المادة ١٢٤٢/١ من التقنين المدني.
وفي سبيل تأييد هذا الرأى يرى الفقه أن رابطة التبعية ([34])لاتمكن العمل من ممارسة سلطات استعمال التوجيه والسيطرة الضرورية التي تميز الحراسة؛ لأن ممارسة هذه الطات يفترض استقلالاً حقيقياً من جانب العامل الحارس التي لايتمتع بها في حالة الذكاء الاصطناعي. ففي الحالة التي يقوم فيها العامل بالاستعانة بنظام ذكاء اصطناعي لإنجاز مهمته لايمكن وصفه بالحارس. ومن ثم إذا حدث ضرر تسبب فيه العامل؛ لاستعانته بنظام ذكاء اصطناعي فلايجوز للمضرور توجيه دعوى المسئولية استناداً إلي مسئولية المتبوع عن أفعال تابعه، وإنما يوجهها إلى صاحب العمل استناداً إلى المسئولية عن فعل الشئ؛ بوصفه حارساً لنظام الذكاء الاصطناعي مصدر الضرر.
وهذا الرأى يفترض، كما يقول البعض([35])، تجاوز نوعين من الصعوبات.
أما النوع الأول فهو إقامة دليل إلإثبات على أن صاحب العمل هو حارس نظام الذكاء الاصطناعي أى أنه يمارس سلطات الاستعمال والتوجيه والرقابة. صحيح أنه يمكن ان تكون ملكية نظام الذكاء الاصطناعي قرينة، لكن يمكن قلبها. وهنا يلجأ الفقه إلى التمييز الذي سبق أن أشرنا إليه بين حراسة السلوك وحراسة الهيكل ومؤداه أن مالك النظام يحتفظ فقط بحراسة السلوك، بينما المصمم يحتفظ بحراسة الهيكل.
وهذا التمييز لايبدو فعالا دائما عندما يتعلق الأمر بتحديد ما إذا كان قرار اتخذ بنظام ذكاء اصطناعي يرجع إلى البرمجة الأصلية أم إلى التعلم المستقل اللاحق. توجد كثير من العقبات التي يمكن تجاوزها، حتى ولوكانت تؤدي بالكاد إلى تعويض الأضرار الناشئة عن استخدام نظام الذكاء الاصطناعي.
وأما النوع الثاني فهو أنه وبصرف النظر عن حارس نظام الذكاء الاصطناعي المالك أو المصمم، فينبغي التسليم بأن المسئولية المدنية عن فعل الأشياء تطبق أيضاً على الأشياء غير المادية وهى هنا نظام الذكاء الاصطناعي. وهذا النظام يتكون من ربوت أى شئ مادي. غير أنه أيضاً يتكون غالباً من شئ غير مادي. ويبدو أن فكرة الحراسة في نظر الفقه تنصرف إلى الأشياء غير المادية والأشياء المادية على حد سواء. فإذا لم يكن ممكناً إجراء هذا التوسع يرى الفقه أنه من غير الممكن تقرير مسئولية صاحب العمل عن نظام الذكاء الاصطناعي المستخدم من العامل.
والمسئولية عن نظام الذكاء الاصطناعي في مواجهة الغير تعترضها صعوبة أخرى متعلقة بالإثبات. فالمسئولية في القانون المدني المتعلقة بهذا النظام ليست موضوعية، وفي حالة العودة إلى المسئولية القائمة على الخطأ، وهو أمر لايستطيع المضرور تقديم الدليل على الخطأ، وبوجه خاص يتطلب الإثبات توافر معلومات بسبب تطور نظام الذكاء الاصطناعي وتكون متعلقة بالتعلم apprentissage لشرح سلوك الذكاء، وأيضاً معرفة أصل بيانات التعلم حتى يمكن إسناد الخطأ.
المسئولية عن الذكاء الاصطناعي في مواجهة العامل:
يمكن أن يستخدم الذكاء الاصطناعي من جانب صاحب العمل من أجل تحسين سلامة العاملين، وعلى سبيل المثال يمكن استخدام أجهزة الربوت للقيام بأعمال خطرة، أو وضع برامج تسهم في اتخاذ القرار.
ويمكن مع ذلك أن يؤدي إلى إحداث أضرار لهم، ومن ثم يجب تعويضها. إن طبيعة قانون العمل تتطلب منح العاملين حماية خاصة في تنفيذ عقد العمل. وهذه الطبيعة يجب أن توجه الحلول الخاصة بكيفية تعويض العامل عن أضرار استخدام الذكاء الاصطناعي. ووفقاً لهذه الطبيعة ينبغي بحث إمكانية التويض في ضوء التزام صاحب العمل بسلامة العماملين، وهو في الأصل التزام بنتيجة. غير أنه يجب البحث أيضاً عن كيفية تعويض العامل في الحالات التي يكون فيها التزام صاحب العمل بسلامة العاملين التزاماً بوسيلة. وتوجد حالات أخرى يتعين على العامل توجيه الدعوى إلى منتج نظام الذكاء الاصطناعي.
التزام صاحب العمل بسلامة العاملين في مواجهة نظام الذكاء الاصطناعي:
ليس من المستبعد أن تحدث أنظمة الذكاء الاصطناعي ضرراً بالعامل. وعلى سبيل المثال من الصعب استبعاد أى حادث في مجال النقل يكون مصدره نظام الذكاء الاصطناعي علي الرغم من التطور الكبير الذي حدث لهذا النظام في مجال النقل.
وإذا كانت نظم الذكاء الاصطناعي تهدف إلى تطوير الصيانة التنبؤية، وتحسين حركة المركبات، أو تحسين الخدمات اللوجستية إلا أنه لايمكن استعاد حوادث العمل المرتبطة بها؛ لأن هذه النظم يمكن أن تولد مخاطر جديدة مثل أخطاء في البرمجة، والتوتر، وانخفاض اليقظة، وتؤدي بدورها إلى حوادث عمل وأمراض مهنية تصيب العاملين.
وبطبيعة الحال يجب تحقيق الوقاية من هذه المخاطر الجديدة في إطار نصوص قانون العمل التي تلزم صاحب العمل باتخاذ التدابير اللازمة لضمان السلامة، وحماية الصحة الجسمانية والعقلية للعاملين من خلال الإجراءات الوقائية، والمعلومات، والتدريب، ووضع تنظيم ووسائل مناسبة في مواجهة نظم الذكاء الاصطناعي([36]).
وهذه الالتزامات التي تقع على صاحب العمل أصبحت أساسية بمعنى أنها ترسم إطار الالتزام بالسلامة على صاحب العمل في مواجهة عامليه. ومن هنا جاء قضاء محكمة النقض الذي قضت فيه بأنه لايخالف صاحب العمل الاتزام القانوني الذي يفرض عيه اتخاذ التدبير الضرورية لضمان السلام والصحة الجسمانية والعقلية للعاملين إذا ما أثبت اتخاذ جميع التدابير المنصوص عليها في تقنين العمل([37]).
ويبدو كما يقول بعض الكتاب أنه في ضوء هذا القضاء يكون من الصعب تقرير مسئولية صاحب العمل مالم نعتبر أن الضرر الناجم عن نظام للذكاء الاصطناعي يعني بذاته وجود خطأ من صاحب العمل الذي اختار تطبيق هذا النظام([38]).
وبالتأكيد تستبعد مسئولية صاحب العمل في كل مرة يتسبب فيها نظام الذكاء الاصطناعي ضرراً يمكن إثبات مصدره بأن يكون على سبيل المثال خطأ في البرمجة أو التعلم المستقل اللاحق، وليس نقص التنظيم أو عدم ملاءمة الأساليب؛ لأنه في هذه الحالات لايكون صاحب العمل قد ارتكب أى خطأ
المسئولية المدنية لمنتج نظام الذكاء الاصطناعي:
إذا لم يكن ممكناً رفع دعوى التعويض على صاحب العمل، يجوز للعامل رفع الدعوى ضد مصمم نظام الذكاء الاصطناعي.
ونظراً لعدم وجود نظام خاص بالمسئولية يطبق على مشغلي نظم الذكاء الاصطناعي يكون على العامل اللجوء إلى نظام المسئولية عن المنتجات المعيبة وفقا للمادة ١٢٤٥ من التقنين المدني التي سبق بيان أحكامها، ووفقاً لها يكون المنتج مسئولاً عن الأضرار الناجمة جراء عيب في المنثج سواء ارتبط مع المضرور بعقد أم لا([39]).
المبحث الثالث
المسئولية عن الذكاء الاصطناعي في القانون العام
من الملائم أن نعرض للجوانب الدستورية المتعلقة باستخدام الذكاء الاصطناعي (المطلب الأول)، والرقابة القضائية على القرارات الصادرة إلى تلك التقنية (المطلب الثاني)؛ نظراً لأهمية هذه الجوانب في مجال المسئولية (المطلب الثالث).
المطلب الأول
الجوانب الدستورية لاستخدام الذكاء الاصطناعي
في مجال القرارات الإدارية
حكم المجلس الدستوري في ١٢ من يونيو ٢٠١٨:
قضى المجلس الدستوري بدستورية المادة 21 من القانون الذي يسمح للإدارة باتخاذ قرارات إدارية فردية لها صفة آلية؛ نظراً لأن السلطة اللائحية تحدد بنفسها القواعد والمعايير التي تغذي المعالجة الحسابية algorithme، ومن ثم لم تتحلى عن اختصاصاتها، وأن الضمانات التي نص عليها القانون تبدو كافية، ومن هذه الضمانات: منع الطعن الحصري على المعالجة الحسابية في حالة توافر معلومات ذات حساسية، وفرض الإلزام بالإشارة إلى الأساس الحسابي للقرار، وإمكانية الحصول على الخصائص الرئيسية لتنفيذها، وإمكانية ممارسة طريق الطعن الإداري والقضائي ضد القرار، وأخيراً إلزام المسئولين عن المعالجة الحسابية التحكم في المعالجة وتطورها؛ حتى يمكنهم أن يشرحوا بالتفصيل وفي شكل ميسر للشخص المعني الطريقة التي تم إعمالها للمعالجة في مواجهته([40]).
حكم المجلس الدستوري في ٣ من إبريل ٢٠٢٠:
في هذا الحكم يكرس المجلس الدستوري الحق في معرفة المعايير وطرق فحص الملفات بواسطة الذكاء الاصطناعي ليس للمرشحين المستبعدين فقط، وإنما أيضا للغير. وقد رأى المجلس أنه وفقا للنصوص يجوز للمرشحين بمجرد اتخاذ قرارات الرفض في مواجهتهم الحصول على المعلومات الخاصة بالمعايير وكيفية فحص طلبات ترشحهم. ومع ذلك الحصول على هذه المعلومات غير متاح إلا للمرشحين، واعتبر المجلس أن عدم الاعتراف للغير بكل المعلومات الاخاصة بالمعايير وكيفية فحص طلبات الترشح التي قبلت فعلاً من جانب المؤسسات المعنية ينطوي على اعتداء على الحق الذي كفلته المادة 15 من إعلان حقوق الإنسان والمواطن([41])، وهو اعتداء لايتناسب مع المصلحة العامة المستهدفة والمستمدة من حماية سرية مداولات الفرق التربوية. ومن ثم لايجوز تفسير الأحكام المتنازع فيها، لايجوز تفسيرها على أنها تعفي كل مؤسسة من نشر تقرير يتضمن المعايير التي في ضوئها تم فحص المترشحين، ويوضح إلى أى مدى استخدمت معالجات الخوارزميات للقيام بهذا الفحص وإلا تكون تلك الأحكام مخالفة لمبدأ الحصول على الوثائق الإدارية([42]).
باختصار المبدأ هو شفافية الخصائص الرئيسية للخوارزميات أو المعالجة الآلية التي تستند إليه القرارات الفردية والمعلومات الشخصية محل المعالجة، غير أن الشفافية في القانون الفرنسي ليست كاملة؛ لأنها لاتشمل بعض هذه الخصائص مثل رموز مصادر الخوارزميات([43]).
ويعترف القانون حتى في الحالات التي يجوز فيها اتخاذ قرارات معالجة آلياً بالحق في طلب التدخل البشري، فيجوز لكل شخص كان محلاً لهكذا قرار أن يطلب تدخل شخص بشري؛ بقصد الحصول على إعادة فحص مركزه، وأن يعبر عن وجهة نظره، وويحصل على شرح للقرار المتخذ،، او ينازع فيه.
عدم جواز الاستعانة بالذكاء الاصطناعي في بعض القرارات الفردية:
التوسع في اللجوء إلى اتخاذ قرارات استناداً إلى الذكاء الاصطناعي يتوقف عند حدود ترسمها القوانين، فلايجوز اللجوء على اتخاذ قرارات آلية على هذا النحو في بعض الموضوعات.
وعلى ذلك ينص قانون المعلومات والحرية في فرنسا على حظر اتخاذ أى قرار من القرارات التي يمكن أن تحدث آثارا قانونية في مواجهة شخص ما في حالة ما إذا كان أساس تدخلها الوحيد هو المعالجة الآلية للمعلومات المخصصة للتعريف بجانب من شخصيته([44])، أو تقييم بعض جوانب من شخصيته([45]). ولايجوز أيضا اتخذ أى قرار
قضائي ينطوي على تقييم سلوك شخص ويكون أساسه المعالجة الآلية لمعلومات ذاتصفة شخصية من أجل تقييم بعض جوانب من شخصيته.
ومبدأ الحظر في الحالة المتقدمة يقتصر على بعض أنواع من القرارات وهى التي تحدث آثاراً قانونية، وكذلك بعض عمليات المعالجة وهى المعالجة الآلية للمعلومات مع تحديد أو تقييم جوانب أو أجزاء من الشخصية، أو حتى الشخصية بأكملها.
ومن ثم يخرج عن نطاق هذا الحظر القرارات التي تتخذ في سياق إبرام أو تنفيذ عقد، ويتم منح صاحب الشأن الفرصة لتقديم ملاحظاته، أو القرارات التي تلبي طلبات الشخص المعني([46]).وكذلك القرارات التي تصدر بموافقة صريحة من الأشخاص المعنيين.
المطلب الثاني
رقابة القضاء الإداري على القرارات الصادرة استناداً للذكاء الاصطناعي
إمكانية الطعن بالإلغاء في القرارات الصادرة استناداً إلى نظم الذكاء الاصطناعي:
أصبح اصطلاح القرار المعالج إليكترونياً([47])شائعاً اليوم في القانون الفرنسي. ويقصد به كما تقول اللجنة الوطنية للمعلومات والحريات القرار المتخذ في مواجهة شخص من خلال خوارزميات algorithmes أى معالجة آلية تطبق على بياناته الشخصية من دون أى تدخل بشري في العملية.وهذا النوع من القرارات يمكن أن يتدخل في مجلات عديدة من أنشطة مثل الأنشطة المالية والضرائب والتسويق، ويحدث آثارا قانونية، أو تؤثر بطريقة مهمة على الأشخاص أصحاب الشأن. مثال ذلك قرار رفض ائتمان يمكن أن يكون سنده الوحيد استخدام خوارزميات تطبق آليا بعض المعايير على المركز المالي لطالب الائتمان دون أى تدخل بشري.
وهذا التعريف للقرار المعالج آليا يحدث تحولاً كبيراً في حقيقة مفهوم القرار الإداري؛ لأنه يعني أن القرار في حقيقته ليس تعبيراً عن إرادة الإدارة وحدها، بل تعبير عن نظام الذكاء الاصطناعي، حتى وإن ظل القرار من الناحية النظرية منسوباً للإدرة التي تبنته بوصفه قراراها.
ويتولى القاضي الإداري في حدود اختصاصه رقابة المشروعية على القرارات الإدارية سواءً القرارات وفقاًللإجراءات العادية أو وفقاً للإجراءات الإليكترونية. وفيما يتعلق بالأخيرة لايمارس الرقابة فقط من نهاية الإجراءات en aval أى وقت التوقيع أو الإحالة، ولكن أيضاً عند البداية en amont مع الدعم أو المساعدة التي تقدمها الخوارزميات التي وتقوم بدور لايمكن إنكاره في بعض الدول([48]).
وعلى سبيل المثال يمكن إسناد دور للذكاء الاصطناعي في اتخذ القرارات، فقد يؤدي إلى اتخذ قرارات غير مشروعة، أو يرفض منح حقوق، أو يمنع الحصول على خدمة، أو يقوم بتحليل شخصية المرشحين للوظائف على غرار ما يحدث في مجال المشروعات الخاصة، وقد ينتهي هذا التحليل إلى اختيارات تنطوي على التمييز([49]).وقد يكون التمييز عمدياً من خلال وضع معيار تمييزي في برنامج إليكتروني([50]). واعتبرت إحدى المحاكم في إيطاليا تمييزياً أن تعامل الخوارزميات، من أجل تحديد مجموعات مقدمي الطلبات، المستخدمة بواسطة منصة الغياب الناتج عن المساهمة في الإضراب تماماً على غرار الحالات الأخرى التي لايقوم فيها مقدم الطلب بالخدمة، ومن ثم قضت في مواجهة المنصة بالتعويض([51]).
وفي إيطاليا فيتم الاستعانة به من أجل تنفيذ الخطط الاستثنائية للتعيين ونقل المعلمين. وفي الحالتين يقوم البرنامج بوضع إجراءات آلية بينما ترجع صعوبتها إلى زيادة الأعداد وتنوع الطلبات الواجب التعامل معها والمعايير واجبة التطبيق([52]).
وقد كرس تقنين العلاقة بين الأفراد والإدارة في فرنسا إمكانية اتخذ قرار فردي استناداً إلى معالجة حسابية. ونصت المادة L.311-3-1 من هذا التقنين على أنه: القرار الفردي الذي يتخذ في ضوء معالجة حسابية يجب أن يتضمن إشارة صريحة، وإبلاغ صاحب الشأن. ويجب أيضاً إبلاغ القواعد التي تحدد هذه المعالجة، والخصائص الرئيسية لتنفيذها من جانب الإدارة إلى صاحب الشأن متى طلب ذلك([53]).
تحولات في الرقابة القضائية على القرارات الصادرة استناداً إلى الذكاء الاصطناعي:
ولاجدال في إمكانية الطعن بالإلغاء في القرارات الصادرة استناداً إلى مساعدة من نظام الذكاء الاصطناعي أو المعالجة الحسابية، كما يذكر تقنين العلاقة بين الأفراد والإدارة، مثلما يجوز الطعن بالإلغاء في أى قرارات أخرى([54]).
ومع ذلك كما يلاحظ بعض الكتاب أن الأساليب التي يعتمد عليها القضاء لمراقبة مشروعية القرارات الإدارية قد لاتجد مكاناً لها إذا تعلق الأمر بقرارات تستند إلى دعم نظم الذكاء الاصطناعي. وعلى سبيل المثال لاتجد مكاناً رقابة التناسب، والخطأ البين في التقدير؛ لأن هذه الأساليب وغيرها تتفق مع الطريقة التقليدية في اتخاذ القرارت الإدارية، ولاتكون لها إلا أهمية محدودة في القرارات الصادرة وفقاً لنظم الذكاء الاصطناعي التي تعتمد على معايير محاسبية محض([55]). ويرجع ذلك إلى أن هذه الأساليب تفترض ممارسة سلطة تقديرية من جانب الإدارة، بينما اتخاذ قرارات وفقاً لنظم الذكاء الاصطناعي يتم بطريقة آلية متجردة من سلطة التقدير.
ويضاف إلى ذلك أن نظم المساعدة في القرار تنطوى على تعميم تطبيق البيانات والمعلومات التي تتوافر لديه، وهو مايعني عدم تطبيق فحص كل حالة على حدة، وبالتبعية الحد من السلطة التقديرية للإدارة، وهى سلطة أقرها القضاء للإدارة ممارستها وعدم التخلي عنها.
ونظراً لتوحيد المعايير التي تتم في ضوئها المعالجة الآلية للمعلومات أو البيانات فيبدو صعباً بل مستحيلاً الادعاء بوقوع القرار في عيب إساءة استعمال السلطة.
ويثار التساؤل بطبيعة الحال عن مدى رقابة القاضي الإداري على المعلومات أو المعايير التي صدر استناداً إليها القرار الإداري.
بطبيعة الحل يمارس القاض الإداري رقابة على هذه المعايير بمناسبة الطعن بالإلغاء في القرار الصادر استناداً إليها؛ لأنها تشكل أساس القرار نفسه.
ولكن هل يجوز الطعن بالإلغاء في هذه المعلونات والمعايير؟. لانرى مانعاً من الطعن فيها بالإلغاء مباشرة في الميعاد مادامت ملزمة، قياساً على قبول دعوى الإلغاء في المنشورات الملزمة، بل إنها تشكل في حقيقة الأمر قرارات لائحية.
وبناءً على ذلك قضى مجلس الدولة بقبول الطعن بإلغاء توصية للجنة الوطنية للمعلومات والحرية بشأن اعتبار البيان الخاص بجنسية طالب القرض بوصفه أحد عناصر تقدير مخاطر التحصيل، ورأى المجلس على عكس هذه التوصي التي في حقيقتها قراراً أن عنصر الجنسية منتج وليس تمييزياً في ضوء عملية المعالجة الإليكترونية([56]).
ويجوز أيضاً الدفع بعدم مشروعية المعايير أو المعلومات التي يتم في ضوئها اتخاذ القرارات الفردية بمناسبة دعاوى إلغاء هذه القرارات على غرار الدفع بعد مشروعية القرارات اللائحية بصفة عامة.
رقابة القضاء الإداري في إيطاليا على القرار اللائحي بفرض استخدام نظم الذكاء الاصطناعي في إصدار القرارات الفردية:
وفي إيطاليا يراقب القاضي الإداري مشروعية القرار اللائحي بفرض استخدام العمليات الآلية، خصوصاً في الحالة التي تكون فيها معيير المعالجة غير معلومة، وهذا الحل يبدو لاغنى عنه من أجل ضمان حماية قضائية كاملة وفعالة، وإلا ستكون القرارات الفردية مجرد نتيجة آلية لعمليات إليكترونية يفرضها القرار اللائحي. ووفقاً للقضاء في إيطاليا إذا ماطبقت معايير موضوعية دون أى هامش تقديرمن السلطة الإدارية تكون الإجراءات الآلية ضرورية من الناحيتين التكنولوجية والدستورية في ضوء المادة ٩٧ من الدستور. والبرنامج الإليكتروني في نظر القضاة يجسد الإجراءات، ويحتوى على القواعد القانونية، وكذلك الاختيارات التي قامت بها الإدارة في إطار حريتها في التقدير.
وقد حرص القضاء الإيطالي على إبراز النتيجتين الآتيتين:
أما النتيجة الأولى فهى أنه يقع على الإدارة المسئولة عن الإجراءات أن توازن من البداية أى قبل تنفيذ البرنامج بين جميع المصالح المعنية، مما يفرض أيضاً إدخال تعديلات وتحديثات، وإجراء اختبارات منتظمة للخوارزميات، وخصوصاً إذا كانت الأخيرة هى خوارزميات تعلم آلى أو تعلم عميق.
وأما النتيجة الثانية فهى أن قابلية الخوارزميات للتقاضي تفترض أنها مفهومة من جانب القضاة والمواطنين، وهذا يفرض أن تكون جميع جوانبها مهروفة مثل مؤلفيها، وإجراءات إعدادها، ونظام القرارات([57]).
المطلب الثالث
المسئولية عن الذكاء الاصطناعي في القانون الإداري
تلجأ السلطات الإدارية إلى استخدام الذكاء الاصطناعي سواءً بمناسبة إتخاذ قرارات إدارية، أو بمناسبة القيام بأعمالها المادية اليومية. وفي الحالتين يمكن أن تثور مشكلة مسئوليتها عن تعويض الأضرار الناجمة جراء هذا الاستخدام.
المسئولية الإدارية عن القرارات الإدارية المعالجة آليا:
في الحالات التي تتخذ الإدارة فيها قراراً معالجاً آليا تنعقد مسئوليتها إذا كان هذا القرار معيباً بعدم المشروعية. وقد رأينا أن التطبيقات القليلة للمسئولية عن استخدام الذكاء الاصطناعي لاتخاذ قرارات في مجال قانون العمل تكون في حالة عدم مشروعية المعايير التي يتم في ضوئها فحص المعلومات أو تحليلها من جانب نظام الذكاء الاصطناعي. وهذه التطبيقات يمكن أن تحدث كثيرا في مجال القرارات التي تصدر عن السلطات الإدارية.
ويمكن أيضاً طلب التعويض عن اتخاذ قرارات معالجة آليا في الحالات غير الجائز فيها اتخاذ هذا النوع من القرارات، أو بالمخالفة لحق الشخص في عدم اتخاذ قرار معالج تماماً بصورة آلية بالمخالفة لحق الشخص في ألا يكون محلاً لقرار معالج آلياً فقط([58]).
ونظراً لأن المسئولية عن القرارات الإدارية هى في الأصل قائمة على الخطأ الثابت أى الخطأ واجب الإثبات، فمن ثم يتطلب التمسك بعد مشروعية المعايير الوقوف على محتواها، ومن هنا يبدو أهمية تطبيق مبدا الشفافية، وإلا سيتعرض المدعي في دعوى المسئولية لمشكلة في الإثبات. ومع ذلك يقع على القاضي الإداري التدخل بإلزام الإدارة بإبراز هذه المعايير، تطبيقاً للدور الذي يقوم به في الإجراءات القضائية الإدارية وهى إجراءات توصف دائماً بأنها موجهة.
ويقدم القضاء في إيطاليا تطبيقا مهماً للمسئولية عن القرارات المعالجة آليا. فوفقا للقانون الإيطالي يخضع فتح الصيدلية للترخيص الذي يجب من أجل الحصول عليه تقديم طلب في منصة إليكترونية تابعة لوزارة الصحة. ويجب أن يقدم الطلب لإقليم معين، وإذا رفض الطلب مرتين في إقليمين متعاقبين فلم يعد جائزاً تقديم طلب آخر. قدم أحد الأشخاص طلبين لإقليمين متعاقبين لكنهما رفضا؛ استناداً إلى أنهما لم يتضمنا، كما يتطلب القانون، بياناً بالإميل. ثم تقدم صاحب الشأن في العام التالي بطب ثالث متضمناً البيان المطلوب لكنه أيضاً رفض؛ استناداً هذه المرة إلى أنه سبق له تقديم طلبينوهو غير جائز. وقضت المحكمة الإدارية في ترونتو بالتعويض على الدولة بعد أن أثبت المدعي الخطأ الذي وقع فيه النظام الإليكتروني والذي خلط بين رفض طلب الترخيص لسبب شكلي مع رفض الطلب لسبب موضوعي([59]).
ويجوز التعويض أيضاً عن القرار اللائحي المنظم لاستخدام الذكاء الاصطناعي. وبناءً على ذلك قضى مجلس الدولة حديثاً بإلغاء قرار رئيس مجلس الوزراء جزئياً والتعويض عنه، بشأن الإذن لوزير الداخلية بالمعالجة الآلية للمعلومات الشخصية من خلال تطبيق خاص؛ فيما تضمنه من النص على أن المعالجة الآلية للمعلومات الشخصية تستهدف التسهيل والجمع والمحافظة عليها بهدف استغلالها لاحقاً في معالجات أخرى للمعلومات، ولاسيما من خلال نظام المعلومات المسبقة؛ لأن القرار لم يتضمن أى إشارة تتعلق بطبيعة وموضوع هذه المعالجات، ولا شروط استغلال هذه
المعلومات في تلك المعالجات، ومن ثم لاتتوافر في هذه الغاية المتطلبات التي يشترطها القانون في الغاية من المعالجة وهى أن تكون محددة وواضحة ومشروعة([60]).
وعدم المشروعية الذي يمكن أن يهدد القرار المعالج آليا يشكل دائما خطأً مرفقياً؛ لأنها تنسب إلى المرفق نفسه. وهذه الفكرة لا يوجد فيما يبدو ما يناقضها في أحكام القضاء الإداري.
المسئولية الإدارية عن الأعمال المادية تنفيذاً لنظام الذكاء الاصطناعي:
ترفع دعوى المسئولية الإدارية عن الأعمال الإدارية غير القاعدية على السلطة العامة التي تستخدم نظام الذكاء الاصطناعي وليس الشخص الذي أنتجه([61]).
ويثار التساؤل عن أساس المسئولية الإدارية عن الأضرار الناجمة جراء استخدام نظم الذكاء الاصطناعي بمعنى هل تكون قائمة على أساس الخطأ، أو على الخطأ المفترض، أو من دون خطأ؟
١– استبعاد المسئولية على أساس الخطأ الثابت:
في حالة استخدام أنظمة الذكاء الاصطناعي للقيام بأنشطة من طبيعة مادية امثل الأعمال الطبية أو النقل سيجد المضرور عقبة كبيرة في تحديد الخطأ، وتحديد المسئول عنه: هل هو المشغل أى الشخص العام الذي يستخدم النظام أم المنتج أو حتى الموظف؛ لأن نظام الربوت الذكي او المركبة الذاتية يفترض تعدد المسئولين عنه. وعلى ذلك يمكننا القول: بأن المسئولية الإدارية القائمة على أساس الخطأ واجب الإثبات عن استخدام نظم الذكاء الاصطناعي في الأعمال غير القاعدية ينبغي استبعادها، فالمضرور لايستطيع الوصول إلى تحديد المسئول عن الخطأ؛ لأن هذا التحديد يبدو مسألة فنية ودقيقة لن يتمكن في الغالب من إثباتها.
ومن المعلوم أن القانون يستبعد المسئولية على أساس الخطأ الثابت في الحالات التي يبدو فيها تعدد المسئولين من ناحية، وصعوبة تحديدهم من جانب المضرورمن ناحية أخرى. وهذا هو الأمر بالنسبة للمسئولية عن حوادث الطائرات، والمسئولية عن الأضرار النووية.
٢– مدى تطبيق نظام المسئولية على أساس الخطأ المفترض والمسئولية دون خطأ:
قد يبدو ممكناً اللجوء إلى المسئولية القائمة على أساس الخطأ المفترض أو قرينة الخطأ، وهو منطق نظام المسئوالية عن فعل الشئ، وخصوصاٍ في مجال مسئولية المرافق الطبية التي تستخدم منتجات وأجهزة مشابهة لتلك التي تسخدمه المستفيات الخاصة. ومع ذلك يبدو فقه القانون العام متحفظاً علي تطبيق هذا النوع من المسئولية على المرافق العامة الطبية، ويقصر تطبيقات هذه المسئولية على المنشأت والأشغال العامة والأسلحة الخطرة، وخصوصا لعدم تحديد مفهوم معنى الشئ.
ومع ذلك فقد تحقق مؤخراً تطبيق قواعد القانون المدني على مسئولية المرافق الطبية من خلال تطبيق المسئولية عن المنتجات العيبة. ففي حكم لمجلس الدولة الفرنسي اعتبر أن قرينة الخطأ في تنظيم وتشغيل المرفق الطبي غير قادرة على الاستيعاب فعل الشئ أو المنتجات، ومن ثم رفض قيام المدعى عليه بتقديم الدليل العكسي الذي يستهدف قلب قرينة الخطأ. ويقرر مجلس الدولة أن المرفق العام الطبي يكون مسئولاً، ولو من دون خطأ من جانبه، عن الأضرار التي تلحق منتفعيه من قصور المنتجات والأجهزة الطبية، ومن دون أن تخفف الحالة السابقة للمريض من تلك المسئولية([62]).
ويستند هذا القضاء إلى مبدأ مهم يخضع له المرفق الطبي وهو الالتزام بسلامة المريض. ويضاف إلى ذلك أن المسئولية وفقاً التوجيه الأوروبي في العام ١٩٨٥ وقانون ١٩٩٨ بشأن المسئولية عن المنتجات المعيبة هى مسئولية موضوعية، بل إن محكمة النقض في فرنسا قضت قبل إصدار القانون الغير بأن كل منتج مسئول عن الضرر الناجم جراء منتجه، بصرف النظر عما إذا كان المضرور طرفاً في عقد أو من الغير.
وأكد المجلس هذا القضاء في حكم لاحق([63]).
ويذكر المجلس أخيراً أن مسئولية المرفق العام الطبي وإن كانت تنعقد دون خطأ، إلا أن ذلك لايخل بحقه في الرجوع بالدعاوى التي يمكنه أن يمارسها على المنتج.
وهذا القضاء يصلح للتطبيق بطبيعة الحال على استخدام المرافق العامة الطبية لنظم الذكاء الاصطناعي في الأعمال الطبية، وبوجه خاص التشخيص والجراحة؛ لأن أساس المسئولية واحد ألا وهو المسئولية عن المنتجات المعيبة.
ومن ثم يمكن أن نخلص إلى نتيجة مؤداها أن المسئولية عن استخدام نظم الذكاء الاصطناعي، أياً كان مجال تطبيقها، تستند إلى المسئولية على أساس المنتجات المعيبة، وهو نفس الأساس الراجح وفقاً لفقهاء القانون المدني.
وهذا التحليل يمكن تطبيقه أيضاً أمام القضاء الإداري في مصر؛ نظراً لأن قانون التجارة الحالي رقم ١٧ لسنة ١٩٩٩ قد نص أيضاً في المادة ٦٧ على مسئولية المنتج عن المنتجات المعيبة، وجعل المشرع هذه المسئولية موضوعية.
الخلاصة
أحدث الذكاء الاصطناعي تطورات بالغة الأهمية في مختلف المجالات. وهذه التطورات تستدعي تدخلاً من جانب القانون لمواجهتها، وخصوصاً فيما يتعلق بإصدار القرارات وفقاً لنظم الذكاء الاصطناعي التي أصبحت تتخذ بطريقة آلية محضة. وهذا التدخل التشريعي ضروري للحد من اتساع هذه القرارات؛ لأنها يمكن أن تشكل تهديدا بعض حقوقه الأساسية مثل الحق في الحياة الخاصة.
وفيما يتعلق تحديداً بالمسئولية المدنية عن استخدام الذكاء الاصطناعي وجدنا أن غالبية الفقه لا ترى الآن مبرراً لتدخل المشرع، وأن أساس هذه المسئولية هو المسئولية عن المنتجات المعيبة، واحتياطياً المسئولية عن فعل الأشياء. وفي القانون المصري يتوافر كل من نوعي المسئولية أى المسئولية عن المنتجات المعيبة والمسئولية عن فعل الشئ.
وفيما يتعلق بالمسئولية الإدارية فقد تطور القضاء الإداري إلى درجة اعتبار مسئولية المرافق الطبية عن المنتجات والأجهزة الطبية هى مسئولية عن المنتجات المبيعة. ومن هنا يمكن دون أى صعوبة اعتبار هذه المسئولية الأخيرة قابلة للتطبيق أمام القاضي الإداري فيما يتعلق بالمسئولية عن استخدام تقنيات الذكاء الاصطناعي في مجالات الطبي والانتقال على سبيل المثال. واعتقد أن تطبيق هذه الحلول لاتعترضه أى صعوبات في القانون المصري، وخصوصا بعدما طبق القاضي افداري في مجال المسئولية الطبية مبدأ المسئولية دون خطأ.
للمؤلف
الأبحاث المتخصصة باللغة العربية:
١- نزع الملكية للمنفعة العامة، القاهرة، ١٩٨٨.
٢- إجراءات القضاء الدستوري، القاهرة، ١٩٨٩.
٣- نظرية التنازل في القانون الإداري، القاهرة، ١٩٩٠.
٤- الإصلاح الثاني للقضاء الإداري في فرنسا، مجلة هيئة قضايا الدولة، ١٩٩٠ العدد ١.
٥- التنظيم القانوني لتمويل الحياة السياسية في فرنسا، دراسة خاصة عن القانونين ٢٢٦ و٢٢٧ لسنة ١٩٨٨، مجلة هيئة قضايا الدولة، ١٩٩١، العدد ٣.
٦- دستورية حظر البناء على الأراضي الزراعية، تعليق على حكم المحكمة الدستورية العليا في ٤ مايو ١٩٩١، مجلة هيئة قضايا الدولة، ١٩٩٢، العدد ٢.
٧- التصحيح التشريعي، القاهرة، ١٩٩١. (الكتاب الحائز جائزة جامعة المنصورة التشجيعية).
٨- تسبيب القرارات الإدارية، القاهرة، ١٩٩٣.
٩- القيمة الدستورية لقرينة البراءة، تعليق على حكم المحكمة الدستورية العليا في ٠ ٢ فبراير ١٩٩٢ في: الاتجاهات الحديثة لقضاء المحكمة الدستورية العليا، بالاشتراك مع الدكتور/ صلاح الدين فوزي، مطبوعات جامعة المنصورة، ١٩٩٣.
10- قضية سوق روض الفرج، دراسة تحليلية نقدية لحكم المحكمة الإدارية العليا في ١١ إبريل ١٩٩٣، القاهرة، ١٩٩٥.
١١- حرية الإذاعة المسموعة والمرئية، بحث مقدم إلى مؤتمر الإعلام والقانون بكلية الحقوق جامعة حلوان، مجموعة أعمال المؤتمر، الجزء الأول، ١٩٩٩.
12- الضمانات الدستورية في المجال الضريبي، مطبوعات جامعة الكويت، ١٩٩٩.
13- تفويض المرفق العام، القاهرة، ٢٠٠٠.
14- النظام الدستوري للخصخصة، القاهرة ٢٠٠٠.
15- التطورات الحديثة في مسئولية الإدارة، القاهرة، ٢٠٠٠.
16- الاتجاهات المعاصرة في إدارة المرافق العامة الاقتصادية، القاهرة، ٢٠٠٠.
١٧- الأسس الدستورية للمسئولية الإدارية، مجلة الدستورية، ٢٠٠٣، العدد ٤.
18- رقابة الدستورية وقوانين الميزانية، مجلة الدستورية، ٢٠٠٤، العدد ٦.
19- مبدأ الأمن القانوني، مجلة البحوث القانونية والاقتصادية، كلية حقوق المنصورة، ٢٠٠٤، العدد ٣٦.
20- أحكام تأمين الكوارث الطبيعية في القانون الإداري، مجلة الحقوق للبحوث القانونية والاقتصادية كلية حقوق الإسكندرية، ٢٠٠٤، العدد ٢،
21 – مشكلات المسئولية الطبية أمام القضاء الإداري، مجلة البحوث القانونية والاقتصادية، كلية حقوق المنصورة، ٢٠٠٤، العدد 36.
22 – الأحكام الخاصة بالأضرار القابلة للتعويض في القانون الإداري، مجلة كلية حقوق حلوان، ٢٠٠٤، العددان ١٠ و١١.
٢٣- الجوانب الدستورية لقوانين الحساب الختامي، مجلة كلية حقوق حلوان، ٢٠٠٤، العددان ١٠ و١١.
24- الحماية الدستورية للمالية العامة، بحث مقدم إلى مؤتمر حماية الأموال العامة، كلية حقوق بنها، مارس ٢٠٠٤.
٢٥- الأشخاص العامة وقانون المنافسة، بحث مقدم إلى مؤتمر تنظيم المنافسة ومنع الممارسات الاحتكارية الضارة، 29-30 مارس ٢٠٠٥ كلية حقوق المنصورة.
٢٦- القضاء الدستوري في فرنسا في خمس سنوات (١٩٩٩-٢٠٠٤)،2005.
27- الدستور والمنافسة، مجلة البحوث القانونية والاقتصادية، كلية الحقوق جامعة المنصورة، عدد أكتوبر٢٠٠٥
28- رقابة الدستورية السابقة والدستور المصري، جريدة الأهرام 12/7، 19/7/2005.
٢٩- دور الدولة والأشخاص العامة في مجال التمويل العقاري، بحث مقدم إلى مؤتمر “الجوانب القانونية للعمليات التمويلية” مارس ٢٠٠٦ كلية الحقوق جامعة الكويت.
30 – المبادئ الدستورية والإدارية في مجال الهندسة الوراثية، بحث مقدم إلى مؤتمر “الجوانب القانونية والاقتصادية والشرعية لاستخدامات تقنيات الهندسة الوراثية”، ٢-٣ إبريل ٢٠٠٦، كلية الحقوق جامعة المنصورة.
31- التعديلات الدستورية وقوانين الميزانية، بحث مقدم إلى مؤتمر ” الإصلاح الدستوري وأثره على التنمية “، ٢-٣ إبريل ٢٠٠، بكلية الحقوق جامعة المنصورة.
32- التعديلات الدستورية والبيئة، بحث مقدم إلى مؤتمر ” الإصلاح الدستوري وأثره على التنمية” ٢-٣ إبريل 2007، بكلية الحقوق جامعة المنصورة.
٣٣- الأسس الدستورية لقوانين الميزانية، مجلس النشر العلمي، جامعة الكويت ٢٠٠٧.
34- الدستور الكويتي وخصخصة المرافق العامة وعقود المشاركة وعقود البناء والتشغيل ونقل الملكية، بحث مقدم إلى “مؤتمر الجوانب القانونية لأملاك الدولة”. ٣٠-٣١ مارس ٢٠٠٨، كلية الحقوق جامعة الكويت.
٣٥- الإطار القانوني للأمن النووي.بحث مقدم إلى مؤتمر “البترول والطاقة”، ٢- ٣ ابريل ٢٠٠٨، كلية الحقوق جامعة المنصورة.
36 – سلطة تنظيم الأسواق المالية. الإطار الدستوري والتنظيم التشريعي، مجلة الحقوق، جامعة الكويت، ٢٠٠٩، العدد ٢، ص ٦٩.
٣٧- رقابة الدستورية اللاحقة في فرنسا، مجلة الدستورية، ٢٠٠٩، العدد16، ص١٧.
38- المجلس الدستوري الفرنسي والتعديل الدستوري في ٢٣ من يوليو ٢٠٠٨، مجلة الحقوق، جامعة الكويت، ٢٠١٠، العدد ٣، ص 15.
٣٩- القانون العام الاقتصادي، مجلس النشر العلمي، جامعة الكويت، ٢٠١٢.
40- الدستور الجديد والعمال، بحث مقدم إلى مؤتمر “مستقبل النظام الدستوري للبلاد “، كلية الحقوق بجامعة المنصورة، ١٧-١٨ من إبريل ٢٠١٢.
41- الدستور الجديد والقوانين الأساسية ورقابة الدستورية، بحث مقدم إلى مؤتمر “مستقبل النظام الدستوري للبلاد”، كلية الحقوق بجامعة المنصورة، ١٧-١٨ من إبريل ٢٠١٢.
42- الدستور الجديد والجيش، بحث مقدم إلى مؤتمر “مستقبل النظام الدستوري للبلاد، كلية الحقوق بجامعة المنصورة، ١٧-١٨ من إبريل ٢٠١٢.
٤٣- الدستور الجديد والاقتصاد، بحث مقدم إلى مؤتمر “مستقبل النظام الدستوري للبلاد”، كلية الحقوق بجامعة المنصورة، ١٧-١٨ من إبريل ٢٠١٢.
٤٤- الطاقة النووية والقانون، مجلة عالم الفكر،الكويت، المجلد ٤١، العدد الثالث ٢٠١٣، ص٩٣.
٤٥- النظام القانونى للمنشآت النووية من التشييد إلى التفكيك في مصر والإمارات، بحث مقدم إلى مؤتمر الطاقة بين القانون والاقتصاد”، كلية القانون بجامعة الإمارات العربية المتحدة، ٢٠- ٢١ مايو ٢٠١٣.
٤٦- القانون الإداري للأموال، الكتاب الأول، الأملاك العامة ونزع الملكية للمنفعة العامة، ٢٠١٤.
٤٧- القانون الإداري للأموال، الكتاب الثاني، الأشغال العامة، ٢٠١٤.
٤٨- الهيئة العربية للطاقة الذرية والإيراتوم، بحث مقدم إلى مؤتمر مصر والعالم العربي: التحديات القانونية والأبعاد الاقتصادية، كلية الحقوق جامعة المنصورة، ٥-٦ من مايو ٢٠١٥.
٤٩- القانون النووي، القاهرة ٢٠١٦.
50- المشروع النووي المصري،الإطار القانوني والبنيان المؤسسي، بحث مقدم إلى مؤتمر الأبعاد القانونية والاقتصادية للمشروعات القومية، كلية الحقوق جامعة المنصورة، ٢٦- ٢٧ من مايو ٢٠١٦.
51- الهيئات العامة للمناطق الاقتصادية الخاصة، طائفة جديدة من مؤسسات التدخل الاقتصادي في مصر، بحث مقدم إلى مؤتمر الأبعاد القانونية والاقتصادية للمشروعات القومية، كلية الحقوق جامعة المنصورة، ٢٦- ٢٧ من مايو ٢٠١٦.
52- المرافق والمشروعات العامة الثقافية القومية، بحث مقدم إلى مؤتمر الأبعاد القانونية والاقتصادية للمشروعات القومية، كلية الحقوق جامعة المنصورة، ٢٦- ٢٧ من مايو ٢٠١٦.
٥٣- تعظيم القيمة الاقتصادية لأموال المشروعات العامة القومية، بحث مقدم إلى مؤتمر الأبعاد القانونية والاقتصادية للمشروعات القومية، كلية الحقوق جامعة المنصورة، ٢٦ -٢٧ من مايو ٢٠١٦.
54- التنظيم القانوني للهجرة الشرعية، بحث مقدم إلى مؤتمر الأبعاد القانونية للهجرة غير الشرعية وآثارها على التنمية، كلية الحقوق بجامعة المنصورة، ١٩- ٢٠ إبريل ٢٠١٧.
٥٥- ضمانات المهاجرين غير الشرعيين في أوضاع الانتظار والاحتجاز والإبعاد، بحث مقدم إلى مؤتمر الأبعاد القانونية للهجرة غير الشرعية وأثارها على التنمية، كلية الحقوق بجامعة المنصورة، ١٩- ٢٠ إبريل ٢٠١٧.
٥٦- حقوق المهاجرين غير الشرعيين، بحث مقدم إلى مؤتمر الأبعاد القانونية للهجرة غير الشرعية وآثارها على التنمية، كلية الحقوق بجامعة المنصورة، ١٩- ٢٠ إبريل٢٠١٧.
٥٧- جرائم الهجرة غير الشرعية بين الإطار الدستوري والتوجيه الأوروبي، بحث مقدم إلى مؤتمر الأبعاد القانونية للهجرة غير الشرعية، كلية الحقوق بجامعة المنصورة، ١٩- ٢٠ إبريل ٢٠١٧.
٥٨- جزاءات سلطة تنظيم الأسواق المالية وضمانات المحاكمة المنصفة، القاهرة،٢٠١٨.
٥٩- القانون الناعم قانون جديد للسلوك الاجتماعي، مجلة عالم الفكر، المجلس الوطني للثقافة والفنون والآداب، الكويت، أبريل، ٢٠١٨.
60- موسوعة القانون النووي، جزءان، دار الفكر والقانون؛ المنصورة، ٢٠١٩.
61- القانون الحي ورقابة الدستورية، دار الفكر والقانون، المنصورة، ٢٠١٩.
62- الاستثمار والنظام العام الاقتصادي، بحث مقدم إلمؤتمر العربي للاستثمار والتنمية، نحو بيئة تشريعية جاذبة للاستثمار، كلية الحقوق بجامعة المنصورة والمنظمة العربية للعلوم الإدارية، ٧-٩ أبريا ٢٠١٩.
٦٣- الاستثمار والاقتصاد الدائري والتحول في الطاقة، بحث مقدم إلى المؤتمر العربي للاستثماروالتنمية، نحو بيئة جاذبة للاستثمار، كلية الحقوق بجامعة المنصورة والمنظمة العربية للعلوم الإدارية، ٧-٩ أبريل ٢٠١٩.
64- الإجراءات الضريبية والتحول الرقمي، مصر وفرنسا نموذجا، بحث مقدم إلى الندوة الدولية الإليكترونية بعنوان نظام الدفع والجباية المالية في ظل البيئة الإليكترونية التي نظمتها كلية القانون بجامعة الفلوجة بالعراق، ٥ ١ من سبتمبر ٢٠٢٠.
65- الوظيفة الاجتماعية للشركات، المجلة الدولية للفقه والقضاء والتشريع، نادي القضاة، مصر، ديسميبر ٢٠٢٠
٦٦- دعاوى المناخ، القاهرة، ٢٠٢١.
٦٧- قانون التنمية المستدامة، القاهرة، ٢٠٢١.
٦٨- القرار الإداري، الأصول النظرية والمشكلات العملية، القاهرة، ٢٠٢١.
69- الإطار القانوني للاقتصاد التعاوني عبر المنصات الإليكترونية، بحث مقدم إلى مؤتمر الجوانب القانونية والاقتصادية للذكاء الاصطناعي وتكنولوجيا المعلومات، كلية الحقوق بجامعة المنصورة، ٢٣ -٢٤ من مايو ٢٠٢١.
70- المسئولية عن الذكاء الاطناعي بين القانون الخاص والقانون العام، بحث مقدم إلى مؤتمر الجوانب القانونية والاقتصادية للذكاء الاصطناعي وتكنولوجيا المعلومات، كلية الحقوق بجامعة المنصورة، ٢٣ -٢٤ من مايو ٢٠٢١.
المراجع المتخصصة باللغة الفرنسية:
71- Le contentieux des élections parlementaires, these Université de Dijon, 1983 (Ouvrage récompensé par le Centre français de Droit comparé à Paris).
72- L’expropriation au pays des pyramides, Etudes foncières, Paris, décembre 1988.
73- La protection constitutionnelle des droits économiques et sociaux en Egypte et en France, Arab Law quarterly, v. 19, 2004, P.225.
74- La constitutionnalité de la législation sur la justice constitutionnelle au Koweït, Revue française de Droit constitutionnel, 2007, n. 69
75- La régulation du marché du crédit foncier en Egypte, Revue internationale de Droit comparé, 2008, n.1
المراجع العامة:
76- الحريات العامة، وحدة التأليف والترجمة والنشر بكلية حقوق الكويت، ١٩٩٥.
٧٧- النظم السياسية، وحدة التأليف والترجمة والنشر بكلية حقوق الكويت، ١٩٩٧
٧٨- القانون الدستوري المصري والمقارن، المنصورة، ٢٠٠١.
٧٩- الوظيفة العامة، القاهرة، ٢٠٠٣.
٨٠- العقود الإدارية، القاهرة، ٢٠٠٣.
٨١- قانون القضاء الإداري، الكتاب الأول، نظام القضاء الإداري، القاهرة، ٢٠٠١.
٨٢- قانون القضاء الإداري، الكتاب الثاني، دعوى الإلغاء، القاهرة، ٢٠٠٢.
٨٣- قانون القضاء الإداري، الكتاب الثالث، مسئولية السلطة العامة، القاهرة، ٢٠٠٤.
٨٤- الوجيز في القضاء الإداري، تنظيم القضاء الإداري ودعوى الإلغاء، ٢٠٢٠.
([1])A. Bensamoun et G. Loiseau, L’intelligence artificielle: faut-il légiférer ? D. 2017 581
([2])Sénat, proposition de loi portant réforme de la responsabilité civile, 29 juill. 2020
([3])« Intelligence artificielle » (IA)
([4])Commission européenne, Lignes directrices en matière d’éthique pour une intelligence artificielle digne de confiance,8avr.2oi9,§143,p.8.
([5])A. Bensoussan, Droit des robots: science-fiction ou anticipation ? D. 2015. 1640 ; A.-S. Choné-Grimaldi et Ph. Glaser, Responsabilité civile du fait du robot doué d’intelligence artificielle: faut-il créer une responsabilité robotique ? CCC 2018. Alerte 1
)[6]((1) « personne électronique responsable »
([7])G. Loiseau, M. Bourgeois, Du robot en droit à un droit des robots, JCP G n° 48, nov. 2014, doctr. 1231. 16 V. not., A. Bensoussan, Plaidoyer pour un droit des robots: de la « personne morale » à la « personne robot », La lettre des juristes d’affaires, 23 oct. 2013, n° 1134 ; A. Bensoussan, J. Bensoussan, Droit des robots, Larcier, 2015
([8])A-S.Choné-Grimaldi et Philippe Glaser, Responsabilité civile du fait du robot doué d’intelligence artificielle: faut-il créer une personnalité robotique ? »,Contrats Concurrence Consommation n° 1, Janvier 2018, alerte 1 ; A. Bensoussan et J. Bensoussan, Droit des robots, Editions Larcier 2015, p. 41 et s.
([9])D.Galbois-Lehalle, Responsabilité civile pour l’intelligence artificielle selon Bruxelle:une initiative à saluer,des dispositions à améliorer,D.2021, p.p.87 ;Ch.Lachièze, Intelligence artificielle:quel modèle de responsabilité ? D IP/IT,2020, p.663 ;
([10])« Conseil économique et social européen »(CESE)
OPECST, Rapport « Pour une intelligence artificielle maîtrisée, utile et démystifiée », T. 115وmars 2017, p. 129.
([11])J.-R. Binet, Personnalité juridique des robots: une voie à ne pas suivre, Droit de la famille n°6, juin 2017, repère 6 ; Ch.Lachièze, Intelligence artificielle:quel modèle de responsabilité ? D IP/IT,2020, p.663
([12])A.Hamoui, La responsabilité civile médicale à l’épreuve de l’intelligence artificielle, Mémoire, Master, Paris n,2020,p.49 et s.
([13])J.-S. Borghetti, L’accident généré par l’intelligence artificielle autonome, JCP 2017, n° spécial, Le droit civil à l’ère numérique, spéc. n° 41 ; G. Loiseau, La personnalité juridique des robots, une monstruosité juridique, préc.
([14])CA de Paris, Rapport du groupe de travail sur « La réforme du droit français de la responsabilité civile et les relations économiques », 25 juin 2019, p. 108
([15])A.Mendoza-Caminade, Le droit confronte à l’intelligence artificielle des robot:vers l’émergence de nouveaux concepts juridiques ? 00.2016, p.445.
([16])L.Mazeau, Intelligence artificielle et responsabilité civile: le cas de logiciels d’aide à la décision en matière médicale, Rev. pratique de la prospective et de l’innovation, 2018,p.38 et s.
([17])« Responsabilité du fait de chose ».
([18])F.G’Sell, Vers L’émergence d’une responsabilité numérique, D.IP/IT, 2020, p.153.
([19])G. Loiseau et M. Bourgeois, Du robot en droit à un droit des robots, préc., spéc. n° 12 ;Ch. Lachiéze, précité.
([20])Cass., ch. réun., 2 déc. 1942, DC 1942, p. 25, note G. Ripert ; S. 1941. I.
217, note H. Mazeaud.
([22])« Garde de comportement ».
([26])« Responsabilité du fait des produits défectueux ».
([27])G. Loiseau et A. Bensamoun, La gestion des risques de l’intelligence artificielle, JCP 2017 1203 :
F.G’Sell, Vers L’émergence d’une responsabilité numérique, D.IP/IT, 2020, p.153.
)[28](A.Mendoza-Caminade, précité.
([29])« Bien meuble incorporel».
([30])« Risque de développement ».
([33])M. Monot-Fouletier, Véhicule autonome: vers une autonomie du régime juridique applicable ? D.2019, p.129.
)[34](« Rapport de subordination ».
([35])M.Poumarède, Intelligence artificielle,responsabilité civile et droit du travail. Droit social, 2021, p.152.
([36])Articles L.4121-1, 1.4121-2 Code du travail.
([37])Soc., 25 nov. 2015, n° 14-24.444, Air France (St،,), Bull. civ. V, n° 234, D. 2015. 2507 ; ibid. 2016. 144, chron. P. Flores, S. Mariette, E. Wurtz et N. Sabotier ; ibid. 807, obs. P. Lokiec et J. Porta; Dr. soc. 2016. 457, étude P.-H. Antonmattei.
([40])CC,12 juin 2018, n.765 DC, AJDA, 2018, p.1191 ;D. 2019, p.1248, chron. E.Debaets et N.Jacquinot.
([41])Selon cet article « La société a le droit de demander compte à tout agent public de son administration ».
([42])CC,3 avril 2020, n.834 QPC, D. IP/IT, n.9p.516, note T.Douville,
([43])«Codes sources d’algorithmes ».E.Mouriesse, L’opacité des algorithmes et transparence administrative, RFDA, 2019, p.45
ويقصد بهذا الاصطلاح كما حددت اللائحة الأوروبية لحماية المعلومات(RGPD) معالجة تستخدم البيانات الشخصية لأحد الأفراد، بقصد تحليل والتنبؤ بسلوكه مثل تحدد أدائه في العمل، ووضعه المالي، وحالته الصحية، وعاداته في الحياة.
([45])« Aspects de sa personnalité »
([46])J.Rochfeld, L’encadrement des décisions prises par algorithme, D.
IP/IT, 2018, p.474
([47])« Décision automatisée »
([48])Ph.Yolka, Le droit de l’immatériel public, AJDA, 2017, p.2047.
([49])J.-F.Kerle0, L’administration de produit, AJDA, 2020, 0.2192 ;
S.Sereno, Focus sur les discriminations par algorithme, Rev.de droit du travail, 2020,0.680.
([50])D.Gardes, Le droit à l’emploi face à l’intelligence artificielle, 2021,p.115.
([51])L.Ratti et M.Peyronnet, Controverse:Algorithme et risque de discrimination:quel contrôle du juge ?Rev,de droit du travail, 2021, p.81
([52])G.Mancosu, Le contentieux des actes pris sur la base de d’algorithmes, un point de vue italien, Rev. générale du droit, 2019,n.49010
([53])Code des relations entre le public et l’administration, article L.311-2-1 cree par la loi n.2016-1321 du 7 octobre 2016.
([54])J.-F.Kerleo, L’administration de produit, AJDA, 2020, p.2192.
([55])J.B.-Auby, Le droit administrative face aux défis du numérique, AJDA,
2018, p.835
([56])CE, sec., 30 01.2001, 11.204909
([57])G.Mancosu, Le contentieux des actes pris sur la base de d’algorithmes, un point de vue italien, Rev. générale du droit, 2019,11.49010.
([58])J.Groffe-Charrier, La loi est-elle dictée par le code ? D.IP/IT, 2020, p. 602.
([59])Cite in J.-B.Auby,Le droit administrative face aux défis du numérique, AJDA, 2018, p.835.
([60])CE, 10 -ème et 9 -ème chambres réunies, 13.av.2021, n. 439360.
([61])J.-F.Kerli0, L’administration de produit, AJDA, 2020, p.2192..
([62])CE, 9 juillet 2003, n.220437, Assistance publique-Hôpitaux de Paris AJDA,2003, p.1964, note M. Deguergue.
([63])CE, 12 mars 2012, n.327449, Centre hospitalier universitaire de Besançon, AJDA, 2012, p.575


