دور الذكاء الاصطناعي وآثاره علي علاقة العمل
The role of artificial intelligence and its effects on the business relationship
إعداد
د/ سمير سعد رشاد سلطان
المدرس بقسم القانون المدني
كلية الحقوق – جامعة المنصورة
Dr.Samir Saad Rashad
Faculty of law
Mansoura university
ملخص:
مما لا شك فيه أن للذكاء الاصطناعي أثره الكبير على قانون العمل وبصفة خاصة على الحق في العمل، وكذلك تنظيم العمل وأساليبه مثل: التعيين، وإدارة شؤون العمال، والفصل الخوارزمي، والمهام الموزعة بواسطة أنظمة الذكاء الاصطناعي، وما إلى ذلك.
ويمكن لصاحب العمل استخدام تقنيات الذكاء الاصطناعي المتطورة في مراقبة العمال وهي ما تعرف بالمراقبة الالكترونية، كما يتم من خلال هذه المراقبة تجميع العديد من المعلومات عن العمال مما قد يكون لذلك أثر بالغ على بعض الحقوق الاساسية مثل الحق في الخصوصية والحق في حماية البيانات الشخصية.
ويظهر كذلك تأثير الذكاء الاصطناعي على أحكام المسئولية المدنية وقانون العمل، وتأثيره أيضاً على سلامة العمال في بيئة العمل.
Abstract
There is no doubt that artificial intelligence has a significant impact on labor law, especially on the right to work, as well as work organization and methods such as: recruitment, labor management, algorithmic dismissal, tasks distributed by artificial intelligence systems, and so on.
The employer can use advanced artificial intelligence techniques to monitor workers, which is known as electronic monitoring. Through this monitoring, a lot of information is collected about workers, which may have a significant impact on some basic rights, such as the right to privacy and the right to protect personal data.
It also shows the impact of artificial intelligence on civil liability provisions and labor law, and its impact on worker safety in the work environment.
مقدمة عامة
مما لا شك فيه أن التشريعات المنظمة للعمل لها مكانتها المستقلة والمتميزة بين التشريعات المختلفة، ويرجع ذلك لاتصالها الوثيق بالمقومات الأساسية التي يقوم عليها المجتمع اجتماعيا واقتصاديا.
كما أن هذا النوع من التشريعات يخاطب فئة عريضة من أفراد المجتمع، ويحاول المشرع من خلال هذه التشريعات تحقيق المعادلة الصعبة من خلال تحقيق قدر من التوازن في العلاقات بين مصالح أصحاب الأعمال وحقوق العمال.
وإذا كان الحق في العمل، والمطالبة به، وحقوق العمال، محور إهتمام كبير منذ الثورة الصناعية، وإمكانية إحلال الآلات محل العمال من البشر، إلا أن الأمر قد اختلف بشكل جوهري وبتأثير أكبر في دخول عصر الذكاء الاصطناعي.
ويمتاز عصر الذكاء الاصطناعي بمزايا متعددة في أداء مهام كان يعتقد من قبل أن حدوثها أمراً مستحيلاً، ففي عصر الذكاء الاصطناعي تستطيع الآلات أن تتعلم كيفية التعرف على السرطان بشكل أكثر دقة من الأطباء، والتنبؤ بالمجرمين الذين سيعودون إلى الإجرام، بل وحتى قيادة السيارات، بل ويمكن وصفه بعالم الخيال العلمي.
وإذا كان اليوم يتم جني فوائد الذكاء الاصطناعي في جميع أنحاء العالم، حيث يدعم الذكاء البشري بطرق لا تعد ولا تحصى، إلا أنه مع ذلك، لديه القدرة على إحداث فوضى في التمتع بحقوق الإنسان الأساسية، كالحق في الخصوصية، وحماية البيانات الشخصية، والحق في العمل، وغيرها.
ومما لا جدال فيه أن الاعتماد على أنظمة الذكاء الاصطناعي في مجالات العمل المختلفة قد أثار العديد من المخاوف بشأن المخاطر الكامنة والمحيطة به، فللذكاء الاصطناعي أثره البالغ على علاقات العمل، ليست القائمة بالفعل فحسب، بل وأيضاً على علاقات العمل المستقبلية فيما يتعلق بقرارات التعيين والتوظيف، فمن المؤكد أن تطور الذكاء الاصطناعي سيكون له على المدى القصير والمتوسط والطويل تأثير على التوظيف، بما يسمى بالنسب وكم الوظائف المتاحة، وهو ما سيتأثر معه، بالقطع، الحق في العمل.
كما أن استخدام أنظمة الذكاء الاصطناعي المتقدمة والمتطورة كان لها دور فعال لدي أصحاب الأعمال في متابعة سير العمل، ومراقبة أداء العمال والموظفين، وكان لها دور إيجابي في تحسين بيئة العمل، ومع ذلك، تظل المخاطر المحيطة باستخدام تلك الأنظمة في بيئة العمل قائمة، حيث يمكن من خلالها انتهاك بعض الحقوق الأساسية للعمال، مثل: الحق في الخصوصية، والاعتداء على البيانات الشخصية، والحصول على معلومات بغرض التنكيل بالعمال، وهو ما يبين الوجه الآخر ( السلبي) للذكاء الاصطناعي.
وأبعد من ذلك، لا يزال من الصعب توقع عواقب تطور الذكاء الاصطناعي على العمل وتنظيمه وأساليبه، مثل التعيين، وإدارة شؤون العمال، والفصل الخوارزمي، والمهام الموزعة بواسطة أنظمة الذكاء الاصطناعي، وما إلى ذلك.
وحتما ينذر استخدام الآلات الذكية بتحولات كبيرة خاصة فيما يتعلق بالتعيين والتوظيف، والتنظيم وظروف العمل، والتي يثير بعضها تساؤلات حول معنى العمل والعلاقة بين البشر والآلة، واحترام بعض الحقوق الأساسية، مع الأخذ في الاعتبار المخاطر الناشئة عن استخدام التقنيات الحديثة.
ومع ذلك يظل في المجال القانوني الحذر قائماً، بل أصبح في الآونة الأخيرة متزايد بشكل كبير حول مخاطر استخدام التقنيات الحديثة، وبصفة خاصة الخوارزميات وأنظمة الذكاء الاصطناعي في مجال الأعمال، وذلك من زاويتين هما: أولاً: بالنسبة لحماية العمال أنفسهم من هذه المخاطر، وثانياً: مدى إمكانية مساءلة العمال وأصحاب الأعمال عن استخدام تلك التقنيات في بيئة العمل.
ويظهر ذلك جلياً عند استخدام تقنيات الذكاء الاصطناعي في مجال الأعمال، فان هناك مخاطر محتملة، قد تزداد درجة هذه المخاطر أو تقل بحسب نوعية الخوارزميات المستخدمة في تقنيات الذكاء الاصطناعي، الأمر الذي يستدعى الانتباه والحذر من هذه المخاطر.
وإذا كانت التقنيات الحديثة سوف تأثر على أحكام قانون العمل فان هذا الأمر، وبلا شك، سيلقي بظلاله أيضا على قواعد المسئولية المدنية.
ونشير هنا إلي أنه إذا كان مفهوم المسئولية المدنية يلعب دوراً هاماً في مجال حماية المضرور وحقه في المطالبة بالتعويض عن الضرر الذي لحق به، وهو ما يعرف بالوظيفة العلاجية للمسئولية المدنية، فان هذا الهدف، والذي يعتبر هدفا نبيلا ومنشودا من تطبيق قواعد المسئولية المدنية، جد مختلف تماما في مجال الخوارزميات المستخدمة من قبل الشركات وأصحاب الأعمال في المصانع المختلفة، وبصفة خاصة تلك الخوارزميات التي لا تخضع لرقابة أو إشراف من العنصر البشري، بل تعتمد على الاستقلالية والذاتية في مجال تطورها، مما يجعل معها هدف المسئولية المدنية المنشود محل شك.
وسوف تقتصر دراستنا على أمور ثلاثة في مجال قانون العمل وتتمثل فيما يلي: الحق في العمل، المراقبة الالكترونية في بيئة العمل، والعلاقة الثلاثية بين الذكاء الاصطناعي وقانون العمل والمسئولية المدنية.
إشكالية البحث:
نحاول من خلال هذا البحث تسليط الضوء على التأثيرات المختلفة للذكاء الاصطناعي على أحكام قانون العمل وحماية حقوق العمال.
وسنبين تأثير التقنيات الحديثة على حق أساسي ودستوري وهو الحق في العمل، ومدى تأثر هذا الحق عند استخدام صاحب العمل للخوارزميات في مجال التعيين.
كما يمكن لصاحب العمل استخدام تقنيات الذكاء الاصطناعي المتطورة في مراقبة العمال وهي ما تعرف بالمراقبة الالكترونية، كما يتم من خلال هذه المراقبة تجميع العديد من المعلومات عن العمال مما قد يكون لذلك أثر بالغ على بعض الحقوق الأساسية مثل الحق في الخصوصية والحق في حماية البيانات الشخصية.
وأخيراً نعرض لمدى تأثر أحكام المسئولية المدنية وقانون العمل بتقنيات الذكاء الاصطناعي، وأثر ذلك على سلامة العمال.
منهج الدراسة:
تفرض علينا مقتضيات البحث العلمي ضرورة تحديد منهجاً أو أكثر من مناهج البحث العلمي.
لذا فاني اتبعت في عرض هذه الدراسة منهجا وصفيا تحليلياً مقارناً، حيث قمت بوصف تأثير أنظمة الذكاء الاصطناعي على قانون العمل، وبيان النصوص الدستورية والتشريعية المتاحة حالياً، وقمت بتحليل هذه النصوص على حالة الذكاء الاصطناعي ومدى ملاءمتها وكفايتها للتطبيق، وبطبيعة الحال تم استعراض أكثر من موقف قانوني في الأنظمة المقارنة خاصة القانون الفرنسي والتشريعات الأمريكية والتوجيهات الأوروبية ذات الصلة وغيرها، إضافة لعرض موقف القانون المصري من الإشكالات المختلفة التي يطرحها الذكاء الاصطناعي في مجال الأعمال.
خطة البحث:
سوف نقسم هذا البحث لثلاثة فصول متتالية يسبقها مبحث تمهيدي، نبين من خلال المبحث التمهيدي لماهية الذكاء الاصطناعي، ونعرض في الفصل الأول لتأثير الذكاء الاصطناعي على الحق في العمل، ونعرض في الفصل الثاني للمراقبة الالكترونية في مجال الأعمال، ونعرض في الفصل الثالث تأثير الذكاء الاصطناعي على المسئولية المدنية وقانون العمل.
مبحث تمهيدي: ماهية الذكاء الاصطناعي.
الفصل الأول: الذكاء الاصطناعي والحق في العمل.
الفصل الثاني: المراقبة الالكترونية في مكان العمل.
الفصل الثالث: تأثير الذكاء الاصطناعي على المسئولية المدنية وقانون العمل.
مبحث تمهيدي
ماهية الذكاء الاصطناعي
تعتبر الثورة الرقمية مستمرة منذ أكثر من ثلاثين عاماً([1])، وربما يكون الذكاء الاصطناعي أحد المحركات الرئيسية للتسارع الذي نشهده، ويرجع ذلك لخصوصيته من خلال إنشاء أنظمة رقمية قادرة على تنفيذ المهام المرتبطة عموما بالذكاء البشري مثل التفكير والتعلم، ولذلك تشكل الرقمنة تقنية عامة ذات تطبيقات متعددة([2]).
ويعتبر تعريف الذكاء الاصطناعي من الأمور الجوهرية، والتي مازالت محل اجتهاد في العديد من الأوساط القانونية وغيرها، وعلى الرغم من عدم وضع تعريف محدد وبشكل دقيق للذكاء الاصطناعي إلا أن دوره الكبير والبالغ الأهمية لا يخفي على أحد في شتي مجالات الحياة.
وكان للذكاء الاصطناعي، خلال السنوات الماضية، تأثيره البالغ والفاعل في حقوق الأفراد الأساسية، مثل تأثيره على الحق في الخصوصية، وحماية البيانات الشخصية، وغيرها.
وفي إطار دراستنا لدور وآثار الذكاء الاصطناعي على بعض أحكام قانون العمل وبصفة خلاص في نطاق علاقات العمل، والمسئولية المدنية الناشئة عن علاقات العمل، فإننا سنعرض من خلال هذا المبحث للمقصود بالذكاء الاصطناعي، ونبين كذلك لتأثيراته الايجابية والسلبية في مجال علاقات العمل.
وسنوضح ذلك في المطالب التالية:
المطلب الأول: المقصود بالذكاء الاصطناعي.
المطلب الثاني: الدور الإيجابي للذكاء الاصطناعي.
المطلب الثالث: الدور السلبي للذكاء الاصطناعي في مجال علاقات العمل.
المطلب الأول
المقصود بالذكاء الاصطناعي
على الرغم من أن التعريف الدقيق للذكاء الاصطناعي لازال غير دقيق وفق الاجتهادات المختلفة، إلا أنه يمكن فهم الذكاء الاصطناعي بشكل أفضل على أنه مجموعة من التقنيات التي تهدف إلى تقريب بعض جوانب الإدراك البشري أو الحيواني باستخدام الآلات([3]).
وقد تغير تعريف الذكاء الاصطناعي بمرور الوقت مع استمرار التقنيات في التطور، وانجاز المهام التي كان يعتقد في السابق أنها مستحيلة([4])، ولا يوجد اليوم اتفاق حول ما يشكل مفهوم الذكاء الاصطناعي بين الخبراء في هذا المجال.
وتم تعريف الذكاء الاصطناعي بأنه “أنظمة البرمجيات (وربما الأجهزة) التي صممها البشر، بعد أن تلقت هدفًا معقدًا، التصرف في العالم الحقيقي أو الرقمي من خلال إدراك بيئتهم من خلال الحصول على البيانات، أو من خلال تفسير البيانات المنظمة أو غير المنظمة التي تم جمعها، أو من خلال تطبيق المنطق على المعرفة، أو من خلال معالجة المعلومات المستمدة من هذه البيانات وتحديد الإجراء الأفضل لتحقيق الهدف المحدد، ويمكن لأنظمة الذكاء الاصطناعي إما استخدام القواعد الرمزية أو تعلم نموذج رقمي، ويمكنهم أيضًا تكييف سلوكهم من خلال تحليل كيفية تأثر البيئة بأفعالهم السابقة”([5]).
ويعرّف مشروع قانون الذكاء الاصطناعي للاتحاد الأوروبي([6]) “أنظمة الذكاء الاصطناعي” بأنها “برمجيات تم تطويرها باستخدام واحد أو أكثر من التقنيات والأساليب والتي يمكنها تحقيق مجموعة معينة من الأهداف التي يحددها الإنسان أو إنشاء مخرجات مثل المحتوى أو التنبؤات أو التوصيات أو القرارات التي تؤثر على البيئات التي يتفاعلون معها.”
كما عرفت مبادرة سياسية أخرى تابعة للمفوضية الأوروبية (EC) الذكاء الاصطناعي بأنه أنظمة صممها الإنسان يمكنها تحقيق هدف معين باستخدام تقنيات مثل التعلم الآلي، والاستدلال الآلي، والروبوتات لتحديد أفضل الإجراءات في بيئة إلكترونية أو مادية([7]).
واعتبر مجموعة من العلماء أن العقلانية هي أحد المفاهيم التعريفية الحاسمة لأنظمة الذكاء الاصطناعي، حيث يمكن لأنظمة الذكاء الاصطناعي التي تتمتع بدرجة كبيرة من العقلانية أداء المهام الفكرية من خلال التفكير لتحسين قراراتها المنطقية، وتعتمد العديد من أنظمة الذكاء الاصطناعي العقلانية على خوارزميات التعلم الآلي التي، عند تزويدها بالبيانات، تحدد الأنماط، وتنشئ النماذج، وتتعلم من التجارب، وتحقق الحلول دون قواعد واضحة أو تدخل بشري([8]).
وبالاستعانة بفريق الخبراء رفيعي المستوي المعني بالذكاء الاصطناعي عرفت المفوضية الأوروبية الذكاء الاصطناعي([9]) بأنه “يشير الذكاء الاصطناعي (AI) إلى الأنظمة التي تعرض سلوكًا ذكيًا من خلال تحليل سلوكها للبيئة واتخاذ الإجراءات – بدرجة معينة من الاستقلالية – لتحقيق أهداف محددة، ويمكن أن تقوم الأنظمة المعتمدة على الذكاء الاصطناعي على البرمجيات بشكل بحت، وتعمل في العالم الافتراضي (مثل المساعدين الصوتيين، وتحليل الصور ومحركات البحث وأنظمة التعرف على الكلام والوجه) أو كذلك أنظمة الذكاء الاصطناعي المدمجة في الأجهزة (مثل الروبوتات المتقدمة أو السيارات ذاتية القيادة أو الطائرات بدون طيار أو إنترنت الأشياء)، وتسمي بتطبيقات الأشياء.” ([10]).
وتعد خوارزميات التعلم العميق، فرع من خوارزميات التعلم الآلي، وتغذي بكميات هائلة من البيانات الشخصية ويستخدم طبقات متعددة من الشبكات العصبية الشبيهة بالإنسان لتصنيف البيانات غير المنظمة، وفهم المفاهيم، وتحديد المعايير، تحديد الارتباطات، واتخاذ القرارات دون إشراف بشري([11]).
وبفضل البيانات الضخمة وزيادة قوة الحوسبة والتخزين لأجهزة الكمبيوتر يتم نشر الذكاء الاصطناعي في العديد من المجالات، ففي المجال الاقتصادي على سبيل المثال يمكن الذكاء الاصطناعي من أداء المنصات الرقمية، وتتطور كذلك داخل الشركات الكلاسيكية من خلال دمج برامج أنظمة الذكاء الاصطناعي في السلع أو الخدمات المنتجة أو في عمليات تنفيذ العمل وكذلك في الوظائف الإدارية وخاصة الموارد البشرية([12]).
ويتسم نظام عمل الخوارزميات بالتعقيد والديناميكية الشديدة، وقد كان تعقيد عمل الخوارزميات حائلاً أم تقديم تفسير واضح حول النتيجة أو الاستدلال الناتج عن الخوارزميات([13]).
وبشكل عام، يشير الذكاء الاصطناعي إلى الأنظمة التي تستخدم البيانات والتقنيات الحسابية إما لاتخاذ القرارات أو لمساعدة الأشخاص في اتخاذها([14]).
وتعد البيانات هي شريان حياة الذكاء الاصطناعي، حيث تستخدم أدوات الذكاء الاصطناعي كميات كبيرة من البيانات لاكتشاف الأنماط، ثم تستخدم تلك الأنماط للتنبؤ بالنتائج في المواقف الجديدة.
ويعتمد تطوير الذكاء الاصطناعي على استخدام البيانات وتقنيات الحوسبة، وكما جاء في إستراتيجية البيانات الخاصة بالمفوضية الأوروبية، يمكن للتقنيات المعتمدة على البيانات أن تؤثر بشكل كبير على قدرات أنظمة الذكاء الاصطناعي([15]).
وعلى سبيل المثال، تتطلب خوارزميات التعلم الآلي كميات هائلة من البيانات لتحليل ردود الفعل البشرية للتطبيقات الصناعية([16]).
بالإضافة إلى ذلك، تحتاج أنظمة الذكاء الاصطناعي الفعالة إلى تقنيات حوسبة متقدمة يمكنها تنفيذ عمليات لمعالجة المشكلات المعقدة بسرعة البرق([17]).
ومن خلال جمع البيانات التدريجي وتقنيات الحوسبة، استطاعت الشركات في جميع أنحاء العالم الاستفادة من الفوائد الكبيرة لأنظمة الذكاء الاصطناعي في كافة المجالات.
المطلب الثاني
الدور الايجابي للذكاء الاصطناعي
ظهر جلياً خلال السنوات الماضية الدور الرائد والفاعل للذكاء الاصطناعي، وتأتي جائحة كورونا التي سيطرت على العالم كله، وأثرت بظلالها على شتى جوانب الحياة وما اقتضته من ضرورة اتخاذ إجراءات وقائية من التباعد الاجتماعي وحظر التجوال وملازمة المنازل، لتبين الحاجة والضرورة للجوء لوسائل غير تقليدية حتى لا تقف الحياة، وكان اللجوء للوسائل التكنولوجية الخيار الأمثل للتعايش مع آثار هذه الجائحة سواء على مستوى العمل أو كذلك على مستوى التعليم.
وسنعرض فيما يلي للدور الايجابي والتي أظهرته جائحة كورونا، وكذلك التأثير الايجابي للذكاء الاصطناعي في مجال علاقات العمل.
الفرع الأول
تأثير جائحة كورونا (COVID-19) على الذكاء الاصطناعي
لعبت جائحة كورونا – كوفيد 19- دوراً هاماً في إبراز فوائد الذكاء الاصطناعي، وأظهرت أن الشركات يمكنها تحويل أماكن عملها من خلال الاعتماد علي الذكاء الاصطناعي بشكل أسرع مما كان متوقعًا في السابق([18]).
ولم تؤثر جائحة كوفيد-19 على كيفية عمل الأشخاص فحسب، بل أثرت أيضًا على كيفية التوظيف في الشركات([19]).
علاوة على ذلك، فقد أدت جائحة كورونا إلى تسريع الحركة على الصعيد الوطني نحو ترتيبات العمل من المنزل، الأمر الذي أدى بدوره إلى تسريع الاعتماد على أدوات الذكاء الاصطناعي في عملية التوظيف، وعلى سبيل المثال، في عام 2018، استخدمت 60% من الشركات المقابلات عبر الفيديو؛ وقد ارتفعت هذه النسبة بشكل حاد في عام 2020 نتيجة لعمليات الإغلاق والإغلاق العالمية الناجمة عن جائحة كوفيد- 19 ([20]).
وتسبب فيروس كورونا (COVID-19) أيضًا في قيام عدد كبير من أصحاب العمل باستخدام أدوات الذكاء الاصطناعي في مكان العمل للمساعدة في التوظيف والعمل عن بعد حتى يتمكنوا من الاستمرار في الحفاظ على التباعد الاجتماعي([21]).
علاوة على ذلك، أدت الجائحة إلى زيادة كبيرة في انتشار الذكاء الاصطناعي المستخدم في مقابلات الفيديو، وتقييم المرشحين عبر الإنترنت، وصنع القرار.
وقد أشار البعض إلى أن الحلول القائمة على الذكاء الاصطناعي ساعدت أصحاب العمل على إدارة الإجازات وتسريح العمال أثناء الوباء([22]).
وكان الذكاء الاصطناعي أيضًا فعالاً في التخفيف من نقص المهارات في القوى العاملة، خاصة بالنسبة للصناعات التي تضررت بشدة من استجابات الحكومة لجائحة كوفيد-19([23]).
وفي نهاية المطاف، تتمتع برامج اتخاذ القرارات المتعلقة بالتوظيف، وخاصة تلك المتعلقة بالتعيين وإدارة العمل وغيرها، بالقدرة على أن تكون جزءًا قيمًا من التعافي العالمي من فيروس كورونا.
كما كان لجائحة كورونا تأثيرها البالغ في مجال التعليم، حيث اقتضت الظروف للموازنة بين قواعد الابتعاد الاجتماعي وضرورة سير العملية التعليمية، فتم الالتجاء لنوع من أنظمة الذكاء الاصطناعي لاستمرار العملية التعليمية من خلال استخدام الوسائل التكنولوجية الحديثة في التواصل والتعليم والتدريب، وظهر ذلك جلياً من خلال استخدام نظام التعليم ( on line) لاستكمال العملية التعليمية، مما أظهر معه للمجتمع فوائد الذكاء الاصطناعي، حيث كانت المنقذ في الكثير من الحالات، بل وظهرت فوائدها القيمة من خلال الاستعانة بها.
الفرع الثاني
الدور البارز للذكاء الاصطناعي في علاقات العمل
توجد العديد من الأشكال المختلفة للذكاء الاصطناعي، ولكن الشكلين الأكثر صلة باستخدام الذكاء الاصطناعي في مجال علاقات العمل بصفة عامة، وقرارات التوظيف بصفة خاصة هما: التعلم الآلي ومعالجة اللغة الطبيعية([24]).
ويعد التعلم الآلي هو مجموعة فرعية من الذكاء الاصطناعي تتضمن أنظمة الذكاء الاصطناعي التي تظهر أداءً محسنًا حيث يتم تزويدها بمزيد من البيانات وتتنبأ بمزيد من النتائج.
وبعبارة أخرى، تصبح هذه الأنظمة ذكية بشكل متزايد خلال فترة معينة ومن خلال الاستخدام الأكثر شمولاً.
بينما تعد معالجة اللغة الطبيعية هي فرع الذكاء الاصطناعي الذي يهتم بمنح أجهزة الكمبيوتر القدرة على فهم النصوص والكلمات المنطوقة بنفس الطريقة التي يتمتع بها البشر.
وكان لتقنيات الذكاء الاصطناعي دوراً بارزاً في علاقات العمل، حيث تم الاستعانة بهذه التقنيات عمومًا ضمن عدة مراحل متميزة نسبيًا في علاقات العمل مثل: التوصيف الوظيفي، وتحديد المصادر، والفحص، وإجراء المقابلات، والاختيار([25]).
ويظهر دور الذكاء الاصطناعي خلال مرحلة التوظيف حيث يبحث أصحاب العمل عن مرشحين للتقدم للوظائف من خلال الإعلانات العامة والموجهة، وإعلانات الوظائف، وبعد ذلك، في مرحلة الفحص للمتقدمين والسير الذاتية الخاصة بهم، ويعتمد صاحب العمل على تقييم المرشحين من خلال تحليل مهاراتهم وخبراتهم وسماتهم الشخصية كما هو موضح في السيرة الذاتية والتطبيقات.
ويتم استخدام بعض أنظمة الذكاء الاصطناعي لفحص المرشحين وتصنيفهم، وبعد ذلك، يتم استخدام أنظمة الذكاء الاصطناعي أيضاً خلال مرحلة المقابلة، حيث يقوم أصحاب العمل بإجراء مقابلات بالفيديو مع المتقدمين وتطبيق الذكاء الاصطناعي لتحليلهم وتقييمهم.
وغالبًا ما تتمتع أدوات الفيديو هذه بالقدرة على تحليل عوامل متعددة، مثل: تعبيرات الوجه والاتصال بالعين واختيار الكلمات في التعلم الآلي الخاص بها.
وأخيرًا، في مرحلة الاختيار، يتخذ الذكاء الاصطناعي أحيانًا قرارات التوظيف النهائية، وحتى قرارات التعويض.
ويتوسع استخدام الذكاء الاصطناعي في مجال علاقات العمل بسرعة ليتجاوز وظائف الموارد البشرية التقليدية، بما في ذلك مسح السيرة الذاتية وتصفيتها، وتحليل تواجد المرشحين للوظائف على وسائل التواصل الاجتماعي، وتقييم مهارات المرشحين لتحديد أفضل المرشحين، وجدولة المقابلات، والإجابة على أسئلة المرشحين([26]).
وعلى سبيل المثال، تطلب بعض الشركات من المتقدمين لعب ألعاب الكمبيوتر المتعلقة بعلم الأعصاب، والتي يتم تحليلها بعد ذلك للتنبؤ بالسمات المعرفية والشخصية للمرشحين([27]).
كما استخدمت احدي شركات التكنولوجيا برنامج التعرف على الصوت والوجه وتحليله لفحص لغة جسد المرشح ونبرة صوته وعوامل أخرى أثناء المقابلات المسجلة لتحديد ما إذا كان المرشح يُظهر السمات المفضلة.
بالإضافة إلى ذلك، يستخدم أصحاب العمل الذكاء الاصطناعي بشكل متزايد لإدارة الأعمال، كما يتم استخدام أصحاب العمل لأنظمة الذكاء الاصطناعي لتتبع كل من العاملين في موقع العمل، وكذلك تتبع العاملين عن بعد من خلال متابعة أوقات تسجيل دخول الموظفين والاستخدام العام للكمبيوتر والأنشطة عبر الإنترنت لتقييم أداء موظفيهم وكفاءتهم([28]).
ويمكن لأدوات الذكاء الاصطناعي أيضًا مراقبة ما إذا كان الموظفون ينتبهون إلى شاشات أجهزة الكمبيوتر الخاصة بهم باستخدام كاميرات الويب وبرامج تتبع العين أثناء مراقبة مواقع الويب والتطبيقات التي يستخدمها الموظفون، وقد يخضع الموظفون الذين لا يستوفون مقاييس الأداء المحددة للانضباط الرسمي لقرارات حاسمة مثل إنهاء الخدمة، بناءً على توصية خوارزميات الذكاء الاصطناعي([29]).
وعلى الرغم من الايجابيات التي يحققها الذكاء الاصطناعي، والمتزايدة يوماً بعد يوم، على مختلف الأصعدة إلا أنها لا تزال هناك العديد من المخاطر والمخاوف التي يثيرها العلماء، وبصفة خاصة في مجال علاقات العمل، وهذا ما سنعرض له في المطلب التالي.
المطلب الثالث
الدور السلبي للذكاء الاصطناعي في علاقات العمل
أثار النجاح المذهل الذي حققه الذكاء الاصطناعي في السنوات الأخيرة اهتماماً متجدداً بهذا المجال من الأوساط الأكاديمية، حيث بدأ الباحثون بطرح أسئلة متعددة ومحددة حول العواقب الاقتصادية والاجتماعية والأخلاقية المترتبة على تسليم المزيد والمزيد من حياتنا لسيطرة الخوارزميات.
ويشير العلماء إلي أن الذكاء الاصطناعي سيكون له دور كبير في التأثير على علاقات العمل سواء القائمة منها بالفعل، أو كذلك العلاقات المستقبلية بالنسبة لقرارات التعيين، ونذكر من هذه المخاوف ما يلي: أولا: أن التقدم في مجال الذكاء الاصطناعي يهدد بتأثيرات سلبية واسعة النطاق على أسواق العمل، ثانياً: يعد تفسير نتائج الذكاء الاصطناعي أمر صعب للغاية، وبالتالي تدقيقها ومراقبتها، وأن الذكاء الاصطناعي سيؤدي في نهاية المطاف إلى تقويض الدولة التنظيمية، بل واعتبرت مجموعة كبيرة من العلماء أن المشكلة الحقيقية للذكاء الاصطناعي تكمن في عملية التفسير بالنسبة للنتائج والقرارات التي تنتج عنه([30]).
وتظهر إشكالية محاولة فهم وتفسير النتائج بشكل جلي في أنظمة الذكاء الاصطناعي المعتمدة على التعلم الآلي والتي غالبًا ما يكون من الصعب تفسيرها بلغة سهلة الفهم، وبصفة خاصة في عملية ومنطق صنع القرار والتي تكتسب أهمية كبيرة، ولذلك يجب فهم الخوارزميات لضمان امتثالها للقانون([31]).
كما أن هذا الأمر كان محل تخوف العديد من العلماء ولذلك فقد أوصوا بأنه “نظرًا لأن أنظمة القرار الآلية يمكن أن تؤدي إلى نتائج غير صحيحة أو غير مبررة أو غير عادلة، فهناك حاجة إلى أساليب إضافية لجعل هذه الأنظمة قابلة للمساءلة والإدارة” ([32]).
ثالثاً: بالنسبة لمسألة التوظيف، هناك مخاوف شديدة ومتزايدة يوماً بعد يوم بشأن قدرة الذكاء الاصطناعي على أن يحل محل العمال البشريين ويحل محلهم، وأخيرا، أن أساليب الذكاء الاصطناعي قد تؤدي إلى إدامة التمييز العنصري أو غيره من أشكال التمييز في المجتمع([33]).
ويكمن الخطر الرئيسي لدمج الذكاء الاصطناعي في عملية صنع القرار المتعلق بالتوظيف في احتمال حدوث نتائج تمييزية وتحيز، وهو ما أشار له البعض بالقلق من أن نشر الذكاء الاصطناعي قد يؤدي إلى تمييز مقنع([34]).
ويظهر التحيز في علاقات العمل بسبب البيانات التي يتم تغذية أنظمة الذكاء الاصطناعي بها، أو تلك التي يقوم نظام الذكاء بتجميعها بشكل تلقائي، وهو ما يمكن أن يحدث معه إخلال بالمساواة وتحيز ضد بعض الفئات المحمية قانوناً، مثل ذوى الإعاقة، والتمييز على أساس الجنس أو اللون أو الدين، وكما يشير البعض([35]) أن التأثير السلبي للخوارزميات على المجموعات المحمية قانوناً متزايد بشكل كبير.
ويشير منتقدو الذكاء الاصطناعي([36]) في التوظيف إلى أن جودة الأنظمة لا تقل عن أولئك الذين “يغذون الآلة”، فإذا كان الأشخاص الذين يقومون بإدخال البيانات متحيزون، فسوف تظهر النتيجة الخوارزمية بشكل متحيز.
وبعبارة أخرى، فإن موثوقية ومشروعية مخرجات الذكاء الاصطناعي لا تقل جودة عن المدخلات والتصميمات والمستخدمين، وعلى سبيل المثال، يؤكد بعض النقاد([37]) أنه إذا قامت أداة الذكاء الاصطناعي بتقييم السير الذاتية للمرشحين الذين تم اختيارهم مسبقًا، فيمكن للأداة ببساطة أن تتعلم وتكرر التحيزات والتفضيلات التمييزية السابقة للشركة.
ويمكن توضيح ذلك بشكل آخر، حيث تحاول خوارزميات التعلم الآلي تحديد الأنماط في مجموعات كبيرة من البيانات، ثم استخلاص النتائج من تلك الأنماط، ومن أجل القيام بعملها، يجب أن تغذي خوارزميات التعلم الآلي بالبيانات، وكميات كبيرة منها، ولكن هذه البيانات في حد ذاتها ليست بالضرورة محايدة، وربما أن تتضمن شكلاً من أشكال التحيز أو التمييز من العالم الخارجي، وإذا كانت البيانات متحيزة أو تمييزية، فإن خوارزمية التعلم الآلي نفسها قد تصبح متحيزة أو تمييزية أيضًا.
يمكن أن يحدث هذا بإحدى طريقتين: أولاً: قد يقوم أحد الأشخاص المختصين بتغذية البيانات بشكل عمدي بتغذية خوارزمية التعلم الآلي ببيانات متحيزة؛ وثانيًا: قد يكون الشخص حسن النية تمامًا، ولكنه عن غير قصد، قام بتغذية بيانات تحتوي على تحيز غير معروف([38]).
ويوضح البعض([39]) مثالاً على التحيز ضد أشخاص معينين بأنه إذا أرادت شركة معينة الامتناع عن التعامل مع أفراد من أعراق أو ديانات معينة، فقد تقوم ببناء خوارزمية التعلم الآلي التي تبدو غير متحيزة ولكنها في الواقع تشفر بعض
العوامل السيئة، وبعد ذلك، يقوم مهندسو البرمجيات باتخاذ القرارات الصعبة
بشأن البيانات التي يجب استخدامها، وكيفية هيكلة البيانات، وكيفية تفسيرها، وقد يتسلل التحيز إلى أي من هذه المستويات، وقد يكون من الصعب على المراقبين الخارجيين اكتشافه.
ومع ذلك، حتى لو لم يكن هناك تمييز متعمد في خوارزمية التعلم الآلي أو مجموعة البيانات، فقد يظل ذلك يعكس آثار التمييز السابقة التي كان يتم الاعتماد عليها، وعلى سبيل المثال، إذا حصلت الأقليات على درجات ائتمانية سيئة في الماضي بسبب التمييز، فقد تتعلم خوارزميات التعلم الآلي أن هذه الأقليات يجب أن تحصل على درجات أقل من أقرانهم، وحتى لو لم تتمكن الخوارزمية صراحة من أخذ العرق في الاعتبار، فقد تجد أن العوامل الأخرى التي ترتبط بالعرق (مثل الأسماء، أو الجغرافيا، أو غيرها من المعلومات) لها نفس القدر من الفعالية.
ومن الجدير بالذكر أن تأثيرات الذكاء الاصطناعي ليست قاصرة فقط على قرارات التوظيف والتعيين بالمستقبلية فقط، بل تمتد آثار الذكاء الاصطناعي لتشمل كذلك الوظائف القائمة بالفعل، حيث يمكن أن تحل خوارزميات الذكاء الاصطناعي محل العمال البشريين.
كما أن فكرة حلول الآلات محل البشر في القوى العاملة ليست جديدة، فقد
كانت تفعل ذلك منذ الثورة الصناعية، ولكن القوة الأعظم التي يتمتع بها الذكاء الاصطناعي، مقترنة بسرعة تحسينه واتساع نطاق تطبيقه، تثير هذه المخاوف على نطاق أوسع.
ويرى بعض العلماء أن الذكاء الاصطناعي سيؤدي إلى فقدان الوظائف
لأن الذكاء الاصطناعي يلغي ببساطة الحاجة إلى العمال البشريين في العديد من المجالات([40]).
ويرى آخرون أنه حتى ولو لم يؤد الذكاء الاصطناعي إلى فقدان الوظائف،
فإنه سيؤدي مع ذلك إلى زيادة التفاوت في مستويات الدخل، أو ما يعرف بـ
“استقطاب الدخل”، حيث يجني العمال في الوظائف التكنولوجية فوائد كبيرة
مقارنة بالعمالة الأخرى والتي ستصبح من ذوي الأجور المنخفضة وساعات العمل الطويلة([41]).
الفصل الأول
الذكاء الاصطناعي والحق في العمل
مقدمة:
أخذ الحق في العمل مكان الصدارة في الكفاح العمالي خلال القرن التاسع عشر حتى أصبح أمرا مقررا في كل معظم الدساتير، ومن ذلك ما نص عليه الدستور المصري ([42])بأن “العمل حق، وواجب، وشرف تكفله الدولة. ولا يجوز إلزام أي مواطن بالعمل جبراً، إلا بمقتضى قانون، ولأداء خدمة عامة، لمدة محددة، وبمقابل عادل، ودون إخلال بالحقوق الأساسية للمكلفين بالعمل.“
وتتسم علاقات العمل بالطابع الشخصي، وترتبط بحق أساسي من حقوق الشخصية وهو الحق في العمل ([43]).
ويتفق الخبراء على أن الذكاء الاصطناعي (AI) سوف يسبب تغييرات جوهرية من شأنها أن تتخلل جميع جوانب حياتنا المستقبلية، فالذكاء الاصطناعي عبارة عن تقنية تعمل على إحداث تحول في كل مناحي الحياة.
لذلك يعتبر الذكاء الاصطناعي أداة واسعة النطاق تمكن الأشخاص من إعادة التفكير في كيفية دمج المعلومات وتحليل البيانات واستخدام الرؤى الناتجة لتحسين عملية صنع القرار ([44]).
وتعتمد التعريفات المختلفة للذكاء الاصطناعي على قاسم مشترك بينها وهو التقنيات التي تهدف إلى تقليد الذكاء البشري أو إعادة إنتاج الوظائف المعرفية للبشر وهو ما يؤكد هدف التقنيات الذكية في تقليد الفرد في جوهره ([45]).
ويمكن تعريف الذكاء الاصطناعي بشكل مبسط بأنه جميع التقنيات التي تهدف إلى تنفيذ المهام المعرفية التي يقوم بها الإنسان تقليديا من خلال الحوسبة.
ومن خلال قراءة هذه التعريفات يمكن لنا أن ندرك بحق أن للذكاء
الاصطناعي تأثير كبير في مجال الأعمال لا يمكن إنكاره، فإذا كان له ميزة
في تحرير العامل من المهام الشاقة والمتكررة إلا انه يثير التخوف المشروع من
استبدال العامل بالآلة، مما يؤدى لحرمان الفرد بشكل خاص من الاندماج الاجتماعي من خلال تأثيره المباشر على الحق في العمل، وعلى ذلك يمكن القول بان الذكاء الاصطناعي يمكن أن يشكل فرصة حقيقة للعامل، أو كذلك تهديدا حقيقيا لوظيفته وأيضا لشخصه.
وفي مواجهة انتشار الذكاء الاصطناعي في الشركات ولدى أصحاب الأعمال والعواقب التي قد تترتب على التعيين أو البقاء في الوظائف الحالية، من الضروري التفكير في الأدوات القانونية المتاحة للحفاظ على علاقة العمل، ومن وجهة النظر هذه، ليس من المؤكد أن الاحتكام إلى “الحق في العمل”، الذي يبدو من الصعب تحديد نطاقه القانوني الحقيقي، يشكل حصنا قويا بما فيه الكفاية لحمايته ([46]).
ونعرض من خلال هذا الفصل للتأثيرات المختلفة للذكاء الاصطناعي على حق الإنسان في العمل، ونبين ذلك من خلال تأثير الذكاء الاصطناعي على الحق في العمل وفرص العمل (المبحث الأول)، وكذلك لتأثير الذكاء الاصطناعي على إنهاء عقد العمل (المبحث الثاني).
المبحث الأول
تأثير الذكاء الاصطناعي على الحق في العمل
يعمل الذكاء الاصطناعي جنبًا إلى جنب مع التقنيات الأخرى لتغيير الطريقة التي يعيش بها البشر، وقد أصبح الذكاء الاصطناعي محط أنظار العالم في الآونة الأخيرة، حيث يمثل ثورة تكنولوجية هائلة في جميع مجالات الحياة.
وإذا كان للذكاء الاصطناعي العديد من الجوانب الايجابية التي لا يمكن إنكارها بأي حال من الأحوال في كل المجالات المستخدم بشأنها، إلا انه مع ذلك تحيطه الكثير من المخاطر، ولعل أهم المخاطر التي تهم دراستنا هو تأثير استخدام التقنيات الحديثة والذكاء الاصطناعي على حق من حقوق الإنسان وحق لصيق بشخص الإنسان وهو الحق في العمل.
ومما لا جدال فيه أن التأثير السلبي لاستخدام أنظمة الذكاء الاصطناعي على الحق في العمل ستعكس آثارا اجتماعية واقتصادية كبيرة داخل المجتمع، بل قد تلقي بعبء كبير على عاتق الدولة خاصة من منظور الحماية الاجتماعية.
ونعرض من خلال هذا المبحث لتأثير الذكاء الاصطناعي على الحق في العمل، ونبين ذلك في مطالب ثلاثة: نعرض في المطلب الأول لواقع الذكاء الاصطناعي بين الوعد والمخاطر، ونعرض في المطلب الثاني تأثير الذكاء الاصطناعي على الوظائف المتاحة، ثم نبين في المطلب الثالث لتعارض الذكاء الاصطناعي مع المبادئ القانونية المنظمة للحق في العمل.
المطلب الأول
واقع الذكاء الاصطناعي بين الوعد والمخاطر
بمفهوم بسيط تم تعريف الذكاء الاصطناعي على أنه مجرد جهاز كمبيوتر يؤدي مهمة يمكن اعتبارها ذكية إذا قام بها الإنسان، هذا تعريف قديم يتمحور حول الإنسان، حيث أن ذكاء الكمبيوتر أكثر ملاءمة للقيام بمهام معينة لا يستطيع البشر القيام بها، ومع ذلك، فهذه نقطة انطلاق جيدة للتفكير في الذكاء الاصطناعي ([47]).
وبشكل أكثر تحديدًا، يشمل الذكاء الاصطناعي ثلاث مجموعات فرعية من التكنولوجيا، تتمثل فيما يلي ([48]):
الأول: هو أتمتة العمليات الروبوتية (RPA)، وهي أتمتة المهام المادية والرقمية التي يؤديها البشر تقليديًا.
ونظراً لخطورة تدخل الرقمنة على مجال الأعمال وخاصة في تسريح العمال وفقدان عملهم، فيوصي البعض ([49]) بضرورة وجود إطار تشريعي لظروف العمل في عصر الأتمتة “à l’heure de l’automatisation“.
الثاني: هو الذكاء الاصطناعي البصيرة المعرفية، الذي يستخدم الخوارزميات لاستيعاب البيانات والتعرف على المعنى من خلال اكتشاف الأنماط.
والثالث: التعلم الآلي هو فئة التكنولوجيا التي يشير إليها الخبراء باعتبارها القوة الدافعة الرئيسية وراء ثورة الذكاء الاصطناعي القادمة، حيث تسمى بالذكاء الاصطناعي القوي الذي يقوم فيه الخوارزميات بتطوير نفسها بنفسها دون الاعتماد على العنصر البشري.
وسيعمل الذكاء الاصطناعي جنبًا إلى جنب مع التقنيات الأخرى لتغيير الطريقة التي يعيش بها البشر فيما أطلق عليه “الثورة الصناعية الرابعة”([50]).
كما يظهر دور الذكاء الاصطناعي البارز مع التقنيات الجديدة مثل: “إنترنت الأشياء”، والمركبات ذاتية القيادة، ويُعتقد أن شبكات الجيل الخامس (G5)، والواقع المعزز، وسلسلة الكتل، والذكاء الاصطناعي هي تقنيات متقاربة سيكون لها معًا تأثير أكبر من كل تقنية تم تقييمها على حدة ([51]).
ويلاحظ الدور الرائد والفائق للذكاء الاصطناعي في كل صناعة وعمل يلمسه، وتم وصف الذكاء الاصطناعي بشكل كبير في الثورة الصناعية الرابعة، وظهر ذلك جليا في مجالات متعددة، نذكر منها: الرعاية الصحية، والروبوتات، والمركبات ذاتية القيادة، وسلامة العمال، والطاقة وإدارة الطاقة، والخدمات المصرفية، والتعرف على الكلام (الصوت)، والتوظيف ، بيئة العمل والموارد البشرية، التسويق، محركات البحث، التعرف على الصور، الترفيه واستخدامات المستهلك، شركات المحاماة، المحاسبة، الأمن العسكري والوطني، الحكومة، الرياضة، التنبؤ من قبل الشركات([52]).
ومع استمرار العالم في رقمنة جميع جوانب حياتنا من خلال أجهزة الاستشعار، من خلال خلق ترابط بين مصادر جديدة للبيانات في الفضاء الرقمي، فإن الذكاء الاصطناعي سوف يصبح أكثر قوة.
وبالتأكيد سيظل الذكاء الاصطناعي ذو نطاق محدد حيث أنه لا يحل محل الذكاء البشري بشكل مطلق، خاصة في المهن التي تتطلب “ممارسة الحكم والإبداع العميق في مجال التكنولوجيا وتطوير الاستراتيجيات، والمعرفة الضمنية الدقيقة والمتطورة حول كيفية توجيه الذات في العالم الاجتماعي والمادي.
وعلى ذلك يمكن أن يكون الذكاء الاصطناعي بمثابة مكمل للذكاء البشري في العديد من المهن التي يتم أداؤها اليوم، كما قد يكون واقعيا في تلك المهن التي نجت من الثورة الصناعية الرابعة، فإن الإنتاجية المحسنة التي سيوفرها الذكاء الاصطناعي ستؤدي إلى تقليل الحاجة إلى العمالة البشرية.
ويبدو القلق يسيطر على فئات عريضة من العمال والموظفين على كافة المستويات حيث يبدو شبح البطالة الجماعية هي نتيجة محتملة لاستخدام تطبيقات الذكاء الاصطناعي.
ومن الملاحظ أن الكثير من المخاوف التي يثيرها الذكاء الاصطناعي تتبلور حول قدرته على تعطيل الرابط بين الشخص وحقه في العمل، حيث يمكن أن يحرم الفرد من هذا النشاط الإنساني الأساسي وهو حقه في العمل، حيث ينطوي حق الإنسان في العمل على تحديد هويته الإنسانية من خلال اندماجه في المجتمع والاعتراف بحقوقه وكذلك المنفعة التي تعود عليه.
وعلى العكس من ذلك يري المدافعون عن الذكاء الاصطناعي أن في انتشاره وعداً بتكثيف العلاقة بين الإنسان والعمل، حيث يجعل بيئة العمل أكثر إنسانية كما يسمح للعامل بتطوير قدراته البشرية وبشكل أساسي في مجالي الإبداع والتواصل الاجتماعي.
وقد أشار قرار البرلمان الأوروبي بشأن الجوانب الأخلاقية للذكاء الاصطناعي والروبوتات والتكنولوجيا ذات الصلة للأمرين معاً حيث أشار إلى أن الذكاء الاصطناعي والروبوتات والتقنيات ذات الصلة سوف تساهم في إحداث تغييرات عميقة في سوق العمل وأماكن العمل؛ وأن لديهم القدرة على استبدال العمال الذين يؤدون مهام متكررة، وتسهيل أنظمة العمل التعاونية بين الإنسان والآلة، وزيادة القدرة التنافسية والازدهار، وخلق فرص عمل جديدة للعمال المؤهلين، في حين تولد صعوبات كبيرة من حيث إعادة تنظيم القوى العاملة ([53]).
ولا شك أن الذكاء الاصطناعي يُحدث تحولاً في مكان العمل، على الرغم من أن العديد من الآثار المترتبة عليه لا تزال غير معروفة.
ويعتمد أصحاب العمل بشكل متزايد على الخوارزميات لتحديد من تتم مقابلتهم، أو تعيينهم، أو ترقيتهم، أو تطويرهم، أو تأديبهم، أو فصلهم من العمل.
وإذا تم تصميم الذكاء الاصطناعي وتطبيقه على النحو المناسب، فإنه يعد بمساعدة العمال في العثور على وظائفهم الأكثر مكافأة، ومطابقة الشركات مع موظفيها الأكثر قيمة وإنتاجية، وتعزيز التنوع والشمول وإمكانية الوصول في مكان العمل.
ولكن على الرغم من آثاره الإيجابية، فإن الذكاء الاصطناعي يفرض مخاطر جديدة على التمييز في التوظيف، وخاصة عندما يتم تصميمه أو استخدامه بشكل غير صحيح.
وأصبحت الشركات تعتمد بشكل متزايد على الذكاء الاصطناعي (“AI“) في مكان العمل في جميع مراحل دورة حياة التوظيف تقريبًا، بما في ذلك التوظيف والتعيين والتدريب والانضباط والتقييمات والتعويضات وحتى إنهاء الخدمة ([54]).
ويتم التوسع في استخدام الذكاء الاصطناعي في مكان العمل بشكل سريع، ويتم استخدامه في مجموعة واسعة من المهام في مجال الموارد البشرية (“HR“)، بما في ذلك مسح السيرة الذاتية وتصفيتها، وروبوتات الدردشة التي تجيب على أسئلة المتقدمين وجدولة المقابلات، ومراقبة الإنتاجية والسلامة والإبلاغ عنها، ومقابلات الفيديو الآلية لتقييم المرشحين، وحتى الخوارزميات التي تحلل بيانات الموظف للتنبؤ بنجاح مقدم الطلب في المستقبل ([55]).
ومما لا جدال فيه أن الاستخدامات والفوائد المحتملة للذكاء الاصطناعي في مكان العمل كثيرة ومتعددة، ويشير المؤيدون بأن الذكاء الاصطناعي يسرع عملية التوظيف ويزيل التحيز البشري والذاتية ([56]).
وإذا تم تصميم الذكاء الاصطناعي بشكل جيد ونشره بشكل صحيح، فيمكنه مساعدة العمال في العثور على وظائفهم الأكثر ملائمة لهم، ومطابقة الشركات مع موظفيها الأكثر قيمة وإنتاجية ([57]).
كما يؤكد المؤيدون أيضًا بأن أنظمة الذكاء الاصطناعي يمكن أن تكون أكثر كفاءة وشمولاً من القائمين على التوظيف البشري، علاوة على ذلك، من الممكن أن يعمل الذكاء الاصطناعي على إثراء قيم الشركات وثقافتها من خلال القضاء على التمييز غير القانوني وبالتالي تعزيز التنوع، وتكافؤ الفرص، وإمكانية الوصول، والاندماج في مكان العمل ([58]).
لقد أظهرت الأبحاث باستمرار أن أدوات الذكاء الاصطناعي المستخدمة في اتخاذ قرارات التوظيف غالبًا ما تؤدي إلى تنوع أكبر في التعيينات، وقرارات ترقية غير متحيزة، واستبقاء أفضل للموظفين من خلال الكشف المبكر عن عدم الرضا الوظيفي.
لقد تمكنت التقنيات القابلة للارتداء مثل بدلات الهيكل الخارجي والأذرع الآلية من التخفيف من آثار الإعاقة، وبالتالي توسيع فرص العمل للعمال ذوي الإعاقة مع منع الحوادث المتعلقة بالعمل وتحسين الإنتاجية عن طريق تقليل حالات الغياب بسبب إلى العجز والمرض ([59]).
من الجدير بالذكر أن استخدام تقنيات الموارد البشرية هذه قد تسارع بشكل كبير خلال جائحة كوفيد-19، وأن العديد من الشركات تستثمر بشكل كبير في الذكاء الاصطناعي ([60]).
وفي الوقت نفسه، يؤدي استخدام الذكاء الاصطناعي في اتخاذ قرارات التوظيف إلى مخاطر متوقعة فيما يتعلق بالتمييز طوال دورة حياة التوظيف، وقد يحدث التمييز في التوظيف إذا قام أحد المختصين عمدًا بتغذية الآلة ببيانات سيئة تؤدي إلى التمييز ([61]).
وعلى النقيض من كل ذلك، فإن الاعتماد على أنظمة الذكاء الاصطناعي يمكن أن ينشأ التمييز في التوظيف أيضًا إذا كانت التحيزات أو الميول غير القانونية لمحترفي التوظيف في الشركة موروثة أو مكتسبة بواسطة أداة الذكاء الاصطناعي.
نتيجة لذلك، بدون التدقيق والتحليل المناسبين، يمكن لأدوات الذكاء الاصطناعي أن تحقن تحيزًا شخصيًا فيما يفترض أن تكون عملية غير متحيزة وموضوعية، وبالتالي تعريض أصحاب العمل للمسئولية ([62]).
ومن الجدير بالذكر أن استخدام الذكاء الاصطناعي في قرارات التوظيف والتعيين قد يتعارض مع القوانين الدولية والوطنية والتي تقرر المساواة وتحظر التمييز ضد الأشخاص.
وعلى سبيل المثال قد يتعارض استخدام الذكاء الاصطناعي مع قوانين مكافحة التمييز الفيدرالية في الولايات المتحدة الأمريكية في مجال التوظيف والتي تحظر التمييز ضد الأفراد على أساس فئات محمية معينة ([63]).
وفي الولايات المتحدة يجب عند استخدام الذكاء الاصطناعي في اتخاذ قرارات التوظيف أن يراعي الباب السابع من قانون الحقوق المدنية لعام 1964 وهو قانون اتحادي يحمي الموظفين والمتقدمين للتعيينات من التمييز على أساس العرق أو اللون أو الجنس أو الأصل القومي أو الدين ([64]).
وقد تخل أدوات الذكاء الاصطناعي، مثل الاختبارات وأدوات أو إجراءات الاختيار الأخرى، قوانين مكافحة التمييز الفيدرالية الأمريكية مثل الباب السابع إذا قامت بفحص الأفراد في فئة محمية بشكل غير متناسب وإذا كان صاحب العمل غير قادر على تبرير هذا الاستبعاد استنادا لضرورات الوظيفة والعمل.
علاوة على ذلك، يمكن أن يؤدي استخدام الذكاء الاصطناعي أيضًا إلى الإخلال بالقانون الأمريكي لذوي الإعاقة (“ADA“)، الذي يحظر على أصحاب العمل التمييز في التوظيف ضد بعض الأشخاص ذوي الإعاقات العقلية والجسدية ([65]).
وقد لا تكون بعض أدوات الذكاء الاصطناعي التي تتطلب من المتقدمين المشاركة في تقييم قائم على الألعاب أو أنشطة معينة أو إجراء اختبارات القدرات الشخصية متاحة للأفراد ذوي الإعاقة، وخاصة أولئك الذين يعانون من إعاقات بصرية أو سمعية أو غيرها([66]).
ومما لا شك فيه أن التمييز بين البشر ليس الإشكالية الوحيدة لاستخدام أنظمة الذكاء الاصطناعي، بل تمتد إشكالياته –بصور متعددة-للاعتداء على الحق في الخصوصية للإنسان، وكذلك الاعتداء على البيانات الشخصية في ظل ظروف تفتقد للمساءلة والشرعية لاستخدام أصحاب الأعمال أنظمة الذكاء الاصطناعي ([67]).
وبانتشار أنظمة الذكاء الاصطناعي القوية وهي التي تقلل من الاعتماد على الأفراد، حيث تقوم بدورها من خلال فكرة التعلم الآلي، أدى ذلك لعدد من الآثار الاجتماعية حيث يمكن أن تكون الآثار المترتبة على الذكاء الاصطناعي غير محسوسة مثل جمع البيانات الشخصية سرا دون موافقة، أو التلاعب سرا بالأفراد لشراء منتج، أو نشر معلومات متطرفة للمستخدمين المستهدفين ([68]).
لذلك، تعد تطبيقات الأعمال غير الشفافة للذكاء الاصطناعي غازية، متلاعبة وتحريضية ومتحيزة وغير عادلة، وبصفة خاصة التي تهدد خصوصية البيانات والقيم الديمقراطية الأخرى مثل الاستقلالية والإنصاف والشفافية ([69]).
المطلب الثاني
تأثير الذكاء الاصطناعي على الوظائف المتاحة
يعد الحق في العمل –كما سبق أن أشرنا-من الحقوق الدستورية، ومع ذلك يظل هذا الحق هو حق مجرد، حيث لا يحتج به سوى في مواجهة الدولة، ولا يمكن التمسك بحق العمل في مواجهة صاحب عمل معين باعتباره مدينا بالتوظيف، لذلك يظل هذا الحق مهددا بأن يبقي إطار خال من المضمون إذا لم تتدخل الدولة بطريقة فعالة في سوق العمل بتنظيمه وتطبيق سياسة للتأهيل المهني والتدريب لتيسر للعمال فرص العمل([70]).
وأجاز المشرع المصري لصاحب العمل الراغب في إجراء تعيينات جديدة لديه أن يقوم بالإعلان عنها من خلال وسائل الإعلام المختلفة وأن يعهد إلى أحد المكاتب الاستشارية بدراسة الطلبات التي تقدم إليه وإبداء الرأي أو التوصية أو المساعدة بشأن اختيار أفضل المرشحين لهذه الوظائف ([71]).
ووفقا لذلك يمكن للمكاتب الاستشارية الاستعانة بالتقنيات الحديثة وأنظمة الذكاء الاصطناعي لدراسة الطلبات المقدمة وإبداء الرأي بشأنها، وهذا يعتمد إلى حد كبير على المعلومات التي تم تغذية برامج الذكاء الاصطناعي بها ومدى تحيزها لفئة على أخري، ومدى اتسام القواعد بالشفافية والعدالة مما يكون له بالغ الأثر على الحق في العمل.
ويمكن القول بان تحليل تأثيرات الذكاء الاصطناعي على الحق في العمل يتمثل في أمرين أساسيين وهما: أثر الذكاء الاصطناعي على كمية الوظائف البشرية المتاحة، ومدى موثوقية إدخال الذكاء الاصطناعي في التعيين واختيار المترشحين لشغل الوظائف وتناسب ذلك مع أحكام قانون العمل.
وفي العصر الحديث تتحول القوى العاملة إلى الرقمنة وتقدر شركات الاستشارات الرائدة أن الأنظمة الخوارزمية ستحل محل 45% من الوظائف التي يشغلها الإنسان بحلول عام 2030، ومع ذلك يمكن أن تتسم الخوارزميات التي ستحل محل القوى البشرية في قدرتها على التسبب في الأضرار بأشكال مختلفة، منها على سبيل المثال قدرة الخوارزميات على التمييز والتحيز.
وحتى يتسنى للعامل الحصول على فرصة عمل في عصر التحول الرقمي يجب أن يكون المجتمع كله على دراية كاملة بالتحولات الرقمية والتقنيات الحديثة في بيئة الأعمال، بما يستوجب معها ذلك أن ينهض المجتمع بإحداث طفرة كبيرة في التفكير في الوظائف، وهذا الأمر، وبلا شك، يحتاج إلى إعادة النظر في المجالات التعليمية المختلفة، وفي نظرة المجتمع بشأن الوظائف، والإعداد الجيد لسياسات التدريب والتأهيل لتولى الوظائف الجديدة في عصر التقنيات الحديثة.
وتجدر الإشارة إلى أن الشركات تتعمد استبدال العمال البشريين بخوارزميات تؤدي وظائف مماثلة، حيث تقوم الخوارزميات الآن بتقييم تطبيقات بطاقات الائتمان، وتداول الأسهم، وصناديق التغليف، وجميع الوظائف التي لم يكن يشغلها سوى الموظفون والعمال البشريون منذ وقت ليس ببعيد، وقد لا تعتبر الخوارزميات “موظفين” بالمعنى المقصود في قانون العمل، فلا يعملون بموجب عقد، ولا يحتاجون إلى أجر أو مزايا، ولكن إذا كانت الشركات وأصحاب الأعمال يوظفون البشر، فمن المنطقي أيضا توظيف الخوارزميات التي تؤدي نفس الوظائف التي يؤديها البشر تمامًا([72]).
وعادة ما يكون أصحاب الأعمال مسئولون عن الأضرار التي تحدث، ولكن قواعد تقييم المسئولية كانت عندما يقوم البشر بالتصرف، ونظرا لانتشار أنظمة الذكاء الاصطناعي وقدرتها العالية والجذابة في مجال الأعمال بأشكاله المختلفة فقد اتجه أصحاب الأعمال إلى أتمتة الوظائف مما تحقق لهم ميزة إضافية هامة وهي الحد من مخاطر المسئولية الخاصة بها ([73]).
وستحل الروبوتات والخوارزميات محل ما يقرب من نصف الوظائف والأعمال في العقد القادم، ومن المتصور أن تكون الخسائر البشرية الناجمة عن ذلك مذهلة، حيث يجد عشرات الملايين من العمال أنفسهم بلا رواتب ولا مهن، وقد دق علماء العمل ناقوس الخطر، ودعوا إلى برامج إعادة تدريب صارمة لإعداد العمال للمشهد التكنولوجي الجديد([74]).
وتوجد العديد من الدراسات المتعلقة بتحديد تأثير الذكاء الاصطناعي في مجال كم الوظائف المتاحة، ومن هذه الدراسات ما هو متفائل بشأن مستقبل الوظائف، ومنها ما يثير الكثير من القلق بشأن إدخال تقنيات الذكاء الاصطناعي في مجال العمل.
وحتى بالنسبة للدراسات التي تثير قلقا شديدا بشأن مستقبل العديد من الوظائف تثار بشأنها إشكالية تحويل العاملين لوظائف أخري، ومدى إمكانية تقبل صاحب العمل لتدريبهم على الوظائف الجديدة، ومدى تقبل العاملين قانونا للوظائف الجديدة.
وفي الواقع يقوم أصحاب الأعمال والشركات باستبدال الموظفين البشريين بخوارزميات تؤدى وظائف مماثلة، تقوم الخوارزميات الآن بتقييم تطبيقات بطاقات الائتمان، وتداول الأسهم، وصناديق التغليف، وجميع الوظائف التي لم يكن يشغلها سوى الموظفون البشريون منذ وقت ليس ببعيد.
قد لا تعتبر الخوارزميات موظفين أو عمال بالمعنى المقصود في قانون العمل، فهم ليسوا بموجب عقد، ولا يحتاجون إلى أجر أو مزايا.
وإذا كانت الشركات توظف البشر، فمن المنطقي أن توظف الشركات الخوارزميات التي تؤدي نفس الوظائف التي يؤديها البشر تمامًا.
كما أن التظاهر بأن الشركات وأصحاب الأعمال يقومون بتوظيف البشر فقط وليس الخوارزميات ليس بالأمر الحقيقي، فلدى الشركات العديد من الأسباب المشروعة لاستخدام الخوارزميات، غالبًا ما تؤدي الخوارزميات المصممة جيدًا المهام بشكل أكثر كفاءة حيث أن للخوارزميات قيمة هائلة، كما تعد البيانات الضخمة بفوائد كبيرة على الاقتصاد([75]).
عندما تستخدم الشركات مثل هذه الخوارزميات، يستفيد المجتمع بشكل عام، ولكن ليس كل دوافع الشركات وأصحاب الأعمال لاستخدام الخوارزميات جديرة بالثناء، فيمكن أن تستخدم الشركات أيضًا الخوارزميات لتجنب المساءلة عندما تسوء الأمور([76]).
كما تتحقق مصلحة أصحاب الأعمال في الاعتماد على تقنيات الذكاء الاصطناعي، بصفة خاصة في مجال المسئولية المدنية، حيث لا تكون الشركات مسئولة إلا عن الأضرار التي تنشأ من خلال علاقة العمل، وحتى في مجال مسئولية المنتج فينظر إليها على أنها استثناء لقواعد المسئولية حيث بموجبها يتحمل المصنعون المسئولية عندما تلحق منتجاتهم المعيبة إضرارا بالمستهلكين.
ومع ذلك يمكن اعتبار الخوارزميات منتجات حتى ولو كانت غير مخصصة للتوزيع التجاري، مما توجب معها المسئولية المدنية عن المنتجات المعيبة التي تسبب أضراراً للآخرين ([77]).
وعلى ذلك، إذا كانت علاقات العمل تمتد فقط بالنسبة للبشر، فيمكن للشركات تقليل مخاطر مسئوليتها باستخدام الخوارزميات بدلاً من ذلك.
ومن الجدير بالذكر أن هذا النوع من الحماية لأصحاب الأعمال والشركات ضد الأضرار الخوارزمية قد يفيدهم واقعيا، لكنه يقلل من صافي الرخاء الاجتماعي ويضر الأفراد داخل الشركة وخارجها.
وبتفسير اقتصادي نجد انه عندما تحد الشركات من مسئوليتها ولكن ليس عن الضرر الناجم عن سلوكها وإنما من الأضرار التكنولوجية نتيجة استخدام الخوارزميات وأنظمة الذكاء الاصطناعي، فإنها تستبعد بعض التكاليف الحقيقية لعملياتها.
وكما يتوقع كل اقتصادي، فإن هذا يعني أن الشركات وأصحاب الأعمال سوف يستخدمون الخوارزميات حتى عندما يكون من الأفضل، من وجهة نظر الرعاية الاجتماعية التخلي عنها، تحقيقا لمصالحهم الاقتصادية ([78]).
ومن خلال استبدال العمال بالخوارزميات فانه يمكن للشركات عدم تحمل المسئولية القانونية المحتملة التي قد يتحملها الموظف البشري بسبب سوء سلوكه الذي قد يتعين على الشركة تحمل عواقبه وآثاره، ولذلك تعمل الشركات وأصحاب الأعمال بشكل متسارع على أتمتة الوظائف ([79]).
ومع ذلك فان استخدام الخوارزميات بهذه الطريقة هو دون المستوى الأمثل اجتماعيًا، حيث تعد الأتمتة المتسرعة أمرًا سيئًا للموظفين من البشر لأنها تؤدي إلى تسريع وتيرة الاستغناء عنهم دون داع، وهذا أمر سيئ بالنسبة لضحايا الشركات، لأنهم أكثر عرضة لتحمل فاتورة الأضرار التي تسببها استخدام الخوارزميات.
ومن الجدير بالقول هنا أن الخوارزميات التي يستخدمها أصحاب الأعمال في إدارة أعمالهم وشركاتهم يمكن أن تؤذي البشر بل هي تفعل ذلك بالفعل، مع اندماج الروبوتات وأنظمة الذكاء الاصطناعي في المجتمع فيمكن أن يكون لها آثار سلبية عديدة([80]).
كما يستمر الكشف عن الآثار السلبية للخوارزميات حيث كشفت الوكالات الفيدرالية في أمريكا عن خوارزميات التوظيف في الشركات التي تمنح درجات اقل للمتقدمين ذوي الأسماء التي تبدو سوداء وكذلك الحاصلين على درجات علمية من كليات البنات ([81]).
بل استطاعت الشركات وأصحاب الأعمال من خلال استخدام الخوارزميات وأنظمة الذكاء الاصطناعي في التلاعب في أسواق الأوراق المالية، والأسعار وغيرها([82])، بل أصبحت الخوارزميات أكثر تعقيدا وتحتل أدوارا اقتصادية واجتماعية أكبر، وسيستمر سوء السلوك في الخوارزميات في النمو ([83]).
وإذا كانت الخوارزميات تعطى لأصحاب الأعمال فرصا إنتاجية جديدة([84])، إضافة للقواعد القانونية القائمة حاليا والتي بتطبيقها تحد من المسئولية عن الأضرار الخوارزمية، فانه يجب النظر بعين الاعتبار لأكثر الناس تضررا من استخدام التقنيات الحديثة وهم العمال المضرورين والذين يستحقون معاملة أفضل من ذلك.
كما أنه لا سبيل لسد الفجوة وثغرة المسئولية إلا من خلال تحديث قانون المسئولية المدنية وقانون العمل بما يتناسب مع عصر الأتمتة.
وإذا كان أصحاب الأعمال يستخدمون العمال والخوارزميات لنفس أنواع المهام الإنتاجية، فانه ينبغي أن يترجم هذا لتكافؤ بين العمال والخوارزميات عند تحديد الضرر الذي يجب تعويضه من قبل صاحب العمل.
ونظرا للخوف الشديد السائد لدى الكثير من الأوساط القانونية، وغيرها، بشأن تأثيرات الذكاء الاصطناعي على الحد والتضييق من نطاق الحق في العمل، وكذلك أثره على العمالة القائمة بالفعل نجد بعض الاقتراحات للحد من ذلك:
1- وضع سياسات تهدف إلى تثبيط أو تقليل الاعتماد على الروبوتات:
يمكن التفكير في وضع سياسات تشريعية وتنفيذية يكون من شأنها الحد من الاعتماد على الروبوتات في مجال الأعمال بهدف المحافظة على العمالة البشرية، ومع ذلك يمكن الاعتراض على هذا الاقتراح لأن إجبار أصحاب الأعمال والشركات على الحد من استخدام التقنيات الحديثة وأنظمة الذكاء الاصطناعي من شانه أن يقيد الابتكار والتقدم التكنولوجي بشكل غير مقبول ([85]).
كما يمكن أن يعيق ذلك الشركات المحلية في السباق الشرس مع المنافسين الدوليين مما يكون لذلك أثره السلبي على التنمية الاقتصادية ([86]).
2- فرض ضرائب على استخدام الروبوتات في مجل العمل بهدف:
أ- تعويض العمال عن فقد وظائفهم.
ب- تمويل مشاريع التدريب أو إعادة التأهيل المهني أو نفقات الضمان الاجتماعي.
ج- تعويض العمال الذين فقدوا وظائفهم بهدف تدريب وتحضير أنفسهم لوظائف أخرى جديدة.
ويقترح رأي أخر ([87]) إنشاء نظام حصص للوظائف البشرية للحد من استخدام الروبوتات وإعلاء علامة صنع الإنسان.
ويترتب على ذلك إمكانية تعطيل التشغيل الآلي في مجال العمل، أو حتى في أفضل السيناريوهات الحفاظ على الوظائف البشرية قدر المستطاع.
وواقعياً لا يمكن إنكار أو تجاهل التقدم الهائل في مجال التكنولوجيات الحديثة والمتطورة والتي تتماشي مع حرية الإبداع والابتكار، ولا يمكن بأي حال من الأحوال تقييد حرية الابتكار، وحق المجتمع بما فيهم أصحاب الأعمال من الاستفادة من هذا التقدم، حتى وإن ترتب على ذلك التأثير على حقوق العمال وكذلك الحق في العمل.
كما يمكن وصف الحق في العمل بكونه حق مجرد أجوف خال من الإطار، حيث لا يمكن إلزام أصحاب الأعمال به باعتبارهم مدينين به.
وكل ما يجب التأكيد عليه في ذلك هو محاولة تحقيق التوازن بين المصالح المتعارضة، مصلحة صاحب العمل ومصلحة العمال، وهذه الغاية المبتغاة من أحكام قانون العمل والذي يهدف المشرع من خلال تنظيمه لتحقيق هذه الغاية، وكذلك ما أكدت عليه محكمة النقض المصرية ([88]).
وعلى الرغم من أن حق العمل هو حق من حقوق الإنسان، وكذلك من الحقوق الدستورية في معظم دساتير دول العالم، إلا أنه مازال حق مجرد يحتج به فقط في مواجهة الدولة دون أصحاب الأعمال، فلا يمكن التمسك بحق العمل في مواجهة صاحب العمل باعتباره مدينا به، فعلاقة العمل تقوم على مبدأ الرضائية والحرية الكاملة لأطراف العلاقة التعاقدية.
وهذا الأمر هو ما يثير إشكالات قانونية كثيرة بسبب استخدام أنظمة الذكاء الاصطناعي الحالية، وكذلك المستقبلة فيما تعرف بالأنظمة القوية، مما ينعكس بآثاره السلبية على الحق في العمل وتعطيل روابط العمل، بل يمتد كذلك أيضا لإنهاء عقود العمل القائمة، وفي أضيق الحدود تأثيره البالغ على حق صاحب العمل في تعديل العمل المتفق عليه مع العامل في عقد العمل دون أدني خطأ من جانب صاحب العمل.
المطلب الثالث
تعارض الذكاء الاصطناعي مع
المبادئ القانونية المنظمة للحق في العمل
أظهر الاعتماد على أنظمة الذكاء الاصطناعي في مجال المسائل المتعلقة بقانون العمل مدى التأثير البالغ للتقنيات الحديثة على بعض الحقوق الأساسية مثل قواعد: المساواة وعدم التمييز والحق في الخصوصية وحماية البيانات الشخصية للعمال، الأمر الذي يدعو معه المشرع لضرورة التدخل لتحقيق التوازن المناسب بين الحق في استخدام التقنيات الحديثة خاصة من جانب أصحاب الأعمال، وعدم تعارض هذا الأمر مع الحقوق الأساسية للعمال.
وقد أوصي البرلمان الأوروبي المشرعين الوطنين بأنه لا ينبغي الوقوف عند حد تكييف التشريعات الحالية فحسب، بل يجب أيضا معالجة القضايا القانونية والأخلاقية المتعلقة بتقنيات الذكاء الاصطناعي من خلال إطار تشريعي وتنظيمي فعال وشامل ومستدام، وضرورة اتخاذ تدابير إلزامية لمنع الإخلال بالحقوق الأساسية عند استخدام تقنيات الذكاء الاصطناعي ([89]).
ولعل مبدأ الحياد وعدم التمييز وكذلك المساواة بين البشر من المبادئ الدستورية التي يجب احترامها من خلال عدم الإخلال بها بشكل أو بآخر عند استخدام التقنيات الحديثة وخاصة تطبيقات الذكاء الاصطناعي.
ونعرض لمبدأ الحياد وعدم التمييز في التعيين في الوظائف والمهن من خلال الفرع الأول، ثم نبين آلية التمييز والتحيز من خلال استخدام تقنيات الذكاء الاصطناعي في الفرع الثاني، ثم نعرض لإشكالية وصعوبة الإثبات في الفرع الثالث.
الفرع الأول
مبدأ الحياد وعدم التمييز في التعيين
تتمتع أدوات الرقمنة وتقنيات الذكاء الاصطناعي بجاذبية كبيرة، ومع ذلك فإن استخدام هذه الأدوات قد يتعارض مع المبادئ القانونية الأساسية التي تنظم الحق في العمل، ولعل أهم هذه المبادئ تلك المتعلق بعدم التمييز والتحيز في التعيين، حيث قد يبدو في الواقع أن خطر التمييز متأصلاً في تلك الخوارزميات، وبالتالي يمكن أن يؤدى لتقييد غير مبرر وغير عادل في مجال الحق في العمل بالنسبة للمرشحين للعمل وتولى الوظائف.
وبشكل أكثر دقة، يمكن لصاحب العمل أن يطلب من الذكاء الاصطناعي من خلال التغذية ببيانات معينة إعادة إنتاج التوظيف بناءً على معايير محددة مسبقًا.
ومع ذلك، إذا نقل البشر التحيزات التمييزية إلى الخوارزميات، فسيتم تغذية برامج وتطبيقات الذكاء الاصطناعي بها، مما يؤدي إلى إعادة إنتاجها وتضخيمها بواسطة الذكاء الاصطناعي.
ويعني ذلك أن الإنسان إذا كان تمييزيًا ذو طابع متحيز في المعايير التي يستخدمها، فإن الذكاء الاصطناعي سيكون كذلك، والأسوأ من ذلك أنه سينظم هذا التمييز بشكل أكثر دقة وعملية.
وقد يكون هذا التمييز مدمجًا عمدًا في برامج الكمبيوتر، وقد يكون ببساطة نتيجة للتحيزات المعرفية الواعية أو اللاواعية للمطور والتي أعادت إنتاجها الخوارزمية ([90]).
كما تثار إشكالية أخري بشأن التمييز في التعيين وتتعلق بصعوبة إثبات وجود التمييز بسبب الخوارزميات، نظرا للطبيعة المتطورة للذكاء الاصطناعي.
وتمثل هذه الإشكالية صعوبة كبيرة حيث يتم تحديد معايير الاختيار وفق البيانات التي تم تغذية الآلة بها، كما أن التعتيم المحيط بهذه الأداة يزيد من صعوبة الإثبات، حيث يعمل الذكاء الاصطناعي مثل الصندوق الأسود([91]).
وقد حذر العديد من علماء القانون من خطر ترسيخ الذكاء الاصطناعي للتمييز والتحيز في ممارسات الموارد البشرية على مستوى الشركات ولدى أصحاب الأعمال.
من ناحية أخرى، يرى المدافعون عن استخدام الذكاء الاصطناعي في الموارد البشرية أن لديه القدرة على الحد من التمييز عن طريق تقليل الحكم البشري أو القضاء عليه، ومن خلال تحديد ممارسات التوظيف التي تعتبر استعبادية عن غير قصد([92]).
وسواء بالنسبة للمحذرين وكذلك للمدافعين، فعلى الرغم من أن كلا التأثيرين معقولان، فمن الواضح، على الأقل، أن استخدام الذكاء الاصطناعي في مكان العمل يثير مخاوف جدية لم تعالجها قوانين مكافحة التمييز في البلدان المختلفة.
ويمكن أن يعمل الذكاء الاصطناعي في عدة مراحل في علاقة العمل، بما في ذلك التوظيف وتحديد الأجور والتقييم والترقية والانضباط والفصل، ومن هنا تتحقق الخطورة بحيث إذا تم إنشاء الخوارزميات التي تجسد الصور النمطية العنصرية، فإن بعض الفئات المحمية قانوناً من خطر التمييز مثل: النساء أو الأشخاص ذوي البشرة الملونة سوف يتعرضون لحرمان شديد في سوق العمل.
وقد يحدث نفس الشيء نتيجة استخدام الصور النمطية المتعلقة بالعمر، أو الإعاقة، أو الدين، أو غيرها من الفئات المحمية قانونا.
ومع ذلك، إذا كانت الخوارزمية هي التي تؤدى إلى النتيجة التمييزية، وليس صانع القرار البشري، فقد يكون من المستحيل تقريبًا على العامل المتأثر سلبًا أن يرجع بالمطالبة من خلال القضاء لإثبات أحقيته في التعيين بشكل ناجح.
الفرع الثاني
آلية التحيز من خلال الذكاء الاصطناعي
تتنوع الطرق التي يمكن للذكاء الاصطناعي من خلالها إدخال التحيز في
عمليات التوظيف والتقييم والتعويضات ونظام التأديب للعمال، فمن خلال البيانات
التي يتم تغذية البرامج والتطبيقات بها وهي أساس نظام عمل الخوارزميات
ومعالجة البيانات بشكل ذكي، فيمكن أن ينشأ عن ذلك تحيزا في المدخلات وتحيزا في المخرجات ([93]).
كما يمكن أن ينشأ التحيز من خلال الأفراد الذين يقدمون معايير البحث
أو بيانات الإدخال، أو المبرمجون الذين ينشئون الخوارزمية، متحيزين هم أنفسهم، فإن هذا التحيز يمكن أن يصيب الخوارزمية بسهولة، ومن المحتمل أن تعكس النتائج نفس التحيز.
وعلى سبيل المثال، قد تؤدي الخوارزميات التي تحلل المقابلات المسجلة بالفيديو إلى الإضرار بشكل كبير بمجموعات معينة من المتقدمين على أساس العرق أو الأصل الجغرافي أو الخلفية الاجتماعية والاقتصادية من خلال الإشارة إلى بعض نغمات الصوت أو أنماط الكلام أو إيماءات اليد المحددة ثقافيًا.
وبشكل أكثر دقة، يميل منشئو الخوارزميات إلى الاعتماد على بيانات التوظيف السابقة لصاحب العمل لبناء صيغ تنبؤيه بشأن احتياجات صاحب العمل لنوع معين من الأعمال في المستقبل وكذلك المهارات التي سيحتاج إليها ([94]).
وترغب دائماً الشركات في تكرار نموذج أفضل العاملين لديها، لذلك تستخدم الخوارزميات التي تطابق المتقدمين للوظائف من خلال الإحصائيات التي يتم إجراؤها على هؤلاء العمال.
إذا لم يكن لدى الشركة تاريخ في توظيف فئة معينة أو تصنيف معين من الأفراد، فإن الخوارزميات التي تم إنشاؤها باستخدام بيانات التوظيف السابقة ستستبعد هؤلاء الأفراد بشكل منهجي من النظر في الوظائف المتاحة مستقبلاً، وعلى سبيل المثال، إذا كان قسم الإطفاء يتكون بشكل حصري تقريبًا من الرجال، فقد تؤكد بيانات التوظيف السابقة على أهمية البراعة البدنية مقارنة بالقدرة على التحمل مما يمكن معه ظهور تمييز ضد النساء في تولي مثل هذه الوظائف ([95]).
وبالمثل، فإن استخدام الذكاء الاصطناعي في التوظيف يمكن أن يؤدي إلى “التحيز التصنيفي”، والذي تعرفه “بولين كيم” بأنه “استخدام مخططات التصنيف التي لها تأثير في تفاقم عدم المساواة أو الحرمان على أساس العرق أو الجنس أو أي شيء آخر محمي قانوناً([96]).
على سبيل المثال، تسمح العديد من المنصات عبر الإنترنت، مثل فيسبوك، للمعلنين -والقائمين على التوظيف -باستهداف جمهور مقيد ديموغرافيًا بناءً على اهتماماتهم وتفضيلاتهم وخصائصهم، بما في ذلك العمر والجنس والانتماء العرقي ([97]).
وعلى الرغم من أن هذا النوع من التحيز الخوارزمي يتم التعامل معه عادة على أنه في إطار نظرية التأثير المتباين، فقد جادلت ستيفاني بورنشتاين ([98]) بأنه إذا كان نموذج “أفضل عامل” الذي تستند عليه الخوارزمية يعتمد على قوالب نمطية تمييزية (مثل الصور النمطية محل الخلاف في قضية برايس ووترهاوس ضد هوبكنز)([99]) يمكن للخوارزمية الناتجة أن تؤدي إلى تعميق نظرية التمييز في المعاملة وخاصة بالنسبة للنتائج المحققة([100]).
ومثال ذلك ما قامت به شركة أمازون في عام 2015، عندما أعلنت عن خطط لزيادة قوتها العاملة بأكثر من 50 ألف شخص في جميع أنحاء العالم، وللقيام بذلك، طورت أمازون خوارزمية لفحص الكم الهائل من السير الذاتية التي توقعت تلقيها، واستندت الخوارزمية إلى الأنماط التي لوحظت في عمليات التوظيف السابقة على مدى السنوات العشر الماضية، وهو خط الأساس الذي كان خلاله التوظيف في الشركة من الذكور بأغلبية ساحقة ([101]).
ونتيجة لذلك، علم نظام أمازون نفسه أن المرشحين الذكور هم الأفضل، وقام بحظر واستبعاد السير الذاتية التي تتضمن كلمة “سيدات”.
ومن الجدير بالذكر أن هذه المصادر المحتملة للتحيز تثير شبح التمييز المتباين في التأثير على التعيينات وعلى حقوق المترشحين، خاصة عندما يكون معيار التوظيف المحايد متخذاً بشكل ظاهري لكنه غير حقيقي في واقع التطبيق.
وعلى الرغم من وجود العديد من الدساتير والتشريعات التي تمنع القيام بأعمال تتنافي مع قيم المساواة وعدم التمييز إلا أن ذلك في الواقع العملي المتطور أصبح محل شك، بل يلقي بتبعاته على الحقوق الأساسية للأفراد.
الفرع الثالث
صعوبة إثبات التحيز
تعتمد قواعد المسئولية المدنية على السلوك البشري عادة، فالبشر دائما هم محور المسئولية المدنية عن أخطائهم وسوء سلوكهم، وبتطبيق ذلك في مجال الخوارزميات وتقنيات الذكاء الاصطناعي يصبح الأمر في غاية التعقيد، لأنه يجب البحث عن الشخص الذي ساهم بسلوكه غير المشروع في إحداث الضرر الخوارزمي، وبسبب أن الخوارزميات تقوم بدور الوسيط فيما يفعله الأشخاص وما لحق بالمضرورين من ضرر، فإن المدعى المضرور يواجه نوعين من الصعوبات:
أولاً: إشكالية التدخلات الكثيرة والمتعددة، فغالبا ما تحدث عمليات على نطاق واسع ومعقد، وتتطلب مشاركة العديد من العاملين الفاعلين سواء أكانت العمليات في شكلها التقليدي أو الآلي، وتقوم مجموعات مقسمة من العاملين وتتكون من مئات أو آلاف العاملين بتصميم وتشغيل الخوارزميات، مما يثير معه صعوبة أو استحالة تحديد العامل الذي أخل بنظام مراقبة جودة المنتجات المصنعة مثلا، وعند البحث والتحقيق في ذلك يستطيع جميع العاملين توجيه الاتهام للخوارزميات وعدم إخلالهم بواجبات عملهم ([102]).
ثانياً: يواجه المدعون المضرورون أيضا إشكالية أن بعض العمليات التي يمكن تنفيذها يمكن أن تنحرف في بعض الأحيان حتى ولو تصرف كل عامل بشكل مسئول ([103]).
وقد يكون ذلك راجعا لعيوب الأنظمة المستخدمة، فقد تكون الأنظمة المستخدمة سيئة مع وجود أشخاص غير سيئين ([104])، وهذه هي المشكلة الحقيقية في مجال الخوارزميات وتقنيات الذكاء الاصطناعي، فعلى سبيل المثال قد تمنع قناة الاتصال المعطلة تدفق المعلومات المهمة بين اثنين من العاملين ذوي النية الحسنة.
ولقد أظهر التقنيون أن الخوارزميات يمكن أن تسيء التصرف حتى لو كان من قام ببرمجتها وتشغيلها قد تصرف بلا أخطاء ([105]).
وعند المطالبة القضائية لأحد المترشحين والذي تم التمييز ضدهم يجب عليه إثبات التأثير التمييزي الذي تمت ممارسته ضده، وهو أمر في غاية الصعوبة إذا كانت الممارسة المعينة مدفونة فيما يعرف “الصندوق الأسود” الذي يقوم عليه نظام الذكاء الاصطناعي ([106]).
وإذا تمكن الشخص من إظهار أن عناصر عملية صنع القرار لدى صاحب العمل لا يمكن فصلها للتحليل، فقد يتم تحليل عملية صنع القرار بأكملها وصولاً لمخرجات الخوارزميات، لذلك قد يصبح من الصعب على المدعي المضرور عزل الممارسة التمييزية ضده ما لم تسمح المحاكم للمدعين بإظهار الخوارزمية ككل التي أحدثت التأثير.
ويمكن التغلب على هذه الصعوبة، خاصة فيما يتعلق بعبء الإثبات، إذا أمكن القول بأنه بمجرد ظهور تأثير تمييزي ضد العامل أو المترشح للعمل، ينتقل عبء الإثبات إلى صاحب العمل، الذي يجب عليه أن يوضح أن معيار التعيين المرتبط بالوظيفة، وبعبارة أخرى أن الخصائص التي تم فحصها كانت مرتبطة تماماً باختبار الوظيفة أو المقابلة المسجلة بالفيديو.
ويجب على صاحب العمل أيضًا أن يوضح أن هذه ضرورة عمل، وأن الخصائص التي تم فحصها مهمة بالنسبة لصاحب العمل، وليست مجرد اهتمامات هامشية.
ومما لا شك فيه أن استخدام الذكاء الاصطناعي قد يؤدي إلى جعل عبء الإثبات على العامل أمراً صعبًا وشاقاً، بل قد يستحيل عليه في الكثير من الأحوال النجاح فيه.
ولا يكون العامل قادرا على تحديد التحيز فقط عندما يكون هذا التحيز مضمنًا في خوارزمية التعيين باستخدام عشرات العوامل ومغطى بالشفرات، ولكن لديه أيضًا قدرة ضئيلة على دفع ادعاء صاحب العمل بشأن الارتباط الوظيفي وضرورة العمل للاعتراض على ما إذا كان العامل في وضع صعب في تحديد التحيز.
بل والأكثر من ذلك، إذا كان المرشح للوظيفة يعتقد أن معايير فرز الوظائف ظاهريًا لصاحب العمل متحيزة بطبيعتها، وبالتالي يكون لها تأثير تمييزي، فمن المحتمل جدًا ألا يكون لدى صاحب العمل أو محامي المدعي أي فكرة -ولا توجد طريقة لمعرفة -حول المعايير التي عملت الخوارزمية نفسها على استخدامها، ومن أين حصلت على تلك المعايير، ولماذا اختارت استخدام تلك المعايير.
ولا تشبه خوارزمية الذكاء الاصطناعي برنامج كمبيوتر نموذجي، حيث قد يطلب صاحب العمل من الكمبيوتر التخلص من جميع المتقدمين الذين ليس لديهم شهادة معينة ويستجيب البرنامج لذلك، وبدلاً من ذلك، يطلب صاحب العمل من الخوارزمية تحديد أفضل العناصر المتقدمة، ثم تستخدم الخوارزمية مجموعة واسعة من البيانات التي تم جمعها من مصادر متباينة لاختيار المتغيرات الخاصة بها، ولوزن تلك المتغيرات، وفرز المتقدمين وفقًا لذلك، وقد لا يكون من الممكن إجراء هندسة عكسية لعملية “التفكير” في الخوارزمية لمعرفة كيف ولماذا فعلت كل هذا بالضبط([107]).
المبحث الثاني
تأثير الذكاء الاصطناعي على إنهاء عقد العمل
يؤدي إدخال الذكاء الاصطناعي إلى الشركات ومجال الأعمال إلى زيادة خطر إنهاء عقد العمل للموظفين والعمال الذين هم بالفعل في وضع التوظيف، ويمكن تحليل مسألة الحفاظ على وظيفة هؤلاء العمال من زاويتين: زاوية تطبيق حق الفصل الاقتصادي في حالة فقدان الوظيفة الناتجة عن أتمتتها، ثم أن التحول في التوظيف الناجم عن وصول هذه التقنيات ومخاطر الإخلال بعقد العمل التي تولد بسبب استخدام تلك التقنيات في بيئة العمل.
وباستقراء النصوص الحالية لقانون العمل قد نجد المبرر المشروع لإنهاء عقد العمل من جانب صاحب العمل وبصفة خاصة ما يعرف بإنهاء عقد العمل لأسباب اقتصادية مثل حالة إغلاق المنشاة كليا أو جزئيا أو تقليص المنشاة أو حجم نشاطها، وكذلك حالة إنهاء عقد العمل غير محدد المدة.
كما نجد في نصوص قانون العمل ما يعطى لصاحب العمل حق تغيير العمل المتفق عليه مع العامل حتى ولو اختلف العمل الجديد بشكل جوهري مع طبيعة العمل المتفق عليه في العقد وذلك في ضوء القواعد القانونية المنظمة لذلك.
ومما لا جدال فيه أن تطبيق أنظمة الذكاء الاصطناعي في مجال بيئة العمل سيكون لها تأثيرها البالغ على إنهاء عقود العمال أو على الأقل تغيير جوهري في طبيعة الأعمال التي ستسند إليهم، مع ضرورة الحاجة الملحة بتدخل المشرع في محاولة لتحقيق قدر من التوازن بين مصلحة صاحب العمل في الاستفادة من التقنيات الحديثة وتأثيرها الهام على الإنتاج والتنمية، وبين حقوق العمال، باعتبار أن هذا التوازن هو هدف وفلسفة المشرعين دائما في تنظيم أحكام قانون العمل.
ونعرض من خلال هذا المبحث لتأثير الذكاء الاصطناعي في حالتي إنهاء عقد العمل وهو ما نبينه في المطلب الأول، ثم أثر الذكاء الاصطناعي على تغيير طبيعة العمل وهو ما سنعرض له في المطلب الثاني.
المطلب الأول حالة انتهاء العمل
إن أتمتة بعض الوظائف بسبب استخدام التقنيات الذكية سوف يعني اختفائها، ومع ذلك، من وجهة نظر قانونية، هل سيكون صاحب العمل قادرًا على الاعتماد على الحق في الاستغناء عن العمالة لتبرير إلغاء هذه الوظائف؟
ومن خلال هذا المطلب نعرض لانتهاء عقد العمل بسبب استخدام التقنيات الذكية وهذا ما نعرض له في الفرع الأول، ثم نبين في الفرع الثاني لموقف القانون المصري خاصة قانون العمل ومدى ملائمة قواعده للتطبيق في حالة استخدام التقنيات الذكية في بيئة العمل.
الفرع الأول انتهاء العمل بسبب التقنيات الذكية
تعد التغيرات التكنولوجية من بين أسباب الفصل الاقتصادي التي يمكن أن يلجأ إليها صاحب العمل لإنهاء عقد العمل.
ومع ذلك، فإن استخدام هذا السبب للفصل يتطلب بعض الحذر، لأن السوابق القضائية الفرنسية لا تزال ضئيلة ولا يزال من الصعب تتبع معالمها القانونية بدقة، وقد تم مراعاة وجود التغيرات التكنولوجية، على سبيل المثال، في حالة إدخال تقنية جديدة في الشركات فان ذلك قد يشكل سببا اقتصادياً لإنهاء عقد العمل أو إجراء تعديل جوهري عليه ([108])، أو من خلال إدخال آلات جديدة تسمح بأتمتة المهام ([109])، وكذلك في حالة التغيير في استخدام أجهزة الكمبيوتر ([110]).
وهذا سبب “مستقل” للفصل يكفي لتبرير إنهاء العقد حتى في حالة عدم وجود “صعوبات اقتصادية”([111])، أو “تهديدات للقدرة التنافسية”([112]).
حتى لو كان التعديل التكنولوجي يجب أن يكون كبيرًا بما فيه الكفاية، فإن توصيف سبب الفصل هذا يبدو مرنًا نسبيًا، حيث يُظهر قانون العمل “إحسانًا متفائلًا تجاه بعض المساهمات التكنولوجية، التي يُفترض أنها مفيدة ([113]).
ولذلك، فمن المؤكد أنه يمكن وصف “الطفرات التكنولوجية” عند إدخال التقنيات بما في ذلك الذكاء الاصطناعي إلى الشركة وتأثيرها المباشر على حقوق العمال.
إلى جانب “التغيرات التكنولوجية”، ربما يمكن لصاحب العمل حشد أسباب أخرى للفصل الاقتصادي، وبالتالي، فإن وجود صعوبات اقتصادية أو الحاجة إلى إعادة تنظيم الشركة لحماية قدرتها التنافسية يمكن، على سبيل المثال، طرحها من قبل صاحب العمل الذي لم يعد قادرا على التنافس مع الشركات المنافسة التي استثمرت في الذكاء الاصطناعي ([114]).
وبالتالي، فإن الوضع الحالي لـقانون الفصل الاقتصادي يشير إلى أن إنهاء عقد العمل المرتبط بتطوير الذكاء الاصطناعي يمكن أن يحدث بسهولة على هذا الأساس ([115]).
وفي سبيل كفالة الحماية لفئة العمال في فرنسا فقد قرر المشرع الفرنسي بعدم جواز فصل العامل لأسباب اقتصادية إلا بعد بذل صاحب العمل لجميع جهود التدريب والتكيف وعدم امكانية اعادة تعيين العامل في وظيفة أخري ([116]).
ويعتبر تقليص العمالة أو انهائها أمر مقرر في القوانين المختلفة، ولم يكن القانون المصري بعيداً عن هذا الأمر، حيث قرر المشرع المصري بأحقية صاحب العمل لضرورات اقتصادية إغلاق المنشأة كليا أو جزئيا، أو تقليص حجمها أو نشاطها مما يؤثر ذلك على حجم العمالة المستخدمة لديه ([117]).
وفي الكثير من الأحيان تأتى أدوار التكنولوجيا المتقدمة كسبب اقتصادي قوى يؤثر في مجال المنافسة والاستمرارية في المشروعات الاقتصادية، سواء من حيث طبيعة السلع والخدمات وكذلك جودتها، وتكلفتها، مما قد يضطر معه الكثير من أصحاب الأعمال في الاستغناء عن القوة البشرية في مقابل الآليات المتطورة ويأتي في مقدمتها تقنيات وأنظمة الذكاء الاصطناعي.
الفرع الثاني موقف قانون العمل المصري
نظم المشرع المصري ضمن أحكام قانون العمل إمكانية إنهاء عقد عمل العامل لأسباب اقتصادية تتعلق بالحالة المالية لصاحب العمل، ونعرض هنا لإمكانية اعتبار هذا الأمر مبرراً كافياً لإنهاء عقد العمل في حالة إدخال التقنيات الحديثة في بيئة الأعمال.
كما نظم المشرع لأحكام انتهاء عقد العمل غير محدد المدة، وهو ما يمكن إنهائه بالإرادة المنفردة لأي من الطرفين: صاحب العمل والعامل.
ونعرض فيما يلي للحالتين:
أولاً: إنهاء عقد العمل لضرورات اقتصادية:
قرر المشرع المصري إجراءات وضوابط إنهاء عقد العمل لضرورات اقتصادية، حيث تطلب ضرورة عرض طلب الإغلاق الكلي أو الجزئي للمنشاة أو تقليص حجم نشاطها على لجنة مختصة بذلك، وأجاز لذوي الشأن التظلم من قرار هذه اللجنة أمام لجنة أخري.
وتطلب المشرع المصري في طلب الإغلاق أن يشتمل على الأسباب التي يستند إليها صاحب العمل، وأعداد وفئات العمال الذين سيتم إنهاء عملهم ([118]).
وفي حالة الموافقة على طلب الإغلاق الكلي فان لصاحب العمل إنهاء عقود جميع العمال، وقضت محكمة النقض المصرية بأنه في حالة إغلاق المنشأة إغلاقاً نهائياً فان ذلك يستتبع إنهاء عقود العاملين فيها، واعتبرت المحكمة اشتراط حصول صاحب العمل على موافقة اللجنة المنصوص عليها قانونا أن هذا الإجراء هو من باب تقرير لقواعد تنظيمية لا يترتب على مخالفتها أن يكون الفصل تعسفياً ([119]).
وعلى ذلك يجوز لصاحب العمل أن ينهي عقود عماله إذا قرر إغلاق منشاته واعتزاله النشاط الذي يباشره نهائيا، ويعتبر ذلك مبررا مشروعا لإنهاء عقد العمل أياً كان السبب الذي دفع صاحب العمل لاتخاذ هذا القرار وبشرط ألا يكون هذا القرار بغرض الانتقام من العمال وتشريدهم ([120]).
بينما في حالة الإغلاق الجزئي أو تقليص حجم المنشاة أو حجم نشاطها فسيتم الاستغناء عن بعض العاملين فقط مما يثير معه التساؤل حول معيار اختيار العمال الذين سيتم الاستغناء عنهم.
حددت المادة (199) من قانون العمل المصري معايير تساعد في هذا الشأن، فإذا تضمنت اتفاقية العمل الجماعية السارية في المنشأة معايير موضوعية في هذا الصدد وجب إعمالها، وإذا لم تتضمن معايير وجب على صاحب العمل التشاور مع المنظمات النقابية.
وحدد المشرع المصري مجموعة معايير يمكن الاعتماد عليها في تحديد العمال الذين سيتم الاستغناء عنهم ومنها: الأقدمية، الأعباء العائلية، السن، القدرات والمهارات المهنية للعمال، كما تطلب المشرع ضرورة تحقيق التوازن بين مصالح المنشأة ومصالح العمال ([121]).
وعلى ذلك يجب استبقاء العامل الأقدم ويستغنى عن الأحدث في العمل، كما يستبقي العامل الذي تكون لديه أعباء عائلية أثقل من غيره، ويستبقي كذلك الأكبر سنا ويستغنى عن الأصغر سنا، حيث أن فرصة الأكبر سنا في الحصول على عمل أخر أصعب من غيره كما يكون أكثر خبرة من غيره، كما يتم الاعتماد على معيار الكفاءة والمهارة في العمل باعتبار أن البقاء في العمل ميزة يستحقها الأفضل ([122]).
وأجاز المشرع في الحالات التي يحق فيها لصاحب العمل إنهاء عقد العمل لأسباب اقتصادية بدلاً من إنهاء العمل أن يقوم بتعديل شروط العقد، بصفة مؤقتة، كما يحق لصاحب العمل تكليف العامل بعمل غير المتفق عليه حتى ولو كان يختلف عن عمله الأصلي، كما يجوز لصاحب العمل تخفيض أجر العامل بشرط ألا يقل عن الحد الأدنى للأجور ([123]).
وإن كنا نعتقد أن سبب إنهاء عقد العمل بسبب الظروف الاقتصادية هو أمر متعلق بظروف صاحب العمل المالية مثل إغلاق المنشأة بشكل كلي أو جزئي أو تقليص حجم النشاط.
ويعتبر إنهاء عقد العمل لأسباب اقتصادية، في حقيقته وجوهره، أثراً منعكساً لإجراء تفرضه الاعتبارات الاقتصادية، ففي هذه الاعتبارات تكمن بواعث الإنهاء، كما يعد الإنهاء عمل قانوني يرجع في وجوده ومصدره للإرادة، وتقدير الباعث عليه يرتكز على عناصر إيجابية، وعناصر سلبية مثل إلغاء الوظيفة وعدم اتصال الإنهاء بشخص العامل([124]).
ولم يتطرق المشرع للأسباب التكنولوجية سوى في إعطائه الحق لصاحب العمل في تدريب العمل وتأهيلهم بسبب التقنيات التي يمكن إدخالها في مجال العمل وهو الفرض الذي يمكن أن يترتب عليه فقط تغيير في طبيعة الأعمال التي تسند للعامل دون إنهاء عقده.
وفي ظل التقدم الهائل في مجال التقنيات الحديثة يأتي دور الذكاء الاصطناعي والتقنيات الحديثة في أتمتة الوظائف، أو كذلك في إدخال هذه التكنولوجيات الحديثة في مجال العمل والإنتاج مما قد يترتب عليه إنهاء عقود كثير من العمال واستبدالهم بالآلات التكنولوجية.
بينما عالج المشرع المصري فرض إنهاء عقد العمل لأسباب اقتصادية فقط دون التعرض للأسباب التكنولوجية التي يمكن أن يترتب عليها إنهاء عقد العمل وتسريح العمال.
ثانياً: إنهاء عقد العمل غير محدد المدة:
أجاز المشرع المصري لكلا من طرفي عقد العمل غير محدد المدة الحق في إنهاء العقد بالإرادة المنفردة ([125])، رفضاً من المشرع لتأبيد العلاقات التعاقدية، إذ لو تطلب ضرورة اتفاق الطرفين على إنهائه لأدى ذلك إلى إمكانية إجبار أحد الطرفين على التقيد بالعقد لمدة طويلة أو طوال حياته، مما يتنافي مع الحرية الشخصية ([126]).
كما أن إنهاء عقد العمل غير المحدد المدة بالإرادة المنفردة يحقق فوائد لكلاً من الطرفين: صاحب العمل، والعامل، فيحقق فائدة لصاحب العمل عند مواجهة ظروف مختلفة تحتم عليه إنهاء عقود بعض العمال، كما يحقق فائدة للعامل إذ قد يحصل على فرصة عمل أفضل أو بأجر أكبر.
وفي حق العامل لإنهاء عقد العمل غير محدد المدة قضت محكمة النقض المصرية([127]) بأنه ” النص في المادتين 110، 119 من قانونالعملالصادر بالقانون رقم 12 لسنة 2003 يدل على أن للعامل الحق في إنهاءعقدالعملغيرمحددالمدةبإرادته المنفردة شريطة أن يستند في ذلك إلى مبرر مشروع، وأن يخطر صاحبالعملكتابة بذلك، ومفاد ذلك أن استقالة العامل تنتج أثرها في إنهاء علاقةالعملبمجرد تقديمها دون توقف على قبول صاحبالعمللها، وحرصا من المشرع على مصلحة العامل وتحسبا لمظنة أن يكون العامل قد تعرض لثمة ضغوط دفعته إلى تقديم الاستقالة، فقد أجاز له المشرع أن يعدل كتابة عن هذه الاستقالة خلال أسبوع من تاريخ إخطاره من صاحبالعملبقبول الاستقالة، فإذا تمسك بالاستقالة ولم يعدل عنها كتابة فإنه يتعين الاعتداد بها في إنهاءعقدالعمل، والعلة في ذلك هي منع تأبيد عقودالعمل.“
وتجدر الإشارة إلى أن حق العامل في إنهاء عقد العمل غير محدد المدة بإرادته المنفردة هو أمر متعلق بالنظام العام، ويقع باطل الاتفاق على حرمانه منه أو تقييده، بينما يعتبر البعض أن إنهاء صاحب العمل للعقد غير محدد المدة لا يتعلق بالنظام العام ([128]).
وعلى ذلك، فقد أجاز المشرع لكلاً من الطرفين إنهاء العقد بالإرادة المنفردة بشرط إخطار أحد الطرفين للأخر من خلال إعلان أو أي إجراء أخر برغبته في الإنهاء، في المواعيد المقررة قانونا ([129])، ولا يجوز الاتفاق على الإعفاء من الأخطار أو تخفيض مدته وإن كان يجوز زيادة مدته، كما يجوز إعفاء العامل من مهلة الأخطار إذا كان الإنهاء من جانبه([130]).
ونعتقد انه بالنسبة لعقود العمل غير محددة المدة فأنها تعد المجال الخصب لإعمال تأثيرات الذكاء الاصطناعي على عقد العمل، حيث لا يتضمن هذا النوع من العقود التزامات على عاتق صاحب العمل تجاه عماله، مما تتيح له الأحكام القانونية بقانون العمل حق إنهاء عقود العمال في أي وقت، وحتي مع اشتراط المشرع المصري على صاحب العمل في حالة إنهائه أن يستند لمبرر قانوني، فقد أجاز له إنهاء العقد إذا ثبت عدم كفاءة العامل وفق ما تقرره اللوائح المعتمدة([131])، فإن صاحب العمل يستطيع التغلب على هذه الأمور ولن تقف عائقا أمامه في سبيل إنهاء عقد العامل.
وقضت محكمة النقض المصرية([132])بأنه” المقرر في قضاء هذه أن لصاحبالعملإنهاءعقدالعملغيرالمحددالمدةبإرادته المنفردة و أنه بهذا الإنهاء تنتهى الرابطة العقدية و لو كان الإنتهاء قد إتسم بالتعسف ، غاية الأمر أنه يعطى للعامل الحق فى مقابل مهلة الإنذار و التعويض عن الضرر إن كان له مقتضى” .
وعلى الرغم من محاولة المشرع المصري توفير قدر من الحماية للعمال حتى في حالتي الإغلاق الكلي والجزئي للمنشآت ([133])، إلا أنه الحماية المقررة بصدد قانون العمل لم تعد كافية على الإطلاق في عصر الذكاء الاصطناعي والروبوتات.
ويمكن أن تزداد صعوبة الأمر في حالة الذكاء الاصطناعي الذي يوصف بالقوي، وهو ما يقوم على فكرة التعلم الآلي، ولديه القدرة الكاملة على اتخاذ القرارات، فيمكن أن يتم إنهاء عقد العمل من خلال قرار نظام الذكاء الاصطناعي، بل والأكثر من ذلك قد يصعب للغاية معرفة سبب الإنهاء من قبل الخوارزميات القائمة على فكرة التعلم الآلي، حيث تدخل المعلومات التى تعتمد عليها فيما يعرف بالصندوق الأسود.
كما أن الحماية المقررة للعامل في ظل تنظيم أحكام عقد العمل غير المحدد المدة غير كافية أيضا لحماية العمال من شبح خطر يلاحقهم بسرعة كبيرة ويقضي على مصدر عيشهم ودخلهم وحقهم في العمل.
وقد ينعكس هذا الأمر بآثاره السلبية على الدولة بضرورة استيعاب أنظمة الحماية الاجتماعية لعدد أكبر من المستفيدين، مما تواجه معه الدول خاصة النامية منها والتي تمر بظروف اقتصادية صعبة إشكالية كبري حتى في مجال تمويل أنظمة الحماية الاجتماعية.
ونقترح أن ينص المشرع صراحة على عدم جواز فصل العامل إلا إذا بذل صاحب العمل كل الجهود فيما يتعلق بالتكيف والتدريب على التقنيات الحديثة المستخدمة في مجال العمل.
كما يكون للدولة دور هام في مجال توجيه المجتمع بكافة أطيافه نحو متطلبات سوق العمل الحديثة، والتشجيع على التعليم الفني والتقني، كما يجب أن تلتزم الدولة بإعداد سياسة تدريبية ومهنية متطورة يعاد النظر فيها على فترات زمنية متقاربة مراعاة لتأهيل العمال وفق متطلبات سوق العمل ([134]).
ومع ذلك فانه ليس من المؤكد أنها مسالة التدريب ستساعد كثيرا في الحفاظ على رابط العمل في ظل تكنولوجيات الذكاء الاصطناعي.
وفي الواقع، يجب على صاحب العمل التأكد من تكيف الموظفين مع التغييرات التكنولوجية في وظيفتهم من خلال تقديم تدريب إضافي وكاف لهم.
ومن المؤكد في مجال المهن والوظائف أنه إذا تم إلغاء وظيفة الموظف
بسبب وصول التقنيات التي تتضمن الذكاء الاصطناعي، فمن المؤكد أن
المناصب المماثلة في الشركة ستعاني من نفس المصير، ولذلك فمن المحتمل أن تكون الوظائف البديلة التي يمكن إسنادها للعمال بعيدة عن النشاط الأولي للموظف، وهذا يثير مخاوف من فشل منهجي إلى حد ما في إعادة التعيين، دون أن يكون صاحب العمل على خطأ ([135]).
وهذا ما يثير إشكالية إمكانية تعديل العمل المتفق عليه في عقد العمل
من قبل صاحب العمل ومدى أحقيته في تعديل العمل، وهذا ما سنعرض له في المطلب التالي.
المطلب الثاني
حالة تعديل العمل المتفق عليه
يعد الأصل أن يلتزم العامل بأداء العمل المتفق عليه في عقد العمل، ويعد في حكم العمل المتفق عليه الإحالة في تحديد العمل إلى لائحة النظام الأساسي التي تتضمن توصيف الوظائف وتقييمها.
قد يتضمن استخدام الذكاء الاصطناعي تحولات وظيفية بسبب أتمتة المهام التي كان ينفذها الأفراد سابقًا، فقد يُطلب أيضًا من العمال الذين تم تعديل وظيفتهم أداء مهام جديدة ناجمة عن هذه التقنيات.
ويعتبر تعديل عقد العمل من أهم عوامل استقرار العمالة أكثر من كونه وسيلة لانقضاء عقد العمل، لأنه يؤدى لاحتفاظ العامل بعمله وفق الشروط الجديدة، فالتعديل علامة من علامات استمرار الحياة في العقد، وبما يحقق المواءمة مع الظروف المستجدة والتي لم تكن متوقعة عند التعاقد([136]).
ونظرا للتطورات التكنولوجيا المتسارعة والتي لم يكن المشرع على علم بها وبتأثيراتها على العمال والوظائف خاصة في مجال الخوارزميات وتقنيات الذكاء الاصطناعي ومدى إمكانية تكيف القواعد القانونية الحالية لمواجهة آثار هذه التغيرات فان إجازة المشرع لإمكانية قيام صاحب العمل بتعديل في الوظائف القائمة بالفعل للعمال بما يتوائم مع المستجدات هو أمر حسن، فقد يعتبر ذلك بديلا عن حرمان العامل من فرصة العمل ومصدر الدخل له ولعائلته في عصر الذكاء الاصطناعي والتي ستحل فيه الخوارزميات محل العنصر البشري في علاقات العمل.
وأجاز المشرع لصاحب العمل نقل العامل إلى وظيفة أقل ميزة أو ملائمة من المركز القانوني الذي كان يشغله حتى ولو لم يرتكب العامل لأي خطأ، بل كان ذلك ما اقتضته مصلحة العمل، بل لم يعتبره المشرع عملاً تعسفياً من صاحب العمل ([137]).
واعتبرت محكمة النقض المصرية أن نقل العامل لوظيفة أخري مشروط بصالح العمل، حتى ولو كان النقل لوظيفة مماثلة من حيث الدرجة والمرتب والمركز الأدبي، فالحاكم الأساس هو لممارسة رب العمل لهذا الحق هو صالح العمل وإلا اعتبر متعسفاً([138]).
كما لا يجوز لصاحب العمل الخروج على الشروط المتفق عليها في عقد العمل الفردي أو اتفاقية العمل الجماعية أو تكليف العامل بعمل غير المتفق عليه إلا إذا دعت الضرورة إلى ذلك منعا لوقوع حادث أو لإصلاح الضرر الناشئ عنه أو في حالة القوة القاهرة، على أن يكون ذلك بصفة مؤقتة، وأجاز المشرع تكليف العامل بعمل غير المتفق عليه طالما لم يختلف عنه اختلافا جوهريا ([139]).
كما أعطى المشرع لصاحب العمل الحق في تدريب العامل وتأهيله للقيام بعمل مختلف عما كان يقوم به من قبل بما يتماشي مع التطور التقني بالمنشأة ([140]).
كما قرر المشرع الفرنسي التأكيد على التدريب المهني بما يتناسب مع الوظائف والأعمال المسندة للعامل، حيث يضمن صاحب العمل تكيف العاملين مع الأعمال المسندة إليهم، بما يضمن الحفاظ على وظائفهم، خاصة فيما يتعلق بتطور الوظائف والتقنيات المستخدمة، ويلتزم بتقديم التدريب الذي يساهم في تطوير المهارات خاصة في إطار الرقمية([141]).
ومن الضروري تحديد ما إذا كان التغيير في المهام الموكلة إلى العامل يشكل تعديلاً في عقد العمل أو ظروف العمل، فهذا التساؤل قد يبدو بسيطا، لكنه غير ذلك بسبب تأثيره على حقوق العمال، وسيؤدي بلا شك إلى دعاوى قضائية كثيرة.
ويتم تحديد العناصر الجوهرية وغير الجوهرية بالنسبة للتعديلات في الوظائف والمهن من خلال عدة أمور:
أولاً: الرجوع إلى شروط التعاقد، سواء بالنسبة لعقد العمل الفردي، أو كذلك عقد العمل الجماعي، فقد يرد فيها ما تم الاتفاق على اعتباره عنصرا جوهريا من عدمه، وقد يتضمن العقد العناصر الجوهرية بحيث يعتبر ما عداها من العناصر غير الجوهرية.
ثانياً: في حالة عدم وجود اتفاق في عقد العمل على العناصر الجوهرية فان ذلك لا يفسر بقبول العامل قبولا ضمنيا بكل ما يصدر عن صاحب العمل من قرارات أثناء تنفيذ العقد، لذلك يجب الرجوع هنا إلى نية المتعاقدين لمعرفة حقيقة التعديل ومدى اعتباره جوهرياً([142]).
ويجب البحث عن نية المتعاقدين وقت التعاقد وليس وقت التعديل فلا يجوز الاعتداد بالظروف الشخصية للعامل في وقت لاحق على إبرام التعاقد لتقدير مدى جوهرية التعديل.
ويبدو في البداية الاعتقاد بأنه عندما يمكن وصف نمط “التغيرات التكنولوجية” بعد إدخال التكنولوجيا بما فيها أنظمة الذكاء الاصطناعي في بيئة العمل، فإن هذا يشير إلى أن تحولًا كبيرًا في المهن والوظائف قد حدث على الأرجح، وبالتالي يمكن تحليلها بسهولة على أنها تعديل لعقد العمل.
ومن ثم يبدو أنه من الممكن إثبات وجود صلة وثيقة بين توصيف “التغيرات التكنولوجية” والاعتراف بـتعديل أداء العمل.
إذن، يمكننا القول أنه في كثير من الأحيان عند وصول شركة تكنولوجيات مبتكرة ومتطورة مثل الذكاء الاصطناعي لمجالات الأعمال المختلفة لدى أصحاب الأعمال ويتم استخدام هذه التكنولوجيات بالفعل فان ذلك يعني بالضرورة تعديلًا كبيرًا في المهن والوظائف.
ومع ذلك يظل هذا التكييف خاضعا للسلطة التقديرية لقضاة الموضوع على حسب كل حالة، ومدى اعتبار إدخال التكنولوجيا في بيئة العمل سيؤدى إلى تعديل مؤثر في وظيفة العامل.
وقد صدر حكم عن الغرفة الاجتماعية بمحكمة النقض الفرنسية فيما يتعلق بتأثير إدخال برنامج Watson على ظروف عمل الموظفين([143]).
وأقرت محكمة النقض الفرنسية موقف القضاة لاعتبارهم أن إدخال هذه الأداة لا يشكل مشروعاً هاماً يبرر الاستعانة بخبير، حيث أن هذه التكنولوجيا تسببت في عواقب طفيفة في ظروف العمل المباشر للموظفين الذين سيقومون بأداء مهامهم بشكل أسهل من خلال استخدامها.
وعلى ذلك لم تعتبر محكمة النقض الفرنسية أن إدخال برنامج تكنولوجي معين في مجال العمل مشكلاً لتعديل في وظيفة العامل وبالتالي تعديل في أحكام عقد العمل.
ويمكن النظر في قضاء الغرفة الاجتماعية بمحكمة النقض الفرنسية أن هذا القضاء يقدم رسالة مهمة، ولو على الأقل رمزيًا، مفادها أن إدخال الذكاء الاصطناعي في الشركة قد يكون لها تأثير ضئيل فقط على عمل العمال وعدم التعديل في الوظائف وبالتبعية عدم التعديل في عقد العمل.
ولكن قد لا يكون الأمر كذلك في ظل التطور المستمر والهائل في أنظمة الذكاء الاصطناعي والخوارزميات، حيث يمكن اليوم الاعتماد على أنظمة الذكاء الاصطناعي بشكل أفضل من قبل، حيث تستطيع هذه الأنظمة القيام بكل الأعمال البشرية في مجال الأعمال، بل وبشكل أفضل وأكثر أماناً لصاحب العمل، الأمر الذي يتطلب معه إعادة النظر بشأن حقوق العمال.
وبعد أن عرضنا لتأثير الخوارزميات وأنظمة الذكاء الاصطناعي المختلفة على الحق في العمل، وهو الحق الذي يسعى كل إنسان نحو الاستفادة منه بهدف العيش في حياة كريمة وإحساس بالذات والاستقلالية، والتي أصبحت كل هذه الأمور محل شك في عصر الذكاء الاصطناعي ما لم يتنبه لذلك المشرعين وأخذ التقدم الهائل في مجال الذكاء الاصطناعي بعين الاعتبار والحذر.
ونعرض الآن لصورة أخري من صور الذكاء الاصطناعي المستخدم في مجال الأعمال المختلفة، بل والمستخدم على نطاق واسع، وهو ما يسمى بالمراقبة الالكترونية في بيئة العمل، وتأثيراتها المختلفة على الحقوق الأساسية للعمال، وهذا ما سنعرض له في الفصل التالي.
الفصل الثاني
المراقبة الالكترونية في مكان العمل
لقد غيّر عصر المعلومات بشكل جذري الإطار القانوني والتنظيمي التقليدي للعمل من خلال طمس الحدود التي كانت واضحة بين حياة العامل الشخصية والمهنية.
ويتم تسهيل هذه التطورات بشكل مناسب من خلال أنظمة وأدوات المعلومات المناسبة التي يوفرها أصحاب العمل، إلا أن هذه الأنظمة والأدوات نفسها تسهل اقتحام الحياة المهنية في المجال الشخصي، وأحياناً تدخل صاحب العمل في الحياة الخاصة لموظفيه وعماله.
وتعتمد أنظمة الذكاء الاصطناعي، في المقام الأول، على البيانات التي يتم تجميعها، سواء تم تجميعها من خلال إدخال العنصر البشري لها بتغذية معلوماتية أو من خلال تطوير برامج الذكاء الاصطناعي القوية والتي تعتمد على الاستقلال الذاتي في تجميع البيانات.
وفي ظل التقدم الهائل في مجال الاتصالات وتكنولوجيا المعلومات يستطيع أصحاب الأعمال اللجوء لأنظمة المراقبة الالكترونية في بيئة العمل، بما يحقق ذلك فوائد عديدة لأصحاب الأعمال ولعملية الإنتاج، إلا أن نظام المراقبة الالكترونية يكتنفه الكثير من الشكوك حول تدخله في مجالات يجب أن ينأى عنها مثل الإخلال بحق الخصوصية للعمال، والحق في حماية البيانات الشخصية لهم.
ونعرض من خلال هذا الفصل لمبحثين: نعرض في المبحث الأول لمبررات وصور المراقبة الالكترونية، ونعرض في المبحث الثاني لتأثير المراقبة الالكترونية على الحقوق الأساسية للعمال.
المبحث الأول
صور المراقبة الالكترونية ومبرراتها
يحتاج أصحاب الأعمال لتجميع البيانات المختلفة عن العمال من أجل أمور متعددة، وقد سمح المشرع في قانون العمل لأصحاب الأعمال بإنشاء سجلات بيانات خاصة بالموظفين والعمال لديهم.
وفي ظل اتجاه أصحاب الأعمال لاستخدام التقنيات الحديثة تظهر أهمية المعلومات التي يمكن اعتبارها شريان حياة الذكاء الاصطناعي.
ومن خلال التقدم الهائل في مجال التكنولوجيا التي شهدها العالم خلال السنوات القليلة الماضية، فان مراقبة العمال من خلال الوسائل الالكترونية الحديثة بتقنياتها المختلفة وصورها المتعددة تستدعى منا الوقوف أمامها والبحث في نطاق مشروعيتها وأهدافها ومدى تأثيرها على الحقوق الأساسية للعمال.
ونعرض من خلال هذا المبحث لمبررات المراقبة الالكترونية وهذا ما سنبينه في المطلب الأول، ثم نعرض لصور المراقبة الالكترونية في المطلب الثاني.
المطلب الأول
مبررات المراقبة الالكترونية في بيئة العمل
تعتبر البيانات هي شريان الحياة للذكاء الاصطناعي، وفي الواقع، في مكان العمل، لا يمكن فصل الذكاء الاصطناعي عن التكنولوجيا المستخدمة لجمع البيانات حيث يتم إنشاء خوارزميات الذكاء الاصطناعي من مجموعات كبيرة من البيانات التي يجمعها الكمبيوتر وينظمها ويحللها للتنبؤ بالنتائج وتحقيق هدف محدد.
إن الهدف من الذكاء الاصطناعي للموارد البشرية -أو “تحليلات الأشخاص”، كما يُطلق عليها غالبًا -هو إجراء عملية تتسم بالكفاءة والأمان والإنتاجية والفعالية، ويعتمد الذكاء الاصطناعي على البيانات التاريخية من مكان عمل واحد أو أكثر لتحديد خط الأساس وتحديد الأنماط، ثم يستخدم بيانات حول العمليات الجارية لعقد المقارنات وتحديد الانحرافات وإجراء التنبؤات.
ومن ثم، يحتاج أصحاب العمل إلى جمع البيانات حول موظفيهم والعاملين لديهم من أجل تطوير الذكاء الاصطناعي وتنفيذه والاستفادة منه.
ويلجأ أصحاب الأعمال للمراقبة الالكترونية كآلية فاعلة لتحقيق هذا الهدف، ومع ذلك، فإن تكنولوجيا المراقبة الحالية لديها القدرة على تسهيل التدخل الهائل في خصوصية الموظف داخل وخارج مكان العمل، وتثير مجموعة من المخاوف القانونية الأخرى.
وتظهر العديد من الأبحاث أن الأسباب الكامنة وراء الأشكال الجديدة من سيطرة أصحاب الأعمال باستخدام الوسائل الحديثة وحددت هذه الأسباب أنها بهدف زيادة الإنتاجية، والأسرار التجارية، والمسؤولية القانونية، ومنع الاعتراف غير المرغوب فيه بالشركة، وتقييم الأداء ([144]).
كما يستخدم أصحاب العمل بشكل متزايد تقنيات المراقبة الإلكترونية لمراقبة ما يفعله العاملون في العمل ومراجعة اتصالاتهم الإلكترونية ([145]).
ويرى المدافعون عن حقوق العمال والموظفين أن ممارسات المراقبة الإلكترونية أدت إلى تآكل حقوق خصوصية الموظفين والعمال بشكل كبير ([146]).
ومع ذلك، يؤكد أصحاب العمل أن هناك العديد من الأسباب التجارية الوجيهة لمراقبة الموظفين والعمال إلكترونيًا في مكان العمل، بما في ذلك:
– مراقبة إنتاجية الموظف في مكان العمل([147]).
– تحقيق أقصى قدر من الاستخدام الإنتاجي لنظام الكمبيوتر الخاص بصاحب العمل عندما يستخدم الموظفون أجهزة الكمبيوتر في العمل ([148]).
– مراقبة امتثال الموظف لسياسات مكان عمل صاحب العمل المتعلقة باستخدام أنظمة الكمبيوتر وأنظمة البريد الإلكتروني والوصول إلى الإنترنت.
– التحقيق في شكاوى سوء سلوك الموظفين، بما في ذلك شكاوى التحرش والتمييز ([149]).
– لمنع أو اكتشاف التجسس الصناعي، مثل سرقة الأسرار التجارية وغيرها من معلومات الملكية، أو انتهاك حقوق النشر، أو انتهاك براءات الاختراع، أو انتهاك العلامات التجارية من قبل الموظفين والغير ([150]).
– لمنع أو الرد على الوصول غير المصرح به إلى أنظمة الكمبيوتر الخاصة بصاحب العمل، بما في ذلك الوصول من قبل قراصنة الكمبيوتر.
– لحماية شبكات الكمبيوتر من التحميل الزائد بالملفات الكبيرة القابلة للتنزيل.
– لمنع أو اكتشاف الاستخدام غير المصرح به لأنظمة الكمبيوتر الخاصة بصاحب العمل في الأنشطة الإجرامية والإرهاب ([151]).
– للمساعدة في إعداد دفاع صاحب العمل في الدعاوى القضائية أو الشكاوى الإدارية مثل تلك التي يرفعها الموظفون والمتعلقة بالتمييز أو التحرش أو التأديب أو إنهاء العمل ([152]).
وستظل المخاوف قائمة بشأن انتهاك خصوصية العمال، وعلى وجه الخصوص، فإن مشكلة ما يسمى “الضوابط التكنولوجية” للجيل الجديد (التي تتمثل في إمكانية قيام صاحب العمل بقراءة كل عملية يتم تنفيذها بواسطة الكمبيوتر، وتسجيلها تحت شكل رمز تكنولوجيا المعلومات) تتطلب توازنًا دقيقًا بين ضرورة الدفاع عن حق العامل في الخصوصية والمصلحة المضادة لصاحب العمل في استخدام الأدوات التكنولوجية المتاحة فيما يتعلق بجمع ومعالجة المعلومات المتعلقة بموظفيه ([153]).
المطلب الثاني
صور المراقبة الالكترونية في مجال العمل
تمثل المراقبة الالكترونية إحدى التقنيات الهامة لأنظمة الذكاء الاصطناعي، ويمكن لأصحاب الأعمال استخدامها لتحقيق أهداف وغايات عدة، سواء اتسم ذلك بالمشروعية من عدمه، وان كان يجب أن يتسم استخدام التقنيات الحديثة في مجال الأعمال بالمشروعية.
ومن خلال التقدم الكبير في مجال التكنولوجيا والذكاء الاصطناعي يستطيع صاحب العمل جمع كم هائل من المعلومات حول العاملين لديه سواء تمت هذه المراقبة داخل بيئة العمل أو خارجها.
ونعرض من خلال هذا المطلب للمراقبة الالكترونية داخل بيئة العمل (الفرع الأول) كما سنعرض للمراقبة الالكترونية خارج نطاق العمل (الفرع الثاني).
الفرع الأول
المراقبة الالكترونية داخل بيئة العمل
يمكّن الذكاء الاصطناعي والمراقبة الإلكترونية أصحاب العمل من المشاركة في مراقبة العمال بطرق يمكن القول إنها أكثر فعالية اليوم عن ذي قبل.
ومن الجدير بالذكر أن مصطلح المراقبة الإلكترونية يُستخدم بمفاهيم ثلاثة مختلفة وذلك على النحو التالي:
أولاً: المراقبة الالكترونية تتضمن استخدام صاحب العمل للأجهزة الإلكترونية لمراجعة وتقييم أداء العمال.
على سبيل المثال، يجوز لصاحب العمل استخدام جهاز كمبيوتر لاسترداد ومراجعة رسائل البريد الإلكتروني الخاصة بالموظف المرسلة من وإلى العملاء من أجل تقييم أداء الموظف كممثل لخدمة العملاء.
ثانياً: تشمل المراقبة الإلكترونية على استخدام صاحب العمل للأجهزة الإلكترونية لمراقبة تصرفات العمال أثناء عدم قيامهم بمهام العمل بشكل مباشر، أو لسبب آخر غير قياس أداء عملهم.
وعلى سبيل المثال، يجوز لصاحب العمل مراجعة رسائل البريد الإلكتروني الخاصة بالعامل إلكترونيًا كجزء من التحقيق في شكوى تتعلق بقيام العامل بسلوك غير مشروع.
كما قد تتضمن المراقبة الإلكترونية من قبل صاحب العمل أيضًا الامتثال لمذكرة تفتيش حكومية تسعى للحصول على البريد الصوتي للموظف أو اتصالات البريد الإلكتروني على أنظمة صاحب العمل.
ثالثًا: تشمل المراقبة الإلكترونية استخدام صاحب العمل للطب الشرعي الحاسوبي، واستعادة البيانات الإلكترونية وإعادة بنائها بعد حذف البيانات أو إخفائها أو محاولة تدميرها([154]).
على سبيل المثال، يجوز لصاحب العمل استخدام برامج متخصصة لاسترداد رسائل البريد الإلكتروني المتعلقة بالتحقيق في سرقة مزعومة لأسراره التجارية عن طريق استرجاع وإعادة بناء رسائل البريد الإلكتروني التي أرسلها العامل إلى شخص خارج نطاق العمل.
ومن المؤكد أنه يحق لصاحب العمل الإشراف على أداء العمل، والتحقق من تواجد الموظفين، واحترام ساعات العمل (من أجل حساب الأجر)، على سبيل المثال من خلال شارة، والتي أصبح استخدامها الآن على نطاق واسع مُطبَّق، حيث تسجل البطاقة الممغنطة (الشارة) الدخول والخروج من وإلى المصنع، وبالتالي لا يمكن مقارنتها بمراقبة صاحب العمل عن بعد.
ولا يبدو بشكل ظاهر تعارض هذا النظام مع حقوق العمال في الخصوصية وكذلك في حماية البيانات الشخصية لأن مثل هذا النظام، من ناحية، يتعلق بالبيانات الخارجة كلياً عن أداء العمل، ومن ناحية أخرى، يتم تفعيله، من وقت لآخر الوقت، من قبل كل موظف من خلال إدخال البطاقة الممغنطة ([155]).
ومن ثم فإن أنظمة المراقبة الإلكترونية، إذا كانت موجهة حصريًا للتحقق من حضور العمال، فإنها لا تطرح مشاكل خاصة فيما يتعلق بحماية خصوصية العمال الخاضعين لهذه المراقبة.
في قضية نظرتها المحكمة العليا الإيطالية ([156])، تم فصل الموظف على الفور بسبب اعتياده الدخول والخروج من المكتب أثناء ساعات العمل لشؤونه الخاصة، وهو الظرف الذي استنتجه صاحب العمل من خلال فحص البيانات فيما يتعلق بالشارة التي يستخدمها الموظفون للوصول إلى منشآت الشركة: واجبات العامل تتطلب تواجده الدؤوب في المكتب، وبالتالي فإن ترك المكتب كما هو موضح يعني ضمنيًا عدم قيامه بأداء العمل.
في هذه الحالة بالذات، قامت الشركة، من أجل مساعدة موظفيها في شراء السيارات، بتجهيز مكان لهم في الشركة حيث يمكنهم ركن سياراتهم أثناء ساعات العمل، ولكنها أدخلت جهازًا أمنيًا يهدف إلى السماح بالوصول إلى المرآب فقط عن طريق شارة مخصصة لكل موظف، وهي نفس الشارة المفعلة للدخول إلى المكاتب. وكذلك رفع الحاجز عند مدخل (والخروج) من المراب، والتقطت الآلية من الشارة، وسجلت، هوية المارة وكذلك وقت المرور، مما سمح، من خلال التحقق من هذه البيانات مع التقاطها إلكترونيًا عند مداخل المكاتب، والتحقق من احترام أو غير ذلك لمواعيد الدخول والخروج وحضور الموظفين إلى مكان العمل.
أعلنت المحكمة العليا أنها “معدات مراقبة… مصممة لصالح الموظف، ولكن يمكن استخدامها أيضًا كوظيفة أخرى، لمراقبة امتثالهم لواجباتهم المتمثلة في الاجتهاد فيما يتعلق باحترام ساعات العمل والأمانة نفسها في أداء عملهم….”:
ويترتب على ذلك أن هذه المراقبة ضرورية، بموجب المادة الرابعة، الفقرة الثانية من قانون العمال، وبالنسبة للمعدات المتنازع عليها التي سيتم تركيبها بالاتفاق مع ممثلي النقابات العمالية للشركة أو السماح بها من خلال تدخل المكتب العام للعمل، بحيث يكون الموظفون على علم كامل بها ويمكنهم أن يتخذوا بوضوح التدابير اللازمة لحماية كرامتهم وخصوصيتهم.
وفي هذه الحالة بالذات، لم يتم الالتزام بالإجراء المنصوص عليه في قانون العمال، وبالتالي “لا يمكن لنتائج مثل هذه المراقبة على نشاط العامل أن تضع أسس قرار الفصل”.
وهناك العديد من الطرق التي يمكن لأصحاب العمل من خلالها استخدام تكنولوجيا الجديدة لمراقبة مكان العمل، يجوز لأصحاب العمل مراقبة استخدام العمال للوحات مفاتيح الكمبيوتر.
على سبيل المثال، قد تتم برمجة أجهزة الكمبيوتر لمراقبة الموظفين الكتابيين عن طريق تسجيل عدد ضغطات المفاتيح في الدقيقة، والوقت المحدد وموقع أي أخطاء، ومقدار الوقت المستغرق لإكمال كل مهمة، وطول المدة.
وتوجد المراقبة الإلكترونية في كل مكان وغير مرئية ودائمة، على سبيل المثال، تستخدم الشركات الذكاء الاصطناعي لتقييم مدى سرعة إنجاز العمال لكل مهمة ومراقبة العمال الذين قد يكونون نائمين أو يسيئون التصرف.
كما يمكن استخدام الذكاء الاصطناعي للاستماع إلى مكالمات خدمة العملاء وتقييم الموظفين من حيث التعاطف ومدى سرعة وفعالية حل الشكاوى.
كما يمكن من خلال تقنيات الذكاء الاصطناعي المستخدمة في عملية المراقبة توجيه تحذيرات للعمال إذا اشتبهت في أنهم يتكاسلون أو على وشك مشاركة مستندات سرية.
كما أن التطور الهائل في تقنيات الذكاء الاصطناعي يسمح لأصحاب الأعمال استخدام أجهزة الاستشعار الموجودة على كراسي الموظفين وتشير من خلالها لعدد المرات التي يقضيها الموظف في مكتبه والمدة التي يقضيها في فترات الراحة([157]).
ويقوم العديد من أصحاب العمل بتثبيت أجهزة GPS على هواتف الموظفين بالإضافة إلى المركبات التي يمكنها تتبع كل تحركات موظفيهم، سواء داخل العمل أو خارجه ([158])، كما بدأ أصحاب العمل في مطالبة موظفيهم بارتداء أجهزة تتبع يمكن ارتداؤها([159]).
من المؤكد أن بعض عمليات المراقبة المدعومة بالذكاء الاصطناعي تكون حميدة أو حتى بناءة بما يحقق أمن وسلامة العمال، فيمكن للرؤية الحاسوبية المعززة بالذكاء الاصطناعي أن تضمن عدم دخول العمال إلى مناطق العمل الخطرة بدون معدات السلامة، مثل القبعات الصلبة والقفازات ويمكنهم مراقبة أرضية المصنع بحثًا عن علامات الخطر.
يمكن للسترات و”الهياكل الخارجية” القابلة للارتداء أن تمكن العمال من أداء المهام البدنية الشاقة بشكل أكثر أمانًا، على سبيل المثال، الهيكل الخارجي الصناعي Ekso Works))، الذي أنشأته شركة (Ekso Bionics)، عبارة عن بدلة إلكترونية تمكن مرتديها من رفع الأدوات الثقيلة كما لو أنها لا تزن شيئًا على الإطلاق، وتمكن الأجهزة المماثلة العمال ذوي القدرات المحدودة والخاصة على الحركة من خلال أداء رفع الأحمال الثقيلة([160]).
ومع كل هذه الإمكانات والقدرات الهائلة للذكاء الاصطناعي والتي يمكن استخدامها بشكل ايجابي في مجال الأعمال إلا أن هذه التقنيات لها من السلبيات ما يثير الكثير من القلق والمخاوف على حقوق العمال مثل انتهاك الحق في الخصوصية وقمع المعارضة، ومعاقبة مؤيدي النقابات، وتقويض حقوق العمال.
ولقد أثار العديد من العلماء تخوفهم من الافتقار الشديد في البنية التشريعية لحماية خصوصية العمال في مواجهة المراقبة التكنولوجية لصاحب العمل([161]).
الفرع الثاني
المراقبة الالكترونية خارج بيئة العمل
بالإضافة إلى مراقبة السلوك أثناء العمل، يمكّن الذكاء الاصطناعي أصحاب العمل من مراقبة السلوك خارج العمل (خاصة عبر الإنترنت) بشكل مستمر وعلى نطاق واسع.
اليوم، يقوم أصحاب العمل عادةً – من خلال تقنيات الذكاء الاصطناعي-بمراجعة حسابات وسائل التواصل الاجتماعي المتاحة للعامة الخاصة بمقدمي طلبات التوظيف والتعيين حتى يتمكن صاحب العمل من اتخاذ قراره، ولتحديد ما إذا كان تاريخ وسائل التواصل الاجتماعي لمقدمي طلبات التعيين يجب أن يؤدي إلى استبعادها من التعيين أم لا.
وحتى بالنسبة للعمالة القائمة بالفعل غالبًا ما يتم طرد الموظفين والعمال الحاليين بسبب منشورات أو تغريدات غير لائقة على وسائل التواصل الاجتماعي([162]).
وإذا كان عدد قليل من أصحاب العمل لديهم الوقت أو الرغبة في مراقبة حسابات وسائل التواصل الاجتماعي لموظفيهم على نطاق واسع، فان الأمر سيختلف اليوم لان تطبيقات الذكاء الاصطناعي الناشئة التي يمكن أن تشارك في عمليات واسعة النطاق ودائمة لوسائل التواصل الاجتماعي وستغير وتيرة واختراق وتنصت أصحاب العمل على وسائل التواصل الاجتماعي.
ويمكن للشركات الآن استخدام الذكاء الاصطناعي لمراقبة اتصالات العمل الخاصة بالموظف أثناء العمل واتصالات وسائل التواصل الاجتماعي خارج أوقات العمل بشكل شامل.
لدى أصحاب العمل بعض الأسباب المشروعة لاستخدام الذكاء الاصطناعي لمراقبة سلوك الموظفين خارج أوقات العمل وعلى الإنترنت، حيث قد تشير المنشورات العنصرية أو إلى الميل إلى السلوك العنصري في مكان العمل وكذلك المشاركات العدوانية إلى شخصية متنمرة، ويمكن أن يكون المنشور الذي يحتوي على اسم الشركة وكلمات أو عبارات مثل “بندقية” أو “أطلق النار” أو “ينفجر” علامة حمراء لأعمال عنف وشيكة في مكان العمل.
ويمكن أن تثير المشاركات التي تشير إلى الاستخدام غير القانوني للمخدرات أو الإفراط في استهلاك الكحول مخاوف تتعلق بالسلامة في مكان العمل، كما يمكن أن تؤثر على المنتجات والإضرار بسمعة صاحب العمل.
ومع ذلك تظل هناك خطورة كبيرة وإشكاليات قانونية بشأن البيانات التي تم جمعها من خلال استخدام وسائل المراقبة الالكترونية سواء داخل العمل أو خارجه.
لأن التكنولوجيا لا تخلق إمكانية المراقبة الشديدة التدخل فحسب، بل إنها تثير أيضا تساؤلات حول الكيفية التي قد يستخدم بها أصحاب العمل البيانات التي يجمعونها عن أداء الموظفين، ومع من سيتقاسمون هذه البيانات، وإلى متى سيحتفظون بها.
ويهدد جمع البيانات المعززة بالذكاء الاصطناعي والاحتفاظ بها والقدرات التحليلية بإنشاء سجل دائم لإنتاجية الموظف ونشاطه وسماته الطبية والفسيولوجية.
وقد يزعم أصحاب الأعمال أن البيانات المجمعة بواسطة الذكاء الاصطناعي سيتم جمعها بشكل إجمالي فقط، وليس على العاملين بشكل فردي، من أجل
توفير تحليلات لوحة المعلومات التي تمكن المديرين من مراقبة أداء المجموعات والأقسام.
المبحث الثاني
تأثير المراقبة الالكترونية على الحقوق الأساسية للعمال
تواجه أنظمة الذكاء الاصطناعي وتطبيقها الواسع النطاق العديد من التحديات، فبالإضافة إلى التحديات القانونية والتنظيمية، أنتجت الأنظمة الخوارزمية مشاكل غير مسبوقة لحوكمة الشركات، منذ ظهور البيانات الضخمة، عالجت الشركات العديد من القضايا المتعلقة بحماية خصوصية البيانات وحوكمة ابتكارات الذكاء الاصطناعي، وتواجه الشركات بشكل مباشر مشهدًا متغيرًا لتشريعات خصوصية البيانات التي تتطلب منها اعتماد نماذج أعمال معدلة وسياسات خصوصية تحترم حقوق الأفراد. وفي الوقت نفسه، قد تواجه الشركات صعوبة في الامتثال لقواعد خصوصية البيانات المعقدة التي يمكن أن تعطل تطبيقات الأعمال الخاصة بالذكاء الاصطناعي وتزيد من خطر الانتهاكات([163]).
فإذا كانت المعلومات هي شريان حياة الذكاء الاصطناعي، فان ذلك يستدعى منا الحذر حول تأثير جمع المعلومات -من خلال المراقبة الالكترونية للعمال باستخدام الأنظمة الحديثة للذكاء الاصطناعي- على الحقوق الأساسية للعمال، وبصفة خاصة الحق في الخصوصية، والحق في حماية البيانات الشخصية.
ويعتبر احترام الحياة الخاصة والعائلية للأفراد من الحقوق الدستورية في مصر([164])، ويعتبر أيضًا الحقوق الأساسية للاتحاد الأوروبي([165]).
ونعرض من خلال هذا المبحث لمطلبين نبين في أولهما تأثير المراقبة الالكترونية على الحق في الخصوصية، ونعرض في المطلب الثاني حماية الحق في البيانات الشخصية.
المطلب الأول
تأثير المراقبة الالكترونية على الحق في الخصوصية
تعد الخصوصية إحدى الحقوق الأساسية للإنسان، بل يرتقي الحق في الخصوصية ليعد مبدأ أساسيا من مبادئ الكرامة الإنسانية.
وتعرف الخصوصية بأنها “الحق في أن تُترك وشأنك”([166])، ومن المعترف به عالميًا أن الحق في الخصوصية هو حق فردي وشخصي ذو أصول فلسفية وأخلاقية.
ومع ذلك، فإن ما يتضمنه هذا الحق غالبًا ما يكون موضع نقاش نظرًا
لوجود تفسيرات متضاربة حول أنواع الخصوصية التي تتطلب الاعتراف القانوني والحماية([167]).
وتعد خصوصية المعلومات (الحق في ترك المعلومات الشخصية للفرد) هي
من الأمور الهامة المعترف بحمايتها تاريخيا([168])، كما يمتد الحق في الخصوصية
ليشمل الخصوصية الجسدية (الحق في تركها فيما يتعلق بشخصه و البيئة
المحيطة)، وخصوصية اتخاذ القرار (الحق في ترك الفرد بمفرده فيما يتعلق بقراراته الشخصية).
ومع ذلك، يتم التعامل مع الحق في الخصوصية على أنه أقرب إلى الملكية الشخصية([169]). وعلى هذا النحو، يجوز المساومة عليها واستبدالها بحقوق وامتيازات أخرى، بما في ذلك تلك التي يتم الحصول عليها في علاقة العمل.
وبمعنى آخر، بما أن الخصوصية ملك للفرد، فمن الممكن أن يقايضها الفرد مقابل شيء ذي قيمة متناسبة، مثل الوظيفة.
ويختلف القانون الأميركي في هذا المجال عن معظم القوانين الأخرى في العالم، والذي يتجه لاعتبار أن الحق في الخصوصية هو مبدأ أساسي من مبادئ الكرامة الإنسانية([170]).
وتعني الكرامة الإنسانية منح الاحترام والمكانة المناسبين للإنسان، ومعاملته بطريقة تسمح أو تمكن الفرد من أن يعيش وجودًا لائقًا.
وعلى عكس حقوق الخصوصية الخاصة بالملكية، فإن الكرامة الإنسانية لا يتولدها الفرد، بل يخلقها المجتمع ويمنحها للفرد.
وبالتالي لا يمكن مقايضتها أو تبادلها بموجب المفاهيم التقليدية للتوظيف حسب الرغبة وقانون العقود كما هو موضح في قانون الولايات المتحدة([171]).
على سبيل المثال، من غير القانوني بموجب قوانين التمييز الفيدرالية الأمريكية أن يعامل صاحب العمل الموظفين بشكل مختلف فيما يتعلق بشروط وأحكام العمل على أساس الجنس أو العرق أو اللون أو الأصل القومي أو الدين أو العمر أو الإعاقة.
وبشكل عام، العديد من عاملي القطاع الخاص في الولايات المتحدة هم عاملون حسب الرغبة([172])، ويتنازلون عن أي حقوق في الخصوصية في مكان العمل من خلال الموافقة على العمل لدى صاحب العمل.
ومن خلال أنظمة المراقبة الالكترونية تقوم الشركات التي تستخدم الذكاء الاصطناعي بجمع كميات هائلة من المعلومات حول حياة العمال وعاداتهم وتصرفاتهم العملية التي يمكن أن تؤثر على فرص عملهم طوال حياتهم المهنية.
وتثير المراقبة الإلكترونية مشكلات قانونية محتملة تتعلق بخصوصية العامل، هناك العديد من القوانين الفيدرالية وقوانين الولايات المتحدة بالإضافة إلى مبادئ القانون العام التي تحمي بعض جوانب خصوصية الموظفين، ولكن تم سن هذه القوانين قبل أن يتيح الذكاء الاصطناعي عملية الجمع والتحليل الضخمة من البيانات المتاحة لأصحاب العمل اليوم، وبالتالي، فهي لا تعالج مشكلة حجم ونطاق قدرات المراقبة الحالية([173]).
علاوة على ذلك، لا تتطلب القوانين الحالية ولا القانون العام من أصحاب العمل الحصول على أي شكل من أشكال الموافقة قبل استخدام الذكاء الاصطناعي لمراقبة الموظفين (خاصة في العمل) واستخدامهم لوسائل التواصل الاجتماعي.
ومن القوانين الفيدرالية الأمريكية، ذات الصلة ، قانون خصوصية الاتصالات الإلكترونية (ECPA))([174])، والتي تتضمن قانون التنصت وقانون الاتصالات المخزنة، وقانون الاحتيال وإساءة استخدام الكمبيوتر([175]).
بالإضافة إلى ذلك، هناك اثنتي عشرة ولاية لديها قوانين تحظر تسجيل المحادثات دون موافقة جميع الأطراف([176]).
يعتبر قانون EPCA، المعروف باسم قانون التنصت ذو قابلية تطبيق محدودة لمنع مراقبة أصحاب العمل لأنه يحظر فقط اعتراض المعلومات الإلكترونية، وليس الوصول إلى المعلومات التي تمت بالفعل وتم نقلها([177])، علاوة على ذلك، فإنه لا ينطبق على الاتصالات التي وافق عليها أحد الأطراف، وإذا كان أصحاب العمل يمتلكون البريد الإلكتروني أو نظام الاتصالات الذي يستخدمه الموظفون، فيمكن اعتبار الموظفين قد أعطوا الموافقة([178]).
كما لا ينطبق قانون التنصت أيضًا على أشكال المراقبة الأخرى، مثل نظام تحديد المواقع العالمي (GPS) والأجهزة الإلكترونية القابلة للارتداء.
كما أن قانون الاتصالات المخزنة (SCA)، محدود أيضًا في قدرته على حماية خصوصية العمال([179]).
تحمي (SCA) الاتصالات الخاصة للأفراد الموجودة في المخزن الإلكتروني لدى أطراف ثالثة مختصة بذلك، وعلى الرغم من عدم النص صراحةً على حماية حسابات وسائل التواصل الاجتماعي، إلا أن هذه الحسابات تقع ضمن تعريف القانون للتخزين الإلكتروني.
ومع ذلك، من غير المرجح أن لا يكون محتوى الوسائط الاجتماعية المتاح للعامة محميًا بواسطة (SCA)، لأن هذا المحتوى لا يعتبر “خاصًا”.
من ناحية أخرى، قد يكون المحتوى الذي تمت مشاركته بشكل خاص – والذي يتم إرساله مباشرة إلى مجموعة مختارة فقط من الأشخاص، أو يتم نشره باستخدام إعدادات الخصوصية التي تقيد الوصول العام – محميًا، بحيث أن مراقبة صاحب العمل له قد تنتهك القانون([180]).
ومع ذلك، هناك إشكاليات كبيرة تمنع تطبيق قانون (SCA) على حسابات وسائل التواصل الاجتماعي([181])، ويرجع لذلك لما يلي:
أولاً: هناك وجهات نظر متضاربة حول ما يشكل إخلال بقانون “التخزين الإلكتروني” لأغراض النظام الأساسي، حيث رأت بعض المحاكم أنه بمجرد قراءة رسالة بريد إلكتروني أو اتصال إلكتروني، فإنها لم تعد مخزنة وبالتالي ليست ضمن حماية القانون([182]).
ثانياً: تختلف المحاكم حول تطبيق استثناءات القانون، فعلى سبيل المثال،
رأت إحدى المحاكم الأمريكية أن بحث صاحب العمل في البريد الإلكتروني الخاص بالعامل لم يكن انتهاكًا لقانون SCA)) لأن هذا القانون يستثني مصادرة البريد الإلكتروني المصرح بها من قبل الشخص أو الكيان الذي يقدم خدمة اتصالات سلكية أو إلكترونية([183]).
واستفاد من ذلك أصحاب الأعمال حيث كانت جهة العمل هي الجهة التي تقدم خدمة الاتصالات الإلكترونية عبر خوادم البريد الإلكتروني الخاصة بها، لذلك لم يكن هناك أي مخالفة لأحكام القانون.
وعلى العكس من ذلك، فقد تم اعتبار مراقبة الموظفين والعمال باعتبارها
انتهاكًا لقانون الاحتيال وإساءة استخدام الكمبيوترCFAA))([184])، ويقرر هذا القانون جزاءات مدنية وجنائية للفرد الذي يصل عمدًا إلى جهاز كمبيوتر دون إذن ويتم مراقبته([185]).
ومع ذلك، فقد تم تفسير القانون للسماح لأصحاب العمل بالوصول إلى المعلومات الإلكترونية للعاملين عندما يتم تخزين البيانات على الكمبيوتر أو الشبكة الخاصة بصاحب العمل([186]).
وبشكل عام، تعتبر القوانين الفيدرالية الحالية أدوات ضعيفة لحماية خصوصية العمال في مواجهة العدد الكبير من أدوات مراقبة ومراقبة أصحاب العمل المستخدمة حاليًا([187]).
بالإضافة إلى الاهتمام بالخصوصية فيما يتعلق بالمراقبة الالكترونية، فإن جمع البيانات الإلكترونية وقواعد بيانات الذكاء الاصطناعي لديها القدرة على إنشاء سيرة ذاتية إلكترونية دائمة للعاملين الأفراد والتي لا يمكن محوها أو تحديها.
يعتمد حدوث ذلك على العديد من المشكلات القانونية التي لم يتم حلها بعد، مثل:
أولاً: هل لدى العمال مصلحة في ملكية البيانات المجمعة عنهم؟ وإذا كان الأمر كذلك، ففي أي ظروف يمكنهم منع الآخرين من رؤيتها أو استخدامها؟ وإذا لم يكن الأمر كذلك، هل لديهم الحق في الوصول إلى البيانات؟
ثانياً: هل يتمتعون بأي حماية من مشاركة هذه البيانات مع الآخرين – مثل أصحاب العمل المحتملين – أم أن بياناتهم تنتقل معهم كسيرة ذاتية إلكترونية مدى الحياة ولا يمكنهم رؤيتها أو دحضها؟
ثالثًا: هل يتمتع العمال بحق الرجوع بالمطالبة بالتعويض إذا كانت بياناتهم غير صحيحة وتم استخدامها في إجراء توظيف سلبي أو تمت مشاركتها مع الآخرين؟
تساؤلات عديدة وتحديات كبيرة أمام تقدم مزهل وبشكل لم يسبق له مثيل في مجال تطور تقنيات الذكاء الاصطناعي.
وأوروبياً تم الالتزام بهذه الفلسفة إلى حد كبير، حيث يتم رفع الحق في الخصوصية إلى مستوى الحق الأساسي أو الدستوري([188]).
وتنص المادة 8 من الاتفاقية الأوروبية لحماية حقوق الإنسان والحريات الأساسية على ما يلي: “لكل فرد الحق في احترام حياته الخاصة والعائلية، ومسكنه ومراسلاته”([189]).
ولا تحمي الاتفاقية الأوروبية لحقوق الإنسان الحياة الخاصة فحسب، بل تشمل أيضًا كل ما يفعله الشخص خارج المنزل ويشكل حياته المهنية. وقد أعربت المحكمة الأوروبية لحقوق الإنسان عن رأيها بوضوح مراراً وتكراراً بهذا المعنى، حيث أعلنت ما يلي([190]): ” وفي حدود معينة، يجب أن يكون الحق في إقامة علاقات مع أشخاص آخرين جزءًا من احترام الحياة الخاصة للفرد. يبدو أنه لا يوجد سبب مبدئي يدفع المرء إلى النظر في هذا التفسير لمفهوم “الحياة الخاصة” بحيث يستبعد الأنشطة ذات الطبيعة المهنية أو التجارية، لأنه في نهاية المطاف، في سياق الحياة العملية الخاصة بالفرد، لدى غالبية الناس فرصة كبيرة، إن لم تكن الأكثر أهمية، لتطوير العلاقات مع العالم الخارجي”.
كما اعتبرت المحكمة أيضا أن اعتراض المكالمات الهاتفية التي يجريها العمال في مكان العمل يشكل انتهاكًا للمادة 8 من الاتفاقية الأوروبية لحقوق الإنسان([191]).
يؤكد ميثاق الحقوق الأساسية للاتحاد الأوروبي الأحدث على أن “لكل فرد الحق في احترام حياته الخاصة والعائلية، وبيته واتصالاته”([192]).
وبالمثل، تحدد كندا الحق في الخصوصية كحق أساسي([193])، وعلى الرغم من أن الخصوصية ليست حقًا مضمونًا على وجه التحديد بموجب الميثاق الكندي للحقوق والحريات، فإن مفهوم الحق في الخصوصية ينبثق من المُثُل الديمقراطية المتعلقة بالفرد والدولة والحريات الأساسية المطلوبة للديمقراطية، وفي كندا، رأت أعلى محكمة أن “الخصوصية هي جوهر الحرية في دولة “ديمقراطية حديثة”([194]).
وبعد البحث الطويل عن مدى حماية العمال في عدم الاعتداء على الحق في الخصوصية لهم، نجد أنفسنا أمام تحدى آخر وهو حماية البيانات الشخصية للعمال.
المطلب الثاني
حق العامل في حماية البيانات الشخصية
مع تطور تقنيات الكمبيوتر الجديدة، كان التركيز في السنوات الأخيرة على الحق في خصوصية المعلومات، والذي يشمل حماية المعلومات والبيانات الشخصية من التطفل غير المبرر من قبل الآخرين.
وبظهور ما يسمى بـ “مجتمع المعلومات” تم طرح مشكلة المخاطر التي تهدد حرية وهوية الشخص نتيجة للمعالجة الإلكترونية للمعلومات، على وجه الخصوص، تم اعتبار أن الحماية التقليدية للخصوصية تحتاج إلى التكامل من خلال تنظيم عمليات الحصول على البيانات الشخصية واستخدامها من أجل السماح للطرف المعني بالحفاظ على السيطرة على معلوماته الخاصة أثناء العملية الكاملة لاستخدامها([195]).
ويقصد بالبيانات الشخصية البياناتالشخصية أي بيانات متعلقة بشخص طبيعي محدد، أو يمكن تحديده بشكل مباشر أو غير مباشر عن طريق الربط بين هذهالبياناتوأي بيانات أخرى كالاسم، أو الصوت، أو الصورة، أو رقم تعريفي، أو محدد للهوية عبر الإنترنت، أو أي بيانات تحدد الهوية النفسية، أو الصحية، أو الاقتصادية، أو الثقافية، أو الاجتماعية([196]).
ويمكن لأنظمة الذكاء الاصطناعي أن تفيد المجتمع وتضره، ليس فقط من خلال مساعدة الشركات على إكمال المهام المعقدة وتقديم خدمات أفضل بكفاءة أكبر، ولكنها تؤدي أيضًا إلى تفاقم تآكل خصوصية البيانات وغيرها من القيم الديمقراطية بشكل خطير. وكما لاحظ العديد من الباحثين، إن التعتيم الذي يخفي عمليات أنظمة الذكاء الاصطناعي يشكل عائقًا أمام المساءلة الخاصة([197]).
في كندا، تم وصف الحق في خصوصية المعلومات على أنه “حق الفرد في أن يقرر بنفسه متى وكيف وإلى أي مدى سيكشف عن معلومات شخصية عن نفسه.”، ويحدد الأوروبيون هذا الحق من حيث “البيانات الشخصية”([198]).
وبدأ التاريخ الحديث لحماية خصوصية البيانات في أوروبا في السبعينيات مع مراحل النمو المبكرة لصناعة الكمبيوتر، والتي أدخلت “بعدًا تكنولوجيًا” لحق الخصوصية.
وشهدت الثمانينيات تقديم وثيقتين دوليتين رائدتين هما: أولاً: المبادئ التوجيهية لمنظمة التعاون الاقتصادي والتنمية (OECD) بشأن حماية الخصوصية وتدفقات البيانات الشخصية عبر الحدود([199]). ثانياً: اتفاقية أوروبا لعام 1981 لحماية الأفراد فيما يتعلق بالمعالجة التلقائية للبيانات الشخصية([200]).
أقرت هذه الوثائق بتطور المعالجة التلقائية للبيانات، وما يترتب على ذلك من حاجة إلى النظر في حماية الخصوصية، وعلى وجه التحديد فيما يتعلق بجمع وتخزين واستخدام البيانات الشخصية من خلال الوسائل الآلية، بما في ذلك البيانات الحساسة المتعلقة بالآراء السياسية والدينية، والأصل العرقي والصحة.
ولقد أدى تطور تكنولوجيا المعلومات إلى تغيير ظروف العمل اليومية للعمال وكذلك العلاقات الفردية والجماعية التي أقيمت داخل بيئة العمل.
وتعكس قضايا الخصوصية للعمال التي أثارها الاستخدام الشخصي للإنترنت والبريد الإلكتروني (البريد الإلكتروني) الأسئلة التي أثيرت عندما تم تركيب الهاتف لأول مرة وسهلت تكنولوجيا لوحة المفاتيح التنصت على المكالمات الهاتفية لأصحاب العمل([201]).
وفي البداية كانت تقع عملية مراقبة الهاتف أو حتى المراقبة بالفيديو للعمال على هامش عملية العمل، إلا أنه مع زيادة تكنولوجيات المعلومات الجديدة، حدثت هجرة حقيقية للتكنولوجيات، من محيط عملية العمل إلى مركزها، فلم تعد عملية المراقبة تقع على هامش العمل بل أصبحت في مركز العمل([202]).
ومن الأمور التي تساعد في عملية المراقبة الالكترونية داخل مكان العمل أنه بالنسبة للعديد من العمال، يعد مكان العمل أفضل مكان للوصول إلى التقنيات الجديدة، وخاصة الإنترنت، ومن المرجح أن يستخدم العمال الإنترنت أثناء ساعات العمل لأغراض شخصية، بل ويتوقعون في بعض الحالات أن يكون هذا الاستخدام خاصًا.
إلا أن التقدم في قدرات تكنولوجيا الجديدة أدى إلى زيادة قدرة صاحب العمل على مراقبة الاتصالات الإلكترونية للعمال في مكان العمل.
إن جمع صاحب العمل للبيانات الشخصية وغيرها من المعلومات المجمعة من المراقبة الإلكترونية يمكّن من إنشاء ملف تعريف مهني أو فكري أو حتى نفسي للعامل، وهو ما يتجاوز في كثير من الأحيان الاحتياجات المشروعة لصاحب العمل.
وفي أوروبا، تحظى خصوصية الموظفين بأهمية أساسية، حيث تعد المراقبة الإلكترونية للعمال حاليًا في طليعة النقاش العام في الاتحاد الأوروبي على وجه التحديد بسبب أهمية حقوق خصوصية الموظفين والعمال بموجب القانون الأوروبي.
يدرك الأوروبيون أن أصحاب العمل لديهم مصالح مشروعة في السيطرة على سير أعمالهم والدفاع ضد الإجراءات غير المشروعة التي يقوم بها العمال والتي تسبب الضرر أو تزيد من مسئولية أصحاب الأعمال([203]).
وإذا كان الأوروبيون يعتبرون أن التقنيات الجديدة تطور إيجابي لإدارة الموارد، فإن الاتحاد الأوروبي واضح جدًا أنه فيما يتعلق بالخصوصية في مكان العمل والمراقبة الإلكترونية للموظفين أن الكرامة الإنسانية للموظف تتفوق على الاعتبارات الأخرى.
يعد توجيه الخصوصية للاتحاد الأوروبي أساسًا مهمًا للخصوصية في مكان العمل في أوروبا([204])، وينطبق التوجيه على معالجة البيانات الشخصية كليًا أو جزئيًا بالوسائل التلقائية، فهو يضع قواعد مشتركة للاتحاد الأوروبي لتشجيع التدفق الحر للبيانات الشخصية داخل الاتحاد، وبالتالي تعزيز السوق الأوروبية الموحدة وحماية حق المواطنين في الخصوصية، كما يحقق التوجيه هذا الهدف من خلال وضع معايير دنيا موحدة لحماية البيانات.
كان توجيه الخصوصية للاتحاد الأوروبي بمثابة استجابة للتهديد المتمثل في أن الدول الأوروبية التي لديها قوانين حماية عالية للبيانات، مثل فرنسا وألمانيا، من شأنها أن تفرض حظرًا على نقل البيانات على الدول ذات معايير أقل صرامة([205]).
وعلى الرغم من الحماية الكبيرة للبيانات الشخصية المقررة بموجب التوجيهات الأوروبية وكذلك العديد من القوانين الوطنية على مستوى العالم، إلا أن الحق في الخصوصية داخل بيئة العمل لم يحظى بالاهتمام الدقيق من قبل المشرعين على مختلف الأصعدة.
ولا توجد لوائح أو توجيهات في الاتحاد الأوروبي موضوعة خصيصًا لمراقبة العمال الإلكترونية وحماية الحق في الخصوصية بشكل خاص في مجال العمل.
مثل جميع توجيهات الاتحاد الأوروبي، لا يعد توجيه الخصوصية في حد ذاته قانونًا، بل هو توجيه للدول الأعضاء لسن تشريعات تنفيذية تتوافق مع التزاماتها بحماية الخصوصية.
تعتبر اللوائح الواردة في التوجيهات الأوروبية عامة في نطاقها، ولا توفر تنظيمًا محددًا للتعامل مع البيانات الشخصية في مكان العمل، وتقتصر على تشجيع صياغة قواعد سلوك تهدف إلى المساهمة في التطبيق الصحيح للأحكام العامة للتوجيه، حسب القطاعات المحددة.
وتماشيًا مع تفويض التوجيه، قامت كل دولة عضو إما باعتماد تشريع جديد لحماية البيانات أو تعديل التشريع الحالي ليتوافق مع التوجيه.
وفي مصر فقد سن المشرع قانون حماية البيانات الشخصية المعالجة إلكترونيا جزئيا أو كليا لدى أي حائز أو متحكم أو معالج لها، وذلك بالنسبة للأشخاص الطبيعيين([206]).
قامت كل دولة عضو أيضًا بإنشاء هيئة وطنية مستقلة لحماية البيانات لرصد تطبيق القانون الوطني لحماية البيانات والإشراف عليه.
في الوقت الحاضر، لدى جميع الدول الأعضاء تشريعات لحماية البيانات؛ ومع ذلك، فمن النادر العثور على تشريعات محددة تطبق قواعد حماية البيانات في سياق التوظيف والعمل.
عند تنفيذ سياسة المراقبة الإلكترونية في مكان العمل، يجب على صاحب العمل الالتزام بلوائح الخصوصية في كل دولة عضو يخضع فيها لولاية التنفيذ.
يتضمن ذلك القوانين الوطنية التي تنظم الخصوصية وحماية البيانات ذات الصلة بمكان العمل، بما في ذلك الأحكام الدستورية والتشريعات الوطنية والإقليمية أو الإقليمية التي تنفذ توجيه الخصوصية.
ومن الممكن تفسير توجيه الاتحاد الأوروبي المتعلق بالخصوصية بوجه عام لتغطية المراقبة الإلكترونية لبعض استخدامات الإنترنت والبريد الإلكتروني السري بالإضافة إلى جمع تلك البيانات والاحتفاظ بها من قبل أصحاب العمل.
ويلاحظ هنا أن أي جمع أو استخدام أو تخزين معلومات عن العمال باستخدام تقنيات الذكاء الاصطناعي يقع ضمن نطاق تشريعات حماية البيانات، وهذا هو الحال أيضًا بالنسبة لمراقبة صاحب العمل للبريد الإلكتروني للعاملين أو وصولهم إلى الإنترنت، وكذلك عملية معالجة البيانات الشخصية.
وحظر المشرع المصري([207]) جمعالبياناتالشخصيةأو معالجتها أو الإفصاح عنها أو إفشائها بأي وسيلة من الوسائل إلا بموافقة صريحة من الشخص المعني بالبيانات، أو في الأحوال المصرح بها قانونا، بل وأعطى للشخص المعني بالبيانات مجموعة من الحقوق تتمثل فيما يلي:
1- العلم بالبياناتالشخصيةالخاصة به الموجودة لدى أي حائز أو متحكم أو معالج والاطلاع عليها والوصول إليها أو الحصول عليها.
2- العدول عن الموافقة المسبقة على الاحتفاظ ببياناتهالشخصيةأو معالجتها.
3- التصحيح أو التعديل أو المحو أو الإضافة أو التحديث للبياناتالشخصية.
4- تخصيص المعالجة في نطاق محدد.
5- العلم والمعرفة بأي خرق أو انتهاك لبياناتهالشخصية.
6- الاعتراض على معالجةالبياناتالشخصيةأو نتائجها متى تعارضت مع الحقوق والحريات الأساسية للشخص المعني بالبيانات.
كما حدد المشرع المصري مجموعة من الشروط يجب توافرها كي يجوز جمع البيانات ومعالجتها والاحتفاظ بها وتتمثل فيما يلي([208]):
1- أن يتم تجميع البيانات الشخصية لأغراض مشروعة ومحددة ومعلنة للشخص الذي تجمع عنه.
2- أن تكون هذه البيانات صحيحة وسليمة ومؤمنة.
3- أن يتم معالجتها بطريقة مشروعة وملائمة لغرض تجميعها.
4-لا يجوز الاحتفاظ بالبيانات لمدة أطول من الغرض الذي جمعت من أجله.
وفي الوقت الحالي نعتقد بأن تطبيق أحكام قانون حماية البيانات الشخصية المصري على العمال – وإن كان هذا القانون قد جاء بشكل عام- فإننا نعتقد بأن ذلك يوفر قدرا كافيا –ولو بشكل مؤقت- من الحماية للعمال في الحفاظ على بياناتهم الشخصية لدى أصحاب الأعمال.
وإذا كان انتهاك الحق في الخصوصية وحماية البيانات الشخصية للعمال يظهر بشكل جلي من خلال تجميع هذه البيانات بوسائل الكترونية وتكنولوجية متطورة، فان المشرع المصري –كما ذكرنا سابقا- قد حظر معالجة البيانات الشخصية إلا بموافقة مسبقة من صاحب الشأن.
وعرف المشرع المعالجة بأنها أي عملية إلكترونية أو تقنية لكتابةالبياناتالشخصية، أو تجميعها، أو تسجيلها، أو حفظها، أو تخزينها، أو دمجها، أو عرضها، أو إرسالها، أو استقبالها، أو تداولها، أو نشرها، أو محوها، أو تغييرها، أو تعديلها، أو استرجاعها أو تحليلها وذلك باستخدام أي وسيط من الوسائط أو الأجهزة الإلكترونية أو التقنية سواء تم ذلك جزئيا أو كليا([209]).
وأنشأ المشرع المصري هيئة عامة اقتصادية تسمى (مركز حمايةالبياناتالشخصية)، تتبع الوزير المختص، وتكون لهاالشخصيةالاعتبارية، ويكون مقرها الرئيس محافظة القاهرة أو إحدى المحافظات المجاورة لها، وتهدف إلى حمايةالبياناتالشخصيةوتنظيم معالجتها وإتاحتها، ولها في سبيل تحقيق أهدافها أن تباشر جميع الاختصاصات المقررة قانوناً([210]).
ومن الجدير بالذكر أنه في ظل عدم وجود تشريع محدد لتنظيم الحق في الخصوصية يطبق على العمال بشكل خاص، فانه يمكن للمبادئ والقواعد الدستورية وأحكام قانون العمل وقانون حماية البيانات الشخصية وكذلك السوابق القضائية أن تلعب دورا هاما من خلال تفسيرها وتطبيقها لضمان حماية البيانات الشخصية للعمال خاصة في ظل استخدام أصحاب العمل للتقنيات الحديثة في مجال الأعمال.
ومع ذلك، فإن المبادئ، بالضرورة، ذات طابع عام والسوابق القضائية تتعلق، بطبيعتها، بمسائل محددة ولا تغطي بطريقة شاملة جميع الجوانب المعنية. لا يتم دائمًا ضبط التفاعل بين القوانين بدقة، كما أن غياب قواعد واضحة ومتسقة وشاملة يضر باليقين القانوني ويؤدي، في بعض الحالات، إلى مواقف مثيرة للجدل، ومن الأمثلة التوضيحية على ذلك التفاعل بين قواعد حماية البيانات، والقواعد المتعلقة بسرية المراسلات، ومبادئ العمل فيما يتعلق بتحكم صاحب العمل في استخدام العامل للإنترنت والبريد الإلكتروني.
وفي بعض الحالات النادرة، يمكن أن نجد تشريع لحماية حق العامل في الخصوصية فيما يتعلق بالمراقبة الإلكترونية.
وتعتبر بلجيكا مثالًا بارزًا لدولة اتخذت نهجًا استباقيًا لتوضيح العلاقة بين حقوق خصوصية العمال والمصالح المشروعة لأصحاب العمل في مراقبة الاتصالات الإلكترونية للموظفين والعمال على الأنظمة المملوكة لأصحاب العمل.
وفي عام 2002، وقع ممثلو أصحاب العمل والموظفين البلجيكيين على الاتفاقية الجماعية الوطنية رقم 81 بشأن حماية خصوصية العمال فيما يتعلق بالضوابط المفروضة على بيانات الاتصال الإلكتروني عبر الإنترنت، وصدر مرسوم ملكي يقضي بإلزام القطاع الخاص بالاتفاقية لتنظيم حق العامل في الخصوصية عندما يتم جمع بيانات الاتصالات الإلكترونية لمراقبتها([211]).
وتوفر شروط الاتفاقية الجماعية رقم 81 الأسباب التي تبرر مراقبة الموظفين، ونوع المراقبة التي قد يقوم بها صاحب العمل، والإجراءات المشروعة لجمع البيانات والتحكم فيها، كما تشمل المبررات المشروعة للمراقبة ومنع الأعمال غير القانونية أو التشهيرية التي يمكن أن تضر بكرامة شخص آخر؛ وحماية المصالح الاقتصادية أو التجارية أو المالية لصاحب العمل؛ وكفالة الأمن والتشغيل الفعال لأنظمة شبكة الشركة؛ والامتثال لسياسات مكان العمل.
وتحظر الاتفاقية جمع البيانات المتعلقة بزيارات موقع الإنترنت وعدد وحجم رسائل البريد الإلكتروني المرسلة طالما لم يتم تحديد هوية الموظف الذي قام بالزيارات أو أرسل الرسائل، كما يجب الاشتباه في حدوث مخالفات واضحة قبل السماح بأي نوع من المراقبة الفردية.
أخيرًا، في معظم الحالات، يجب على الموظف الموافقة على مراقبة صاحب العمل، ويجب أيضًا الحصول على موافقة مجلس عمل الموظف أو نقابة العمال قبل معالجة أي بيانات إلكترونية.
إضافة إلى نسيج حقوق الخصوصية المستوحاة من توجيهات الخصوصية، أصدرت المحاكم في العديد من الدول الأعضاء أحكامًا فيما يتعلق بحقوق خصوصية العمال في سياق المراقبة الإلكترونية.
تتضمن معظم هذه الأحكام حالات يطعن فيها الموظف الذي تم فصله بسبب انتهاك سياسة النظام الإلكتروني لصاحب العمل (مثل البريد الإلكتروني أو سياسة استخدام الإنترنت) في صحة فصله باعتباره انتهاكًا لقانون حماية البيانات ذي الصلة.
وتختلف المحاكم، حيث توافق بعض المحاكم على المراقبة الإلكترونية للعمال بينما ترفض محاكم أخرى بشكل واضح، لاسيما عندما تكون الاتصالات الإلكترونية للعامل ذات طبيعة “شخصية”.
وعلى سبيل المثال، رأت محكمة النقض الفرنسية (المحكمة العليا في فرنسا) في قضية أونوف ضد نيكون (2001)([212]) ما يلي:
” للموظف الحق، حتى أثناء ساعات العمل وفي مكان عمله، في احترام خصوصيته؛ ويشمل ذلك على وجه الخصوص سرية مراسلاته؛ لا يجوز لصاحب العمل، دون انتهاك هذه الحرية الأساسية، فحص الرسائل الشخصية التي يرسلها أو يتلقاها الموظف على أداة كمبيوتر موضوعة تحت تصرفه للعمل، وهذا حتى في حالة حظر صاحب العمل الاستخدام غير المهني للكمبيوتر”.
في هذه الحالة، كان فريدريك أونوف، وهو موظف في شركة Nikon France، مشتبهًا به في استغلال وقت العمل لتحقيق مصالح شخصية في انتهاك لسياسة الشركة. قامت شركة Nikon باسترداد وقراءة ملفات البريد الإلكتروني المخزنة الخاصة به والتي تحمل علامة “شخصي”، وبعد تأكيد شكوكها قامت بفصله.
طعن أونوف في فصله بموجب قانون الفصل التعسفي الفرنسي، وسعت شركة نيكون إلى إدخال سجلات البريد الإلكتروني الخاصة بشركة أونوف في الأدلة لدعم قرارها.
اعتبرت المحاكم الابتدائية الأدلة مقبولة بناءً على استنتاجها بأنه لا يوجد عائق قانوني أكبر في فرنسا لمراقبة البريد الإلكتروني- الخاص بالعامل والمستخدم لأنظمة الشركة- من صاحب العمل.
عارضت محكمة النقض الفرنسية بشدة، واستندت في قرارها إلى المادة 8 من الاتفاقية الأوروبية لحقوق الإنسان، والمادة L 120-2 من قانون العمل الفرنسي([213])، والمادة 9 من القانون المدني الفرنسي (التي تنص على أن “لكل فرد الحق في احترام حياته الخاصة”.)
واعتبرت أنه لا يُسمح لصاحب العمل بقراءة البريد الإلكتروني للعمال وأن القيام بذلك يعد انتهاكًا للحق الأساسي في السرية في المراسلات الخاصة حتى عندما تتم تلك المراسلات عبر نظام البريد الإلكتروني لصاحب العمل وفي انتهاك لسياسة الشركة.
حيث يؤكد قانون العمل الفرنسي بعدم جواز تقليص حقوق الأفراد أو حرياتهم الفردية والجماعية إلا إذا كانت مبررة بطبيعة المهام المطلوب انجازها ومتناسبة مع الهدف المراد تحقيقه([214]).
وفي إيطاليا يعترف الدستور الإيطالي بحرية المؤسسات الاقتصادية الخاصة بينما يضع حدًا دقيقًا لا يمكن تجاوزه ويتألف من عدم جواز الإضرار بسلامة وحرية وكرامة الإنسان العامل.
واستنادا إلى هذا المبدأ الدستوري، أدخل التشريع العادي في السبعينات حظرا، مع تطبيق عقوبات جنائية، على التحقيقات في الآراء السياسية أو الدينية أو النقابية للعامل وكذلك في الوقائع التي لا صلة لها بالموضوع” بهدف تقييم الموقف المهني للعامل([215]).
تحظر هذه اللائحة على صاحب العمل إجراء استفسارات حول الحياة الخاصة والشخصية للعامل (أو العامل المحتمل)، إذا كان موضوع العقد لا يبرر هذه المعلومات.
وينص قانون العمال الايطالي على مزيد من القيود المهمة على سلطات الرقابة التي يتمتع بها صاحب العمل، وعلى وجه الخصوص: يحظر تكليف حراس أمن للإشراف على العمل ؛ كما يُحظر إجراء ضوابط خفية على العمل؛ ويُحظر استخدام المعدات السمعية والبصرية وغيرها من المعدات بغرض التحكم في عمل العمال عن بعد؛ ولا يُسمح بتركيب معدات للتحكم والتي توفر إمكانية التحكم في نشاط العمال عن بعد إلا إذا كانت هذه المعدات مطلوبة لاحتياجات التنظيم والإنتاج أو لسلامة العمل طالما أن صاحب العمل قد توصل إلى اتفاق مع ممثلي النقابات العمالية([216]).
ويعني ذلك أنه لا يجوز لصاحب العمل أن يأخذ في الاعتبار، بأي شكل من الأشكال، المعلومات الشخصية حول العامل، بغض النظر عن كيفية اطلاعه عليه، إذا لم يكن لذلك ارتباط وثيق بعلاقة العمل وخاصة بتنفيذ العقد المعني، وبالتالي لا يكون ذا صلة لأغراض التنفيذ الصحيح لنفس العلاقة([217]).
كما يجب أن يكون هناك تفاعل متبادل بين قانون العمال وقانون الخصوصية بحيث يجب أن يتم الحصول على البيانات والتعامل معها (عندما تكون مرتبطة بالحقائق ذات الصلة لأغراض تقييم الموقف المهني للعامل) من قبل صاحب العمل باحترام الانضباط العام للتعامل مع البيانات الشخصية كما هو الحال في قانون الخصوصية، الذي يفرض سلسلة من القواعد الإضافية (مثل الالتزام بتقديم المعلومات، والحصول على الموافقة على التعامل مع البيانات، والسماح بالوصول إلى البيانات، وضمان أمن البيانات)([218]).
وكما يشير البعض([219]) إلى انه لم يحقق المشرع الإيطالي التنسيق بين قانون الخصوصية العام ونظام قانون العمل إنما يرجع ذلك بسبب عدم الفرصة الفعلية لتنظيم التمثيل الجماعي (من خلال النقابات)، والفكرة هي أن التنسيق يجب أن يتم من خلال آلية للرقابة الجماعية (وهذا أيضًا من وجهة نظر مجلس أوروبا): لإجراء هذه العملية، ويجب حل هذه المشكلة، وهو أمر غير عملي بشكل معقول الآن في إيطاليا.
الفصل الثالث
تأثير الذكاء الاصطناعي على المسئولية المدنية وقانون العمل
إن محاولة فهم العلاقة الثلاثية بين كل من الذكاء الاصطناعي، والمسؤولية المدنية، وقانون العمل ليست بالأمر السهل، فعلى الرغم من التطور الهائل في مجال أنظمة الذكاء الاصطناعي، إلا أن تعريف الذكاء الاصطناعي، الذي يوصف أحيانًا بالضعيف وأحياناً بالقوي، يبدو في الوقت الحالي محل اجتهاد من قبل الخبراء والمتخصصين.
ومع ذلك، وعلى الرغم من تحسين تعريف الذكاء الاصطناعي بمرور الوقت، إلا أنه لا يزال من الصعب تقييم تأثيره المستقبلي على كل من المسئولية المدنية وقانون العمل.
ولا يخفي على أحد مدى الاهتمام البالغ بتقنيات الذكاء الاصطناعي، ومدى جاذبيتها، بل ومدى إمكانية الاعتماد عليها في بيئة الأعمال لتحقيق أفضل النتائج، فتقنيات الذكاء الاصطناعي تتطور بشكل متسارع وبشكل قد يفوق التصور العقلي.
وتظل المخاطر الكامنة وراء تقنيات الذكاء الاصطناعي تثير الكثير من القلق حيث قد تنال هذه المخاطر من العمال ذاتهم من خلال إصاباتهم بأضرار مباشرة، مما يستوجب معها بحث المسوغ القانوني لحمايتهم من مخاطر أداة في غاية التعقيد وهي تقنيات الذكاء الاصطناعي، كما يثير هذا الأمر التزام صاحب العمل بالحفاظ على سلامة العمال في بيئة العمل.
وقد تنال هذه المخاطر من مسئولية العمال أنفسهم في حالة حدوث ضرر للغير، مما يستتبع ذلك التساؤل عن مدى إمكانية مساءلة العمال وفق قواعد الخطأ المدني عن استخدام التقنيات الحديثة.
بل في ظل التعقيدات الشديدة لأنظمة الذكاء الاصطناعي ونظام عمل الخوارزميات تثار إشكالية مدى إمكانية الاعتراف للذكاء الاصطناعي بالكيان والشخصية القانونية، وإذا تم هذا الاعتراف فكيف يمكن مقاضاته والحصول على تعويض من خلاله لصالح المضرور.
تساؤلات وأفكار عديدة وإجابات كثيرة ومتناقضة يطرحها دخول
الذكاء الاصطناعي بيئة الأعمال، الأمر الذي بلا أدني شك فيه هو تأثر أحكام قانون العمل بهذا التطور المذهل، مما يلقي بظلاله أيضا على تأثيراته على قواعد المسئولية المدنية.
ونعرض من خلال هذا الفصل لمباحث ثلاثة: نعرض في المبحث الأول لأثر الخوارزميات المستخدمة في مجال الأعمال على المسئولية المدنية، ونعرض في المبحث الثاني للمسئولية المدنية عن الذكاء الاصطناعي المستخدم في مجال العمل، ونعرض في المبحث الثالث للالتزام بالسلامة وتأثره بالذكاء الاصطناعي.
المبحث الأول
أثر الخوارزميات المستخدمة في
مجال الأعمال على المسئولية المدنية
تلعب الخوارزميات دور حيوي في أنظمة الذكاء الاصطناعي، فلا مجال لعمل أنظمة الذكاء الاصطناعي بدون خوارزميات.
وهناك من الخوارزميات ما يوصف بالخوارزميات الثابتة حيث ترتبط عملية البرمجة بشأنها ارتباط وثيق بتدخل العنصر البشري.
وهناك نوع من الخوارزميات التي تقوم على فكرة التعلم الآلي أو الذكاء الاصطناعي الأكثر قوة، ويوصف كذلك بالذكاء الاصطناعي عال المخاطر، والذي يقوم بتطوير نفسه بنفسه دون تدخل بشري.
وهذه الأنواع المختلفة يمكن أن تثير صعوبات بشأن قواعد المسئولية المدنية في حالة حدوث ضرر لشخص بسبب الخوارزميات، وهذا ما سنحاول تسليط الضوء عليه في هذا المبحث، مع التساؤل حول إمكانية إخضاع الخوارزميات لأحكام قانون العمل وتأثير ذلك على بيئة العمل وحقوق العمال.
ونعرض من خلال هذا المبحث لمطلبين، نبين في أولهما لماهية الخوارزميات ببيان المقصود بها، ومدى خضوعها لأحكام قانون العمل، ثم نعرض في المطلب الثاني لمعايير مساءلة أصحاب الأعمال عن الضرر الخوارزمي.
المطلب الأول
ماهية الخوارزميات
تعطى الخوارزميات إرشادات لأجهزة الكمبيوتر حول كيفية حل المشكلات، فلا يوجد ذكاء اصطناعي بدون خوارزميات، فالخوارزميات تعتبر أدوات مفيدة –بشكل لا يصدق- تستخدم لانجاز المهام([220]).
ولقد سمح تطور الإنترنت والتقدم في أجهزة الكمبيوتر للمبرمجين بالاستفادة من القوة الحسابية الهائلة والمخازن الهائلة للبيانات – الصور والفيديو والصوت والملفات النصية المتناثرة عبر الإنترنت – والتي لقد تبين أنها ضرورية لجعل الشبكات العصبية تعمل بشكل جيد([221]).
وسوف نعرض في هذا المطلب لماهية الخوارزميات، من خلال بيان المقصود بها (الفرع الأول)، ومدى إمكانية خضوع الخوارزميات لقانون العمل (الفرع الثاني).
وهذا ما سنبينه فيما يلي:
الفرع الأول
المقصود بالخوارزميات
يقصد بالخوارزميات عمليات رياضية أو منطقية تتكون من سلسلة من الخطوات مصممة لحل نوع معين من المسائل([222]).
ولا يهم إذا كانت الخوارزميات تعمل من خلال نظام ثابت مثل الكمبيوتر المكتبي أو هاتف ذكي، أو من خلال نظام متحرك فعليا مثل السيارات ذاتية القيادة، فكلاهما يمكن أن يؤذي الآخرين ولكن بطرق مختلفة([223]).
وتظهر خوارزميات الكمبيوتر نطاقا واسعا من التعقيد، حيث تعمل بعض الخوارزميات بصورة ثابتة لأنها تتكون من سلسلة من الخطوات المشفرة مسبقا والتي تظل ثابتة عبر المدخلات بحيث لا يوجد تغيير في المخرجات عن المدخلات الموجودة مسبقا([224]).
وتوجد خوارزميات أخري توصف بكونها أكثر قوة وهى ما تعرف باسم ” التعلم الآلي” حيث تحصل على كميات هائلة من البيانات ثم تقوم بعملية تحسين التعليمات البرمجية الخاصة بها ديناميكيا عندما تواجه مدخلات جديدة([225]).
وقد يعتقد الكثير من الناس أن التعلم الآلي هو مرادف للذكاء الاصطناعي لكن هناك فرق من الناحية الفنية بينهما، فالأنظمة الثابتة تعتبر أنظمة ذكية بشكل مصطنع إذا كانت مستوفاة لعملية الذكاء بصورة كافية([226]).
بينما يعمل التعلم العميق أو الآلي من خلال تغذية الخوارزميات بالبيانات، وتقوم الخوارزميات بتجميع البيانات وتحليلها، كما تقوم الخوارزميات بتجميع كميات هائلة من البيانات التي تم إنشاؤها على الإنترنت وهى عملية يتعذر على العنصر البشري القيام بها([227]).
كما أنه من الوجهة القانونية تختلف الذكاء الاصطناعي القائم على الأنظمة الثابتة عن التعلم الآلي النظام الأكثر قوة، فيمكن تطبيق القواعد العامة في المسئولية المدنية بشكل أسهل في حالة الضرر الناتج عن خوارزميات ثابتة لان كل نقطة من التعليمات البرمجية ترتبط بشكل مباشر بالمبرمج البشري، الأمر الذي يسهل معه تحديد الشخص المسئول في حالة حدوث ضرر خوارزمي.
وعلى النقيض من ذلك تقوم خوارزميات التعلم الآلي ببرمجة نفسها بشكل ذاتي وتلقائي، ويحيطها الكثير من الغموض، وبصفة خاصة في كيفية تصميم البيانات، الأمر الذي يثير العديد من الصعوبات والإشكالات القانونية عند حدوث ضرر خوارزمي ناتج عنها([228]).
فالخوارزميات المستقلة هي التي تتخذ القرارات من تلقاء نفسها، دون توجيه أو تدخل مستمر من البشر، وأصبح هذا النوع من الخوارزميات الوضع الطبيعي الجديد لأنها تتبني استراتيجيات أفضل من نظيراتها البشرية([229]).
وللخوارزميات أدوار عديدة في الواقع العملي، حيث تقوم بإدارة متاجر البيع بالتجزئة، وقيادة السيارات، وصناديق الطرود وغيرها([230])، وحتى العمل كأعضاء في مجلس إدارة الشركات([231]).
وكما يشير البعض([232]) فانه لا يوجد تعريف محدد للخوارزمية المستقلة، وإنما يمكن تبني وصفا عمليا لها بحيث تتسم الخوارزمية بالاستقلالية كلما تحقق هذا الوصف، فينظر للاستقلالية بمدى وحجم التدخل البشري في عمل الخوارزميات، فإذا كانت الخوارزميات قادرة على التسبب في ضرر لا يتحمل أي إنسان المسئولية الأخلاقية عنه فان هذه الخوارزمية تكون مؤهلة للاستقلال، فالخوارزميات المستقلة هي التي من المحتمل أن تسبب ضررا مثل الإنسان، ولكن حدوث الضرر لم يكن للإنسان أي تدخل بشأنه.
ومن صعوبة الأمر انه لا يمكن اعتبار الخوارزميات بمثابة الإنسان بحيث يمكن التعرف عليه وتقرير مسئوليته القانونية في حالة حدوث ضرر، خاصة في حالة عدم الاعتراف بالشخصية القانونية للخوارزميات والذكاء الاصطناعي، كما أن التهديد باستخدام الجزاءات القانونية بشأن الضرر الخوارزمي لن يغير من طريقة عمل الخوارزميات وبصفة خاصة الخوارزميات المستقلة([233]).
وفي الأنظمة القانونية المختلفة فان المسئولية المدنية غالبا ما تتقرر على أصحاب الأعمال والشركات بشأن السلوك غير المشروع للعاملين البشريين، دون أن يمتد ذلك بنص صريح للأضرار الخوارزمية([234]) فلازال الضرر الناشئ عن استخدام الخوارزميات يثير الكثير من التحديات بشأن تقرير المسئولية القانونية عنه.
وقد تنشأ تحديات كبيرة من الناحية الهيكلية إذا تم تحميل الشركات وأصحاب الأعمال المسئولية عن الأضرار الخوارزمية، وخاصة عندما يتعلق الأمر بخوارزميات التعلم الآلي المستقلة.
ويكمن سبب هذه التحديات أن مثل هذه الخوارزميات يمكن أن تتصرف لوحدها بطرق غير متوقعة، فإنها يمكن أن تشبه كيانات مستقلة بدلاً من مجرد كونها أدوات إنتاج، كذلك بالنظر لوجود قدر من عدم القدرة على التنبؤ متأصل في الخوارزميات المتقدمة، فلا شيء يمكن للشركات فعله يمكن أن يضمن أن خوارزمياتها لن تؤذي أي شخص ضررا خوارزميا.
الفرع الثاني
خضوع الخوارزميات لقانون العمل
منذ أكثر من عقد من الزمان، قدمت “جوانا برايسون”، المتخصصة في أخلاقيات التكنولوجيا، ما يعتبر اليوم أحد أوجه التشابه الجادة بين الخوارزميات والعامل. وقالت إن ” الروبوتات يجب أن تكون عبيدًا”([235]).
وهي ترى أن هناك خطراً اجتماعياً وسياسياً وأخلاقياً عميقاً يلوح في الأفق في الميل النفسي الذي يتبناه العديد من الناس، والذي يشجعه العديد من خبراء التكنولوجيا، لتجسيد الروبوتات.
ويعتقد برايسون أيضًا أن تجسيم الروبوتات يمكن أن يحصن المسئول في النهاية عن النتائج السيئة الضارة، فإذا كان من الصعب إلقاء اللوم على أداة غير حية، مثل المطرقة، فمن غير الطبيعي أيضا محاولة إلقاء اللوم على خوارزمية تبدو وكأنها كيان مسئول بشكل مستقل.
كما أن هناك مصدر قلق آخر يتمثل في أن اقتراح “برايسون” من شأنه أن يقوض أهم فوائد الخوارزميات، حيث يجب أن تتبع الروبوتات أوامر الإنسان، وان كان هذا الأمر اختلف تماما اليوم بالنظر لظهور الخوارزميات المستقلة والأكثر تقدما.
وتكمن قوة خوارزميات التعلم الآلي على وجه التحديد في أنها لا تعمل بشكل خاضع للبشر، كما أن قدرتهم الإبداعية على التعلم تسمح لهم بالتفوق في أداء أي سلسلة من الأوامر التي يمكن أن يقدمها الإنسان، حيث أصبحت أنظمة الذكاء الاصطناعي المتقدمة قادرة على خلق نتائج مبتكرة وغير متوقعة وبشكل مستقل([236]).
ويمكن النظر للروبوتات على أنها أيضًا نوعًا من العمل، من الواضح أن الخوارزميات تتمتع بقدرات إنتاجية، حيث يتم تصميمها لهذا الغرض على وجه التحديد، مثل أن تفعل لنا أشياء لا نستطيع القيام بها كبشر، أو نفضل ألا نفعلها.
وبعيداً عن الخصوصيات القانونية لأحكام قانون العمل، فانه يمكن استخدام الروبوتات من قبل أصحاب الأعمال كعمال، فيشمل مفهوم التوظيف معناً واسع للاستفادة من الروبوتات كعمال في بيئة العمل، ولا يجب تضييق نطاق مفهوم العمل على إقصاره فقط على علاقة العمل بالبشر.
وكما يشير البعض أنه بإدخال الذكاء الاصطناعي بيئة العمل، وتوصيفه بالعمالة بشكل ضمني، يؤدى ذلك لقيام علاقة بناءة فهو يجسد بشكل أفضل التعاون الإبداعي القائم بين الشركات والخوارزميات مع تجنب المخاطر الأخلاقية والنفسية الناجمة عن تشبيه العبودية([237]).
وعلى ذلك، إذا كانت علاقات العمل لا تشمل سوى علاقة صاحب العمل بالعمال البشريين، فيمكن للشركات تقليل مخاطر مسئوليتها باستخدام الخوارزميات بدلاً من ذلك.
كما أن اعتماد أصحاب الأعمال على الخوارزميات بدلا من العمال البشريين يحقق لهم فوائد اقتصادية خاصة في مجال دعاوى التعويض والمسئولية المحتملة التي قد يتعرضون لها، حتى ولو تعارض ذلك مع الرعاية الاجتماعية الواجب تحققها من خلال تشغيل القوى البشرية، فالمصالح الاقتصادية لأصحاب الأعمال تظل من وجهة نظرهم أولي بالرعاية.
ولا يمكن التسليم بالاتجاه القائل بضرورة الاعتراف لأنظمة الذكاء الاصطناعي والروبوتات بصفة العمالة، ولو بشكل ضمني، لتعارض ذلك مع الوضع التشريعي الحالي، وكذلك المنطق القانوني حتي بالنسبة للمستقبل.
ووفقاً للوضع القانوني الحالي فلا يمكن الاعتراف بصفة العامل إلا للشخص الطبيعي([238])، كما أن الاعتراف بصفة العامل للخوارزميات هو اعتراف شبيه بمنح أنظمة الذكاء الاصطناعي بالشخصية القانونية، وهو أمر لازال محل خلاف فقهي، بل والراجح لدينا هو الاتجاه الغالب والأعم برفض منحه الشخصية القانونية لعدم تحقق الجدوى العملية جراء ذلك، كما تم الرد على فكرة إمكانية تحمله للمسئولية عن دفع التعويضات للضحايا جراء إصابتهم بضرر أنه من الأفضل الزام الشركات المصنعة أو المشغلين أو أصحاب الأعمال بتأمين مسئوليتهم عن الضرر المحتمل حدوثه بسبب استخدام تقنيات الذكاء الاصطناعي في العمل.
المطلب الثاني
معايير مساءلة أصحاب الأعمال عن الضرر الخوارزمي
مما لا شك فيه أن المسئولية المدنية التي تثار بشأن الضرر الناشئ عن استخدام الخوارزميات في مجال الأعمال تثير العديد من الصعوبات، وبصفة خاصة في تحديد المسئول عن الخطأ الذي ترتب عليه الضرر الخوارزمي، ومدى تأثر ذلك بالحق في الإبداع والابتكار في مجال التكنولوجيا الحديثة وأنظمة الذكاء الاصطناعي.
ولتقييم مدى إمكانية مساءلة أصحاب الأعمال عن الضرر الخوارزمي، اقترح البعض([239]) ستة معايير أساسية ينبغي قياس أي نموذج لمساءلة الشركات وأصحاب الأعمال على أساسها: (1) تحديد الشخص المسئول، (2) منع فرص التلاعب، (3) توفير كفاءة الحوافز، (4) تحقيق نتائج عادلة، (5) تكون سهلة التنفيذ، و (6) تعزيز قيم البرمجة.
المعيار الأول: تحديد الشخص المسئول:
غالبًا ما تكون هناك العديد من الشركات التي تقف وراء أهم الخوارزميات، ربما تكون إحدى الشركات قد صممت وحدة نمطية لخوارزمية قامت شركة أخرى بتجميعها، وربما قامت شركة ثالثة باختبار الخوارزمية، وربما يكون رابع قد قام بتسويقه لخامس يملكه ويرخصه لسادس يشغله على أجهزة يملكها سابع، وهو ما يمكن معه أن ينشأ خلل ضار في الخوارزمية في أي خطوة أو من تأثيرات التفاعل بين الخطوات.
ويجب أن يكون أي نهج لمساءلة الشركات عن الأضرار الخوارزمية قادرًا على تحديد أي من هذه الشركات هي المسئولة على وجه التحديد وتحديد سبب ذلك.
ولاحظت المفوضية الأوروبية أن العديد من الجهات الفاعلة تشارك في دورة الحياة الخاصة بـنظام الذكاء الاصطناعي، ومن بين هذه الجهات الفاعلة على وجه الخصوص المطور، والناشر (الطرف الذي يستخدم منتجًا أو خدمة قائمة على الذكاء الاصطناعي) وربما أطرافًا أخرى (المنتج، أو الموزع، أو المستورد، ومقدم الخدمة، والمستخدم المحترف أو الخاص)([240]).
ويتجه قرار البرلمان الأوروبي بشأن المسئولية المدنية عن الذكاء الاصطناعي لتطبيق قواعد المسئولية الناشئة عن المنتجات المعيبة([241])، ويوصي البرلمان بمراجعة هذا التوجيه “بحيث يتكيف بشكل أفضل مع العالم الرقمي ويكون قادرًا على مواجهة التحديات التي تفرضها التقنيات الرقمية الناشئة”، ولذلك يطلب من المفوضية النظر في تكييف مفهوم المنتج بحيث يشمل المصنعين والمطورين والمبرمجين ومقدمي الخدمات ومشغلي المنبع([242]).
وفي قرار البرلمان الأوروبي المتعلق بالجوانب الأخلاقية للذكاء الاصطناعي والروبوتات والتقنيات ذات الصلة، يشير البرلمان هذه المرة إلى مفاهيم “المطور”، و”الناشر” و”المستخدم”، وجميعهم يشكلون الفئة القانونية للمشغلين([243]).
وما يتضح من نصوص قرارات البرلمان الأوروبي حول الذكاء الاصطناعي فيما يتعلق بتحديد الجهات الفاعلة في دورة حياة الذكاء الاصطناعي هو الغموض وعدم الوضوح([244]).
ومن الجدير بالذكر أن أحد أهم الأشخاص التي يجب الإشارة إليها في دورة الذكاء الاصطناعي هو مورد النظام أو ما يطلق عليه المطور للنظام، ويعرف بأنه أنه الشخص الطبيعي أو الاعتباري أو السلطة العامة أو الوكالة أو أي هيئة أخرى تقوم بتطوير نظام للذكاء الاصطناعي بهدف طرحه في السوق أو وضعه في الخدمة تحت إشرافه من خلال الاسم أو العلامة التجارية الخاصة به، سواء بمقابل أو مجاناً([245]).
والواقع أن اللائحة التنظيمية المقترحة للبرلمان الأوروبي تضعه باعتباره الطرف المركزي في دورة حياة نظام الذكاء الاصطناعي، مما يضع أغلب الالتزامات التي تهدف إلى جعل النظام متوافقاً على عاتقه، بينما لا يشارك أصحاب المصلحة الآخرون في العملية إلا كوسطاء أو مستخدمي للنظام.
ويتضح من التعريف الوارد بقرار البرلمان الأوروبي لمطور نظام الذكاء الاصطناعي ما يلي:
أولاً: لا يشترط في المطور أن يكون شركة كبيرة، بل يمكن أن يكون كذلك شخص طبيعي بسيط، ويستوي أيضا أن يكون تابعا للقطاع العام أو القطاع الخاص.
ثانياً: يمكن للمطور أن يقوم بتطوير نظام الذكاء الاصطناعي بنفسه ومن تلقاء نفسه، فيتخذ قرارات لتحديد مسار أو نمط التطوير والتحكم فيه([246]).
ويعتبر التطوير المرحلة الأولى من دورة حياة الذكاء الاصطناعي، وهنا يكون المورد أقرب إلى “مشغل المنبع”، وهو المفهوم الذي اختاره البرلمان الأوروبي([247]).
ثالثاً: قد يكون المورد والمطور شخصان مختلفان، ويبقى المورد في أصل النظام بمعنى أنه هو الذي يقرر إنشائه، ويضع مواصفات لتحديد خصائص النظام، ثم يقوم باختيار متخصص ليقوم بإنتاج الأخير في وفقا للتعليمات الواردة وهذا هو المطور.
رابعاً: قد يكون المورد هو من يطرح النظام في السوق أو يضعه في الخدمة تحت اسمه أو علامته التجارية، ونجد هنا المصطلحات المستخدمة للمنتج الذي يضع اسمه أو علامته التجارية أو أي علامة مميزة أخرى على المنتج هو المنتج وفق التوجيه الأوروبي بشان المسئولية عن المنتجات المعيبة([248]).
وعلى ذلك فإن هدف المورد هو توزيع النظام أو تنشيطه ببساطة بحيث يمكن استخدامه، وهو الذي يتحمل مسئولية طرحه في السوق أو وضعه في الخدمة([249])، ويتجسد ذلك بشكل خاص من خلال لصق اسمه أو علامته التجارية على النظام.
خامساً: يمكن أن يتم توزيع النظام بطرق مختلفة، أي مجاناً أو مقابل أجر، ومن ثم، فمن غير المرجح أن يؤدي الوصول المجاني إلى تعديل مؤهلات المورد الذي يضع النظام في السوق أو في دخول الخدمة، وبالتالي، فهو لا يسمح بإعفاء الفاعل المعني (المورد) من الالتزامات الناشئة عن صفة المورد.
وكما يشير جانب من الفقه المصري([250]) أن تحديد شخص المسئول تعد إشكالية كبيرة أمام المضرور، نظراً لتعدد الأشخاص الفاعلين في تطوير أنظمة الذكاء الاصطناعي، وحتى بتطبيق قواعد المسئولية عن المنتجات المعيبة-كما سنرى لاحقاً- فقد يتعذر جبر الضرر خاصة إذا كان العيب ناشيء عن التعلم الآلي واستقلالية القرار، فقد يحدث الضرر ليس بسبب برمجته الأولية بل بسبب عدم اهتمام المشغل.
المعيار الثاني: يجب تجنب أي تلاعب في الآليات المستخدمة لتحديد المسئول:
يعد هذا المعيار نتيجة طبيعية للمعيار الأول، فإن أي آلية يتم استخدامها لتحديد الشركات المسؤولة لا ينبغي أن تكون قابلة للتلاعب، فالشركات تتقن إدارة المسئولية.
كما يقوم أصحاب الأعمال والشركات باستغلال الثغرات الممكنة للحد أو الهروب من المسئولية، وعلى سبيل المثال، إذا كانت القاعدة هي أن أصحاب الشركات المسئولة عن الخوارزميات الضارة، ستقوم هذه الشركات الكبيرة ببساطة بنقل الملكية الرسمية إلى الشركات التي تعاني من نقص في التمويل أو الشركات التابعة أو الشركاء أو ربما حتى إلى مستخدمي الخوارزميات، مع ضمان استمرار تدفق فوائد عمل الخوارزميات إليهم.
المعيار الثالث: تحقيق التوازن بين مسئولية أصحاب الأعمال والمضرورين:
يجب تحقيق قدر من التوازن لجميع الأطراف المعنية، فمسئولية الشركات عن الأضرار الخوارزمية هي إجراء لتحقيق التوازن، من خلال فرض القليل من المسئولية على أصحاب الأعمال وحماية المضرور من الخوارزميات الضارة، حيث تفشل القواعد القانونية المطبقة حاليًا في تحفيز الشركات على بذل العناية الواجبة في تطوير ومراقبة خوارزمياتها([251]).
كما أنه يجب الحذر عند تقرير المسئولية المدنية بشأن استخدام الخوارزميات وتقنيات الذكاء الاصطناعي بحيث إذا فرض القانون المسئولية بشكل كبير، أو من خلال جعل القانون العديد من الخوارزميات باهظة الثمن، فان ذلك سيؤدى إلي تثبيط استثمارات الشركات وقمع الابتكار التكنولوجي([252]).
وسيكون ذلك بمثابة خسارة اجتماعية كبيرة، فبعض الخوارزميات تحصد أرواحًا، ومع ذلك لديها القدرة على إنقاذ المزيد من الأرواح، وقد تمارس بعض الخوارزميات التمييز والتحيز وعدم المساواة، ومع ذلك لديهم القدرة على اتخاذ قرارات أكثر موضوعية، كما يمكن للخوارزميات التلاعب بالأسواق، ولكن يمكنها أيضًا مساعدة الأسواق على العمل بكفاءة أكبر([253]).
المعيار الرابع: تحقيق نتائج عادلة:
تعد العدالة هي أيضا عمل متوازن، ويجب أن تمتد مسئولية الشركات إلى الحد الذي يجعلها عادلة للضحايا المضرورين دون أن تفعل الكثير مما يجعلها غير عادلة للشركات، وسوف تولد مسيرة التقدم الرقمي فوائد اجتماعية هائلة، فضلا عن العديد من التكاليف الاجتماعية والأعباء غير المتوقعة عندما تسوء الأمور.
ومن الواضح أن الاستمرار في ترك الضحايا المضرورين يتحملون تكاليف الأضرار الخوارزمية من شأنه أن يقلب موازين العدالة بشكل كبير.
ولعل الأمر الأقل بديهية هو حقيقة أنه سيكون من غير المقبول بنفس القدر من منظور العدالة إرغام المدعى عليهم ( أصحاب الأعمال)، حتى الشركات الربحية منها، على دفع ثمن كل ضرر خوارزمي([254]).
المعيار الخامس: القدرة على تطبيق القواعد القانونية:
كلما كان الإصلاح القانوني المقترح أكثر إزعاجا وشدة، كلما قلت احتمالات تنفيذه، كما أن ممارسة الضغط من قبل الأطراف المتأثرة سلباً هو أحد المصادر المحتملة للمشاكل، كما أن الانحرافات الأكبر عن الوضع الراهن قد تؤدي إلى تحقيق المزيد من المعارضة من قبل أصحاب الأعمال والشركات([255]).
المعيار السادس: تعزيز قيم البرمجة:
كان الفلاسفة وعلماء السياسة وعلماء الاجتماع يدقون أجراس الإنذار بشأن الكيفية التي يمكن بها للخوارزميات أن تنتهك الكرامة الإنسانية، وتقوض الديمقراطية، وتزيد من التفاوتات الاجتماعية والاقتصادية([256]).
ولذلك يقترح علماء أخلاقيات التقنية عدة قيم برمجية مثل احترام استقلالية الإنسان، وضمان الرقابة البشرية، وتجنب الخداع، والحفاظ على خصوصية المستخدم لتوجيه المبرمجين في تطوير خوارزميات مسئولة اجتماعيًا([257]).
وتعد الشفافية إحدى قيم البرمجة البارزة، ووفقًا لها، يجب أن يكون للقرارات التي تؤثر على المصالح الإنسانية منطق مبرر يسهل الوصول إليه وأن يكون مفهوماً([258]).
كما تعد الشفافية أمرًا أساسيًا لمصالح كرامة الإنسان في مواجهة الخوارزميات لأن الناس يستحقون معرفة القرارات التي تؤثر عليهم ولماذا تم اتخاذ هذه القرارات([259]).
المبحث الثاني
المسئولية المدنية عن استخدام الذكاء الاصطناعي في بيئة العمل
عند البحث عن المسئولية المدنية الناشئة عن استخدام الذكاء الاصطناعي في مجال الأعمال يجب أولا النظر في القواعد التشريعية القائمة سواء ما ورد منها في القانون المدني وكذلك قانون العمل أو القوانين الخاصة، ويترتب على هذا البحث والتقييم تحديد ما إذا كانت هناك حاجة لتشريع جديد، وإذا كان الأمر كذلك، فما هي كيفية القيام بذلك([260]).
ويجب علينا في الواقع أن نتجنب ازدحام القانون الوضعي بتشريعات غير ضرورية تشكل عامل تعقيد وظلم، وبصفة خاصة القوانين عديمة الفائدة والتي تضعف القوانين الضرورية كما وصفها “مونتسكيو”([261])، ولا ينبغي إدخال قواعد جديدة مكيفة إلا إذا كانت الأحكام الحالية لا تلبي الاحتياجات.
ومع ذلك، فإن عدم الاهتمام الواضح يتناقض مع الأدبيات الوفيرة المخصصة الآن لمبدأ القانون المدني حول الذكاء الاصطناعي في علاقته بالمسئولية المدنية، فمنذ ما يقرب من عشر سنوات حتى الآن، بالنسبة للأعمال الأولى، استمرت المقالات والتقارير والأعمال المتعلقة بالروابط التي يحتفظ بها الذكاء الاصطناعي مع المسئولية المدنية في التكاثر، وتكثر الأفكار والمقترحات، وحتى مشاريع القانون([262]).
ومما لا شك فيه أن الارتباط الوثيق بين المسئولية المدنية وقانون العمل في مجال العلاقات المهنية سوف يلعب الذكاء الاصطناعي دورا كبيرا بشأنهما، فمن ناحية، يتحمل قانون العمل بالضرورة المسئولية المدنية، حيث يساهم ذلك في تشكيل العلاقات المهنية، ومن ناحية أخرى، سمحت مرونة قانون المسئولية المدنية لقانون العمل بالاستفادة منه لتشكيل علاقات العمل.
وأخيرا، شيئا فشيئا، تمكن قانون العمل وقانون المسئولية المدنية من تشكيل ثنائي متناغم، حيث “تلعب السوابق القضائية على مرونة المعايير المدنية مع مراعاة المتطلبات المحددة لقانون العمل”([263]).
ويثار التساؤل بشأن مدى تأثير ظهور الذكاء الاصطناعي على فكرة اختلال التوازن في الحلول المكتسبة في مجال قانون العمل والمسئولية المدنية.
وقد نظم كلا من القانون الفرنسي والقانون المصري المسئولية المدنية بتقسيم المسئولية بين الأشخاص والأشياء، فالأشخاص هم موضوع القانون، والأشياء كذلك موضوع للقانون.
ونعرض للمسئولية المدنية هنا من خلال التركيز على فرضيتين، من بين فرضيات أخرى، شغلتا الفقه القانوني لسنوات عديدة عند تقاطع المسؤولية المدنية وقانون العمل، وهما: أن صاحب العمل مسئول بسبب نظام الذكاء الاصطناعي وهذا ما سنعرض له في المطلب الأول، أو أن يكون الذكاء الاصطناعي ذاته مسئولاً (مدى تمتعه بالشخصية القانونية) ونبين لذلك في المطلب الثاني.
المطلب الأول
مسئولية صاحب العمل بسبب نظام الذكاء الاصطناعي
بادئ ذي بدء، ينظر إلى الذكاء الاصطناعي في الوضع القانوني الحالي على أنه شيء غير مادي، وإذا كان من المتصور أحيانا، على أساس مستقبلي، منحها الشخصية القانونية وهو ما يطلق عليها الشخصية الالكترونية، مثل الأشخاص الطبيعيين أو الاعتباريين، فإن هذا ليس هو الحال في القانون الوضعي، فلم تعترف التشريعات أو التوجيهات الأوروبية بالشخصية القانونية للذكاء الاصطناعي.
كما أن استخدام العامل لنظام الذكاء الاصطناعي، مثل برامج دعم القرار، التي أتاحها له صاحب العمل، قد يتسبب في ضرر سواء للعامل نفسه أو كذلك للغير.
ولذلك يحق للمضرور أن يطلب التعويض من صاحب العمل، لاسيما في ظل غياب نظام مسئولية مشغل نظام الذكاء الاصطناعي في الوقت الحالي.
ولكن يجب أن نذكر هنا بضرورة تحقيق التوازن بين حماية الضحايا المضرورين المحتملين بسبب الضرر الذي لحق بهم جراء استخدام تقنيات وأنظمة الذكاء الاصطناعي، ومن ناحية أخرى، توفير مساحة كافية للمناورة للسماح للشركات بتطوير المنتجات والخدمات من خلال استخدام التقنيات الجديدة.
مما يكون لذلك عظيم الأثر في بناء الثقة لضمان استقرار الاستثمارات؛ وأن الهدف في نهاية المطاف لأي إطار مسئولية يمكن تقريره من خلال نظام تشريعي هو أن يكون توفير الحماية القانونية لجميع الأطراف، سواء المنتج أو المشغل أو الشخص المتضرر أو أي طرف آخر؛ وهذا ما أشار إليه تقرير البرلمان الأوروبي بشان نظام المسئولية المدنية عن الذكاء الاصطناعي([264]).
وإذا تم التأكيد على حماية المضرور بصفة عامة، والعامل المضرور بصفة خاصة من الأضرار التي يمكن حدوثها بسبب تقنيات الذكاء الاصطناعي، فيثار التساؤل حول الأساس القانوني للرجوع بالمسئولية والمطالبة بالتعويض.
يمكن تأسيس مسئولية صاحب العمل عن الضرر الذي لحق العامل وفق قواعد المسئولية عن حراسة الأشياء، كما يمكن للمسئولية عن المنتجات المعيبة أن تلعب دوراً هنا.
ونعرض فيما يلي لنوعي المسئولية، ثم نبين بعد ذلك مدى الحاجة لتقرير قواعد المسئولية الموضوعية.
الفرع الأول
المسئولية الشيئية
هناك أخطار اجتماعية يمكن أن تلحق بالعامل ويتصور الحماية منها من خلال نظام المسئولية المدنية، وهذه الأخطار هي التي يقع العامل ضحيتها في أثناء تنفيذ التزاماته الناشئة عن عقد العمل، مثل الإصابة التي تلحقه وقت قيامه بالعمل.
وعلى الرغم من عدالة حصول العامل المضرور على تعويض يعادل الضرر الذي لحق به جراء تنفيذ التزاماته وفق عقد العمل، إلا أن المبادئ التقليدية لقواعد المسئولية التقصيرية حالت دون استخدامها في ضمان المخاطر المهنية، بضرورة استلزامها خطأ في جانب صاحب العمل المسئول، وهو خطأ يجب على العامل المضرور إثباته.
وقضت محكمة النقض المصرية([265]) بأنه” المقرر – في قضاء هذه المحكمة – أنالمسئوليةالمدنيةعقدية كانت أم تقصيرية تقوم في جوهرها على عناصر ثلاثة خطأ وضرر ورابطة سببية بينهما وأن الضرر – بذلك – يعتبر ركنا من أركانالمسئوليةالمدنيةوثبوته شرط لازم لقيامها وعبء إثباته يقع على عاتق المضرور. لما كان ذلك، وكانت الشركة الطاعنة لم تبين عناصر الضرر الزائد على الأضرار التي تقوم الفائدة بالتعويض عنها رغم كونها هي المنوط بها إثبات ركن الضرر وإذ عجزت عن إثباته وانتهى الحكم المطعون فيه إلى رفض ذلك فإنه يكون قد انتهى إلى النتيجة الصحيحة .“
وقد نادي الفقه الفرنسي، في أواخر القرن التاسع عشر، بضرورة الأخذ بقواعد المسئولية العقدية في علاقة العامل بصاحب العمل، كي يفترض الخطأ في جانب صاحب العمل إذا أصيب العامل في حادثة عمل، استنادا إلى أن عقد العمل ينشئ التزاما بسلامة العامل أثناء تنفيذ العقد، بحيث إذا أصيب العامل يمكن الرجوع على صاحب العمل ما لم يثبت أن الإصابة كانت لسبب أجنبي لا يد له فيه([266]).
لكن هذه الاجتهادات من الفقه الفرنسي لم يكتب لها النجاح، حيث كان القضاء الفرنسي يتجه لتطبيق أحكام المسئولية الشيئية لتوفير حماية كافية للعمال بافتراض قرينة الخطأ أو على حد تعبير محكمة النقض الفرنسية قرينة المسئولية.
يمكن الرجوع بالمسئولية المدنية الناشئة عن حراسة الأشياء –وفقا للفقرة الأولي من المادة 1242 من القانون المدني الفرنسي- ضد صاحب العمل([267])، وفي الواقع، يمكن الشك في مدى توافر صفات الحارس والمرافق بشان الحالة المعروضة والمتعلقة بالذكاء الاصطناعي.
لتبرير هذا الحل، يمكن القول بأن علاقة التبعية لا تسمح للعامل الذي قام باستخدام الذكاء الاصطناعي بممارسة صلاحيات استخدام التوجيه والسيطرة اللازمة لحمايته من المسئولية.
كما أن ممارسة هذه الصلاحيات تفترض استقلالية حقيقية للعامل الذي تكون له السيطرة الفعلية، وهو ما يُحرم منه افتراضياً بسبب أنظمة الذكاء الاصطناعي وبصفة خاصة الأنظمة القوية.
علاوة على ذلك، فقد اتجه البعض إلي أنه في حالة استخدام العامل لنظام الذكاء الاصطناعي للقيام بمهمته، فلا يمكن أن يكون مؤهلاً للسيطرة عليه، وبالتالي، عندما يحدث الضرر بسبب استخدام العامل لنظام الذكاء الاصطناعي، لا يمكن للمضرور الرجوع على صاحب العمل وفق قواعد المسؤولية المدنية لأصحاب الأعمال عن العاملين لديهم (مسئولية المتبوع عن عمل التابع)، ولكن يمكن الرجوع على أساس حراسة الأشياء([268])ضد صاحب العمل بصفته حارس نظام الذكاء الاصطناعي الذي تسبب في حدوث الضرر، أي بموجب المسئولية عن حراسة الأشياء([269]).
وإذا كان لا يوجد ما يمنع قانوناً من تحقق نوعي المسئولية معاً ( المسئولية الشيئية، ومسئولية المتبوع عن أعمال تابعيه) ولا مانع من تحقق الأساسين للمسئولية معاً([270])، إلا أن الرأي السابق جدير بالتأييد ونتفق معه، وبصفة خاصة، في مجال استخدام الخوارزميات وأنظمة الذكاء الاصطناعي في بيئة العمل.
وكما يشير البعض([271]) إن قواعد المسئولية المدنية –حتى في ظل الأنظمة المقارنة- ليست مؤهلة للتعامل مع الأضرار الحديثة للتقنيات الجديدة المستخدمة من قبل أصحاب الأعمال في الشركات، فنشأت قواعد المسئولية في زمن كان العنصر البشرى هو المتحكم والمتصرف نيابة عن أصحاب الأعمال والشركات، فلكي يكون صاحب العمل مسئولاً عن أعمال موظفيه وتابعيه يجب أن يتسبب العامل في ضرر بسبب أداء عمله وأثناء العمل وضمن نطاق عمله([272])، وفي الوضع الحالي فان الخوارزميات وأنظمة الذكاء الاصطناعي ليس لها نوايا أو نطاق توظيف أو عمل، لذا فان قواعد المسئولية القائمة حالياً لا تفي بالغرض عندما تتسبب الخوارزميات بأضرار، كما يمكن لأصحاب الأعمال التذرع بتلك الخوارزميات بهدف التنصل والهروب من المسئولية عن السلوك الضار والتي تكون عادة مسئولة عنها.
الفرع الثاني
إشكاليات تطبيق المسئولية الشيئية على الذكاء الاصطناعي
في حالة نظام الذكاء الاصطناعي، فإن الرجوع على صاحب العمل على أساس المسئولية المدنية عن الأشياء يتطلب التغلب على مجموعة من العقبات الخاصة بتطبيق نظام المسؤولية المدنية عن حراسة الأشياء وتتمثل فيما يلي:
أولاً: إشكالية الحراسة:
لا يزال من الضروري تقديم دليل على أن صاحب العمل هو الحارس على
نظام الذكاء الاصطناعي، أي أن لديه الاستخدام والتوجيه والسيطرة؛ وما إذا كانت
ملكية نظام الذكاء الاصطناعي لصاحب العمل يمكن أن تشكل قرينة هنا لافتراض مسئوليته([273]).
ويقصد بالحراسة –في مفهوم المسئولية المدنية عن حراسة الأشياء- السيطرة الفعلية على الشيء قصداً واستقلالا سواء استندت هذه السيطرة إلي حق مشروع أم لم تستند لذلك.
وتتحقق الحراسة من خلال السيطرة الفعلية لشخص طبيعي أو معنوي على الشيء في الاستعمال والتوجيه والرقابة.
ونعتقد أن تطبيق الحراسة بهذا المعني لا يفيد إلا في حالة استخدام بعض أنواع الذكاء الاصطناعي وهي الأنواع التي تعتمد على العنصر البشري دون أن تتمتع بالاستقلالية الكاملة في أداء مهامها.
ومع ذلك تظل فكرة الحراسة بمفهومها المتعارف عليه وفق أحكام المسئولية عن حراسة الأشياء عاجزة على التطبيق في حالة أنواع الذكاء الاصطناعي القوية أو عالية المخاطر والتي تتسم بالاستقلالية ولا تعتمد على العنصر البشري.
ونعتقد بأن ضرورات حماية المضرور كهدف نبيل تهدف إليه قواعد المسئولية المدنية يتطلب ضرورة التوسع في المسئولية عن الأشياء مما يؤدي لمسئولية موضوعية لا تستند لخطأ بل لحماية المضرور نتيجة المخاطر الناشئة عن استخدام التقنيات الحديثة.
واتجه البعض لتفسير مسئولية صاحب العمل بسبب تطبيق نظام الذكاء الاصطناعي من خلال التمييز بين حراسة البنية أو الهيكل وحراسته للسلوك عند تطبيق نظام الذكاء الاصطناعي([274]). ويمتلك صاحب العمل الأخير – الحراسة والرقابة على السلوك – بينما يحتفظ مصمموه بالرقابة والمسئولية على الهيكل.
ويشير جانب من الفقه([275]) إلى أن هذه المسألة تعرف بمشكلة تجزئة الحراسة، حيث يمكن تقسيمها لحراسة تكوين، وحراسة استعمال، وتتجزأ الحراسة حسب تجزئة السلطة على الشيء، فإذا كان الضرر راجعاً إلى استعمال الشيء كان الحارس المسئول هو من له سلطة استعمال الشيء، وإذا كان الضرر راجعاً لعيب في التكوين أو تركيب الشيء أو خلل في أحد أجزائه كان الحارس هو من يملك سلطة الرقابة عليه.
وعلى الرغم من أنه ليس من المؤكد فاعلية هذا التمييز، خاصة عندما يتعلق الأمر بتحديد ما إذا كان القرار الذي يتخذه نظام الذكاء الاصطناعي يرجع إلى برمجة الأصل أو التعلم المستقل اللاحق.
ويمكن أن نلمس من أحكام القضاء المصري ما يشير للتوسع في مفهوم الحراسة حين قضت محكمة النقض المصرية([276]) بأن قوام المسئولية عن حراسة الأشياء هو الخطأ المفترض الذي يتحقق بسيطرة الشخص الطبيعي أو الاعتباري على الشيء سيطرة فعلية في الاستعمال والتوجيه والرقابة لحساب نفسه، ومن ثم لا تدرأعنالحارس بإثبات أنه لم يرتكب خطأ ما وإنما ترتفع هذهالمسئوليةإذا أثبت الحارس أن وقوع الضرر كان بسبب أجنبي لا يد له فيه بأن يكون الفعل خارجاعنالشيء، فلا يكون متصلا بداخليته أو تكوينه أو راجعا إلى قوة قاهرة أو خطأ المضرور أو خطأ الغير.
فوفقاً لهذا القضاء فإن الضرر الواقع إذا كان بسبب تكوين الشيء أو متصلاً بداخليته أي بما يتعلق بتكوينه، وهو ما يمكن تكييفه على إنشاء وبرمجة أنظمة الذكاء الاصطناعي فإنه يكون مشمولاً بفكرة الحراسة والتى تقوم على الخطأ المفترض والذي لا يمكن دفع المسئولية عنه إلا باثبات السبب الأجنبي، أي أن الضرر كان واقعاً لسبب خارج عن تكوين الشيء، أو كان نتيجة قوة قاهرة أو خطأ الغير أو خطأ المضرور ذاته.
وبتقرير مسئولية صاحب العمل عن الضرر الحادث بسبب استخدام تقنيات الذكاء الاصطناعي يفرض التزاماً على عاتق صاحب العمل بضرورة اتخاذ الاحتياطات اللازمة لضمان وسلامة وأمن استخدام هذه التقنيات في بيئة العمل، ويستوي في ذلك أن يكون المضرور هو العامل أم شخصاً من الغير.
وبهذا التفسير لا يمكن استبعاد مسئولية صاحب العمل عن الضرر الذي يحدثه نظام الذكاء الاصطناعي، حتى في حالة الدفع بمسئولية مصمم الذكاء الاصطناعي، وذلك لحين تدخل المشرع بنصوص حاسمة لحماية المضرور.
ثانياً: تحديد الحارس:
يمكن أيضاً أن تثار إشكالية قانونية أخري تتعلق بالتعرف على حارس الذكاء الاصطناعي، حيث أن الحارس حسب السوابق القضائية هو الشخص الذي يملك استعمال الشيء وتوجيهه والسيطرة عليه، وهذا المفهوم للحراسة يأخذ في الاعتبار السيطرة الفعلية على الشيء وليس السلطة القانونية عليه([277]).
ومع ذلك، فإن هذا المفهوم المادي للحراسة لن يفشل في إثارة الصعوبات، لأن قدرات الذكاء الاصطناعي تمنحها استقلالية معينة في العمل قادرة على جعلها تفلت من سيطرة المستخدم.
ثالثاً: مدى تطبيق أحكام المسئولية الشيئية على الأشياء غير المادية:
أيًا كان الحارس المعين (صاحب العمل أو مصمم نظام الذكاء الاصطناعي)، فسيظل من الضروري الاعتراف بأن المسئولية المدنية عن حراسة الأشياء يمكن أن تنطبق على شيء غير مادي مثل نظام الذكاء الاصطناعي، فلا شك، أن لذلك أهمية بالغة في حالة الروبوت.
ولكن إذا لم يحدث ذلك، فان أنظمة الذكاء الاصطناعي في الواقع تعد شيء غير مادي، ولكن يبدو أن الفقه في مجمله لا يحبذ فكرة إخضاع الأشياء غير المادية للمسئولية المدنية عن حراسة الأشياء([278]).
ولا يختلف القانون المصري في ذلك، حيث يتم تطبيق المسئولية عن حراسة الأشياء على حالة الأشياء المادية فقط دون أن تمتد للأشياء غير المادية، وعرفت محكمة النقض المصرية الشيء بكونه ما تقتضي حراسته عناية خاصة إذا كان خطرا بطبيعته أو بظروفه وملابساته بان يصبح في وضع أو حالة تسمح عادة بان يحدث الضرر([279]).
رابعاً: إشكالية التبعية:
من مقومات علاقة العمل تحقق تبعية العامل لصاحب العمل، ومع ذلك فانه في مجال المسئولية عن حراسة الأشياء لا يعتبر التابع حارساً –في العادة- للشيء، فحارس الشيء هو في الأصل مالكه حتى لو كان هناك تابع، فإذا ثبت خطأ في جانب التابع نتيجة استخدام الشيء فانه يجوز الرجوع على مالك الشيء إما باعتباره متبوعا ثبت خطأ تابعه، وإما باعتباره حارساً مفترضاً في جانبه الخطأ([280]).
وحتى إذا نقل المتبوع للتابع السيطرة الفعلية على الشيء بحيث يصبح التابع هو الحارس، فإذا خرج التابع عن تعليمات متبوعه، فيصبح التابع هو الحارس للشيء ويكون مسئولا بمقتضى خطأ مفترض، ويسال المتبوع (المالك) باعتباره متبوعاً.
وتعد هذه النقطة من الإشكالات القانونية الكبرى بسبب استخدام أنظمة الذكاء الاصطناعي وتداخل عمل مجموعة كبيرة من الأشياء في أنظمة الذكاء الاصطناعي مما قد يصعب معه تحديد الشخص المسئول ومدى توافر الحراسة بشأنه.
ويتجه البعض إلي إمكانية إخضاع الأشياء غير المادية لنطاق المسئولية عن حراسة الأشياء، ويمكن تفسير ذلك بعمومية مبدأ المسئولية عن الأشياء والذي لا يميز بين الأشياء المادية والأشياء غير المادية([281]).
ورغم أن الحجج المقدمة تواجه صعوبة في تبرير هذا الاستبعاد، حيث يبدو أن مفهوم المسئولية يمكن أن يمتد لينطبق على الأشياء غير المادية([282])، فمن المؤكد مع ذلك أنه في غياب مثل هذا التطور، فإن مسئولية صاحب العمل بسبب الفعل المصطنع والذي تسبب في الضرر ستظل معلومات سرية بشكل معقد ولا يمكن التحقق منها وإثباتها بشكل ميسر في كثير من الأحوال.
كما أن بعض أنظمة الذكاء الاصطناعي تطرح مشاكل قانونية معقدة
بالنسبة لإطار المسئولية الحالي، وقد يؤدي ذلك إلى مواقف قد يكون فيها تحديد من
يتحكم في المخاطر، بسبب غموض هذه الأنظمة، مكلفًا للغاية، أو مستحيلًا بسبب
الارتباط بنظام الذكاء الاصطناعي أو الكود أو المدخلات أو البيانات التي تسببت
في النهاية في العملية الضارة؛ وبسبب ذلك قد يكون من الصعب تحديد العلاقة بين الضرر والسلوك غير المشروع، الأمر الذي قد يؤدي إلى عدم تعويض الضحايا بشكل مناسب.
بالإضافة إلى ذلك فان الصعوبات القانونية تنشأ أيضًا من ربط أنظمة الذكاء الاصطناعي بأنظمة أخرى، مثل اعتمادها على البيانات الخارجية، وقابلية تعرضها لانتهاكات الأمن السيبراني، فضلاً عن تصميم أنظمة الذكاء الاصطناعي المستقلة والتي تعتمد بشكل كبير على أفكار التعلم الآلي وتقنيات التعلم العميق، كل هذه الأمور يصعب معها تحديد السلوك غير المشروع ومدى السيطرة عليه، وكلها صعوبات تواجه عملية الإثبات، مما يكون لذلك أثر بالغ على المسئولية المدنية وحماية المضرور.
ويمكن الاستفادة بالمقترح المقدم من قبل حول التمييز بين حراسة الهيكل وحراسة السلوك، ومفاد ذلك أنه سيظل الصانع حارساً للهيكل، في حين أن المستخدم سيكون حارساً للسلوك فقط.
وبالصعوبات والعوائق الكبيرة التي تواجه تطبيق أحكام المسئولية الشيئية على أنظمة الذكاء الاصطناعي، فقد نجد محاولة لحماية المضرور من خلال تطبيق نظام المسئولية عن المنتجات المعيبة، وهذا ما سنبينه فيما يلي.
المطلب الثاني
المسئولية عن المنتجات المعيبة
إذا لم يتمكن المضرور-سواء العامل أو الغير- من طلب التعويض عن الأضرار التي لحقت به من صاحب العمل، فقد يميل المضرور إلى اتخاذ إجراء ضد مصمم نظام الذكاء الاصطناعي.
وفي ظل غياب- في الوقت الحالي- نظام ينطبق بشكل خاص على “مشغلي” أنظمة الذكاء الاصطناعي، فإنه بلا شك يتجه نحو المسئولية المدنية بسبب المنتجات المعيبة التي يمكن للعامل الاستناد إليها.
ويتعلق الأمر بعد ذلك برفع دعوى التعويض ضد المنتج على أساس المادة 1245 من القانون المدني الفرنسي التي بموجبها “يكون المنتج مسئولا عن الضرر الناجم عن عيب في منتجه، حتى ولو لم يكن مرتبط بعقد مع الضحية.” ورغم أنه في ظل الوضع الحالي للقانون، يبدو لنا أن مثل هذا الإجراء قادر على النجاح، كما تمت الإشارة إليه في العديد من التقارير([283]).
ويمكن تطبيق المسئولية المدنية عن المنتجات المعيبة، الواردة بالتوجيه الأوروبي رقم 85/374/EEC([284])، ويمكن تعديلها من أجل تطبيقها بالكامل على أنظمة الذكاء الاصطناعي.
وهذا من شأنه أن يشمل بشكل خاص توضيح مفهوم المنتج، وتخفيف عبء الإثبات من العيب، وإعادة تعريف مفهوم طرحه للتداول، وما إلى ذلك، وفي نفس الوقت يمكن أن يصبح التأمين إلزاميًا بمجرد أن يطرح المنتج منتجًا في السوق بنظام الذكاء الاصطناعي.
ويمكن تطبيق المسئولية عن المنتجات المعيبة على الضرر الناجم عن الاصطناعي الذكاء، ومن الخصائص الأساسية لهذا النظام توجيه المسئولية نحو المنتج (الذي يُفهم بشكل رئيس على أنه الشركة المصنعة) والذي يعتبر الأكثر قدرة على الحصول على التأمين لمسئوليته.
ومع ذلك، فإن تطبيق النظام الخاص بالمنتجات المعيبة على الأضرار الناجمة عن الذكاء الاصطناعي يثير العديد من الصعوبات.
بادئ ذي بدء، هل ينطبق نظام المسئولية الخاص بالمنتجات المعيبة على الأشياء غير المادية؟ وهو ما نعتقد أن يكون الجواب عليه بالإيجاب ضرورياً حيث لا يميز التوجيه الأوروبي بشأن المسئولية عن المنتجات المعيبة بين الأشياء المادية وغير المادية، ولا داعي للتمييز حيث لا يميز النص.
ثم تظهر إشكالية كيفية تقييم حالة العيب في المنتج، حيث أن تعقيد عمل الذكاء الاصطناعي قد يثير صعوبات، خاصة في مجال الإثبات.
وأخيراً، هناك إمكانية للإعفاء من المسئولية عندما لم تكن حالة المعرفة العلمية والتقنية، في الوقت الذي طرح فيه المنتج للتداول، تمكن من اكتشاف وجود العيب([285]).
وسبب الإعفاء هذا، المعروف باسم “خطر التطوير”، يسمح للمنتج بإعفاء نفسه من مسئوليته بإثبات أنه لم يكن يعلم وقت طرح المنتج للتداول بوجود العيب، وكان الجهل أمراً لا مفر منه نظراً لحالة المعرفة العلمية في ذلك التاريخ، وعند تطبيقه على الذكاء الاصطناعي، الذي يتميز بأداء معقد وقدرته على التصرف بشكل مستقل، فإن سبب الاستثناء هذا قد يكون مقبولًا على نطاق واسع([286]).
ولا شك أن هذا الأمر يحتاج لتعديل تشريعي لإزالة سبب الإعفاء في حالة الضرر الناجم عن تطبيق أنظمة الذكاء الاصطناعي، وإلا فإن نظام المسئولية المدنية عن المنتجات المعيبة سيفقد فاعليته في تعويض ضحايا أضرار الذكاء الاصطناعي.
المطلب الثالث
تطبيق المسئولية الموضوعية
في ظل غياب المسئولية المدنية الموضوعية بسبب نظام الذكاء الاصطناعي، سيكون من الضروري العودة إلى المسئولية المدنية علي أساس الخطأ مع المخاطرة بأن الضحايا المضرورين لن يتمكنوا في النهاية من تقديم دليل بسبب تطور نظام الذكاء الاصطناعي، خاصة عندما تكون أنظمة الذكاء الاصطناعي قوية.
كما أن الاعتماد على القواعد الحالية في مجال المسئولية المدنية خاصة عن الأفعال الشخصية، حتى ولو اتسمت بالمرونة، فلن يمكن ذلك من مواجهة مخاطر الخوارزميات وتقنيات الذكاء الاصطناعي([287]).
حيث يجب مثلا على المدعي المضرور أن يبحث عن عامل مخطئ، ويتتبع مسئوليته وصولاً لصاحب العمل مثل حالة وجود عامل أهمل في تصميم الخوارزميات أو أساء استخدامها بشكل عمدي، ومع ذلك، وحتى يومنا هذا، نعتقد بصعوبة تحقيق ذلك بمناسبة الضرر الخوارزمي([288]).
ويمكن للخوارزميات –بصفة خاصة- التصرف بشكل سيء حتى لو تصرف جميع البشر المعنيين بشكل سليم ومسئول، ففي ظل وجود خوارزميات ذاتية ومستقلة فإن العلاقة بين الضرر الخوارزمي وأي نقص بشرى يمكن تحديده سوف تصبح ضئيلة للغاية حالياً، وستزداد النسبة مستقبلا([289]).
ونعتقد بأن ذلك الأمر هو ما دفع البرلمان الأوروبي لحث الدول الأعضاء في ضرورة تضمين تشريعاتها الوطنية نصوصاً تتعلق بتعديل قواعد المسئولية بالنسبة لبعض الأنشطة وضرورة الاعتماد على المسئولية الموضوعية لتحميل طرف معين المسئولية عن الضرر حتى بدون حاجة لإثبات ارتكابه الخطأ، اكتفاء بوقوع خطر معين نتيجة ممارسة نشاط ما حتى ولو ثبت عدم قدرته على السيطرة عليه([290]).
في الواقع، كما تبين، فإن البحث عن الخطأ المسبب للضرر سيخضع لمتطلبات تتبع مزدوجة: الأول من أجل الحصول على بيانات التعلم لشرح سلوك الذكاء الاصطناعي، والثاني من أجل معرفة أصل الضرر، وتمكن معرفة هذه البيانات التعليمية حتى تتمكن من إسناد الخطأ([291]).
وأمام التعقيدات الشديدة في مجالات المسئولية المدنية عن حراسة الأشياء، والمسئولية عن المنتجات المعيبة، بل والمسئولية كذلك القائمة على الخطأ الواجب الإثبات تظهر الحاجة الملحة للتوسع في تطبيق نظام المسئولية الموضوعية بهدف حماية المضرور من مخاطر نشاط تقني مستحدث يصعب في الكثير من الأحوال إثبات الخطأ بشأنه.
إن التوسع في مجال المسئولية الموضوعية يقتضي التوسع في مفهوم الأشياء بحيث لا تقتصر فقط على الأشياء المادية بل تشمل كذلك الأشياء غير المادية، كما يجب التوسع في مفهوم الحراسة بحيث تشمل الحراسة المادية والقانونية وحراسة البنية أو التكوين وحراسة الاستعمال، بحيث لا يقتصر الأمر على فكرة الحراسة المستندة لحق قانوني بل يكفي وجود حراسة مادية أي من خلال السيطرة المادية على الشيء بحيث يكون للشخص سيطرة فعلية في الرقابة والتوجيه والاستعمال([292]).
وفي مجال تقنيات الذكاء الاصطناعي، فإذا تم ترجيح حماية المضرور، فان هذا الأمر يستوجب التوسع أكثر من ذلك في فكرة الحراسة، بحيث يتم النص صراحة على تعويض المضرور بسبب خطأ الخوارزميات حتى دون البحث عن فكرة الحراسة([293])، وإنما يكتفي بفكرة تحقق الضرر نتيجة مخاطر استخدام الخوارزميات وأنظمة الذكاء الاصطناعي.
ويترتب على ذلك أن المسئولية عن الأشياء تمتد لكل حالات الضرر التي يمكن أن يتصور حدوثها، وبصرف النظر عما إذا حدثت عن شيء مادي أو غير مادي، وحتى في حالة اختلاط الأمر بين فعل الشخص وفعل الشيء فانه يجب التوسع في فعل الشيء حماية للمضرور حين رجوعه بقواعد المسئولية الشيئية.
هذه العقبات المتراكمة أمام مسئولية صاحب العمل تقودنا إلى التشكيك في الفائدة المحتملة من الاعتراف بنظام الذكاء الاصطناعي كشخصية قانونية.
المطلب الثاني
الاعتراف بالشخصية القانونية للذكاء الاصطناعي
اقترح البعض([294]) الاعتراف بشخصية قانونية للروبوتات المجهزة بالذكاء الاصطناعي، من أجل تحميلها مسئولية الأضرار التي يمكن أن تسببها، وبصفة في مجال بيئة الأعمال والتى تمثل محور دراستنا.
ووفقاً لهذا الاقتراح فإن معظم الروبوتات المستخدمة بالفعل يمكن تغطيتها بأنظمة التعويض الحالية للأشخاص والممتلكات، وفي حالة إثارة المسئولية المدنية بسبب الروبوت يمكن الرجوع بقواعد المسئولية عن المنتجات المعيبة في حالة وجود عيب، ويمكن تطبيق كذلك المسئولية الشيئية، كما يلعب الالتزام التعاقدي بالسلامة دوراً هاماً هنا حيث يظل مورد أنظمة الذكاء الاصطناعي مسئولاً أولاً، ثم يأتي بعد ذلك دور مستخدم الروبوت الذكي، وأخيراً مالك الروبوت وذلك في حالة اختلاف هؤلاء الأشخاص، كما تظل الشركة المصنعة مسئولة في حالة وجود عيب يتعلق بالسلامة.
ويمكن اعتبار الروبوتات المستقلة، المجهزة بالذكاء الاصطناعي، “أشخاصًا إلكترونيين” مسئولين([295]). وتم تناول هذا الأمر بموجب قرار البرلمان الأوروبي عام 2017([296]) بشأن قواعد القانون المدني المتعلقة بالروبوتات، ثم صدر قرار آخر للبرلمان الأوروبي في 2019 بخصوص سياسة صناعية أوروبية شاملة بشأن الذكاء الاصطناعي والروبوتات([297]) ولم يعترف فيه بالشخصية القانونية للذكاء الاصطناعي.
ثم صدر قرار أحدث من ذلك للبرلمان الأوروبي المعتمد في الخامس من فبراير 2020بشأن المسئولية المدنية عن الذكاء الاصطناعي([298]) لم يعترف فيه صراحة بالشخصية القانونية للذكاء الاصطناعي.
وواجه اقتراح الاعتراف بمنح الشخصية القانونية للذكاء الاصطناعي باعتراضات كبيرة من قبل الفقه في فرنسا([299]).
وتستند هذه الاعتراضات على أن منح الشخصية القانونية للذكاء الاصطناعي أمر يتعارض مع النظام القانوني القائم حالياً، والذي يميز بين الأشخاص والأشياء، وحتى في مجال الأشخاص فقد اعترف القانون بالشخصية لكلاً من الشخص الطبيعي والشخص الاعتباري، وأصبح هذا التقسيم أمر لا خلاف عليه لدرجة أن النظام القانوني للكيانات والأشخاص الاعتبارية أصبح متوائما تماما مع نظام الأشخاص الطبيعيين لدرجة الاعتراف لهم بالحقوق الأساسية.
وإذا تمت مقارنة الشخص الالكتروني (الذكاء الاصطناعي) بفكرة الأشخاص الاعتبارية قد تبدو هذه المقارنة جذابة، ولكنها مضللة وغير حقيقية([300]).
فالشخص الاعتباري فكرة تقوم على التجسيد القانوني البسيط المتعلق بالكيانات ولكن مع ذلك يظل الشخص الاعتباري غير متمتع بالاستقلالية في مواجهة الأشخاص الطبيعيين المسئولون عنه.
وهذا الأمر لا ينطبق على فكرة الذكاء الاصطناعي حيث يتمتع بجانب كبير من الاستقلالية والتطور الذاتي بعيداً تماماً عن أي تدخل بشري، وهو ما لا يمكن معه اعتبار الأشخاص الالكترونية مجرد تجسيد قانوني بسيط مثل الأشخاص الاعتبارية.
كما تتجه معظم الكتابات القانونية في السنوات الماضية إلى عدم الاعتراف بأنظمة الذكاء الاصطناعي القوية باعتبارها تتمتع بشخصية قانونية([301]).
وقد يتم الاعتقاد بأن الشخص الإلكتروني سيشهد تطورًا مماثلاً لما شهدته الكيانات المعترف بها والتي تم منحها الشخصية القانونية، ومع ذلك، فإن الاعتراف بحقوق محددة مرتبطة بالشخص الإلكتروني يمكن أن يثير صعوبات أكبر بكثير من تلك التي تفرضها الحقوق المعترف بها للكيانات القانونية، فهل نريد مجتمعاً تتنافس فيه حقوق الإنسان مع حقوق الأشياء، حتى لو كانت تتمتع بـ«ذكاء اصطناعي»؟ إن منح الشخصية القانونية للروبوتات أو لبعضها هو تجربة مغامرة تتطلب منا أبسط قواعد الحكمة ضرورة التخلي عنها([302]).
علاوة على ذلك فإن فكرة منح الروبوتات الشخصية القانونية لا فائدة منها، لأنها لا تسهل فعلياً تعويض الضحايا المضرورين، فلن تكون الشخصية القانونية للروبوت ذات أهمية إلا إذا كان لديه أصول ومغطى بتأمين المسئولية.
ولذلك سيكون من الضروري تعيين شخص (الشركة المصنعة، المالك أو المستخدم) بصفته مسئولاً عن تمثيل هذا الروبوت قانونيًا (إبرام العقود باسمه، واخضاعه لنظام تأمين إجباري عن مسئوليته، وما إلى ذلك).
في ظل هذه الظروف، يكون من الأسهل وضع المسئولية مباشرة على هذا الشخص، بدلاً من القيام بانعطاف غير ضروري عبر المسئولية للروبوت([303]).
وقد يتحقق ذلك إذا تم النظر إلي الذكاء الاصطناعي على كونه نظام خاضع لسلطة صاحب العمل، مثل العامل، فهذا من شأنه على الأقل أن يسمح بالاعتراف بسيطرة صاحب العمل على نشاط نظام الذكاء الاصطناعي.
وهذه المراقبة، من شأنها أن تجعل من الأسهل تبرير مسئولية صاحب العمل على أساس الفقرة الخامسة من المادة 1242 من القانون المدني الفرنسي بشأن مسئولية متولي الرقابة، أو حتى على أساس المسؤولية المنصوص عليها في الفقرة الأولي من المادة 1242 من القانون المدني الفرنسي المتعلقة بالمسئولية عن حراسة الأشياء([304]).
وفي كلتا الحالتين، ستتحقق ميزة هامة وهي أنه سيكون صاحب العمل مسئولاً تلقائيًا عن الضرر الذي يلحق بالعامل أو كذلك بالغير بسبب نظام الذكاء الاصطناعي القوي؛ المسئولية التي يمكنه الحصول على تأمين المسئولية المدنية عنها مقدمًا.
ومع ذلك، من الناحية العملية، فإن إمكانية الاعتراف بمسئولية نظام الذكاء الاصطناعي لن يكون لها تأثير إلا إذا طُلب من المصممين أن يرافقوا إنشائه مع وقف مالي على شكل ضمان أو تأمين مسئولية عن الأضرار يسمح من خلاله بالحصول على تعويض عن أي ضرر قد يسببه النظام، وإلا فلن تكون هناك قيمة مضافة كبيرة في الاعتراف بمسئولية نظام الذكاء الاصطناعي.
المبحث الثالث
التزام صاحب العمل بالسلامة تجاه
العمال في مواجهة أنظمة الذكاء الاصطناعي
لقد حظي الالتزام بسلامة العمال باهتمام بالغ من قبل المشرعين الدستوري والعادي في مصر، فقد حرص المشرع الدستوري([305])على النص صراحة على ” تلتزم الدولة بالحفاظ على حقوق العمال، وتعمل على بناء علاقات عمل متوازنة بين طرفي العملية الإنتاجية، وتكفل سبل التفاوض الجماعي، وتعمل على حماية العمال من مخاطر العمل وتوافر شروط الأمن والسلامة والصحة المهنية، ويحظر فصلهم تعسفياً، وذلك كله على النحو الذي ينظمه القانون.“
كما حرص المشرع المصري بقانون العمل على تنظيم الالتزام بسلامة العمال وحمايتهم من مخاطر العمل المختلفة حماية لأمنهم وسلامتهم وصحتهم([306]).
وفي مجال استخدام الذكاء الاصطناعي في بيئة العمل، فإذا كان استغلال صاحب العمل لنظام الذكاء الاصطناعي يمكن أن يساهم في تحسين سلامة الموظفين والعمال، فمن الممكن أن يكون سببًا في الضرر الذي يعاني منه هؤلاء أنفسهم والذي يجب إصلاحه، وهذه هي الطبيعة الحميمة لقانون العمل، والتي تمنح الموظف حماية خاصة في تنفيذ عقد العمل.
ويجب توجيه وتفعيل الحلول الوقائية للعمال الذين يقعون ضحايا لنظام الذكاء الاصطناعي، فإذا كان الطريق الطبيعي للإصلاح يتضمن بالتأكيد على الالتزام الأمني والمتعلق بسلامة العمال لصاحب العمل الذي يرتبط بالعامل بعقد عمل، فقد يسير الأمر بشكل مختلف في عصر الذكاء الاصطناعي والخوارزميات.
المطلب الأول
تأثير الذكاء الاصطناعي على مسئولية صاحب
العمل عن الالتزام بالسلامة
لا شك أن لأنظمة الذكاء الاصطناعي دور إيجابي في مجال الأعمال، حيث تعمل على تعزيز بيئة عمل أكثر صحة وأمانًا، ويظهر ذلك من خلال استخدام الروبوتات في المهام الخطيرة، وتوفير برامج دعم القرار، وتوفير الهياكل الخارجية للموظفين، وما إلى ذلك.
ومع ذلك لا يمكن استبعاد أنها يمكن أن تكون أيضاً سبباً في الضرر الذي يلحق بالموظفين والعمال، في حين ستتضاعف التفاعلات مع أنظمة الذكاء الاصطناعي، خاصة عندما تتجسد تحت ستار الروبوت.
على سبيل المثال، في أحد المجالات التي تشهد أنظمة الذكاء الاصطناعي أكثر تطوراً، وهو النقل، من الصعب استبعاد أي حادث مصدره نظام الذكاء الاصطناعي، فإذا كانت أنظمة الذكاء الاصطناعي تهدف إلى تطوير الصيانة التنبؤية للمعدات، أو تحسين دوران المركبات، أو حتى تحسين الخدمات اللوجستية، فلا يمكن استبعاد وقوع حوادث في مكان العمل.
وعلى الرغم من إيجابيات أنظمة الذكاء الاصطناعي إلا أن تطوير أنظمة الذكاء الاصطناعي قد يولد مخاطر جديدة ، مثل: أخطاء البرمجة، والإجهاد، وانخفاض اليقظة، التي قد تؤدي إلى حوادث العمل والأمراض المهنية التي يعاني منها الموظفون.
كما تظهر الحوادث في الآونة الأخيرة تأثير الذكاء الاصطناعي الضار على سلامة العاملين في بيئة العمل، والأكثر من ذلك هو إمكانية الهروب من العدالة في مواجهة المضرور بسبب التقنيات المعقدة في مجال الخوارزميات وتقنيات الذكاء الاصطناعي.
ففي عام 2015 تجاوز روبوت في مصنع سيارات بروتوكولات السلامة ودخل منطقة غير مصرح بها، وسحق رأس إحدى العاملات، وتكمن المشكلة الحقيقية هنا في تحديد المسئول عن الفعل الضار، وتم رفع دعوى قضائية ضد خمس شركات روبوتات أمريكية بتهمة القتل الخطأ، حيث كان لكل منهم دور في التثبيت والتكامل والهندسة والخدمة والتحكم وتصنيع الروبوت وأنظمة السلامة الخاصة به، وواجه المدعى المضرور (زوج المجني عليها) صعوبة بالغة في تحديد المسئول، كما رفضت المحكمة الادعاء ضد أربعة منهم، ومازالت القضية قائمة ضد واحد فقط منهم بل أنه لديه ثقة كاملة في تبرئته وعدم مسئوليته([307]).
وفي القانون الفرنسي تخضع الوقاية من هذه المخاطر الجديدة لنطاق المادة L. 4121-1 من قانون العمل، حيث يلتزم صاحب العمل باتخاذ التدابير اللازمة لضمان السلامة وحماية الصحة البدنية والصحة العقلية للعمال (إجراءات الوقاية والإعلام والتدريب وإنشاء منظمة والوسائل المناسبة المنصوص عليها في المواد (L. 4121-2 وما يليها) ضد أنظمة الذكاء الاصطناعي.
وتؤكد أحكام القضاء أن هذه النصوص هي الآن التى تحدد التزام السلامة الذي يدين به صاحب العمل تجاه العامل وذلك منذ أن قررت محكمة النقض الفرنسية أنه “لا يتجاهل الالتزام القانوني الذي يتطلب من صاحب العمل اتخاذ التدابير اللازمة لضمان السلامة وحماية الصحة البدنية والعقلية للعمال”([308])، وبطبيعة الحال يجب على صاحب العمل إثبات اتخاذ جميع التدابير المنصوص عليها في المادتين L. 4121-1 و L. 4121-2 من قانون العمل.
وتشمل الإجراءات المنصوص عليها في القانون الفرنسي إجراءات الوقاية من المخاطر المهنية، وإجراءات المعلومات والتدريب، واستخدام الوسائل المناسبة، ويضمن صاحب العمل أن يتم تكييف هذه التدابير لتأخذ في الاعتبار الظروف المتغيرة وتحسين الأوضاع القائمة([309]).
كما يلتزم صاحب العمل بتنفيذ هذه التدابير وفق المبادئ الوقائية العامة، مثل تجنب المخاطر، تقييم المخاطر التي لا يمكن تجنبها، مكافحة المخاطر في المصدر، تكييف بيئة العمل مثل تصميم أماكن العمل واختيار معدات العمل ووسائل وأساليب الإنتاج، كما يجب مراعاة حالة التطور التكنولوجي، واستبدال ما هو خطير بالأقل خطورة، والتخطيط للوقاية من المخاطر من خلال دمج التقنية في العمل وتنظيم العمل([310]).
وقد نظم المشرع المصري الالتزام بسلامة العمال في بيئة العمل([311])، ومع ذلك فقد ظل تنظيم المشرع للسلامة والصحة المهنية في قانون العمل في إطار مواجهة بعض المخاطر مثل تأمين بيئة العمل من المخاطر الفيزيائية([312])، كما نظم المخاطر الميكانيكية حيث تلتزم المنشأة وفروعها باتخاذ جميع الاحتياطات والتدابير اللازمة لتوفير وسائل السلامة والصحة المهنية وتأمين بيئة العمل للوقاية من المخاطر الميكانيكية التي تنشأ عن اصطدام جسم العامل بجسم صلب([313])، كما ألزم صاحب العمل بحماية العمال من المخاطر البيولوجية مثل خطر الإصابة بالبكتريا والفيروسات والفطريات وسائر المخاطر البيولوجية متى كانت طبيعة العمل تعرض العمال لظروف الإصابة بها مثل التعامل مع الحيوانات، ومخالطة الآدميين المرضي([314]).
كما ألزم المشرع المنشأة وفروعها بتوفير وسائل الوقاية من المخاطر الكيميائية الناتجة عن التعامل مع المواد الكيميائية الصلبة والسائلة والغازية([315]).
بالإضافة إلى ذلك فان المنشأة تلتزم بتوفير وسائل الوقاية من المخاطر السلبية التي تنشأ أو يتفاقم الضرر أو الخطر عن عدم توافرها، مثل وسائل الإنقاذ والإسعاف والنظافة والتنظيم بأماكن العمل([316]).
كما تلتزم المنشأة باتخاذ الاحتياطات والاشتراطات اللازمة للوقاية من خطر الحريق طبقا لما تحدده الجهات المختصة([317]).
كما تلتزم المنشأة وفروعها بإجراء تقييم وتحليل للمخاطر والكوارث الصناعية والطبيعية المتوقعة وإعداد خطة طوارئ لحماية المنشأة والعمال بها عند وقوع الكارثة، على أن يتم اختيار فاعلية هذه الخطة وإجراء بيانات عملية عليها للتأكد من كفاءتها وتدريب العمال لمواجهة متطلباتها([318]).
كما أنه لضمان سلامة العمال في بيئة العمل فقد ألزم المشرع أصحاب الأعمال بالكشف الطبي على العامل قبل التحاقه بالعمل بهدف التأكد من سلامته ولياقته الصحية وفق نوع العمل الذي سيقوم به، كما يجرى كشف قدرات للعامل للتأكد من قدرات العامل الجسمانية والعقلية والنفسية بما يتناسب مع طبيعة العمل([319]).
كما ألزم المنشأة بتدريب العامل على الأسس السليمة لأداء مهنته، ويلتزم صاحب العمل بإحاطة العامل قبل مزاولة العمل بمخاطر مهنته وإلزامه باستخدام وسائل الوقاية المقررة لها، مع توفير أدوات الوقاية الشخصية المناسبة وتدريب العامل على استخدامها([320]).
ويعتبر التزام صاحب العمل بإحاطة العامل بمخاطر المهنة عند التحاقه بها يعد التزاما عقديا ينشأ عن عقد العمل وان نص عليه القانون، وتكون مسئولية صاحب العمل في حالة الإخلال به مسئولية تعاقدية([321]).
ومما لا شك فيه أن الخطر المهني، كأساس لالتزام صاحب العمل بالتعويض، له مضمون قانوني يختلف عن مفهوم الخطر المهني العادي، فإذا كان الخطر المهني بمفهومه العادي هو خطر وثيق الصلة بطبيعة العمل، ولكن مع التطورات التي يشهدها المجتمع ككل ومجتمع الأعمال بصفة خاصة يصبح للخطر المهني مفهوم أكثر اتساعا حيث يمكن تحقق الخطر المهني دون أدني ارتباط بينه وبين النشاط المهني، فيتسع الخطر المهني ليشمل الخطر الذي يلحق العامل بسبب طبيعة عمله، ويتسع كذلك ليشمل الخطر الذي يتعرض له صاحب العمل بسبب الحوادث التي تحدث لعماله نتيجة الوسائل الآلية المستخدمة في مجال الصناعات والأعمال([322]).
ومن الناحية الواقعية إذا لم يمكن الاعتداد بأنه مجرد حدوث ضرر بالعامل ناشئ عن نظام الذكاء الاصطناعي يشهد على وجود خطأ من جانب صاحب العمل الذي اختار نشر هذا النظام، فان طريق مسئولية صاحب العمل عن الأضرار التي تلحق بالعامل سيكون مغلقاً.
وعلى أقل تقدير، سيتم استبعاد مسئولية صاحب العمل في كل مرة يتسبب فيها نظام الذكاء الاصطناعي في حدوث ضرر يمكن من خلاله إثبات خطأ برمجي أصلي أو خطأ تعليمي مستقل لاحق لأنظمة الذكاء الاصطناعي خاصة الأنظمة القوية منها والتي تعتمد على التعلم الآلي، مما مؤداه عدم ارتكاب صاحب العمل أي خطأ، وهذا دليل على أنه مسموح له الآن الدفع بإعفاء نفسه من مسئوليته تجاه العامل.
ومن الجدير بالقول أنه لا يمكن الرجوع بالمسئولية المدنية على صاحب العمل عن ضرر أصاب العامل إلا من خلال إخلاله بأحد الالتزامات القانونية المفروضة عليه وترتب علي ذلك إصابة العامل بضرر.
كما يمكن الرجوع بالمسئولية على صاحب العمل في حالة إصابة العامل بضرر من شخص آخر كان لصاحب العمل على هذا الأخير السلطة الفعلية أو القانونية([323])، بل واعتبر القضاء في تكييفه لمسئولية صاحب العمل هنا أنها مسئولية مفترضة.
ويثير البعض([324]) تساؤلا بهذا الشأن مؤداه مدى إمكانية تطبيق الحكم السابق على “Robo-Boss“، نظام الذكاء الاصطناعي هذا المُستدعى للإشراف على العمال وتكليفهم بمهام العمل على أساس تحليل البيانات وتسلسل العمل، وهو ما نعتقد بإمكانية تطبيقه، حتى في ظل القواعد القانونية المعمول بها حالياً، لكن قد يختلف الأساس القانوني الذي يمكن الاستناد إليه، فإذا كان لا يوجد ما يمنع قانوناً من اجتماع أساسي المسئولية المدنية عن حراسة الأشياء، والمتبوع عن عمل تابعه، في وقت واحد، إلا أن مسئولية المتبوع تتحقق بالنسبة لقيام التابع بارتكاب خطأ معين إنما قصد به أن يكون التابع شخص طبيعي وخاضع لإشراف ورقابة وتوجيه صاحب العمل بحيث يكون صاحب العمل مسئولاً عن تابعه وليس مسئولاً معه([325])، مما سيظل معه عقبة اعتبار الذكاء الاصطناعي بمثابة شخص قائمة وهو ما لا نرجح اعتباره كذلك.
وفي نهاية المطاف، بمجرد أن يقرر صاحب العمل نشر نظام الذكاء الاصطناعي، يجب عليه تحمل المسئولية عن حدوث الضرر، بل وقد أكدنا من قبل ضرورة الاعتداد بفكرة المسئولية الموضوعية القائمة على الضرر دون البحث في الخطأ تعزيزاً للحماية القانونية للمضرور، وحتى في ظل القواعد القائمة حالياً بشأن المسئولية عن حراسة الأشياء سيواجه المضرور عقبات متعددة في ظل كون الضرر متحققاً بسبب أنظمة الذكاء الاصطناعي، خاصة فيما يتعلق بمفهوم الحراسة، وتحديد المسئول، كما سبق أن عرضنا له.
ومهما كان الأمر، ففي ظل قلة السوابق القضائية التى تشدد من التزام السلامة الذي يتحمله صاحب العمل لن يؤدي ذلك إلا إلى صعوبة حصول العامل على تعويض من صاحب العمل عندما يكون ضحية عمل متمثلاً قي حادث أو مرض مهني ناجم عن نظام الذكاء الاصطناعي.
المطلب الثاني
العلاقة بين الحصص الإنتاجية وإصابات العمال
نعرض من خلال هذا المطلب لنموذج تطبيقي وواقعي يربط بين تنفيذ العامل لتعليمات وأوامر صاحب العمل، وبين إصابات العمال.
ولقد أصبح من متطلبات الوظيفة في مجال القطاع الخاص أن يطلب من العمال العمل بسرعة فائقة أو المخاطرة بإنهاء العمل، فأصبح ينظر للعمال مثل الروبوتات، وليسوا كبشر، بل أن العامل أصبح مجرد رقماً في منظومة العمل([326]).
ويطلب من العمال في شركات متعددة، مثل شركة “أمازون” تحقيق حصص إنتاجية مرتفعة، وهي عملية تعرف باسم ” معدل التصنيع”، ولا تزال الطريقة التي تحدد بها شركة أمازون الحصص الإنتاجية غير واضحة للعديد من العمال، بل تبدو هذه الحصص لدى العديد من العمال بأنها تعسفية، ومتقلبة دون سابق إنذار حسب المهمة واليوم والموسم.
وما يجعل هذا الأمر مثيراً للقلق هو ارتباط الحصص الإنتاجية بالإصابات في مكان العمل، حيث بلغ معدل الإصابات في شركة أمازون عام 2018 ما يعادل أكثر من عشرة بالمائة، وهو ما يعادل ثلاثة إضعاف الإصابات المتوقعة في العمل لدى أصحاب الأعمال في القطاع الخاص.
وكما يشير البعض أن العاملين لدى شركة أمازون أكثر عرضة للإصابات الجسدية من عمال ضباط الشرطة، وجامعي النفايات الصلبة، وعمال مناجم الفحم وغيرهم([327]).
وقد يرجع ذلك لنظم مراقبة العمال داخل مكان العمل والتي تمارسها الشركات الكبرى بوسائل الكترونية بشكل مستمر([328])، كما قد يرجع أيضاً إلى أن العديد من العمال في وظائف مختلفة ليس لديهم من البدائل الوظيفية التي تمكنهم من ترك العمل حتى ولو كان ذلك سيعرضهم لخطر الإصابة، ويمكن أن نوضح هذه الأسباب تباعاً في العناصر التالية:
أولاً: المراقبة الكاملة للعمال:
تستخدم الشركات الكبرى نظام تتبع آلي لمراقبة العمال باستمرار، فإذا كان العامل يقضي الكثير من الوقت خارج المهمة أو يفشل في استكمال حصته الانتاجية، فيمكن للنظام إنشاء رسائل تحذير تلقائية، بل وطرد العامل، كما يمكن اللجوء لفصل العامل دون تدخل بشري([329]).
ويلاحظ أن الأنظمة التكنولوجية التى تستخدمها الشركات في تتبع معدلات إنتاجية كل فرد من العمال يمكن لها اتخاذ القرار بشكل كامل وتلقائي، سواء من خلال توليد رسائل تحذيرية موجهة للعمال، أو إنهاءات فيما يتعلق بالجودة أو الإنتاجية دون أي تدخل من المشرفين البشريين، بل تعتمد الأنظمة في ذلك على بيانات الإنتاجية هذه لأن مراقبة العمال غير منظمة إلى حد كبير([330]).
وحتى في نطاق عمل شركة كبيرة مثل شركة “أمازون” في الولايات المتحدة الأمريكية، ومع وجود عدد من قوانين الخصوصية الفيدرالية الأمريكية([331])، إلا أنها غير مفيدة في حماية الموظفين والعمال من مراقبة الإنتاجية التي تنتهجها الشركات الكبرى.
فلم يتعرض المشرع للمواقف التي يُطلب فيها من الموظفين والعمال الخضوع للمراقبة الإلكترونية كشرط أساسي للتوظيف، وبالتالي السماح لصاحب العمل بالوصول إلى المعلومات الإلكترونية حول الموظفين، مما يجعل قانون خصوصية الاتصالات الإلكترونية (ECPA) غير قابل للتطبيق([332]).
بينما أصدرت عدة ولايات في أمريكا قوانين لمعالجة تتبع موقع الموظفين، فإن هذه القوانين تحظر هذا التتبع فقط عندما يتم ذلك دون موافقة العامل أو دون تقديم إشعار أو تنبيه بذلك([333]).
وعلى الرغم من تقرير الحماية القانونية، وتطلب أن يحصل صاحب العمل على موافقة العامل إلا أن هذا النوع من التشريعات لن يحمي عمال الشركات الكبرى الذين يعرفون بالمراقبة الإلكترونية وكانوا مطالبين بالموافقة عليها من أجل الحصول على وظيفة.
ثانياً: قلة البدائل الوظيفية للعمال:
غالبًا ما يكون لدى فئة ليست بالقليلة من العمال بدائل وظيفية محدودة، التي تمكن أصحاب الأعمال من إخضاع موظفيها وعمالها لظروف عمل تؤدي إلى الإصابات المتكررة.
كما أن قلة فرص العمل المتاحة والمناسبة لفئة كبيرة من العمال تمثل دافعاً قوياً للاستجابة لتعليمات وأوامر صاحب العمل، سواء فيما يتعلق بتحقيق معدلات إنتاجية عالية، أو الموافقة كذلك على الخضوع لنظام المراقبة الالكترونية حتى ولو لم يتحقق رضاء حقيقي وحر للعامل([334]).
كما أنه لا يمكن إنكار حقيقة التحيز وعدم المساواة في فرص العمل والوظائف حتى في الولايات المتحدة، وعلى سبيل المثال، العمال السود واللاتينيون أكثر عرضة من العمال البيض لمواجهة فترة طويلة من البطالة بعد ترك الوظائف.
بالإضافة إلى ذلك، أدى عدم المساواة العرقية التاريخية والحالية في الولايات المتحدة إلى حصول العمال السود واللاتينيين على عدد أقل من المدخرات التي يمكن الاعتماد عليها خلال فترات البطالة، مما يجعل إنهاء الوظيفة أكثر خطورة.
ثالثاً: انتشار نظام التوظيف حسب الرغبة:
يمنح القانون الأمريكي أصحاب العمل حرية كبيرة في إنهاء خدمة الموظفين والعمال حسب الرغبة، مما يسهل بشكل كبير على أصحاب الأعمال فصل العمال بسبب فشلهم في تلبية حصص الإنتاجية، في جميع الولايات الأمريكية باستثناء ولاية مونتانا، يُفترض وجود علاقة عمل حسب الرغبة بين أصحاب العمل والموظفين([335]).
ويعني ذلك أنه في حالة عدم وجود عقد عمل ينص على خلاف ذلك، فيمكن لأصحاب العمل فصل العمال لأي سبب أو بدون سبب على الإطلاق.
وتم تقنين بعض الاستثناءات الملحوظة للتوظيف حسب الرغبة في قوانين مكافحة التمييز، والتي تحظر على أصحاب العمل إنهاء خدمة العمال على أساس الفئات المحمية مثل العرق والجنس([336]).
وهناك تباين في الآراء حول تأييد وانتقاد نظام التوظيف حسب الرغبة، ويتجه معظم العلماء لانتقاد نظام التوظيف حسب الرغبة، بينما هناك أقلية تدافع عنه، وتعتمد في كثير من الأحيان على حرية التعاقد كمبرر قوي لهذا النظام([337]).
ويستند المؤيدون لنظام التوظيف حسب الرغبة لقاعدة الإرادة، ومؤدى هذه القاعدة أن حرية التعاقد هي “غاية في حد ذاتها”، وأن القيود المفروضة على هذه الحرية يمكن أن تقيد قدرة العمال والموظفين على التوصل إلى ترتيبات متبادلة بهدف تحقيق المنفعة([338]).
وبشأن المخاوف المتعلقة بهذا النظام خاصة فيما يتعلق من احتمالية سوء سلوك صاحب العمل أو تعسفه تجاه العامل، يشير المؤيدون إلى أن قدرة العامل على الاستقالة في أي وقت من شأنها أن تقلل من تعسف صاحب العمل لأن العمال سوف يستقيلون فقط إذا كانت أعباء الوظيفة تفوق فوائدها.
كما يستند المؤيدون لنظام التوظيف حسب الرغبة إلي أن إنتشار هذا النوع من عقود العمل بشكل كبير يثبت فاعليته في خدمة مصالح الموظفين وأصحاب العمل على حد سواء.
وجادل باحثون آخرون على نطاق أوسع بأن نظام التوظيف حسب الرغبة يوفر لأصحاب العمل حافزًا لتوظيف المزيد من العمال في أوقات النمو، مع العلم أنه يمكن فصل الموظفين بسهولة في أي وقت([339]).
ويشير منتقدو التوظيف حسب الرغبة إلى أن أصحاب العمل والعمال غالبا ما يمتلكون قوة تفاوض غير متكافئة، مما يقوض الافتراض القائل بأن العمال يمكنهم الاستقالة ببساطة إذا تمت معاملتهم بشكل تعسفي من قبل صاحب العمل([340]).
وإذا كان العمال الضعفاء يعرفون أن أصحاب العمل لديهم سلطة تقديرية هائلة لإنهاء عملهم لأي سبب، فسوف يخشون المطالبة بأجور أعلى أو ظروف عمل أفضل([341]).
ولمكافحة هذا النوع من الديناميكية، تتطلب الاتفاقيات النقابية أنه لا يمكن إنهاء خدمة الموظفين إلا لسبب وجيه، وهو ما يُعرف غالبًا بقواعد “السبب العادل”([342]).
هذه القواعد، التي تتطلب من أصحاب العمل إظهار حسن النية والأسباب المتعلقة بالعمل عند فصل الموظفين والعمال، يمكن أن تساعد على تحقيق التوازن في العلاقة بين صاحب العمل والموظف وتمكين العمال من معارضة ظروف العمل الخطيرة دون خوف([343]).
خاتمة البحث
عرضنا من خلال هذا البحث للتأثيرات المختلفة للذكاء الاصطناعي على بعض أحكام قانون العمل.
وقد اقتصرت دراستنا على نقاط ثلاث تتمثل في الحق في العمل، والمراقبة الالكترونية في بيئة العمل، وتأثير الذكاء الاصطناعي على أحكام المسئولية المدنية وقانون العمل.
وبينا من خلال هذه الدراسة لتأثير استخدام أنظمة الذكاء الاصطناعي على الحق في العمل، وبصفة خاصة ما يمكن أن يسفر عنه من تحيز وتمييز بين المتقدمين بطلب الحصول على وظائف، وصعوبة إثبات هذا التحيز بسبب التعقيدات الكبيرة في مجال الخوارزميات المستخدمة.
كما عرضنا للانتشار الكبير لأنظمة الذكاء الاصطناعي من قبل أصحاب الأعمال لمراقبة العمل والعمال، وما قد ينتج عن ذلك من تعارض مع الحقوق الأساسية للعمال وبصفة خاصة للحق في الخصوصية والحق في حماية البيانات الشخصية.
كما عرضنا من خلال هذا البحث لدور الذكاء الاصطناعي في مجال المسئولية المدنية لأصحاب الأعمال في مواجهة العمال المضرورين، كما بينا أيضا لدور الذكاء الاصطناعي على مسئولية العمال أنفسهم تجاه الأطراف الأخرى المضرورة.
وقد توصلنا لمجموعة من النتائج نجملها فيما يلي:
أولاً: كان الحق في العمل ولا زال حق مجرد أجوف، حيث لا يحتج به في مواجهة أصحاب الأعمال باعتبارهم مدينين به تجاه طالبي التعيين، بل يمكن الاحتجاج به فقط في مواجهة الدولة باعتباره حقاً دستورياً.
ثانياً: ترتيبا على النتيجة الأولى، يمكن للراغبين في العمل والمتقدمين أن يتعرضوا لخطر عدم المساواة والتمييز لأي سبب، ويرجع ذلك للتحيزات المعلوماتية التي يمكن تغذية الخوارزميات التي تعتمد عليها شركات الاستشارات وتقديم الدعم لأصحاب الأعمال.
ثالثاً: على الرغم من الايجابيات التي يمكن تحققها من خلال أنظمة الذكاء الاصطناعي في مجال الأعمال، إلا أن الكثير من المخاوف التي يثيرها الذكاء الاصطناعي تتبلور حول قدرته على تعطيل الرابط بين الشخص وحقه في العمل، حيث يمكن أن يحرم الفرد من هذا النشاط الإنساني الأساسي وهو حقه في العمل.
رابعاً: عدم كفاية الوسائل المتاحة في قانون العمل لحماية العديد من العمال في مواجهة غزو التكنولوجيا وأنظمة الذكاء الاصطناعي، خاصة حالتي إنهاء عقد العمل لأسباب اقتصادية، وكذلك إنهاء عقود العمل غير محدد المدة.
خامساً: تحقيق المراقبة الالكترونية لفوائد عديدة لأصحاب الأعمال في مراقبة العمال، وعملية الإنتاج، ومساهمتها -بشكل أو بآخر- في الحد من مسئولية أصحاب الأعمال عن السلوك غير المشروع لبعض العمال.
سادساً: تأثر بعض حقوق العمال الأساسية مثل الحق في الخصوصية وحماية البيانات الشخصية نتيجة المراقبة الالكترونية في ظل غياب تنظيم قانوني للمراقبة بما يحفظ للعمال حقوقهم بشكل قانوني صارم وفعال.
سابعاً: عدم ملائمة القواعد التقليدية في المسئولية المدنية لمواجهة المخاطر الناجمة عن استخدام أنظمة الذكاء الاصطناعي، سواء ما يتعلق بالمسئولية عن الأفعال الشخصية والتي تتطلب خطأ واجب الإثبات، وكذلك عدم انطباق أحكام المسئولية الشيئية على أنظمة التقنيات الحديثة.
ثامناً:الخلاف الشديد في الآراء المختلفة حول إمكانية الاعتراف بالشخصية القانونية للذكاء الاصطناعي بين مؤيد ومعارض، وفي ظل التوجيهات الأوروبية التي لا تعترف له بالشخصية القانونية.
تاسعاً: تأثر الوظائف المتاحة، وكم الوظائف المستقبلية نتيجة استخدام أنظمة الذكاء الاصطناعي في العمل، مما قد يكون لذلك أثر كبير على سلامة العمال، سواء من حيث مخاطر العمل، أو تكليفهم بحصص إنتاجية قد تفوق قدراتهم البشرية.
التوصيات:
أولاً: ضرورة قيام الدولة بالعمل على وضع الحق في العمل موضع الاهتمام والتنفيذ من خلال سياسات تعليمية وتدريبية ومهنية منظمة بهدف توفير العمالة المناسبة بما يتوافق مع حاجة سوق العمل.
ثانياً: ضرورة وضع حد للإخلال بقواعد المساواة وإجراء التحيز تجاه الراغبين في العمل بسبب أنظمة الذكاء الاصطناعي وهو ما يمكن أن يتم من خلال تقرير قواعد قانونية للحد من الإخلال بالمبادئ الدستورية لحقوق الإنسان.
ثالثاً: ضرورة تدخل المشرع بوضع قواعد آمرة لتنظيم عملية المراقبة الالكترونية بما يحقق الهدف المنشود لمصلحة صاحب العمل وبما لا يتعارض مع الحقوق الأساسية للعمال مثل الحق في الخصوصية، وحماية البيانات الشخصية.
رابعاً: نقترح ضرورة اللجوء لقواعد المسئولية الموضوعية لحماية المضرور عن مخاطر استخدام تقنيات الذكاء الاصطناعي.
خامساً: يمكن الاعتراف بنوع خاص من الشخصية القانونية، وهي ما تعرف بالشخصية الالكترونية، لأنظمة الذكاء الاصطناعي والروبوتات المستخدمة في مجال الأعمال لتقرير المسئولية عن الضرر الواقع بسبب هذه التقنيات المتطورة.
سادساً: يمكن إلزام أصحاب الأعمال والمصممين والمطورين لأنظمة الذكاء الاصطناعي بتأمين المسئولية التي تنشأ بسبب مخاطر هذه التقنيات والخوارزميات المستخدمة.
سابعاً: نوصي عند النظر من قبل المشرع في تطوير أحكام قانون العمل في عصر الذكاء الاصطناعي يجب تطوير مفهوم الموازنة بين حقوق العمال وحقوق صاحب العمل بما يتواكب مع التقدم التكنولوجي الحديث في بيئة العمل.
ثامناً: يحب النص صراحة على ضرورة الحفاظ على سلامة العمال عند استخدام تقنيات الذكاء الاصطناعي، وكذلك بما لا يسمح لأصحاب الأعمال بتحميلهم بأعباء حصص إنتاجية تفوق طاقاتهم.
قائمة المراجع
أولاً: المراجع العربية:
1) د. السيد عيد نايل، قانون العمل الجديد، دار النهضة العربية، القاهرة، 2003-2004.
2) د. ثروت عبد الحميد، النظرية العامة للالتزامات في القانون المدني المصري، مصادر الالتزام، بدون دار نشر، بدون سنة نشر.
3) د. حسام الدين كامل الأهواني، شرح قانون العمل، بدون دار نشر، 1991.
4) د. حسن عبد الرحمن قدوس، التعويض عن إصابة العمل، الطبعة الأولي، مكتبة الجلاء الجديدة، المنصورة، 1997.
5) د. حسن عبد الرحمن قدوس، إنهاء علاقات العمل لأسباب اقتصادية، مكتبة الجلاء الجديدة، المنصورة، 1990.
6) د. سمير حامد عبد العزيز الجمال، المسئولية الموضوعية عن أنظمة الذكاء الاصطناعي عالية المخاطر، دراسة مقارنة، بحث منشور بمجلد كلية الحقوق جامعة المنصورة بمناسبة اليوبيل الذهبي، 2023.
7) د. عبد الرزاق السنهوري، الوسيط في شرح القانون المدني، الجزء الأول، نظرية الالتزام بوجه عام، مصادر الالتزام، منشأة المعارف، الإسكندرية، طبعة 2004.
8) د. فتحي عبد الرحيم عبد الله؛ د. أحمد شوقي محمد عبد الرحمن، شرح قانون العمل والتأمينات الاجتماعية، مكتبة الجلاء الجديدة، المنصورة، 1998-1999.
9) د. فتحي عبد الرحيم عبد الله، دراسات في المسئولية التقصيرية ( نحو مسئولية موضوعية)، منشأة المعارف، الإسكندرية، 2005.
10) _________________، مبادئ في قانون العمل والتأمينات الاجتماعية، مكتبة الجلاء الجديدة، المنصورة، بدون سنة نشر.
11) د. فتحي عبد الصبور، الوسيط في قانون العمل، بدون دار نشر، 1985.
12) د. محمد حسين منصور، قانون العمل، دار الجامعة الجديدة، الإسكندرية، 2007.
13) د. محمد لبيب شنب، شرح قانون العمل، الطبعة الرابعة، دار النهضة العربية، القاهرة، 1983.
14) د. محمود جمال الدين زكي، قانون العمل، الطبعة الثالثة، بدون دار نشر، 1983.
ثانياً: المراجع الأجنبية:
1) A. Bensamoun et G. Loiseau, L’intelligenceartificielle : faut-il légiférer ?, D. 2017.
2) A. Hugh Scott, Computer and intellectual property crime: federal and state law 141 (2001).
3) A. Lucas, La responsabilité civile du fait des choses immatérielles, in Mél. P. Catala, Litec, 2001.
4) A. Mendoza-Caminade, Le droit confronté à l’intelligence artificielle des robots : vers l’émergence de nouveaux concepts juridiques ?, D. 2016.
5) Adam Rogers, We Try a New Exoskeleton for Construction Workers, Wired (Apr. 28, 2015, 7:00 AM), https://www.wired.com/2015/04/try-new-exoskeleton-construction-workers/ [https://perma.cc/624V-HYLA]).
6) Alana Semuels, What Amazon Does to Poor Cities, Atlantic (Feb. 1, 2018), https://www.theatlantic.com/business/archive/2018/02/amazon-warehouses-poor-cities/552020/ [https://perma.cc/QT9E-FPYN].
7) Alexander Furnas, Everything You Wanted to Know About Data Mining but Were Afraid to Ask, Atlantic (Apr. 3, 2012).
8) Alexia Elejalde-Ruiz, The End of the Resume? Hiring is in the Midst of a Technological Revolution with Algorithms, Chatbots, CHI. TRIB. (July 19, 2018, 6:00 AM), https://www.chicagotribune.com/business/ct-biz-artificial-intelligence-hiring-20180719-story.html.
9) Alexia Elejalde-Ruiz, The End of the Resume? Hiring is in the Midst of a Technological Revolution with Algorithms, Chatbots, CHI. TRIB. (July 19, 2018, 6:00 AM), https://www.chicagotribune.com/business/ct-biz-artificial-intelligence-hiring-20180719-story.html.
10)Allan G. King & Marko J. Mrkonich, “Big Data” and the Risk of Employment Discrimination, 68 Okla. L. Rev. 555 (2016);
11)Amanda M. Rose & Ricard Squire, Intraportfolio Litigation, 105 NW. U. L. REV. 1679, 1684 (2011).
12)Andreas Holzinger, Markus Plass, Michael Kickmeier-Rust, Katharina Holzinger, Golria Cerasela Crisan, Camelia-M. Pintea & Vasile Palade, Interactive Machine Learning: Experimental Evidence for the Human in the Algorithmic Loop, 49 APPLIED INTELLIGENCE 2401 (2019); Louis Columbus, State of AI and Machine Learning in 2019, FORBES, 2019.
13)Andrea Sitzia, Enrico Barraco,Protection Of Privacy In Labor Relations: The Italian Case Within The European Dimension, 31 Comp. Lab. L. & Pol’y J. 705, 2010.
14)Andrew D. Selbst & Solon Barocas, The Intuitive Appeal of Explaining Machines, Andrew D. 87 Fordham L. Rev. 1085 (2018).
15)Anupam Chander, The Racist Algorithm?, 115 MICH. L. REV. 1023, 1044 (2017).
16)Athena Coal., packaging pain: workplace injuries in amazon’s empire 6-7 (2019), https://s27147.pcdn.co/wp-content/ uploads/NELP-Report-Amazon-Packaging-Pain.pdf [https://perma.cc/Y836-53TC]
17)B.Dondero, L’intelligenceartificielle, vers un statut autonome?, Revue Droit & Affaires 2018.
18)Barbara Crutchfield George et al., U.S. Multinational Employers: Navigating Through the “Safe Harbor” Principles to Comply with the EU Data Privacy Directive,38 AM. BUS. L.J. 735, 743 (2001).
19)Bernard Marr, What Is the Difference Between Artificial Intelligence and Machine Learning, FORBES (Dec. 6, 2016, 2:24 AM), https://www.forbes.com/sites/bernardmarr/2016/12/06/what-is-the-difference-between-artificial-intelligence-and-machine-learning/? sh=49b626262742 [https://perma.cc/HP55-QQ22].
20)Brent Fisse & John Braithwaite, The Allocation of Responsibility for Corporate Crime: Individualism, Collectivism and Accountability, 11 SYDNEY L. REV. 468, 479 (1988).
21)C. Radé, France, in P. Lokiec, S. Robin-Olivier, S. Deakin et C. Radé, Droit du travail et responsabilité civile (1re partie), RDT 2007.
22)C.Jolly et A. Naboulet, Mutations digitales et dialogue social, France Stratégie, note de synthèse, nov. 2017
23)C.Villani, Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne, 2018.
24)Cade Metz, Is Ethical A.I. Even Possible?, N.Y. TIMES (Mar. 1, 2019), https://www.nytimes.com/2019/03/01/business/ethics-artificial-intelligence.html [https://perma.cc/DL9P-N27J].
25)Camille L. HZbert, Methods and Extent of Employer Use of Electronic Monitoring and Surveillance, EMPLOYEE PRIVACY LAW § 8A-1 (2002).
26)Cf. Milano Tribunal Mar. 26, 1994, in Orient. giur. lav. 23 (1994)., Cf. Napoli Pretura, Mar. 15, 1990, in Notiz. giur. lav. 226 (1990).
27)Charles A. Sullivan, Employing AI, 63 Vill. L. Rev. 395 (2018)
28)Charles M. Jones & Albert J. Menkveld, Does Algorithmic Trading Improve Liquidity, 91 J. FIN. 1, 3 (2011).
29)Charlotte A. Tschiderd, Beyond the “Black Box”, 98 DENV. L. REV. 683, 705-06 (2021).
30)Charlotte Jee, A Biased Medical Algorithm Favored White People for Health-Care Programs, MIT TECH. REV. (Oct. 25, 2019).
31)Charter Of Fundamental Rights Of The European Union, art. 7, Dec. 7, 2000, O.J. (C 364) 1 (2000).
32)Christophe Lachièze, Intelligence artificielle: quel modèle de responsabilité ?, Dalloz, IP/IT 2020.
33)Christopher J. Borchert, Fernando M. Pinguelo & David Thaw, Reasonable Expectations of Privacy Settings: Social Media and the Stored Communications Act, 13 Duke L. & Tech. Rev. 36 (2015).
34)Colette Cuijpers, ICT and Employer-Employee Power Dynamics: A Comparative Perspective of United States’ and Netherlands’ Workplace Privacy in Light of Information and Computer Technology Monitoring and Positioning of Employees, 25 J. MARSHALL J. COMPUTER & INFO. L. 37, 52 (2007).
35) Colin Lecher, How Amazon Automatically Tracks and Fires Warehouse Workers for ‘Productivity, ‘ VERGE (Apr. 25, 2019, 12:06 PM), https://www.theverge .com/2019/4/25/18516004/amazon-warehouse-fulfillment-centers-productivity-firing-terminations [https://perma.cc/XW7V-X6XR]
36)Commission européenne, Lignes directrices en matière d’éthique pour une intelligence artificielle digne de confiance, 8 avr. 2019.
37)Convention for the Protection of Human Rights and Fundamental Freedoms, Nov. 4, 1950.
38)Daniel a. Hanley & sally hubbard, open markets, eyes everywhere: amazon’s surveillance infrastructure and revitalizing worker power 7 (2020).
39)Daniel Castro, Michael Mclaughlin & eline chivot, ctr. For data innovation, who is winning the ai race: china, the eu, or the united states 1 (Aug. 19, 2019), https://www2.datainnovation.org/2019-china-eu-us-ai.pdf [https://perma.cc/XY92-4RM4].
40)Daniel J. Libenson, Leasing Human Capital: Toward A New Foundation for Employment Termination Law, 27 BERKELEY J. EMP. & LAB. L. 111, 123 (2006).
41)Danielle Keats Citron, Technological Due Process, 85 WASH. U. L. REV. 1249 (2008) (arguing the importance of algorithmic transparency)., Hannah Bloch-Wehba, Access to Algorithms, 88 FORDHAM L. REV. 1265 (2020) .
42)Darrell M. West & John R. Allen, How Artificial IntelligenceIs Transforming the World, Brookings (Apr. 24, 2018).
43)Delphine Gardes, Le droit à l’emploi face à l’intelligence artificielle, Droit social 2021.
44)Dustin Volz, Silicon Valley Thinks It Has the Answer to Its Diversity Problem, The Atlantic (Sept. 26, 2014), http://www.theatlantic.com/politics/archive/2014/09/silicon-valley-thinks-it-has-the-answer-to-its-diversity-problem/431334/ [https://perma.cc/5UJ5-LL36].
45)E.Tricoire, La responsabilité du fait des choses immatérielles, in Mél. P. le Tourneau, Dalloz, 2008.
46)Eban Escott, What Are the 3 Types of AI? A Guide to Narrow, General, and Super Artificial Intelligence, CODEBOTS (Oct. 24, 2017), https://codebots.com/artificial-intelligence/the-3-types-of-ai-is-the-third-even-possible [https://perma.cc/QX9Q-PHUP].
47)Edward Hertenstein,Electronic Monitoring in the Workplace: How Arbitrators Have Ruled, 52 DISP. RESOL. J. 36, 37 (1997).
48)Edward L. Rubin, Beneficial Precaution: A Proposed Approach to Uncertain Technological Dangers, 22 VAND. J. ENT. & TECH. L. 359, 391 (2020).
49)Elbert Lin, Prioritizing Privacy: A Constitutional Response to the Internet,17 Berkeley Tech. L.J. 1085 (2002).
50)Elise M. Bloom et al., Competing Interests in the Post 9-11 Workplace: The New Line Between Privacy and Safety, 1317 PRACTICING L. INST./CORP. 303, (2002).
51)Enrique Martínez-Miranda, Peter McBurney & Matthew J. Howard, Learning Unfair Trading: A Market Manipulation Analysis from the Reinforcement Learning Perspective, KING’S COLL. LONDON (2015), https://arxiv.org/pdf/1511.00740.pdf [https://perma.cc/58BN-XFX3];
52)F.Rouvière, Le robot-personne, ou Frankenstein revisité, RTD civ. 2018.
53)France Stratégie, Intelligenceartificielle et travail, mars 2018.
54)Frank Pasquale, Toward a Fourth Law of Robotics: Preserving Attribution, Responsibility, and Explainability in an Algorithmic Society, 78 OHIO ST. L.J. 1243, 1244-45 (2017)
55)G. Auzero, D. Baugard et E. Dockès, Droit du travail, coll. « Précis », Dalloz, 2020.
56)G. Loiseau et M. Bourgeois, Du robot en droit à un droit des robots, JCP 2014.
57)G. Loiseau, La personnalité juridique des robots, une monstruosité juridique, JCP 2018.
58)G. Loiseau, Intelligenceartificielle et conditions de travail des salariés : un impact à prendre au sérieux, Dalloz IP/IT 2018.
59)Gary D. Friedman & Thomas McCarthy, A.I. in Hiring: Potential Pitfalls for Employers, WEIL (Oct. 20, 2020), https://www.weil.com/articles/ai-in-hiring-potential-pitfalls-for-employers.
60)Holbrook v. Prodomax Automation Ltd., No. 1:17-cv-219, 2021 WL 4260622, at *6 (W.D. Mich. Sept. 20, 2021).
61)Hugh Collins, Employment Law, in Clarendon Law Series (2003).
62)I. Wildhaber, Répercussions juridiques de la robotique et de l’intelligence artificielle sur le lieu de travail, in J.-P. Dunand, P. Mahon et A. Witzig (dir.), La révolution 4.0 au travail, Shultess, 2019.
63)IBA Global Employment Institute, Artificial Intelligence and robotics and their impact on the workplace, 2017.
64)Ifeoma Ajunwa, Kate Crawford & Jason Schultz, Limitless Worker Surveillance, 105 CALIF. L.REV. 735, 748 (2017).
65)Ifeoma Ajunwa, Algorithms at Work: Productivity Monitoring Applications and Wearable Technology as the New Data-Centric Research Agenda for Employment and Labor Law, 63 ST. LOUIS U. L.J. 21, 40-41 (2018).
66)Ifeoma Ajunwa, Automated Video Interviewing as the New Phrenology, 36 BERKELEY TECH. L.J. 101, 108 (2022)
67)J.-F. Goglin, La digitalisation et l’intelligence artificielle : incidences sur les parcours de vie, sur la coordination des écosystèmes de santé, 2018.
68)J.-S. Borghetti, L’accident généré par l’intelligenceartificielle autonome, JCP, 2017.
69)Jacques Bughin, Jeongmin Seong, James Manyika, Michael Chui & Raoul Joshi, Notes from the AI Frontier: Modeling the Impact of AI on the World Economy, MCKINSEY GLOB. INST. (Sept. 4, 2018), https://www.mckinsey.com/featured-insights/artificial-intelligence/notes-from-the-ai-frontier-modeling-the-impact-of-ai-on-the-world-economy [https://perma.cc/YPN7-YR2L]
70)Jared Odessky, A New Moment for Wrongful Discharge Law, ONLABOR (July 16, 2020), https://onlabor.org/a-new-moment-for-wrongful-discharge-law/ [https://perma.cc/USU2-E5MZ].
71)Jay P. Kesan, Cyber-Working or Cyber-Shrinking?: A First Principles Examination of Electronic Privacy in the Workplace, 54 Fla. L. Rev. 289, 306 (2002).
72)Jeffrey Dastin, Amazon Rolls Out Machines That Pack Orders and Replace Jobs, REUTERS (May 13, 2019, 5:32 PM), https://www.reuters.com/article/us-amazon-com-automation-exclusive/exclusive -amazon-rolls-out-machines-that-pack-orders-and-replace -jobs-idUSKCN1SJ0X1 [https://perma.cc/7LN8-3DVG].
73)Jeffrey Dastin, Amazon Scraps Secret AI Recruiting Tool that Showed Bias Against Women, Reuters Business News (Oct. 9, 2018, AM), https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-id USKCN1MK08G [https://perma.cc/QD2P-GSFG].
74)Jerry Kaplan, Why Your AI Might Be Racist, Wash. Post (Dec. 17, 2018, 2:04 AM), https://www.washingtonpost.com/opinions/2018/12/17/why-your-ai-might-be-racist/ [https://perma.cc/J6U5-8VEN].
75)Joanna J. Bryson, Robots Should Be Slaves, in Close Engagements With Artificial Companions: Key Social, Psychological, Ethical, And Design Issues 63, 63 (Yorick Wilks ed., 2010).
76)Joe McKendrick, AI Adoption Skyrocketed Over the Last 18 Months, HARV. BUS. REV. (Sept. 27, 2021), https://hbr.org/2021/09/ai-adoptionskyrocketed-over-the-last-18-months.
77)John Hasnas, The Centenary of a Mistake: One Hundred Years of Corporate Criminal Liability. 46 AM. CRIM. L. REV. 1329, 1339 (2009).
78)John Zerilli with John Danaher et al., A Citizen’s Guide to Artificial Intelligence 1 (2021).
79)Jonathan Fineman, The Vulnerable Subject at Work: A New Perspective on the Employment At-Will Debate, 43 SW. L.REV. 275, 280 (2013).
80)Jordan M. Blanke, The Legislative Response to Employers’ Requests for Password Disclosure, 14 J. High Tech. L.J. 42 (2014).
81)Joshua A. Kroll, Joanna Huey, Solon Barocas, Edward W. Felten, Joel R. Reidenberg, David G. Robinson & Harlan Yu, Accountable Algorithms,


