جرائم تقنيات الذكاء الاصطناعي والشخصيَّة القانونيَّة الإلكترونيَّة المستقلَّة
(دراسة مقارنة)
إعداد
د./ منى محمد العتريس الدسوقي
دكتوراه القانون العام
كلية الحقوق – جامعة المنصورة
الملخص
تهدف الورقة البحثية إلى تسليط الضوء علي تأثير استخدام الذكاء الاصطناعي على ارتكاب الجرائم، فقد حقق التطور التقني المعلوماتي قفزات نوعية، وأحدث تغييرات إيجابية على المستويين الدولي والإقليمي.
إنَّ التطوُّرَ التكنولوجيَّ والمعلوماتيَّ المُتلاحق جعل الإنسانَ ينتقلُ بسرعةٍ عاليةٍ من عصر(IT)؛ أي عصر تكنولوجيا المعلومات الذي يرتكب من خلالها المُجرم الجريمةَ باستخدام الكمبيوتر، إلى عصر(DT)؛ أي عصر البيانات، وهي التي يتمُّ من خلال البرامج والمعلومات تحليلها من أجل ارتكاب جرائم البيانات، أمَّا الآن فننتقلُ إلى عصرٍ جديدٍ وهو AI)؛ أي عصر الذكاء الاصطناعيِّ، وهو عصر جرائم الذكاء الاصطناعي والروبوتات، بحيث تكون ظاهرةً إجراميَّةً جديدةً يقوم بارتكابها مجرمٌ من خلال أنظمة الذكاء الاصطناعيِّ والروبوتات؛ فما مدى إمكانيَّة تطبيق المسئوليَّة الجنائيَّة على تلك الجرائم؟ وهل يوجد تأثيرٌ للذكاء الاصطناعيِّ على تلك الجرائم؟ وهل يتم الاستفادة من تلك الأنظمة من أجل مساعدة الدول في تطوير أجهزتها لتحقيق العدالة الجنائية، ومنع هذه الجرائم. لذلك سارعت الكثير من الدول -ولا سيما المتقدمة – والدول العربية، لتَّصدي لتلك الظاهرة؛ وذلك بتشريع وسن القوانين التي تمنع من ارتكاب تلك الجرائم. ونتيجة لذلك يثور التساؤل عن مدي إمكانية المسئولية الجنائية عن أعمال الذكاء الاصطناعي وهل يتحمل المبرمج أو المنتج للذكاء الاصطناعي أو الغير المسئولية الجنائية عن أعمال الذكاء الاصطناعي أم يمكن أن يكون للذكاء الاصطناعي شخصية قانونية مستقلة كنوع جديد يطلق عليها الشخصية القانونية الإلكترونية يتحمل بناءً عليها الروبوتات والذكاء الاصطناعي المسئولية. وفي هذه الحالة يثور التساؤل حول نوعية الجزاء الجنائي الذي يتصور توقعيه والذي يتلاءم مع هذه الشخصية القانونية الجديدة للذكاء الاصطناعي. في ضوء ذلك سيتم استعراض هذه الدراسة من خلال مبحثين ونتبعُ المنهجَ الوصفيَّ التحليليَّ المقارن من خلال التعرُّف على كلٍّ من الذكاء الاصطناعيِّ والجرائم الإلكترونيَّة، وطبيعتها، وخصائصها، وصورها، وعلاقتها بالذكاء الاصطناعيِّ وكيفيَّة الاستفادة منه؛ وكذا تحليل كيفيَّة مدى المسئوليَّة الجنائيَّة لجرائم استخداماته وعقوبتها، في ضوء نظرية جديده
تحدد لها شخصية قانونية إلكترونية على غرار المسئولية عن أعمال الأشخاص الاعتبارية، إضافةً إلى الاستعانة بالمنهج المقارن ببعض الدول المتقدِّمة في تطوير تشريعاتها.
الكلمات المفتاحية: الذكاء الاصطناعي، الجريمة الإلكترونية، الجريمة المعلوماتية، تكنولوجيا المعلومات، المسئولية الجنائية.
Abstract
The research paper aims to shed light on the impact of the use of artificial intelligence on committing crimes, as information technology development has made qualitative leaps and has brought positive changes at the international and regional levels.
The successive technological and informational development made man move at a high speed from the era of IT); i.e. the era of information technology in which the criminal commits the crime using the computer, to the era of (DT); That is, the data age, which is through programs and information analyzed in order to commit data crimes, but now we are moving to a new era, which is AI); That is, the era of artificial intelligence, the era of artificial intelligence and robot crimes, so that it is a new criminal phenomenon committed by a criminal through artificial intelligence systems and robots; To what extent can criminal responsibility be applied to these crimes? Is there an impact of artificial intelligence on these crimes? Are these systems used to help countries develop their criminal justice systems and prevent these crimes? Therefore, many countries – especially the developed ones – and the Arab countries, rushed to address this phenomenon; By enacting and enacting laws that prevent the commission of such crimes. As a result, the question arises about the extent of the possibility of criminal responsibility for the actions of artificial intelligence and whether the programmer or producer of artificial intelligence or others bear criminal responsibility for the actions of artificial intelligence, or can artificial intelligence have an independent legal personality as a new type called the electronic legal personality based on which robots and artificial intelligence are borne the responsibility. In this case, the question arises about the quality of the criminal penalty that he imagines expecting and which is compatible with this new legal personality of artificial intelligence. Considering this, this study will be reviewed through two sections, and we will follow the comparative analytical descriptive approach by identifying both artificial intelligence and cyber-crimes, their nature, characteristics, images, and their relationship to artificial intelligence and how to benefit from it. As well as an analysis of the extent of criminal responsibility for the crimes of its uses and its punishment, in the light of a new theory that defines an electronic legal personality similar to the responsibility for the actions of legal persons, in addition to the use of the comparative approach of some advanced countries in developing their legislation.
Keywords: artificial intelligence, cyber-crime, information crime, information technology, criminal responsibility.
مقدمة
أدَّى التقدُّم التكنولوجيُّ خلال السنوات الماضية إلى ظهور العديد من الجرائم المُستحدثة، وتأتي جرائم استخدام تقنيات الذكاء الاصطناعيِّ على قمَّة هذه الجرائم، حيث أعطت البرمجةُ المُتطوِّرة لبعض الآلات التي تعملُ بالذكاء الاصطناعيِّ قدراتٍ تَصِلُ خطورتُها إلى بناء خبرةٍ ذاتيَّة تمكِّنها من اتِّخاذ قراراتٍ منفردةٍ في أيِّ مواقفَ تُواجهها مثل الإنسان. فقد شهد القرنُ الحادي والعشرون تطوُّراتٍ كبيرةً وكثيرةً في مجال الاتِّصالات، وبالأخص الشبكة العنكبوتيَّة، فأصبحت هذه الشبكةُ أداةَ ارتكابها أو محلاً لها حسب الحالة؛ ممَّا أدَّى ذلك إلى ظهور طائفةٍ جديدةٍ من الجرائم العابرة للحدود، مُختلفةٍ عن الجرائم التقليديَّة، وقد سُمِّيَتْ بالجرائم المعلوماتيَّة أو الإلكترونيَّة أو جرائم الإنترنت. وقد أدَّى هذا التقدُّم التكنولوجيُّ إلى استغلاله من قبل مُرتكبي الجرائم الإلكترونيَّة في تنفيذ جرائمهم؛ فنجد أنها لم تَعُدْ تقتصرُ على إقليم دولةٍ واحدةٍ، بل تجاوزت حدود الدول، فهي جرائمُ مُبتكرة ومُستحدثة تُمَثِّلُ ضربًا من ضروب الذكاء الإجراميِّ، وقد استعصى إدراجُها ضمن الأوصاف الجنائيَّة التقليديَّة في القوانين الجنائيَّة الوطنيَّة والأجنبيَّة.
وتثيرُ تقنياتُ الذكاء الاصطناعيِّ وتكنولوجيا المعلومات إشكالياتٍ عديدةً في مجال القانون ومُكافحة الجريمة، ففي مجال القانون الجنائيِّ تثور إشكالياتُ المسئوليَّةِ الجنائيَّةِ النَّاشئة عن استخدام تقنيات الذكاء الاصطناعيِّ، فبات من الضروريِّ بحثُ المسئوليَّة الجنائيَّة عن جرائم استخدام تقنيات الذكاء الاصطناعيِّ، هل تقعُ على المنتج أم على المالك، أم إنَّ حريَّة الإرادة واتِّخاذ القرار المُتوفر للذكاء الاصطناعيِّ بالحدِّ الذي قد يصلُ إلى تطويرٍ ذاتيٍّ داخله؛ بسبب القدراتِ البرمجيَّةِ التي حصل عليها يُمكنه من الخروج عن الضوابط والحدود الموضوعة له فيخرج عن السيطرة، فتجعله مسئولاً بصورةٍ منفردةٍ عن أفعاله، وإذا توافرت هذه الحالة الأخيرة فهل يمكن واقعيًّا مُساءلته جنائيًّا، ومُساءلته مدنيًّا بالمسئوليَّة التقصيريَّة النَّاشئة عن استخدام تلك التقنيات؟ وهل يمكنُ الاستفادةُ به لتحقيق العدالة الإلكترونيَّة والتقاضي عن بُعد لتسهيل الإجراءات الجنائيَّة، ومدى الاستفادة به في مُكافحة الجريمة منعًا وكشفًا كأحد الوسائل الحديثة، فضلاً عن استعانة الأجهزة الأمنيَّة بالروبوتات وتقنيات الذكاء الاصطناعيِّ في أداء مهامِّ حفظ الأمن ومُكافحة الجرائم، والتنبُّؤ بأماكن حدوثها بناءً على بياناتٍ لأماكن تجمُّع المُجرمين وتتبُّعهم، وهو ما يندرجُ تحت استراتيجيَّة المدن الذكيَّة التي من أهمِّ أهدافها استخدام التقنيات المُتطوِّرة؛ لضمان سلامة وأمن الناس؛ لتحسين أحوال المُجتمعات وتسريع أهداف التنمية المُستدامة.
ولذا من الضروريِّ وضعُ قواعدَ تنظيميَّةٍ تُجْبِرُ المنتجَ على وضع حدٍّ للصلاحيات الممنوحة للذكاء الاصطناعيِّ حتى يظلَّ تحت السيطرة، فمن التقنيات الحديثة حاليًّا “السيارات ذاتيَّة القيادة”، المُتمثِّل في الأكواد المُبرمجة التي تتحكَّم في تحريك السيارة بدون تدخُّلٍ بشريٍّ، وأيضًا أنظمة الملاحة الآليَّة في السفن والطائرات، بجانب الذكاء الاصطناعيِّ في العالم الافتراضي، المُتمثِّل في تطوير خوارزمياتٍ برمجيَّةٍ لتتمكَّنَ من التعرُّف على الوجوه الموجودة بالصورة على الإنترنت، والتدخُّل في خصوصيات المُستخدمين للتعرُّف على اهتماماتهم؛ من أجل استخدامها في أغراضٍ تجاريَّة مثل الإعلانات.
وهنا يُثار التساؤلُ: هل يمكنُ مُساواة الآلة التي تعملُ بالذكاء الاصطناعيِّ بالإنسان في الحقوق والواجبات أو يختلف الوضع؟ طُرح هذا السؤال في الأفق في أواخر 2017 مع ظهور الروبوت الآليِّ (صوفيا)، وهي شبيهةٌ بالبشر، صمَّمتها شركة “هانسون روبوتيكس” الموجودة في هونغ كونغ؛ كي تتعلَّمَ وتتأقلمَ مع السلوك البشريِّ، ولكي تعملَ مع البشر والتي كانت حديث العالم أجمع، وقد قامت السعوديَّة بمنحها الجنسيَّة السعوديَّة ومنحها جوازَ سفرٍ أيضًا([1]).
مُشكلة الدراسة:
إنَّ التطوُّرَ التكنولوجيَّ والمعلوماتيَّ المُتلاحق جعل الإنسانَ ينتقلُ بسرعةٍ عاليةٍ من عصر IT)؛ أي عصر تكنولوجيا المعلومات الذي يرتكب من خلالها المُجرم الجريمةَ باستخدام الكمبيوتر، إلى عصر (DT)؛ أي عصر البيانات، وهي التي يتمُّ من خلال البرامج والمعلومات تحليلها من أجل ارتكاب جرائم البيانات، أمَّا الآن فننتقلُ إلى عصرٍ جديدٍ وهو AI)؛ أي عصر الذكاء الاصطناعيِّ، وهو عصر جرائم الذكاء الاصطناعي والروبوتات، بحيث تكون ظاهرةً إجراميَّةً جديدةً يقوم بارتكابها مجرمٌ من خلال أنظمة الذكاء الاصطناعيِّ والروبوتات؛ فما مدى إمكانيَّة تطبيق المسئوليَّة الجنائيَّة على تلك الجرائم؟ وهل يوجد تأثيرٌ للذكاء الاصطناعيِّ على تلك الجرائم؟.
ويتفرَّعُ عن هذا التساؤل الرئيس التساؤلاتُ الفرعيَّةُ التالية:
1. التعريف بالذكاء الاصطناعي؟ والجرائم الإلكترونيَّة؟ وعلاقتها بالذكاء الاصطناعيِّ؟
2. ما مدى مسئوليَّة مالك الآلة التي تعملُ بنظام الذكاء الاصطناعيِّ عن الجرائم التي تُرتكب بواسطة تلك الآلة؟
3. هل تتوافرُ أسباب الإباحة وموانع المسئوليَّة للذكاء الاصطناعيِّ مثل الشخص الطبيعي؟
4. وماذا لو ارتَكبت الآلة نفسُها الجريمةَ دون تدخُّلٍ من مُنتجها أو مالكها أو الغير؟
5. هل القوانينُ العاديَّة؛ مثل (قانون العقوبات والإجراءات الجنائيَّة) تكفي وحدها لتنظيم وتحديد المسئوليَّة الجنائيَّة عن جرائم استخدامات تقنيات الذكاء الاصطناعيِّ، أو يجب وضعُ قوانينَ مُخصصةٍ لتلك الجرائم؟
6. هل يمكنُ منحُ تقنية الذكاء الاصطناعيِّ الشخصيَّة المعنويَّة وتخضع للمسئوليَّة الجنائيَّة عمَّا يصدرُ منها في حالة تطوير ذاتها والخروج عن سيطرة المُبرمج والمالك؟
أهميَّة الدراسة:
تحظى دراسةُ تقنيَّة الذكاء الاصطناعيِّ بأهميَّةٍ خاصَّة؛ وذلك لانتشارها في شتى مجالات الحياة؛ لِمَا ترتَّبَ على ذلك من جوانبَ إيجابيَّةٍ في تنمية المجتمع، وفي أداء مهامِّ حفظ الأمن ومُكافحة الجرائم، والتنبُّؤ بأماكن حدوثها بناءً على بياناتٍ لأماكن تجمُّع المجرمين وتتبُّعهم، وما يترتَّب على ذلك أيضًا من إسهام الذكاء الاصطناعيِّ في زيادة وانتشار الجريمة الإلكترونيَّة؛ لا سيما بسبب وجود علاقةِ ارتباطٍ قويَّةٍ بين استخدامات الحاسب الآليِّ وارتكاب الجرائم الإلكترونيَّة، وعلى الجانب الآخر نقومُ بدراسة المسئوليَّة الجنائيَّة عن جرائم استخدام تقنيات الذكاء الاصطناعيِّ والمسئوليَّة الجنائيَّة للشخص المعنويِّ، وكيفيَّة تطبيق العقوبة.
منهج الدراسة:
نتبعُ المنهجَ الوصفيَّ التحليليَّ المقارن من خلال التعرُّف على كلٍّ من الذكاء الاصطناعيِّ والجرائم الإلكترونيَّة، وطبيعتها، وخصائصها، وصورها، وعلاقتها بالذكاء الاصطناعيِّ وكيفيَّة الاستفادة منه؛ وكذا تحليل كيفيَّة مدى المسئوليَّة الجنائيَّة لجرائم استخداماته وعقوبتها، إضافةً إلى الاستعانة بالمنهج المقارن ببعض الدول المتقدِّمة في تطوير تشريعاتها.
خطة الدراسة:
المبحث الأول: ماهيَّة الذكاء الاصطناعيِّ والجريمة الإلكترونيَّة.
المطلب الأول: التعريف بالذكاء الاصطناعي والجريمة لإلكترونيَّة.
المطلب الثاني: أمثلة لجرائم استخدام تقنيات الذكاء الاصطناعيِّ الحديثة
المطلب الثالث: أهميَّة الذكاء الاصطناعيِّ في آليات اكتشاف ورصد الجريمة وجمع الأدلة.
المبحث الثاني: المسئوليَّة الجنائيَّة لجرائم استخدام تقنيات الذكاء الاصطناعيِّ وعقوباتها.
المطلب الأول: أطراف المسئوليَّة الجنائيَّة في جرائم استخدام تقنيَّة الذكاء الاصطناعي.
المطلب الثاني: العقوبات المقرَّرة لجرائم استخدام تقنيات الذكاء الاصطناعي.
المطلب الثالث: التطوُّر التشريعيُّ في بعض الدوللمُواجهة جرائم أنظمة الذكاء الاصطناعي.
الخاتمة:
المراجع:
المبحث الأول
ماهيَّة الذكاء الاصطناعيِّ والجريمة الإلكترونيَّة
إنَّ الجريمة المعلوماتيَّة هي نتيجةٌ للتقدُّم السريع في شتى المجالات العلميَّة الذي يتميَّز به عصرنا الحاضر؛ فاستخدامُ الحاسب الآليِّ كأداة لارتكاب الأفعال غير المشروعة، سواء كان الحاسب الآلي محلاًّ للجريمة المعلوماتيَّة أو وسيلةً لها؛ فإنَّ الجوهر في الأمر أنَّ انتشار الوسائل المعلوماتيَّة نتيجة لثورة المعلومات – والتي تنتشر بسرعةٍ كبيرةٍ وتغزو مُختلف مجالات الحياة – أصبح يزيدُ من فرص انتشار الجرائم الإلكترونيَّة المُستحدثة. فنتيجةً لذلك توجد علاقةُ ارتباطٍ قويَّة بين الذكاء الاصطناعيِّ وارتكاب بعض الجرائم المُستحدثة؛ لذا تعدُّ تقنياتُ الذكاء الاصطناعيِّ من أهمِّ ضروريات العصر الحديث والتي يجبُ دمجُها داخل المجتمع وتقنينها؛ لِتُسَهِّلَ على الإنسان كثيرًا من الوقت والجهد في إنجاز أموره الضروريَّة([2]).
لذلك لا بدَّ من التعريف أولاً بالذكاء الاصطناعيِّ، ثم التعريف بالجريمة المعلوماتيَّة، وذلك في المطلب الأول، ثم نوضِّح صور الجريمة الإلكترونيَّة وعلاقتها بالذكاء الاصطناعيِّ في المطلب الثاني، وذلك على النحو التالي:
المطلب الأول
التعريف بالذكاء الاصطناعيِّ والجريمة الإلكترونيَّة
مفهوم الذكاء الاصطناعي:
نجد أنَّ الذكاءَ الاصطناعيَّ من أهمِّ مُخرجات الثورة الصناعيَّة الرابعة؛ لتعدُّد استخداماته في مجالات الحياة كافة (العسكريَّة، والصناعيَّة، والاقتصاديَّة، والتقنيَّة، والتطبيقات الطبيَّة، والتعليميَّة، والخدميَّة … إلخ)، ومن المتوقَّع أنْ يُفتح الباب لابتكاراتٍ لا حدودَ لها، ويؤدِّي لمزيدٍ من الثورات الصناعيَّة، وسيكونُ محركًا للتقدُّم والازدهار في السنوات القادمة. فبداية الثورة الصناعيَّة الرابعة في مطلع القرن الحادي والعشرين تعتمدُ على (الثورة الرقميَّة والإنترنت المُتحرك، وتطوُّر أجهزة الاستشعار عن بُعد، والذكاء الاصطناعي والتكنولوجيا الحيويَّة، والروبوتات الذكيَّة، والتحول الآلي، والتقنيات الرقميَّة والأنظمة الذكيَّة).
وقد ظهر مُصطلح الذكاء الاصطناعيِّ لأول مرةٍ من خلال مؤتمر للكمبيوتر عُقد في الولايات المُتحدة عام 1946م، فتنوَّعت مجالات الذكاء الاصطناعيِّ في العديد من الفروع المُختلفة؛ مثل التعلُّمِ الآليِّ والأنظمة الخبيرة وصناعة الروبوت … إلخ، وفي هذه الدِّراسة نركِّز الحديث على علاقة الذكاء الاصطناعيِّ بالجريمة المعلوماتيَّة.
ويتعيَّنُ لمعرفة ماهيَّة الذكاء الاصطناعيِّ تحديد (أولاً) المقصود بالذكاء الإنسانيِّ؛ فهو الذي يرتبطُ بالقدرات العقليَّة، مثل القدرة على التكيُّف مع ظروف الحياة، والاستفادة من التجارب والخبرات السَّابقة، والتفكير، والتخطيط. ويُعَرَّفُ الذكاء الاصطناعي([3])بأنه: فرعٌ من فروع الحاسوب يهتمُّ بدراسة وصناعة أنظمةٍ حاسوبيَّةٍ يُمكنها إنجازُ أعمالٍ تتطلَّبُ ذكاءً بشريًّا، حيث تمتازُ هذه الأنظمة بأنها تتعلَّم مفاهيمَ ومهامَّ جديدةً، ويُمكنها أنْ تُفَكِّرَ وتستنتجَ استنتاجاتٍ مفيدةً حول العالم الذي نعيشُ فيه. فيعدُّ مُصطلح الذكاء الاصطناعيِّ شكلاً من أشكال “الحوسبة الذكيَّة” من حيث إنها تعتمدُ على برامج الكومبيوتر التي يمكنُ أنْ تستشعرَ وتفكِّرَ وتتعلَّم([4]) وتتصرَّف وتتكيَّف مثل الإنسان([5]).
ويتضحُ ممَّا سبق أنَّ الجذور والأفكار الرئيسة للذكاء الاصطناعيِّ تعودُ إلى ما قام بوضعه الفلاسفةُ الأوائل من خلال كتاباتهم وأفكارهم الفلسفيَّة، إلاَّ أنَّ تحوُّلَ ذلك إلى علم استدعى تطوُّرًا في القوانين الرياضيَّة والاقتصاد وعلم الأعصاب وعلم النفس وعلوم الكمبيوتر أو السيبرانيَّة وغيرها من العلوم الأخرى التي تدخلُ في صميم عمل الذكاء الاصطناعي([6])، بحيث يتمُّ في النهاية التوصُّلُ إلى روبوتاتٍ أو إنسانٍ آليٍّ أو غيرها من أنظمة الذكاء الاصطناعيِّ التي أصبحت موجودةً ومُستخدمةً في عالمنا الحاليِّ؛ تُشبه الإنسان في التصرُّف وتمتلكُ قدرة الوعي الاصطناعيِّ والمولدة بصورةٍ طبيعيَّة.
إنَّ ما يُميز الذكاء الاصطناعيَّ عن البرامج الإلكترونيَّة هي قدرتُه على العمل دون سيطرة الإنسان وتدخُّله المُباشر، حيث إنَّ الذكاءَ الاصطناعيَّ يتمتَّعُ بالوعي الذي يُشبه الوعي البشري، والذي يتميَّز بالقدرة على التعامُل مع غيره من البرامج أو الأشخاص والقدرة على ردِّ الفعل والمُبادرة([7])؛ أي القدرة على الاستقلاليَّة بالتصرُّف دون الرجوع إلى المبرمج أو الإنسان، وعلى الرغم من عدم الإلمام به على نطاق واسع، فإنَّ الذكاءَ الاصطناعيَّ هو التكنولوجيا التي ستغيِّر كلَّ مجالات الحياة.
تعريف الجريمة الإلكترونيَّة:
تعدَّدت تعريفات الجريمة الإلكترونيَّة، فقد عرَّفها البعض([8])بأنها “الفعلُ غير المشروع الذي يتورَّط في ارتكابه الحاسب الآلي” بالنظر إلى وسيلة ارتكابها، وهو الحاسب الآلي.
ونتيجةً لذلك قام مكتب تقييم التقنيَّة في الولايات المُتحدة الأمريكيَّة بتعريفها من خلال تعريف الحاسب الآليِّ([9]) بأنها “الجرائمُ التي تقوم فيها بيانات الحاسب الآليِّ والبرامج المعلوماتيَّة بدورٍ رئيسٍ”، وقد عرَّفتها منظَّمة التعاون الاقتصاديِّ والتنمية([10]) (OCDE) بأنها “كلُّ فعلٍ أو امتناعٍ من شأنه الاعتداءُ على الأموال الماديَّة أو المعنويَّة يكون ناتجًا بطريقةٍ مُباشرةٍ أو غير مُباشرةٍ عن تدخُّل التقنيَّة المعلوماتيَّة”، وعرَّفها البعض([11]) أيضًا بأنها “نشاطٌ جنائيٌّ يُمَثِّلُ اعتداءً على برامج وبيانات الحاسب الإلكتروني”، وعرَّفها البعضُ الآخر([12]) بأنها “هي كلُّ نشاطٍ غير مشروعٍ مُوَجَّهٍ لنسخ أو تغيير أو حذف أو الوصول إلى المعلومات المُخزَّنة داخل الحاسب الآليِّ والتي تُحول طريقه”. ويندرجُ هذا النوع تحت جرائم المُعالجة الآليَّة للبيانات، بالنظر إلى موضوع الجريمة ونمطها، فهي لا تقعُ على ماديات، وإنما على برامج الكمبيوتر وما يحتويه من معلومات.
وقد وضع مؤتمر الأمم المُتحدة العاشر لمنع الجريمة ومُعاقبة المجرمين تعريفًا جامعًا لجرائم الحاسب الآليِّ وشبكاته؛ حيث عرَّف الجريمة المعلوماتيَّة بأنها([13]): “أيُّ جريمةٍ يمكنُ ارتكابُها بواسطة نظام أو شبكة حاسوبيَّة أو داخل نظام حاسوب”، ويعدُّ هذا التعريفُ من أفضل التعريفات التي تناولت ظاهرة الإجرام المعلوماتي.
ممَّا سبق يتضحُ أنَّ التطوُّر التكنولوجيَّ والمعلوماتيَّ المُتلاحق جعل
الإنسان ينتقلُ بسرعةٍ عاليةٍ من عصر (IT)؛ أي عصر تكنولوجيا المعلومات
الذي يرتكب من خلالها المجرمُ الجريمة باستخدام الكمبيوتر، إلى عصر (DT)؛ أي عصر البيانات وهي التي يتمُّ من خلال البرامج والمعلومات تحليلُها من أجل ارتكاب جرائم البيانات، أمَّا الآن فننتقلُ إلى عصر جديد وهو AI)؛ أي عصر الذكاء الاصطناعي، وهو عصر جرائم الذكاء الاصطناعي والروبوتات القاتلة، بحيث تكون ظاهرةً إجراميَّة جديدة يقوم بارتكابها مجرمٌ من خلال أنظمة الذكاء الاصطناعيِّ والروبوتات([14]).
فممَّا لا شكَّ فيه أنَّ الذكاءَ الاصطناعيَّ مهما بلغت درجةُ دقته وتطوُّره من المُتصوَّر أنْ يقعَ منه الأخطاء، وبالتالي ارتكابه للجرائم، كذلك يمكنُ أنْ يصلَ إلى درجةٍ من الوعي تجعلُ الذكاءَ الاصطناعيَّ قادرًا على الإدراك العاطفي([15])، ممَّا يدفعه إلى القيام بأفعالٍ انتقاميَّةٍ أو عدائيَّةٍ تُسَبِّبُ أضرارًا للغير.
الطبيعة القانونيَّة لجرائم تقنيات الذكاء الاصطناعي([16]):
نجد أن هذا النوع من الجرائم يدخلُ في نطاق دراسة القسم الخاصِّ بقانون العقوبات، وهو الفرع المختصُّ بدراسة كلِّ جريمةٍ على حدة مُتناولاً عناصرها الأساسيَّة والعقوبة المقرَّرة لها، فهذه الجرائم تُمَثِّلُ ظاهرةً إجراميَّةً ذات طبيعةٍ خاصَّةٍ تتعلَّقُ بالقانون الجنائيِّ. فالطبيعةُ القانونيَّةُ الخاصَّةُ لهذه الجرائم من خلال المجال الذي يمكنُ أنْ تُرتكب فيه، أو الذي يقعُ عليه الاعتداء، فطبيعة التطوُّر السريع في المجال التكنولوجيِّ تتحتَّم ضمَّهُ إلى نطاق القانون الجنائيِّ الخاصِّ؛ بسبب عجز النصوص الجنائيَّة عن مُواكبة التطوُّر في هذا المجال أو لما يحوي من فراغٍ تشريعيٍّ خاصٍّ بذلك؛ لذا من الضروريِّ تحديث القوانين الجنائيَّة لمُعاقبة مَن يستخدم الجانبَ السلبيَّ لتقنيات الذكاء الاصطناعي.
خصائص الجريمة الإلكترونيَّة([17]):
تتفقُ الجرائمُ الإلكترونيَّة كغيرها من الجرائم التقليديَّة في أركان الجريمة وأطرافها من حيث الجاني والمجنيّ عليه([18])، ولكنَّ الجرائم الإلكترونيَّة تتميَّزُ بعدة خصائصَ لعلَّ من أبرزها ما يلي:
1. تعدُّ الجرائمُ الإلكترونيَّةُ أقلَّ عنفًا من الجرائم التقليديَّة؛ أي إنها لا تحتاجُ
إلى أدنى مجهودٍ عضليٍّ؛ بل تعتمدُ على القدرة الذهنيَّة والتفكير العلميِّ المدروس المُستند إلى معرفةٍ بتقنيات الحاسب الآليِّ والتقنيات الحديثة، فلا يوجدُ في واقع الأمر شعورٌ بعدم الأمان تجاه المُجرمين في مجال المُعالجة الآليَّة للمعلومات، باعتبار أنَّ مُرتكبيها ليسوا من مُحترفي الإجرام بصيغته المُتعارف عليها.
2. تقعُ الجريمةُ المعلوماتيَّةُ في بيئة المُعالجة الآليَّة للمعلومات والبيانات؛ حيث إنه يلزم لوقوعها أنْ يكونَ التعاملُ مع بياناتٍ تمَّ تجميعُها وتجهيزها في آلةٍ بغرض الدخول إلى نظامٍ معلوماتيٍّ بغية مُعالجتها إلكترونيًّا.
3. يختلفُ الباعث على ارتكاب الجرائم الإلكترونيَّة عنه بالنسبة إلى الجرائم التقليديَّة، ففي الجرائم الأخيرة يتمثَّلُ الباعث بالرغبة في مُخالفة النظام العامِّ والخروج عن القوانين أكثرَ من استهداف الحصول على الربح، في حين نجد أنَّ الباعثَ لدى مُرتكبي الجرائم الإلكترونيَّة هو الحصول على النفع الماديِّ السريع بتحقيق مبالغَ طائلةٍ، إضافةً لمُخالفة النظام العامِّ والإضرار بالدولة.
4. تُرتكب الكثير من الجرائم الإلكترونيَّة، ولكن نادرًا ما تقعُ هذه الجريمة ويقوم المجنيُّ عليه بالإبلاغ عنها؛ وذلك بسبب عدم اكتشافه للجريمة، أو لأنه اكتشفها ولكنه يخافُ من الإساءة لسُمعته وفقدان الثقة في التعامل معه؛ لذلك لا يتمُّ في الغالب الإبلاغُ عن جرائم الإنترنت؛ إمَّا لعدم اكتشاف الضحيَّة لها وإمَّا لخشيته من التشهير. لذا نجد أنَّ معظم الجرائم تمَّ اكتشافها بالمُصادفة، بل وبعد وقتٍ طويلٍ من ارتكابها.
5. يسهلُ ارتكاب الجرائم الإلكترونيَّة، على الرغم أنها تعدُّ جرائمَ صعبةَ الإثبات، حيث يصعبُ في كثيرٍ من الأحيان العثورُ على أثرٍ ماديٍّ للجريمة، والسببُ في ذلك يعودُ إلى استخدام الجاني وسائلَ فنيَّةً وتقنيَّةً مُعقَّدة في كثير من الأحيان، كما يتمثَّلُ السلوكُ المُكون للركن الماديِّ فيها بعملٍ سريعٍ قد لا يستغرقُ أكثرَ من بضع ثوانٍ، فمن السهل إخفاءُ معالم الجريمة وصعوبة تتبُّع مُرتكبيها، وسهولة محو الدليل والتلاعب به، في الوقت الذي تفتقرُ فيه هذه الجرائم إلى الدليل الماديِّ المكتوب؛ لذا فهذه الجرائمُ لا تتركُ أثرًا لها بعد ارتكابها؛ علاوةً على صعوبة الاحتفاظ الفنيِّ بآثارها إنْ وُجدت. ولذلك يتضح ان الجرائم التقليديَّة أسهل في الإثبات؛ لأنَّ الجرائمَ التقليديَّةَ تتركُ أثرًا خارجيًّا؛ فجريمة القتل مثلاً تُخلف وراءها جثثًا ودماءً.
6. تعتمدُ هذه الجرائم على قمَّة الذكاء في ارتكابها؛ ويصعبُ على المُحقِّق التقليديِّ التعاملُ مع هذه الجرائم، إذ يصعبُ عليه متابعةُ جرائم الإنترنت والكشف عنها وإقامة الدليل عليها، فهي جرائمُ تتسمُ بالغموض؛ وإثباتُها والتحقيقُ فيها يختلفُ عن التحقيق في الجرائم التقليديَّة، والوصول للحقيقة بشأنها يستوجبُ الاستعانة بخبرةٍ فنيَّةٍ عالية المستوى.
7. الجرائمُ التقليديَّةُ لا بدَّ لمُرتكبها أنْ يوجدَ في مكان الجريمة، أو يكون قريبًا منها بمسافةٍ تُمكِّنه من ارتكاب الجريمة، أمَّا الجرائم الإلكترونيَّة فتختلفُ عن ذلك؛ فمثلاً قد يستطيعُ المُجرم وهو في بلدته وفي منزله أنْ يخترقَ نظامًا معلوماتيًّا في دولةٍ أخرى، ويُحَوِّلَ مبلغًا من المال لشخصٍ ما في أيِّ دولة، وهناك برامجُ يستطيعُ المُجرم باستخدامها أنْ يخترقَ أيَّ شبكةٍ في العالم فيتصلَ بها ويُغير ما بها من معلوماتٍ زيادةً ونقصًا وتبديلاً، بعد أنْ يتمكَّنَ من معرفة كلمة السر، إذن فهذه الجرائمُ لا تعرف حدودًا بين الدول ولا القارات. فقد أصبح جهاز الحاسوب يستخدم بأيدي عصابات الجريمة المنظَّمة كأداةٍ فعالةٍ لارتكاب الجرائم، وهناك حكوماتٌ تستعمل أجهزة الحاسب والطائرات ذاتيَّة القيادة لتتجسَّس بها على دولٍ أخرى، فنكون بذلك أمام مُجرم يحمل مهاراتٍ تقنيَّةً وقدرًا عاليًا من الذكاء ملمٍّ جيدًا بالتقنيَّة العالية للذكاء الاصطناعيِّ.([19])
8. تؤدِّي عولمة الجرائم الإلكترونيَّة إلى تشتيت جهود التحرِّي والتنسيق الدوليِّ لتعقُّب مثل هذه الجرائم، فتعدُّ هذه الجرائم هي صورة صادقة من صور العولمة([20]).
المطلب الثاني
أمثلة لجرائم استخدام تقنيات الذكاء الاصطناعيِّ الحديثة
تتعدَّدُ جرائم تقنيات الذكاء الاصطناعيِّ، ويظهرُ كلَّ يومٍ ما هو جديدٌ من تلك الجرائم، سواء في العالم الواقعيِّ أم الافتراضي.
· ومن أمثلة جرائم استخدام تقنيات الذكاء الاصطناعيِّ في العالم الواقعي: حوادث الطرق، حيث تنتشر كثيرٌ من الآلات التي تستخدمُ تقنيات الذكاء الاصطناعيِّ حولنا، مثل: الروبوت الآلي، والطائرات، والسفن وغيرها.
التطبيقات القضائيَّة الحديثة للروبوت كأحد أنظمة الذكاء الاصطناعي:
في التطبيقات القضائيَّة الحديثة للروبوت الشيء، يبدو أنَّ مصطلح “النائب الإلكتروني” قد استخدمه القضاءُ الأمريكيُّ عام 2016 للدلالة على برامج الحاسوب المُستقلة([21]).
وقد توافقتْ هذه الرؤيةُ مع محكمة النقض الفرنسيَّة التي أشارت عام 2018 إلى روبوت الإجابة عن رسائل البريد الإلكترونيِّ على أنه مجرد: “برنامج حاسوبي/ معلوماتي([22]) دون منحِهِ أية صفةٍ نيابيَّة عن مشغله؛ أي مجرد وسيلةٍ تُسهم في تدفُّق البيانات في الفضاء الرقميِّ خدمة للحاجات العامَّة من جهةٍ أخرى.
وبناءً عليه، فإنَّ المرحلة التي جاءت بها نظريَّة النائب الإنسانيِّ لم تحملْ أيَّ تغييرٍ في المكانة القانونيَّة لنظم الذكاء الاصطناعيِّ من الناحية الفعليَّة، فبقي شيئًا وإن كان ذكيًّا.
ولذلك، فقد بادر جانبٌ من الفقه العربيِّ بإطلاق فكرةٍ مفادها أنه: “حان الوقتُ لمُعاملة (الأنظمة الإلكترونيَّة) كالكائنات البشريَّة “Time to Treat Them (Electronic Agents) as Human Beings”([23])
ونحن نرى؛ أنه من غير المُفاجئ في المستقبل أنْ يتمَّ منح الشخصيَّة القانونيَّة “المعنويَّة غير المميزة” لنظم الذكاء الاصطناعيِّ بغرض جعله أهلاً لملكيَّة ذمَّةٍ ماليَّةٍ مُسجلة باسمه بشكلٍ رسميٍّ، فتكون مُثقلةً بالالتزامات التي تنشأ عن أعمال نظم الذكاء غير الاصطناعيِّ غير المشروعة، ورصيدًا لثمار أعماله المشروعة؛ حيث إنَّ أجيال نظم الذكاء الاصطناعيِّ غير المراقب الحاليَّة باتت قادرةً على العمل والإنتاج والإبداع، وهذا ما قد يفتحُ الإمكانيَّة لها لكي تتقاضى أجرًا يودع في ذمتها الماليَّة.
وبالتالي فقد استشرف جانبٌ من الفقه، الشخصيَّة الافتراضيَّة القادمة على هيئة منهج نظري، فيكون: “الشخص الإلكتروني الذي يتحمَّل الالتزامات القانونيَّة ويكتسب الحقوق، هو – في الواقع – عبارة عن مجموعةٍ من الحقوق والواجبات؛ ومُحتوى الحقوق والالتزامات هي وقائعُ الذكاء الاصطناعي”([24]).
وهذا ما سيجعلُ نظمَ الذكاء الاصطناعيِّ قادرًا على تحمُّل الالتزامات
الماليَّة النَّاتجة عن أخطائه في حال ملاءته، أو الرجوع على نائبه الإنسانيِّ في حال عُسره([25]).
· ومن أمثلة جرائم تقنيات الذكاء الاصطناعيِّ في العالم الافتراضيِّ جريمة الاعتداء على الحقِّ في الخصوصيَّة:([26]) فتعدُّ مواقعُ التواصل الاجتماعيِّ من أشهر ما يوجدُ في العالم الافتراضي، حيث يستخدم موقع الفيس بوك الخوارزميات كأحد تطبيقات الذكاء الاصطناعيِّ، من خلال ملفات تعريف الارتباط؛ لتحقيق أهدافٍ مُعينةٍ، كالتأكُّد من شخصيَّة المُستخدم وتحديد تفضيلاته، ومعرفه موقعه، وتحليلات البحث، وغيرها من الأشياء الأخرى التي يستطيعُ معرفتها من خلال تلك الملفات، ويتمُّ ذلك بمُوافقة المُستخدم، فيتمثَّلُ الاعتداءُ على خصوصيات المُستخدم من قبل برامج الفيس بتطبيق خوارزميات الذكاء الاصطناعيِّ، بتحديد اهتمامات المُستخدم من خلال تفاعلاته على الصور أو المنشورات ومُتابعته لمنتجاتٍ مُعينةٍ، وكلُّ ذلك من أجل استخدامها في عرض إعلاناتٍ له تتوافقُ مع اهتماماته، وأيضًا عرض محتوى يتوافقُ مع اهتماماته لجعله يوجد في الموقع أطولَ فترةٍ ممكنةٍ في يومه،
وفي الواقع أنَّ المُوافقة التي يحصلُ عليها الفيس بوك من المُستخدم عند
تعارفه على الموقع تعدُّ هي المخرجَ القانونيَّ من مثل تلك الاعتداءات على خصوصياته.
ونحن نرى أنَّ مجانيَّة خدمة الفيس بوك صوريَّة؛ لأنَّ المقابل هو خصوصيات المُستخدم لها، فالأمرُ لم يقتصرْ على تحديد المفضل للمستخدم، بل تعدَّى ذلك لفلترة المكالمات الصوتيَّة والمُحادثات الهاتفيَّة التي يقومُ بها المستخدم، بل يقوم باستغلال بيانات المُستخدمين بإرسالها للشركات المُنتجة للأنشطة الخدميَّة، فيجب تسليط الضوء على مدى تمتُّع البيانات الشخصيَّة([27]) الرقميَّة للمُستخدم بخاصيتي الخصوصيَّة والسريَّة([28]).
وقد أشار البعض([29]) إلى الآليَّة التي يتمُّ من خلالها جمعُ البيانات الرقميَّة سواء عبر بروتوكولات الإنترنت IP address ، أم ملفات تعريف الارتباط أو الكوكيز([30]) Cookies ، فخصوصيَّة المُستخدم وحماية بياناته الرقميَّة أصبحت محلَّ اهتمامٍ كبيرٍ وبحاجةٍ لتقرير حمايةٍ خاصَّةٍ وفعالةٍ([31]) لا سيَّما بعد ظهور من يقومون باستغلال هذه البيانات بشكلٍ ضارٍّ يُسيء إليهم، فبمجرد استخدام هذه البيانات دونعلمهم أو موافقتهم، فإنَّ ذلك يعدُّ صورةً من صور انتهاك واختراق الخصوصيَّة بشكلٍ واضح([32])؛ فيجبُ النظر في مخاطر الخصوصيَّة؛ لضمان توفير حمايةٍ مناسبةٍ للبيانات الرقميَّة، والعمل على إيجاد آلياتٍ تُساعد على بيان كيفيَّة حمايتها ومنع استغلالها.
الحكمُ الصادر عن محكمة الاستئناف بفرنسا في قضية “Google Adwords“، والتي رفضت فيه المحكمةُ تقرير مسؤولية شركة Google عن الأضرار التي أصابت شركتيّْ: “Terres d’aventure“، و”Voyageurs du mond“، ورفضت اعتبار شركة Google حارسًا للمعلومات الموجودة على منصة Adwords، تأسيسًا على أن المعلومات، باعتبارها أشياءً غير مادية، يصعب إخضاعها لفكرة الحراسة الفعلية، ما لم يتم وضعها على دعامةٍ إلكترونية([33]).
كما أن برامج الذكاء الاصطناعي، وإن كانت تصلح لأن تكون محلا لحقوق الملكية الفكرية، إلا أنها لا تصلح أن تكون تحت الحراسة الفعلية – بمفهومها المتقدم – لأي شخص([34]).
ويتضح من ذلك، أن برامج الذكاء الاصطناعي تعتبر من قبيل الملكية الفكرية الأدبية والفنية باعتبارها من برامج الحاسب الآلي أو البرمجيات، ومن ثم تحظي بالحماية القانونية المقررة للمصنفات في قانون حماية الملكية الفكرية([35])، بشرط أن تكون من قبيل المصنفات المبتكرة. ويعرف قانون حماية الملكية الفكرية المصري في المادة (138-2) منه الابتكار بأنه:” الطابع الإبداعي الذي يسبغ الأصالة على المصنف”([36]). هذا من جهة.
ومن جهةٍ أخرى، يُشترط لكي يتمتع أي مصنف – ومنه برامج الذكاء الاصطناعي – بالحماية القانونية المقررة للملكية الفكرية، أن ينفصل عن شخص مؤلفه، ويخرج إلى عالم الوجود في شكلٍ محسوس يسمح بتوصيله للغير. ويُعبر الفقه عن ذلك بضرورة أن يتجسد النتاج الذهني، بحيث يكون له وجود مادي محسوس، يُمكن للأذهان الأخرى أن تُدركه بأي حاسة من الحواس، كالسمع أو النظر أو اللمس، أو أي حاسة أخرى([37]).
ومن أمثلة حالة إذا كان الذكاءُ الاصطناعيُّ مبرمجًا عمدًا على ارتكاب السلوك الإجراميِّ: الطائرات بدون طيار، والروبوتات العسكريَّة([38])، والأسلحة الذكيَّة، ويتضحُ من هذه الامثلة أنَّ هناك شخصًا هو من يتحكَّم في هذا النوع من الذكاء الاصطناعيِّ؛ فلذلك نرى أنَّ هذا الشخص هو الذي يتحمَّل المسئوليَّة الجنائيَّة وفقًا لقواعد مسئوليَّة الفاعل المعنويِّ، وهو الشخصُ الذي يستغلُّ الغير مسلوب الإرادة أو الإدراك في ارتكاب الجريمة. وبناءً على ذلك؛ فهو وحده الذي يُسأل جنائيًّا عن سلوكه الإجراميِّ، متى ثبت توافرُ القصدِ الجنائيِّ بعنصرَيْهِ (العلم والإرادة)؛ بأنَّ من استخدم أنظمة الذكاء الاصطناعيِّ والروبوتات كان على علمٍ بأنه يقومُ بارتكاب السلوك الإجراميِّ المُكون لهذه الجريمة؛ أي على معرفةٍ مُسبقةٍ بأنَّ استخدام هذه الأنظمة الذكيَّة والروبوتات سوف يؤدِّي إلى إيذاء الغير وارتكاب السلوك الإجراميِّ، وأنَّ إرادته الحرةَ الواعيةَ اتجهت إلى ارتكاب السلوك الإجراميِّ وتحقق النتيجة الإجراميَّة، وأن هذه الأنظمة الذكيَّة والروبوتات كانت تخضعُ لإرادة الإنسان الكاملة لحظة ارتكابه للسلوك الإجراميِّ المُكون للجريمة.
ومن أمثلة حالة ما إذا ارتكب الذكاءُ الاصطناعيُّ والروبوتات السلوكَ الإجراميَّ نتيجة خللٍ ما في نظام تشغيلها([39]) أو تقصيرٍ ما في الصيانة أو الإهمال: وهي من أكثر الحالات شيوعًا فيما يتعلَّق بإدارة المخاطر والالتزام بالعناية الواجبة في نظام برمجة الذكاء الاصطناعيِّ.
تعدُّ السيارات ذاتيَّة القيادة هي الأكثر انتشارًا. وقد قامت العديد من الشركات حاليًّا بتشغيلٍ تجريبيٍّ للسيارات ذاتيَّة القيادة؛ من أجل تعميم تلك التجربة، نجد أنَّ تلك السيارة تعملُ عن طريق تقنيات برنامج يصدر أوامر الحركة والإيقاف في السيارة بعد تلقِّيه بياناتٍ ناتجةً عن أجهزة الرادار والليزر والمستشعرات الموجودة بالسيارة، والتي تجمعُ بيانات عن الأجسام حول السيارة مثل المشاة، واتِّساع الطريق، والسيارات المُجاورة، وأيّ كائناتٍ تكون حول السيارة، وبعد ذلك يتمُّ برمجة برنامج الذكاء الاصطناعيِّ الذي يتحكَّم في السيارة على إصدار أوامرَ بعد تحليل تلك المعطيات([40])، فيقوم بنظام تشغيلٍ مُشابهٍ لأنظمة التشغيلالموجودة في الهواتف المحمولة (أندرويد) أو أجهزة الكمبيوتر (ويندوز)، وغالبًا ما يتمُّ ربطُه بنظامٍ سحابيٍّ لتخزين البيانات، (وهذا أشبهُ بالصندوق الأسود الموجود في الطائرات المُسجَّل فيه جميع بيانات وأوامر الطائرة)، ويمكنُ من خلاله بعد ذلك مُراجعة جميع أوامر السيارة والوصول إلى السبب والمسئول الحقيقيِّ عن أيِّ جريمةٍ تحدث، ومن أشهر الجرائم الجنائيَّة التي ارتُكبت عن طريق السيارات ذاتيَّة القيادة كانت في مارس 2018، حيث قامت سيارة ذاتيَّة القيادة تابعة لشركة UBER بالاصطدام بسيدة “هرزبرج” ممَّا أدَّى إلى وفاتها مُتأثرةً بجراحها([41])، وهي أولُ حالة وفاة مُسجَّلة للمشاة من سيارة ذاتيَّة القيادة، فقد وقع الحادث في وقتٍ مُتأخِّرٍ من مساء 18 مارس 2018، حيث كانت تعبرُ شارع ميا أفنيو من الغرب إلى الشرق خارج ممرِّ المُشاة المُخصَّص بالقرب من الطريق السريع، وكانت تدفعُ دراجةً محملةً بأكياس التسوق، وعبرت ما لا يقلُّ عن طريقين لحركة المرور عندما صدمتها سيارة نموذج أولي لأوبر سيارة ذاتيَّة القيادة – فولفو xc90 – والتي كانت تسيرُ وتعملُ في وضعٍ مستقلٍّ، ولم يتدخَّلْ السائق الاحتياطيُّ للسلامة البشريَّة للسيدة.
ونحن نرى في هذه الحالة أنْ يتحمَّل المبرمج والمؤسَّسة التي يعمل من
خلالها نظام الذكاء الاصطناعي المسئوليَّة الجنائيَّة عن السلوك الإجراميِّ الذي تمَّ ارتكابُه بسبب الخلل في برمجة نظام الذكاء الاصطناعي، وذلك في ضوء المسئوليَّة الجنائيَّة عن الخطأ النَّاتج عن الإهمال في اتِّخاذ ما يُوجبه القانون من الحيطة
والحذر من المخاطر المُحتملة. فالإهمالُ في التصنيع أو الاستخدام للروبوتات وأنظمة الذكاء الاصطناعيِّ يُرتب المسئوليَّة غير العمديَّة للمصنع أو المبرمج أو المشغل أو المستخدم كلٌّ بحسب سلطاته. وفي حالة ما إذا ارتكب الذكاءُ الاصطناعيُّ السلوكَ الإجراميَّ بناءً على تطوُّره الذاتيِّ معتمدًا في ذلك على الذكاء الاصطناعيِّ القادر على التطوُّر الذاتيِّ دون تدخُّلٍ من الشخص الطبيعيِّ (المبرمج)([42])، فمن السهل مع التقدُّم التكنولوجيِّ أنْ تتمكَّنَ أنظمة الذكاء الاصطناعيِّ في تبنِّي المعايير والقواعد الخاطئة بطريقةٍ استقلاليَّةٍ، وبالتالي ارتكب السلوك الإجرامي، مثل جرائم التشهير على الإنترنت أو الدخول على أسواق المال والبورصة وانتهاك قوانينها([43]) واختراق خصوصيَّة البيانات الشخصيَّة الإلكترونيَّة وإساءة استخدامها وما نشاهده من الصور الإجراميَّة الأخرى.
المطلب الثالث
أهميَّة تقنيات الذكاء الاصطناعيِّ في آليات اكتشاف
ورصد الجريمة وجمع الأدلة
خاصيَّة التعرُّف على الوجه: وذلك من خلال آليات اكتشاف ورصد الجرائم باستخدام الكاميرات الذكيَّة لرصد مُرتكبي الجرائم والتعرُّف عليهم وتحليل البيانات المُسجَّلة للتعرُّف على سماتٍ مُعَيَّنة، لتتبُّع والقبض على المُجرمين أو الهاربين من العدالة. ولكن يخشى من إساءة استخدام واستغلال هذه البيانات الشخصيَّة في التنميط الإلكتروني([44]).
استخدام الذكاء الاصطناعيِّ البصريِّ كتدبيرٍ وقائيٍّ: كاستخدامه في المُراقبة لرصد أيِّ اقتحامٍ أو تهديدٍ أو خطرٍ وإرسال إنذارٍ للأجهزة الأمنيَّة بذلك؛ أي استخدام الذكاء الاصطناعيِّ كتدبيرٍ وقائيٍّ من احتماليَّة ارتكاب السلوك الإجراميِّ. مثال على ذلك: استخدام سجون ولاية أوهايو الأمريكيَّة الطــائرات بــدون طيار لمُراقبـة السجناء،
وكذلك ما حدث عند مُهاجمة القروش للبشر في الشواطئ الأستراليَّة([45])، كذلك في عام 2018 رصدت وزارة العدل الأمريكيَّة مبلغ 20 مليون دولار لتوفير كاميرات الملابس لرجال الشرطة لاستخدامها في تسجيل إجراءات مرحلة الاستدلال التي يقومُ بها مأمورو الضبط القضائي. كذلك استخدام الذكاء الاصطناعيِّ كتدبيرٍ وقائيٍّ في فرنسا من خلال تدابير الأساور الإلكترونيَّة لمنع الاقتراب والمنصوص عليه في القانون رقم 1161 لسنة 2020 الصَّادر في 23 سبتمبر 2020، بشأن تطبيق جهازٍ إلكترونيٍّ لمنع الاقتراب من الضحايا أو مكانٍ مُعين([46]).
قاضي ومُحامي الذكاء الاصطناعيِّ:
المُحامي الروبوت أو الآلي – القاضي الروبوت أو الآلي: حيث بدأت العديد من الدول باستخدام الذكاء الاصطناعيِّ في مجال التقاضي؛ من أجل تحقيق العدالة الناجزة وسُرعة نظر القضايا. وتطبيقًا على ذلك تستخدم محكمةٌ مختصَّة بالنظر في الدعاوى الصغيرة برمجياتِ ذكاءٍ اصطناعيٍّ؛ لجمع الأدلة التي تتعلَّقُ بإحدى القضايا ومُقارنتها مع القضايا المُماثلة السابقة، ومن ثمَّ تقوم باقتراح حكم للقاضي الذي يصدرُ الحكمَ النهائيَّ، ونظرًا لأنَّ منهجيَّة اتِّخاذ القرارات تتمُّ بتأثير من برمجة الذكاء الاصطناعيِّ؛ فهي تعدُّ نظامَ ذكاء اصطناعي([47]).
أهميَّة الذكاء الاصطناعيِّ في مجال العدالة الجنائيَّة:
لمُواجهة مخاطر أنظمة الذكاء الاصطناعيِّ والروبوتات؛ يمكنُ استخدام
فكرة العدالة الجنائيَّة التنبُّؤيَّة لمُواجهة هذه المخاطر في المستقبل. تطبيقًا على ذلك: برامج تقدير المخاطر للإفراج الشرطي عن المُجرمين المُعتمدة على أنظمة
الذكاء الاصطناعي([48]). كذلك استخدام العدالة الإحصائيَّة الإكتواريَّة؛ أي الاعتماد على وحدة لحساب مخاطر لكلِّ تنبُّؤ استنادًا إلى البيانات السابقة (البيانات الرقميَّة)، وبناءً على ذلك؛ فقد ثار في الولايات المتحدة الأمريكيَّة مقترحٌ بقانون حول المسئوليَّة الجنائيَّة للخوارزميات في مجال العدالة الجنائيَّة التنبؤيَّة من أجل مُواجهة التمييز العنصريِّ بين السود والبيض في مجال العدالة الجنائيَّة باستخدام الخوارزميات أو أنظمة الذكاء الاصطناعيِّ؛ وذلك بفرض مجموعةٍ من الالتزامات تضمنُ عدم التمييز أو التحيُّز لفئةٍ من فئات المجتمع، كذلك ضمان الشفافية والنزاهة في مجال العدالة الجنائيَّة.
أهميَّة الذكاءِ الاصطناعيِّ في جمع الأدلة وضبط الجُناة باستخدام تقنيَّة GPS ([49]):
ويتمثَّلُ ذلك في تحديد الموقع الجغرافيِّ في رصد تحرُّكات الشخص أو أيِّ شيء، سواء بعلم الشخص المعنيِّ أو دون علمه، ويتمُّ ذلك من خلال إجراءٍ “تتبُّع ديناميكي” عن طريق الهاتف المحمول، أو قطعة GPS الموضوعة على سيارة، أو في كمبيوتر محمول، أو حقيبة، أو ملابس. ويتمُّ نقل بيانات الموقع الذي تُرسله الأقمار الصناعيَّة إلى الهاتف بواسطة الأخير إلى هوائي الترحيل الذي يُرسلها بدوره إلى مشغلي الاتِّصالات xوهي: شركات خطوط المحمول؛ حيث يمكنُ نقلهم إلى خادم شرطة قبل ظهورهم أخيرًا في محطة عمل ضباط الشرطة. ويمكنُ أنْ يتمَّ ذلك في الوقت الفعليِّ، أي إنَّ الحركة يتمُّ تتبُّعها في الحال أو في وقتٍ لاحقٍ عندما يتعلَّقُ الأمر مثلاً بالبحث عن مكان وجود شخصٍ في ذلك الوقت. ويُشكل التتبُّع الجغرافيُّ للمُتهم بواسطة تقنيَّة GPS إحدى آليات ضبط الجناة في وقتنا الحاليِّ في عديد من الدول على الرغم من عدم التنظيم التشريعيِّ له في مصر([50]). ويُعَدُّ التتبُّع الجغرافيُّ للمُتهم بواسطة GPS أحد مظاهر الاعتداء على خصوصيَّة الفرد سواء في مكان عامٍّ أم خاص، وقد اختلفت الدوائر الأمريكيَّة في مدى هذا الانتهاك؛ لأنَّ البياناتِ النَّاتجة عنه شخصيَّة، كما ذهب القضاءُ الألمانيُّ إلى انتهاك التتبُّع الجغرافيِّ للمُتهم بواسطة GPS للحقِّ في الخصوصيَّة أيًّا كانت مدته ومكانه ([51]).
المبحث الثاني
المسئوليَّة الجنائيَّة عن جرائم تقنيات الذكاء الاصطناعيِّ
تقسيم:
ولنتيجة الدراسة في المبحث الأول تثور عدة تساؤلاتٍ عن مدى المسئول الجنائيِّ عن جرائم استخدام تقنيات الذكاء الاصطناعيِّ، وذلك على النحو التالي: –
· هل المسئوليَّةُ تقع على المنتج أو المالك أو الهاكرز الذي تمكَّن من اختراق برنامج تشغيل تقنيَّة الذكاء الاصطناعيِّ وتسبَّب في ذلك الحادث في حالة تحديد ذلك الشخص؟
· وما الموقفُ لو أنَّ تقنيَّة الذكاء الاصطناعيِّ تمكَّنت من تطوير ذاتها وخرجت عن سيطرة المُبرمج أو المالك وتسبَّبت في الحادث الجنائيِّ؟
· هل تتمتَّعُ تقنيَّة الذكاء الاصطناعيِّ بما يتمتَّعُ به الشخصُ الطبيعيُّ من أسباب الإباحة وموانع المسئوليَّة؟
· هل يُباح لتقنيَّة الذكاء الاصطناعيِّ الدفاع عن نفسها ويعدُّ سببًا مانعًا للعقوبة؟
· هل يجوزُ لمُستخدم الاستعانة بتقنيَّة الذكاء الاصطناعيِّ في الدفاع عنه أو ماله أو أسرته؟ وما الموقفُ إذا حدث وتجاوزت تقنيَّة الذكاء الاصطناعيِّ في حقِّ الدفاع؟
· هل يمكنُ منح تقنيَّة الذكاء الاصطناعيِّ الشخصيَّةَ المعنويَّةَ وتخضع للمسئوليَّة الجنائيَّة عمَّا يصدر منها في حالة تطوير ذاتها والخروج عن سيطرة المبرمج والمالك؟
· ما نوعُ العقوبات التي تُواجه جرائم استخدام تقنيَّة الذكاء الاصطناعي؟ وهل يجوزُ مُعاقبتها بعقوباتٍ بدنيَّةٍ أو سالبةٍ للحريَّة مثل الشخص الطبيعي؟
سيتمُّ الإجابة عن تلك التساؤلات من خلال المطالب التالية: –
المطلب الأول: أطراف المسئوليَّة الجنائيَّة في جرائم استخدام تقنيَّة الذكاء الاصطناعيِّ.
المطلب الثاني: العقوبات المقرَّرة في جرائم استخدام تقنيَّة الذكاء الاصطناعيِّ.
المطلب الثالث: التطوُّر التشريعيُّ في بعض الدول لمُواجهة جرائم أنظمة الذكاء الاصطناعيِّ.
المطلب الأول
أطراف المسئوليَّة الجنائيَّة في جرائم استخدام
تقنيَّة الذكاء الاصطناعيِّ
تنصُّ المادة 95 من الدستور المصريِّ سنة 2014 على أنَّ: “العقوبة شخصيَّة، ولا جريمةَ ولا عقوبةَ إلاَّ بناءً على قانون، ولا تُوَقَّع عقوبةٌ إلاَّ بحكمٍ قضائيٍّ، ولا عقابَ إلاَّ على الأفعال اللاحقة لتاريخ نفاذ القانون: “كما تنصُّ المادَّة الخامسة من قانون العقوبات المصريِّ رقم 58 لسنة 1937 وآخر تعديلاته 2018 على أنه: “يُعاقب على الجرائم بمُقتضى القانون المعمول به وقت ارتكابها ….”، وذلك ما يتمُّ التركيز عليه لتحديد المسئوليَّة الجنائيَّة في القانون الجنائيِّ([52]).
فالمسئوليَّةُ الجنائيَّةُ بصفةٍ عامَّةٍ هي التزامُ الجاني بتحمُّل النتائج المُترتِّبة على فعله إذا توافرت أركان الجريمة، وللجريمة وفقًا للمفهوم التقليديّ ركنان: ركنٌ ماديٌّ يتمثَّلُ فيما يصدرُ عن مُرتكبها من أفعال وما يترتَّب عليها من نتائج، وجانبٌ شخصيٌّ يتمثَّلُ فيما يدورُ في نفس مُرتكبها، أي يتوافر لديه من علم وما يصدرُ عنه من إرادةٍ، وهذا ما يُطلق عليه الركنُ المعنويُّ، ويُضيف الفقهُ الجنائيُّ إلى الركنين الماديِّ والمعنويِّ ركنًا ثالثًا هو الركن الشرعيُّ؛ أي الصفة غير المشروعة للفعل([53])، ونظرًا لأنه المصدر أو الأصل العامُّ للجريمة فهو الذي يرسمُ حدودها ويُبين معالمها؛ أي هو المُنشئ لها؛ لذلك لا يعدُّ أحد أركانها، ولذلك لا وجودَ للجريمة وقيام المسئوليَّة الجنائيَّة إلاَّ باجتماع الركن الماديِّ والمعنويِّ معا([54])، كما أنه لا يُوَجّه الاتِّهام بتحمُّل المسئوليَّة الجنائيَّة إلاَّ للشخص الطبيعيِّ؛ لأنه الوحيد المؤهل – حتى وقتنا هذا – لتطبيق المسئوليَّة الجنائيَّة عليه، حيث إنَّ أحكام قانون العقوبات مُوَجَّهَةٌ للشخصِ الطبيعيِّ فقط([55]).كما تعدُّ المسئوليَّة الجنائيَّة في جرائم استخدام تقنيَّة الذكاء الاصطناعي مسألةً معقدةً بعض الشيء، حيث يوجد أربعة أطراف تتعلَّق غالبًا بهم المسئوليَّة الجنائيَّة في تلك النوعيَّة من الجرائم، وهم:
1- المُنتج لتقنية الذكاء الاصطناعيِّ. 2-المالك لتقنيَّة الذكاء الاصطناعي.
3-تقنيَّة الذكاء الاصطناعيِّ نفسها. 4-طرف خارجي غير هؤلاء الثلاثة.
أولاً: مسئوليَّة المُنتج لتقنيَّة الذكاء الاصطناعيِّ الجنائيَّة في تلك النوعيَّة من الجرائم.
إنَّ القاعدة العامَّة في قانون العقوبات مفادها أنَّ الشخصَ الطبيعيَّ يُسأل عن الفعل الإجراميِّ الذي ارتكبه ما لم يتوافر بحقِّه مانعٌ من موانع المسئوليَّة الجنائيَّة، كما أنَّ الشخصَ المعنويَّ يُسأل جنائيًّا عن الجرائم التي يرتكبها مُمثله أو مديره أو وكلاؤه لحسابه أو باسمه، ويحكم عليه بعقوبة الغرامة والمُصادرة والتدابير المقرَّرة للجريمة، ولا يمنعُ ذلك من مُعاقبة المحكمة في الوقت ذاته لمُرتكب الجريمة شخصيًّا بالعقوبة المقرَّرة للجريمة في القانون([56])، وقد يتحقَّقُ الركنُ الماديُّ في صورةٍ تامَّةٍ إذا تحقَّقت عناصره الثلاثة (السلوك الإجرامي والنتيجة ورابطة السببيَّة)، وقد يقف عند مرحلة الشروع عندما لا تكتملُ عناصرُه لسببٍ خارجٍ عن إرادة الجاني، والشروعُ مقصورٌ على الجرائم ذات النتائج فحسب، ومن المسلَّم به أنه لا جريمةَ دون سلوكٍ إنسانيٍّ، فالسلوكُ الإنسانيُّ هو عنصرٌ من عناصر الركن الماديِّ، فالمشرِّعُ الجنائيُّ لا يتدخَّلُ بالعقاب إلاَّ على ما يصدرُ من أفعالٍ تُحدث أثرًا في العالم الخارجي، ويستوي أنْ يكونَ السلوكُ الإنسانيُّ إيجابيًّا أو سلبيًّا، فالفعلُ الماديُّ هو الشكلُ الإيجابيُّ للسلوك الإنسانيِّ، ولا يدخلُ في هذا السلوك وسيلته أو مكانه أو زمانه أو شخصه؛ فهي من الظروف المُشدَّدة أو المُخفَّفة للعقوبة([57]).
وتعدُّ المسئوليَّة الجنائيَّة لمُنتج تقنيَّة الذكاء الاصطناعيِّ أهمَّ ما يُثار عند ارتكاب ما يُشكل جريمةً لمثل تلك الجرائم طبقًا للقانون، فقد يقوم المُنتج بوضع بنودٍ في اتِّفاقيَّة استخدام المالك لتلك التقنيَّة تُعفيه من المسئوليَّة الجنائيَّة عن الجرائم المُرتكبة من خلال هذه التقنيَّة وتحمُّلها للمالك وحده.
ولكن لا تُثار مشكلة المسئوليَّة الجنائيَّة للمُنتج إذا وقعت الجريمة نتيجةَ خطأٍ برمجيٍّ لتقنيَّة الذكاء الاصطناعي، في هذه الحالة يكون المبرمجُ مسئولاً عن الجريمة جنائيًّا، مع التفرقة في العقوبة بين العمد والخطأ. ولكي تقع المسئوليَّةُ على عاتق المُنتج فإنه من الضروريِّ إلزامُ المنتج لتقنيَّة الذكاء الاصطناعيِّ أنْ يُراعي معاييرَ مُحددةً بها، ومن أهمِّها توافر الأمان والسلامة، إضافةً إلى توافُقها مع قيم وتقاليد مجتمعنا، ومن أشهر المنتجات التي تستخدمُ تقنيات الذكاء الاصطناعيِّ ولا تتوافق مع قيم وتقاليد مجتمعنا “الدمية الجنسيَّة”([58]) بجانب ما يقومُ به المنتج من الغشِّ في البضائع والاعتداء على حقوق الملكيَّة الفكريَّة والصناعيَّة وقانون البيئة وقانون حماية المُستهلك.
ولذا يستلزمُ الأمرُ ضرورةَ وضعِ ضوابطَ تُحَدِّدُ مُواصفات وشروط المنتج الذي يستخدمُ تلك التقنيات، فضلاً عن ضرورة وضع معاييرَ تحمي المُستهلك من الغشِّ التجاريِّ الذي قد يرتكبه المُنتج لمنتجات الذكاء الاصطناعي، وتضمنُ حماية المُستهلك حتى يحصلَ على منتجٍ يتمتَّعُ بمعاييرَ كافيةٍ من الجودة والأمان، كما يلتزمُ المنتجُ أيضًا بالصيانة الدوريَّة لكيانات التقنيَّة للذكاء الاصطناعي، ووضع وسائل الحمايةِ من الهاكرز على تلك البرامج ممَّا يصعبُ عمليَّة اختراقها، وهنا يُسأل المنتج مسئوليَّةً كاملةً عن الجريمة التي تقعُ من كيانات تقنيَّة الذكاء الاصطناعيِّ في حالة إخلاله بأيٍّ من الالتزامات السابقة، التي تسبَّبت في وقوع الحادث نتيجةَ خطأٍ برمجيٍّ لتقنيَّة الذكاء الاصطناعي([59]).
ونظرًا لِمَا تُشَكِّلُهُ تكنولوجيا الذكاء الاصطناعيِّ من خطورةٍ كبيرةٍ بسبب اعتمادها على التعلُّم الذاتيِّ واتِّخاذ قراراتٍ فرديَّة، وغيرها من القدرات التي تتمتَّعُ بها تلك التكنولوجيا دون أنْ تكونَ هناك نصوصٌ تشريعيَّةٌ تُجَرِّمُ تلك الأفعال وتضعُ لها عقوباتٍ على المُنتج لتلك المنتجات، الأمرُ الذي يُمَثِّلُ خطورةً شديدةً تفوقُ المنفعة منها وخاصَّةً إذا تعلَّق الفعلُ الإجراميُّ بأرواح البشريَّة وخصوصيتها، فالسبيلُ الوحيدُ للحماية هو سنُّ تشريعٍ يُجَرِّمُ أفعال المُنتج لكيانات تقنيَّة الذكاء الاصطناعيِّ المُسببة لتلك النوعيَّة من الجرائم. وتأكيدًا على أهميَّة هذا الموضوع فقد اعتمد البرلمان الأوربي في 20 فبراير 2019 قرارًا بشأن السياسة الصناعيَّة الأوربيَّة المُتَعَلِّقة بالذكاء الاصطناعيِّ، أكَّد فيه على ضرورة وضع إطارٍ قانونيٍّ لأنظمة الذكاء الاصطناعيِّ والروبوتات، استنادًا إلى المبادئ الأخلاقيَّة لأنظمة الذكاء الاصطناعيِّ والروبوتات، كذلك ضرورة إعادة تقييم التشريعات الحاليَّة بطريقةٍ دوريَّةٍ؛ للتأكُّد من مُلاءمتها لهذه التطوُّرات وفقًا لمبدأ التنظيم للأفضل أو الأحسن([60]). إضافةً إلى ذلك الالتزام بحماية خصوصيَّة البيانات الشخصيَّة من مخاطر أعمال أنظمة الذكاء الاصطناعيِّ والروبوتات، كلُّ ذلك في ضوء الالتزام بمبدأ أنظمة ذكاء اصطناعيٍّ وروبوتاتٍ جديرةٍ بالثقة، وبالشفافية والحوكمة، وتمكين الإنسان من فهم تصرُّفاتها في ضوء المسئوليَّة والخوارزميات.
ثانيًا: المسئوليَّة الجنائيَّة لمُستخدم تقنيَّة الذكاء الاصطناعيِّ:
يعدُّ المالك أو المُستخدم هو الشخص الذي يتحكَّمُ بتقنيات الذكاء الاصطناعيِّ، ولذلك من المتوقَّع أنْ يقومَ بإساءة استخدام ذلك البرنامج، ممَّا يترتَّب عليه حدوثُ جريمةٍ مُعاقبٍ عليها في القانون، وهنا نكون أمام عدة احتمالاتٍ، منها:
1- حدوث الجريمة نتيجة سلوك المالك (المُستخدم) وحده، فلولا سلوكه ما حدثت الجريمة، فتقع هنا المسئوليَّة الجنائيَّة كاملةً عليه، ومن أمثلة ذلك: تعطيل المالك التحكُّمَ الآليَّ في السيارة ذاتيَّة القيادة والإبقاء على التوجيهات الصوتيَّة التي تصدرُ من برنامج الذكاء الاصطناعيِّ، ويكون هو وحده المتحكِّم في السيارة، فإذا صدر له تنبيهٌ من البرنامج بأمرٍ مُعَيَّنٍ لتجنُّبِ حادثةٍ ولم يُنفذ هذا الأمر، فتقع المسئوليَّةُ الجنائيَّةُ على المالك وحده.
2- حدوث الجريمة نتيجة سلوك المالك بالاشتراك مع أحد الأطراف الأخرى (كالمُصنع أو تقنيَّة الذكاء الاصطناعيِّ نفسها أو طرف خارجي)، ومثال ذلك: قيامُ مالك السيارة بتغيير أوامر التشغيل الموجودة في السيارة ذاتيَّة القيادة بمُساعدة مُتَخَصِّصٍ في هذا الموضوع؛ من أجل استغلالها في ارتكاب جريمة ونفي المسئوليَّة عن شخصه وإلصاقها بالسيارة ومُصنعها، ففي هذه الحالة تكون المسئوليَّةُ الجنائيَّةُ مُشتركة، فقانون العقوبات المصريِّ رقم 58 لسنة 1937 حدَّد حالات الشريك في الجريمة في م (40)([61]).
ومن هنا يستلزمُ تجريم سلوك مالك تقنيَّة الذكاء الاصطناعيِّ في الحالتين السابقتين، ولا يجوزُ له الاحتجاجُ بالجهل بكيفيَّة استخدام تلك التقنيَّة، وأنَّ الجريمة وقعت بسبب جهله بكيفيَّة استخدام تلك التقنيَّة.
وتتحدَّدُ المسئوليَّةُ الجنائيَّةُ للمالك على أساس مبنيٍّ على الخطأ المفترض، الأمرُ الذي يستلزمُ من المالك أو المُستخدم إثبات العكس؛ أي إنه لم يقع منه ثمة خطأ في التشغيل بمُفرده أو بمُساعدة الغير.
في الحقيقة، لا جدالَ في أنَّ الجرمَ لا يُسأل عنه غير فاعله، إلاَّ أنَّ البحث قد ثار عن مدى اعتبار الجريمةِ ناشئةً عن فعل المُتهم ومتى تعدُّ ناشئةً عن فعل غيره، فلا يُسأل الشخصُ جنائيًّا عن جريمةٍ لم يرتكبْها طبقًا للقواعد التي تقول: إنَّ العقوبة شخصيَّة، إلاَّ أنَّ خطأَه أو إهمالَه قد يكون سببًا لمسئوليته، ومثال ذلك: مسئوليَّة التاجر عن عماله في المحل التجاريِّ في مُخالفة قوانين التموين، ومسئوليَّة مالك السيارة إذا سلَّم سيارته لمن يقودُها دون رخصة قيادة، ويُعَدُّ مالك الحيوان أو الشخص المُكلَّف بحراسته مسئولاً عن القتل أو الجروح التي تقعُ بفعله إذا ثبت عليه نوعٌ من أنواع الخطأ([62]).
أمَّا في فرنسا فقد ذهب الفقيه الفرنسيُّ بوسيرا إلى القول بأنَّ القانون يجبُ أنْ ينصَّ على حماية الأفراد من أنظمة الذكاء الاصطناعيِّ والروبوتات، وبالتالي يتحمَّلُ الإنسان باعتباره حارسًا للروبوت وأنظمة الذكاء الاصطناعيِّعن أيِّ ضررٍ ناتجٍ عن تشغيلها بشكلٍ مُفترضٍ دون الحاجة إلى إثبات الخطأ([63]). وهذا الاتِّجاه يُؤيده حكم محكمة النقض الفرنسيَّة الصَّادر 2018 الذي قضى بأنَّ روبوتات الرد على رسائل البريد الإلكترونيَّة على أنها مجردُ برنامجٍ حاسوبيٍّ معلوماتي، دون منحه أية صفةٍ نيابيَّةٍ عن مشغله، فهي مجردُ وسيلةٍ أو أداةٍ تُسهم في إدخال البيانات في الفضاء الرقميِّ؛ وذلك خدمةً للمصلحة العامَّة (أي إنها أداةٌ في ارتكاب الجريمة فقط).([64]) ويستندُ هذا الحكمُ على ما نصت عليه اتِّفاقيَّة الأمم المُتحدة بشأن الخطابات الإلكترونيَّة في العقود الدوليَّة في المادَّة 12 منها، والتي جاءت في المذكرة الإيضاحيَّة التي أصدرتها أمانة الأونسيترال عن المبدأ العامِّ لهذه المادَّة والذي أقرَّ في فحواه بوجوب مُساءلة أيِّ شخصٍ طبيعيًّا كان أو كيانًا قانونيًّا، قام ببرمجة الحاسوب ليتصرَّفَ نيابةً عنه، عن فعل أيِّ رسالة تمَّ إصدارُها بواسطة هذا الجهاز([65]). وهذا المبدأُ يتوافقُ على ما استقرَّ عليه الفقه([66]) من أنَّ صاحب الأداة يعدُّ مسئولاً عنها وعن عواقب استخدامها، طالما أنها لا تملكُ إرادة مستقلَّة عن مالكها.
ثالثًا: -المسئوليَّة الجنائيَّة لتقنيَّة الذكاء الاصطناعيِّ نفسه:
واقعيًّا مُتَصَوَّرٌ أنْ يكونَ هناك خطأٌ يقعُ من المنتج أو المالك لكيان تقنيَّة الذكاء الاصطناعيِّ يترتَّب عليه وقوع الجريمة، ولكن هل من المُتصوَّر أنْ يقعَ الخطأ من كيان تقنيَّة الذكاء الاصطناعيِّ نفسه ويتسبَّب في وقوع الجريمة دون أنْ يكونَ هناك تدخُّلٌ من المبرمج أو المُستخدم أو الغير؟، في الحقيقة حتى الآن لم تُسجل واقعة بتلك الصورة، فيتمكَّن الروبوتُ الآليُّ أو السيارة ذاتيَّة القيادة من اتِّخاذ وإصدار قراراتٍ من تلقاء نفسه بدون خطأ برمجيٍّ؛ نتيجةَ حدوث تطوُّرٍ ذاتيٍّ في نظام الذكاء الاصطناعيِّ الذي يعمل بها، والقادر على التفكير وإصدار القرارات، تسبَّب في حادثٍ جنائيٍّ، وإن كانت هناك افتراضاتٌ في حالة ارتكاب تقنيَّة الذكاء الاصطناعيِّ للجريمة بنفسها، وهي:
1- قيامُ طرفٍ آخرَ لتقنيَّة الذكاء الاصطناعيِّ بارتكاب الجريمة باستغلال ثغراتٍ موجودةٍ في النظام وأخطاء برمجيَّة([67])، وبالتالي يتحمَّلُ المسئوليَّة الجنائيَّة كاملةً لارتكاب الجريمة، فلا تُثير هذه الحالة مشكلةً، حيث لا توجد إرادةٌ منفصلةٌ حرةٌ للذكاء الاصطناعيِّ، وإنما هي ناتجةٌ عن الكود البرمجيِّ الذي وضعه المبرمج ولم يكن كافيًا لتوقُّع جميع الاحتمالات، أو إمكانيَّة ارتكاب الجريمة عن طريق سوء تصرُّف المالك أو تدخُّل طرفٍ خارجيٍّ من أجل اختراق الآلة واستعمالها كأداةٍ في ارتكاب جريمته، ومثال ذلك: قيام شخصٍ بإلغاء الحدود التي وضعها المنتجُ للذكاء الاصطناعيِّ، ممَّا يجعلُه غيرَ متصلٍ بالمنتج، ويُعطيه الحريَّة الكاملة في تصرُّفاته بدون القيود التي وُضعت في نظامه تمنعه من ارتكاب الجرائم.
2- أنْ يقعَ الفعلُ الإجراميُّ من قبل تقنيَّة الذكاء الاصطناعيِّ بنفسها بدون خطأ برمجيٍّ من المُنتج أو تدخُّل أيِّ طرفٍ آخر، وذلك عن طريق تقنياتٍ حديثةٍ تُمكِّن الذكاءَ الاصطناعيَّ من التفكير وإصدار قراراتٍ ذاتيَّةٍ يكون هو وحده المسئولَ عن إصدارها، ومثالٌ واقعيٌّ على هذه الحالة: قيام مُستخدمي الهواتف الذكيَّة بعمل (root) للوصول لنظام الأندرويد المبنيِّ على نواة لينكس بشكلٍ أعمقَ؛ لتستطيع التغيير أو التعديل للهاتف، ممَّا يفتحُ المجال لبعض التطبيقات بالتحكُّم في الهاتف وإعطائه أوامرَ قد تصلُ إلى أمر الهاتف بتدمير نفسه برمجيًّا([68])، ومثال آخر: إذا حدث تجاوزٌ من كيان الذكاء الاصطناعيِّ في حقِّ الدفاع الشرعيِّ عن مالكه أو مُستخدمه نتيجةَ تطوير ذاته وخروجه عن سيطرة المالك أو المُستخدم، ففي هذه الحالة من المُفترض أنْ تكونَ المسئوليَّة الجنائيَّة واقعةً على تقنيَّة الذكاءِ الاصطناعيِّ وحده، ولكن يُثار التساؤلُ: هل يمكنُ مُعاقبة الذكاء الاصطناعيِّ وحده؟ وما العقوباتُ التي يمكن توقيعها عليه؟ هذا ما سوف نتولَّى الإجابة عنه في المطلب الثاني.
· يُثار التساؤلُ: هل تتوافرُ موانعُ مسئوليَّة للكيانات التي تعملُ بالذكاء الاصطناعيِّ؟
بمعنى: هل يمكنُ أنْ تستفيدَ تقنيَّة الذكاء الاصطناعيِّ من موانع المسئوليَّة مُشابهة لما هو متوفرٌ بالنسبة للشخص الطبيعيِّ، وهل يمكنُ للبرنامج الذي يعملُ بشكلٍ خاطئٍ أنْ يَدَّعِيَ دفاعًا مُماثلاً للدفاع البشريِّ بحجة الجنون؟، وهل يمكنُ للذكاءِ الاصطناعيِّ المُتأثر بفيروسٍ إلكترونيٍّ أنْ يَدَّعِيَ دفوعًا مُشابهةً للإكراه أو السكر غير الاختياري؟، فهذه الصورُ من الدفوع ليست نظريَّةً على الإطلاق، ويستندُ أصحابُ([69]) هذا الرأي إلى إحدى القضايا في المملكة المُتحدة، والتي دفع فيها المُتهمون بارتكاب جرائمَ معلوماتيَّةٍ بامتناع مسئوليتهم بسبب إصابة أجهزتهم ببرامجَ ضارةٍ (فيروسات) كانت مسئولةً عن الجريمة، بينما في إحدى الحالات الأخرى، دفع أحدُ المُتهمين بجريمة تعطيل الخدمة، بأنَّ برنامج طروادة هو من كان مسئولاً عن ذلك، وأنَّ البرنامج قد مسح نفسه قبل أنْ يُحلَّل بوساطة التحليل الجنائي، وقد تمكَّن الدفاع من إقناع هيئة المُحلفين بتحقُّق هذا الاحتمال بما لا يدعُ مجالاً للشك، ويؤيِّد البعضُ([70]) الرأي السابق، مقترحًا منحَ الروبوت الحقَّ في الإعفاء من العقاب، إذا حدث تدخُّلٌ من مصدرٍ خارجيٍّ أثَّر على سلوكه؛ كخضوعه لعمليَّةِ اختراق لنظامه، ممَّا قد يُفقده القدرة الذاتيَّة على التحكُّم في أفعاله وتصرُّفاته التي نتج عنها السلوك.
فقد حدَّد القانونُ أسبابَ الإباحة، حيث قد تكتملُ الجريمةُ بركنَيْهَا الماديِّ والمعنويِّ، ومع ذلك تنعدمُ الصفةُ الإجراميَّةُ للواقعة؛ وذلك لتجرُّدها من معنى الاعتداء، فيكون الفعلُ إزهاقَ روح إنسان أو ضربًا أو جرحًا أو قذفًا أو طعنًا في الأعراض أو غير ذلك أو يكون الفعلُ متعمدًا، ومع ذلك يتجرَّدُ الفعلُ من الصفة الإجراميَّةِ؛ لتوافر أحد أسباب الإباحة أو حالة من حالات المشروعيَّة كحقِّ الدفاع الشرعيِّ عن النفس أو المال أو استعمال الحقِّ أو أداء الواجب، ولذا يُطلق البعضُ على أسباب الإباحة “أسباب انعدام الصفة الإجراميَّة أو المشروعيَّة”([71]).
ويترتَّبُ على توافر سبب الإباحة عدم مسئوليَّة الجاني عن الفعل، وهذه النتيجةُ تُشبه بعض الأسباب التي تؤدِّي إلى النتيجة ذاتها، وهي موانعُ المسئوليَّة وموانعُ العقاب، فموانعُ المسئوليَّة ذات طابعٍ شخصيٍّ، فترجعُ إلى تخلُّف عنصرٍ من عناصر الركن المعنويِّ، وهي الأهليَّة الجنائيَّة؛ لانعدام التمييز أو الاختيار، ومع ذلك فموانعُ المسئوليَّة لا تأثيرَ لها على الصفة الإجراميَّة للفعل الذي يظلُّ غيرَ مشروع، على العكس فأسبابُ الإباحة موضوعيَّةٌ يمتدُّ أثرُها على كلِّ المساهمين في الجريمة، بينما موانعُ العقاب لا تأثيرَ لها على أركان الجريمة، فضلاً عن أنها ذاتُ طابع شخصيٍّ، لذلك قُضي بأنَّ الإعفاء من العقاب ليس إباحة الفعل أو محو المسئوليَّة الجنائيَّة، بل هو مُقَرَّرٌ لمصلحة الجاني الذي تحقَّقت في فعله وفي شخصه عناصرُ المسئوليَّة الجنائيَّة واستحقاق العقاب، وكلُّ ما للعذر المُعفي من أثره وحط العقوبة عن الجاني بعد استقرار إدانته، دون أنْ يمسَّ ذلك قيام الجريمة أو اعتبار المُجرم المعفيُّ من العقاب مسئولاً عنها ومستحقًّا للعقاب أصلاً([72]).
وللإجابة عن التساؤل بمدى إمكانيَّة تطبيق أسباب الإباحة على تقنيَّة الذكاء الاصطناعيِّ فيما يتعلَّقُ بحقِّ الدفاع الشرعي، فتطلَّب المُشَرِّعُ عدة شروطٍ لاستعمال القوَّة استنادًا إلى حقِّ الدفاع الشرعيِّ (منها شروطٌ خاصَّةٌ بفعل الاعتداء “أنْ يكونَ هناك خطرٌ غير مشروع – الخطر مُهَدِّدٌ بوقوع جريمةٍ على النفس أو المال – أنْ يكونَ الاعتداء حالاًّ”، ومنها شروطٌ خاصَّةٌ بفعل الدفاع “أنْ يكونَ لازمًا – أنْ يكونَ متناسبًا مع جسامة الخطر”)، وقد قيَّد المُشرِّعُ حقَّ الدفاع الشرعيِّ بقيدين (عدم جواز استعمال القوة ضدَّ مأموري الضبط أثناء قيامهم بواجبات وظائفهم – أنَّ استعمالَ القوَّة لا يُبيح القتلَ إلاَّ في حالاتٍ مُحَدَّدة “المادتان 249، 250 عقوبات”)، وفيما يتعلَّقُ بحقِّ الدفاع يُشترط لإباحة الفعل استنادًا إلى استعمال الحقِّ توافرُ ثلاثة شروط (أنْ يكونَ الفعلُ قد وقع استعمالاً لحقٍّ مُقَرَّرٍ بمقتضى الشريعة -وجوب الالتزام بحدود أو بقيود الحق – حُسن النيَّة)، وفيما يتعلَّقُ بأداء الواجب الوظيفيِّ فذلك خاصٌّ بالموظَّف العام.([73])
يُثار تساؤلٌ آخر في حالة إذا حدث اعتداءٌ على الروبوت الآليِّ؛ هل يحقُّ له ردُّ الاعتداء والدفاع عن نفسه؟ وإذا حدث الاعتداءُ على المالك فهل يحقُّ للروبوت الدفاعُ عن الغير؟ طبقًا لقانون العقوبات المصريِّ لا يجوزُ الدفاعُ الشرعيُّ إلاَّ عن النفس البشريَّة، ولا يوجد أيُّ حقٍّ للدفاع الشرعيِّ عن النفس بالنسبة للروبوت الآليِّ مهما كانت قدراتُه وتطوُّره، حيث نصَّ قانونُ العقوبات المصري رقم 58 لسنة 1937 في المادَّة (245) على أنه: “لا عقوبةَ مُطلقًا على من قتل غيره أو أصابه بجراح أو ضربه أثناء استعماله حقَّ الدفاع الشرعيِّ عن نفسه أو ماله أو عن نفس غيره أو ماله …”، وأيضًا نصت المادَّة (246) على أنَّ حقَّ الدفاع الشرعيِّ عن النفس يُبيح للشخص إلاَّ في الأحوال الاستثنائيَّة المُبيَّنة بعد، استعمالَ القوَّة اللازمة لدفع كلِّ فعلٍ يُعتبر جريمةً على النفس منصوصًا عليها في القانون…”. فالمشرِّع المصريُّ قصر حقَّ الدفاع الشرعيِّ على النفس البشريَّة فقط([74]).
ومع ذلك نرى أنه ليس هناك مانعٌ من أنْ يستعينَ الإنسانُ بالروبوت الآليِّ لحراسته، كما له حقُّ الاستعانة بالكلاب للحراسة أو أفراد الحراسة لذلك، أن الحراسة هي جوهر المسؤولية. والحراسة بهذا الاصطلاح، وعلى وفق ما استقر عليه الرأي في الفقه([75]) والأحكام القضائية([76])، يقصد بها الحراسة الفعلية لا القانونية، تلك الحراسة التي تعني السيطرة الفعلية على الروبوت، حتى ولو لم يكن الحارس هو ذاته المالك أو المنتفع أو الحائز.
رغم أنَّ قانون العقوبات يُخاطب الإنسانَ الطبيعيَّ بشأن الدفاع الشرعيِّ عن النفس أو المال للغير، إلاَّ أنه منطقيًّا من المجافي غلّ يد الروبوت الآليِّ في الدفاع عن الإنسان البشريِّ في حالة الاعتداء على المالك أو المُستخدم أو ماله، بشرط أنْ يتوافرَ في الروبوت الآليِّ المقدرةُ على تمييز حدِّ التناسُب بين فعل الاعتداء على صاحبه وفعل الدفاع الذي سيقوم به، ويُسأل المالك عن تجاوز الدفاع الذي يصدرُ عن كيان الذكاء الاصطناعيِّ باعتبار أنَّ الروبوت أداةُ جريمة، مثل باقي الأدوات التي يمكنُ استخدامُها في ارتكاب الجريمة ولم يتوافرْ حدّ التناسب بين فعل الاعتداء وفعل الدفاع، وبالتالي لم يتوافرْ حقُّ الدفاع الشرعي.([77])
ولذلك يجب أنْ نُفَرِّقَ بين احتمالين؛ الأول: إذا كان هذا الروبوتُ لديه القدرة على التعامُل بحدودٍ مُعَيَّنَةٍ، مثل الإنسان، ولديه القدرةُ على التمييز وتحقيق الدفاع عن نفسه مُحققًا التناسبَ بين فعل الاعتداء عليه وفعل الدفاع الشرعيِّ الذي سيقومُ به، ففي هذه الحالة له حقُّ الدفاع الشرعيِّ عن نفسه ومالكه ضد أيِّ اعتداءٍ سواء من إنسانٍ بشريٍّ أو إنسانٍ إلى آخر؛ لأنه من الظلم بعد وصول هذا الروبوت الآليِّ لهذا التقدُّم الرهيب في التفكير واتِّخاذ القرارات في الحركة والسلوك أنْ نَحْرِمَهُ من استخدام هذه القدرات. والاحتمالُ الثاني: إذا كان الروبوتُ الآليُّ لا يصلُ مستواه البرمجيُّ إلى قدرات التمييز في الحركة والتفكير ورد الفعل، فنرى أنه لا يجوزُ له استخدام حقِّ الدفاع الشرعيِّ حمايةً للجنس البشريِّ؛ لأنَّ الإنسانَ أغلى بالتأكيد من أيِّ آلةٍ مصنوعةٍ يمكنُ تعويضها.([78]) أن منح الروبوتات الشخصية القانونية سيؤدي إلى تقليل أو استبعاد مسؤولية الشركة المُصنعة للروبوتات ومبرمجيها ومستخدميها، وبالتالي ستكون الروبوتات أكثر خطرًا وأقل دقة في التصنيع؛ لأن استبعاد أو تقليل مسؤولية هؤلاء سيجعلهم لا يلتزمون بالدقة في تصنيع الروبوتات([79]).
رابعًا: -المسئوليَّة الجنائيَّة للطرف الخارجيِّ:
تُطَبَّقُ هذه الحالة عند قيام طرفٍ خارجيٍّ بالدخول على نظام الذكاء الاصطناعيِّ عن طريق الاختراق أو بأية طريقةٍ كانت، والسيطرة عليه واستغلاله في ارتكاب الجريمة، ويمكنُ أنْ يحدثَ ذلك في افتراضين، وهما:
1- قيامُ الطرف الخارجيِّ باستغلال ثغرة في الذكاء الاصطناعيِّ لارتكاب جريمته، وكانت هذه الثغرةُ نتيجةَ إهمالٍ من المالك أو من المُنتج لهذه التقنيَّة، فتكون المسئوليَّةُ الجنائيَّةُ هنا مشتركةً بين الطرف الخارجيِّ وهذا الشخصِ الذي وقع منه الإهمالُ المتسبِّب في استغلال هذه الثغرة، مثال ذلك: إعطاء مالك الذكاء الاصطناعيِّ باسورد الدخول “الكود الشخصي” على نظام التحكُّم في تقنيَّة الذكاء الاصطناعيِّ للطرف الخارجي، ممَّا سهَّل عليه إصدار أوامر الذكاء الاصطناعي.
2- قيامُ الطرف الخارجيِّ باستغلال ثغرةٍ في الذكاء الاصطناعيِّ دون المساعدة أو الإهمال كما في الحالة السابقة، فتقع هنا المسئوليَّةُ كاملةً على هذا الطرف الخارجيِّ، مثال ذلك: اختراق الطرف الخارجيِّ للسحابة الإلكترونيَّة([80]) التي يتمُّ تخزين وإرسال الأوامر من خلالها لتقنيَّة الذكاء الاصطناعيِّ، وقيامه بإصدار أوامرَ للذكاء الاصطناعيِّ لارتكاب جريمةٍ مُعَيَّنَةٍ، كإعطاء أمرٍ برمجيٍّ بالاعتداء على أشخاصٍ يحملون صفاتٍ مُعَيَّنَةً (لون بشرة – زي معين)، ومثال آخر: يخشى أنْ تقومَ عصابات تجارة المخدرات أو الإرهابيون بالاستعانة بتلك التقنيَّة (الروبوت الآلي) في مُهاجمة الشرطة حين قيامهم بحملاتٍ تفتيشيَّةٍ عليهم، ولذلك يجبُ أنْ يكونَ هناك تقنينٌ لحيازة تلك الأجهزة التكنولوجيَّة خشية إساءة استخدامها.
3- وفي حالة إذا وقع اعتداءٌ على تقنيَّة الذكاء الاصطناعيِّ المُكلَّف بالحراسة، فهذا يُمَثِّلُ اعتداءً على مالٍ منقولٍ مملوكٍ للمالك يُطبق عليه قواعد جرائم المال من سرقة وإتلاف، يحقُّ للمالك أنْ يَتَّهِمَ المُعتدي بهذه الوقائع القانونيَّة، إضافةً إلى مسئوليته المدنيَّة.
في الحقيقة إنَّ أغلب التشريعات الأجنبيَّة والعربيَّة ما زالت بعيدةً كلَّ البعد عن الفكر المُتطوِّر لتكنولوجيا الذكاء الاصطناعيِّ والتي سرعان ما ستهيمنُ على جميع مجالات الحياة، ولم يتضمَّنْ أيُّ قانونٍ تنظيمًا أو تحديدًا للحقوق والواجبات المُلقاة على عاتق الكيانات التي تستخدمُ تقنيات الذكاء الاصطناعيِّ.([81]) فالانتقالُ من الذكاء الاصطناعيِّ إلى الشخص الافتراضي، نجد أنه قد أصبح حقيقةً قائمةً، فقدرةُ التقنيَّة الحديثة والروبوتات على القيام بمهامَّ كثيرةٍ يقوم بها البشرُ بما يُحاكي الذكاءَ البشريَّ لدرجةٍ كبيرةٍ، يجب استغلالُها إيجابيًّا لخدمة البشريَّة.
المطلب الثاني
العقوبات المُقرَّرة لجرائم استخدام تقنيات الذكاء الاصطناعيِّ
العقوبةُ هي الجزاءُ المنصوصُ عليه في القانون، ويُوقعه القاضي على
مُرتكب الجريمة بشرط أنْ يتناسبَ معها، فالعقوبةُ أثرٌ لاستكمال الجريمة
وأركانها، وهي أثرٌ حتميٌّ لكلِّ جريمةٍ، فلا يعرفُ القانونُ جرائمَ لا عقابَ عليها، ومن ذلك يتضحُ أنَّ الجريمةَ والعقوبةَ فكرتان مُتلازمان، فإذا لم تُرتكب جريمةٌ فلا محلَّ لتوقيع عقوبة.
وتهدفُ العقوبةُ إلى التأثير في السلوك الإنسانيِّ داخل المجتمع حتى يتلاءمَ مع الأوامر والنواهي الاجتماعيَّة التي تنطوي عليها قواعدُ التجريم، فهي تهدفُ إلى التأثير في سلوك جميع أفراد المُجتمع المُخاطبين بأحكام القانون، عن طريق التهديد بما ينطوي عليه من جسامةٍ مُعينةٍ؛ وهو ما يُسَمَّى بالردع العام، ويتمُّ تطبيقُها بواسطة القضاء، فإنها تهدفُ أساسًا إلى التأثير في سلوك المحكوم عليه حتى يتطابقَ مستقبلاً مع قواعد القانون؛ وهو ما يُسَمَّى بالردع الخاص، فالعقوبةُ تهدفُ في الأساس إلى تحقيق العدالة([82]).
وتنبعُ خصائصُ العقوبة من أغراضها الاجتماعيَّة، ثم من الضمانات التي يجبُ أنْ تحيطَ بها، وفي مقدمة خصائصها أنها مؤلمةٌ بطبيعتها، وأنها مُحدَّدة سواء من حيث كمّها أو كيفها، فيجب على القاضي حينما ينطقُ بها أنْ يُحَدِّدَ نوعها ومقدارها، وللمحكوم عليه حقٌّ قبل السلطات العامَّة، فلا تُنفِّذ عليه عقوبةً أشدَّ ممَّا حُكم عليه بها أو تُرجئ الإفراج عنه إذا ما انقضى أجلُ عقوبته([83]).
ومن أهمِّ الضمانات للعقوبة هي خضوعُها لمبدأ الشرعيَّة، فالمُشرِّع هو الذي يُقَرِّرُ العقوبة من أجل مُعين ويُحدد نوعها ومقدارها، ومن هذه الضمانات “التدخُّل القضائي” في توقيع العقوبة، فالقاضي هو الشخصُ الوحيدُ الذي يُوثَقُ في حرصه على الحريات والعدالة وابتعاده عن الأهواء السياسيَّة والتحكُّم الإداري، وتعدُّ شخصيَّة العقوبة ومبدأ المُساواة أمام القانون من الضمانات الأساسيَّة للعقوبة، وتُحَقِّقُ هذه الضماناتُ غرضَ العقوبة في تأهيل المحكوم عليه وإعداده لاسترداد مكانته في المجتمع.([84])
وللحديث عن العقوبات في جرائم تقنيات الذكاء الاصطناعيِّ لا توجدُ إشكاليَّةٌ فيما يتعلَّقُ بالمُنتج أو المالك أو الغير فيعتبرون أشخاصًا طبيعيين، فقد أخذ المشرِّعُ المصريُّ وغالبيَّةُ التشريعات القائمة بفكرة المذهب التقليديِّ الذي يلزمُ بتحميل العقاب أو الذي يُحمِّل المسئوليَّة الجنائيَّة ليس لكلِّ آدميٍّ فحسب، بل هو الآدميُّ الذي تتوافرُ له صلاحيةٌ أو أهليَّةٌ مُعيَّنة، وهي أهليَّة تتكوَّن من العناصر التي يقوم منها أساسُ المسئوليَّة الأدبيَّة، وهي الإدراكُ والإرادةُ، وفي الإشارة إلى هذه الأهليَّة تلجأ بعض التشريعات إلى النصِّ عليها بطريقةٍ إيجابيَّةٍ مُباشرة، كالقانون الإيطاليِّ؛ إذ نصت المادة 85 منه على أنه “لا عقابَ على مَن يرتكب فعلاً يعدُّه القانونُ جريمةً إذا لم يكن وقت ارتكابها أهلاً للتكليف، ولا يكونُ كذلك إلاَّ إذا توافرت له القدرةُ على الإدراك والإرادة”، كما لجأت بعضُ التشريعات الأخرى إلى النصِّ عليها حصرًا بطريقةٍ سلبيَّة، بتحديد الحالات التي ترى أنها تمنعُ قيام المسئوليَّة، ومنها عدمُ توافر الأهليَّة للمسئوليَّة كالقانون الفرنسي، إلاَّ أنَّ المشرِّعَ المصريَّ لم يسلك أحد الطريقين، فتحدَّث عن حالة الضرورة في م(61)، ثم وضع مبدأً عامًّا في الفقرة الأولى من المادَّة (62) بقوله: “لا عقابَ على من يكونُ فاقد الشعور أو الاختيار في عمله وقت ارتكاب الفعل”، ثم نصَّ في قانون الأحداث على أنه لا تُقام الدعوى على الصغير الذي لم يبلغْ من العمر 7 سنوات، ولهذا يتضحُ أنَّ المُشرِّعَ المصريَّ لم يحصر موانع المسئوليَّة، بل وضع قاعدةً عامَّةً في م (62) تُطَبَّقُ على كلِّ حالةٍ مُماثلة، بَيْدَ أنه على الرغم من ذلك فإنَّ مفهومه أنه يُشترط لتوافر المسئوليَّة الجنائيَّة بالنسبة للشخص أنْ يكونَ أهلاً لتحمُّلها بأنْ يتوافرَ لديه (الإدراك والإرادة معًا)، ومن ثمَّ فإذا انعدم أيُّهما يؤدِّي ذلك إلى انعدام المسئوليَّة لعدم الأهليَّة([85])، والإدراك باعتباره عنصرًا من عناصر الأهليَّة يُقصد به المَلَكة العقليَّة التي تؤهِّل الإنسان، وتجعلُه قادرًا على أنْ يعلمَ بالأشياء وطبيعتها ويعرفها ويتوقَّع الآثار التي من شأنها إحداثها، أي تجعلُهُ قادرًا على الإحاطة بالأمور والأحداث وتفهُّم الماهيات الحسيَّة، أي المعرفة بالمعاني والمفهومات الذهنيَّة، بحيث يستطيعُ التمييز بينها ويعلم بعواقبها ويقدِّر نتائجها، وهذه الملكةُ تتوافرُ لدى الإنسان ببلوغه سنًّا مُعَيَّنَةً من النضج العضويِّ والعقليِّ، وهذا العلمُ يعدُّ عنصرًا في الركن المعنويِّ في الصورة العمديَّة للجريمة اللازم لقيام المسئوليَّة الجنائيَّة.
أمَّا الإرادةُ باعتبارها عنصرًا من عناصر الأهليَّة للمسئوليَّة الجنائيَّة، فيُقصد بها القوةُ ذاتُها أو القدرة النفسيَّة التي يستطيعُ بها الشخصُ أنْ يتحكَّم في نشاطه العضويِّ أو الذهنيِّ، يسيطر عليه، بحيث يستطيعُ أنْ يسلكَ سلوكًا إيجابيًّا مُعينًا أو يمتنعَ عنه أو يعدلَ فيه، فهي قدرتُه على تحديد الوجهة التي تتخذُها إرادته، وهذه القدرةُ النفسيَّةُ لا تتوافرُ أيضًا لشخصٍ إلاَّ إذا كان قد بلغ سنَّ النضج العضويِّ والنفسيِّ الذي حدَّده المُشرِّعُ في نصوصه، والذي يُمَكِّنُهُ من التحكُّم الشخصيِّ في سلوكه ومن السيطرة الذاتيَّة على أفعاله، إذن فحريَّةُ الإرادة وحريَّةُ الاختيار هي إذن الحالةُ التي يتمثَّلُ فيها العنصرُ الأساسُ الذي تتركَّبُ منه كلُّ صور الركن المعنويِّ للمسئوليَّة الجنائيَّة العمديِّ وغير العمديِّ([86]).
لم تُثَرْ مسألة توقيع العقوبات الجنائيَّة على الشخص المعنويِّ([87]) في الماضي بهذه الصورة؛ لأنه لم يكنْ يُتَوَقَّعُ أنْ تُرتكب جريمة جنائيَّة كما هو مثارٌ الآن ومستقبلاً، وهنا نتساءلُ: هل تتوافرُ عناصرُ الأهليَّة لتقنيَّة الذكاء الاصطناعيِّ حتى يتحمَّلَ المسئوليَّة الجنائيَّة، وبالتالي توقيع عقوباتٍ جنائيَّةٍ نحوه، وبخاصَّة أنَّ تلك التقنيات في تطوُّرٍ مستمرٍّ تمكِّنها من أنْ تُحاكيَ القدراتِ الذهنيَّة للبشر من إرادة والقدرة على اتِّخاذ القرارات في حلِّ المشاكل؟
ولذا سوف نتناولُ العقوبةَ الجنائيَّةَ للشخص المعنويِّ على فرض أنه ممكنٌ منحها لتقنيَّة الذكاء الاصطناعيِّ، وينسب لذاتها الخطأ الجنائي، حيث تعدُّ عقوبة الشخص المعنويِّ من الموضوعات التي كانت – وما زالت – مثارَ جدلٍ ونقاشٍ في الفقه والقضاء المصريِّ، وقد اتجه الفقهُ إلى:
الرأي الأول: يذهبُ إلى عدم مُساءلة الشخص المعنويِّ جنائيًّا، وحُجَجُهم في ذلك الآتي:
لا خلافَ في تقرير المسئوليَّة الجنائيَّة قبل الأشخاص الطبيعيين؛ لأنَّ لهم من التمييز والإرادة ما يجعلهم أهلاً لتحمُّل المسئوليَّة، وأنَّ النتيجةَ المنطقيَّة لهذه الحقيقة هي أنَّ الشخصَ المعنويَّ لا يمكنُ أنْ يكون محلاًّ للمسئوليَّة الجنائيَّة.
إنَّ القولَ بمسئوليَّة الشخص المعنويِّ جنائيًّا يتنافى مع مبدأ شخصيَّة
العقوبة، وآيةُ ذلك أنَّ العقوبة التي تُطَبَّقُ على الشخص المعنويِّ لا بدَّ أنْ يمتدَّ أثرُها
إلى الأشخاص المساهمين فيه أو الداخلين في تكوينه، وقد يكونُ من بينهم من لم يُسهم في ارتكاب الجريمة التي وقعت بوصفه فاعلاً أصليًّا للجريمة أو شريكًا، وإذا كان المُشرِّع قد اعترف للشخص المعنويِّ بأهليةٍ قانونيَّةٍ، فإنَّ هذه الأهليَّة محدودةٌ بالأغراض التي شُرع من أجل تحقيقها، ولا يُعقل أنْ يتسعَ نطاق هذه الأغراض لارتكاب الجرائم.
إنَّ المشرِّعَ قد وضع العقوباتِ وقصد تطبيقَها على الأشخاص الآدميين
الذين تثبتُ إدانتهم، ومنها ما هو سالبٌ للحياة مثل عقوبة الإعدام، ومنها ما هو سالبٌ للحريَّة مثل عقوبتي السجن والحبس، وهذه العقوباتُ لا يُتَصَوَّرُ إنزالُها بالشخص المعنوي([88]).
الرأي الثاني: يذهبُ إلى جواز مُساءلة الشخصِ المعنويِّ جنائيًّا، وحُجتهم في ذلك:
أنَّ للشخص المعنويِّ وجودًا حقيقيًّا وإرادةً واقعيَّةً تُمَكِّنُهُ من أنْ يصبحَ طرفًا في كلِّ عقد مشروع، وتجعله أهلاً للتداعي وتُحمله المسئوليَّة عن الفعل الضارِّ.
القولُ إنَّ وجود الشخص المعنويِّ مُحَدَّدٌ بالغرض الذي يستهدفُه غيرُ سديد؛ ذلك أنَّ منطق هذا القول يؤدِّي إلى عدم إمكان مُساءلة الشخص المعنويِّ أيضًا عن تعويض الأضرار التي يتسبَّب في إحداثها بمقولة: إنه لم يخلقْ لذلك طبقًا لقانون إنشائه، كما أنَّ فكرةَ تخصيص هذا الشخص بالهدف الذي وُجد من أجل تحقيقه مجالُها القانونُ العامُّ – القسم الإداري، وليس قانون العقوبات.
وبالنسبة لِمَا قيل من أنَّ إقرار مبدأ مُساءلة الشخص المعنويِّ يُشَكِّلُ اعتداءً على قاعدة شخصيَّة العقوبة، يدحضه أنَّ توقيع العقوبةِ على الشخص المعنويِّ وامتداد أثرها إلى الشخص الطبيعيِّ الذي ينوب عنه أو يدخل في تكوينه كلُّ ذلك لا يمسُّ القاعدة المذكورة.
أمَّا القول بوجود استحالة تطبيق بعض العقوبات على الشخص المعنويِّ كالعقوبات السَّالبة للحياة مثل عقوبة الإعدام أو المُقيدة للحريَّة مثل السجن، فلها بديلٌ أو مقابلٌ مثل حلِّه أو وضعه تحت الحراسة أو وقف نشاطه أو الحد من هذا النشاط نهائيًّا أو لفترةٍ زمنيَّةٍ مُحدَّدةٍ يُقننها الشارع.
ومن ناحيةٍ أخرى، فإنَّ ارتكابَ الشخص المعنويِّ للجرائم شيءٌ والعقابَ عليها شيءٌ آخر؛ فالقولُ إنَّ مسئوليَّة الشخص المعنويِّ جنائيًّا لا تُحقق الغاية من العقاب ينطوي على مُصادرةٍ للمطلوب لا علاقةَ له بقدرة الشخص المعنويِّ على ارتكاب الجريمة.([89])
ونتيجةً لذلك ميَّز الفقهُ السابقُ بين نوعين من المسئوليَّة الجنائيَّة للشخص المعنويِّ:
– المسئوليَّة الجنائيَّة المُباشرة: في هذه الحالة تسندُ الجريمة إلى الشخصِ المعنويِّ فتقامُ عليه الدعوى الجنائيَّة بصفةٍ أصليَّة، ويُقضى عليه بالعقوبات المُقرَّرة والتي تتناسبُ مع طبيعته.
– المسئوليَّة الجنائيَّة غير المُباشرة: هنا لا تقامُ الدعوي الجنائيَّة على الشخص المعنويِّ باعتباره خصمًا أصليًّا، وإنما باعتباره خصمًا تابعًا، وتكون مسئوليَّةُ الشخص المعنويِّ جنائيًّا غيرَ مُباشرةٍ عندما ينصُّ القانونُ على أنَّ هذا الشخص يُسأل بطريق التضامُن مع الأشخاص الطبيعيين الداخلين في التكوين.
الرأي الثالث: ذهب إلى مُحاولة الترجيح بين الرأيين([90]) قائلاً: إنَّ إنكارَ المسئوليَّة الجنائيَّة للأشخاص المعنويَّة لا يعني تجريدَ المُجتمع من الوسائل التي يحمي بها كيانه ونظمه، إذا ثبت أنَّ الشخصَ المعنويَّ مصدرُ خطرٍ يُهدده، كما لو كان أسلوبُ نشاطه ضارًّا، ففي استطاعة المُجتمع أنْ يتقيَ هذه الخطورة عند اتِّخاذ التدابير الاحترازيَّة ضدَّ الشخصِ المعنويِّ نفسه، وهذه التدابيرُ يجوزُ اتِّخاذها حيث لا يجوز العقاب، ومن هذه التدابير حلُّ الشخصِ المعنويِّ ووضعُه تحت الحراسة وحظرُ بعض نشاطه ومُصادرة ماله، ولا شكَّ في أنَّ حال ووسائل وإجراءات توقِّيه هذه التدابير يجبُ أنْ يتدخَّلَ المُشَرِّعُ بتنظيمها.
ونميل للاتِّجاه الأخير: فيجبُ المُساءلةُ الجنائيَّةُ لكلٍّ من الشخصِ المعنويِّ إلى جانب الشخص الطبيعيِّ الذي ارتكب الجريمة أثناء مُمارسته عمله، ونستندُ في ذلك إلى أنَّ جوهر المسئوليَّة الجنائيَّة في الحالتين هو الإرادة، وأنَّ الشخصَ المعنويَّ يُمكنه أنْ يرتكبَ الركنَ الماديَّ للجريمة بمفرده في كثيرٍ من الجرائم، كالنصب وخيانة الأمانة والتزوير والتهرُّب الضريبي والجرائم ضد البيئة، إضافةً إلى مُخالفات المرور وحوادث القتل، مع إمكانيَّة تطبيق مُعظم العقوبات الجنائيَّة عليه مثل الغرامة ومُصادرة الآلة التي تعملُ بنظام الذكاء الاصطناعيِّ، أو الأمر بتدميرها كليًّا أو جزئيًّا([91])، أو وقف تشغيلها نهائيًّا أو جزئيًّا، ووقف البرنامج أو النظام الذي يعملُ بالذكاء الاصطناعيِّ المُشغِّل لها بشكلٍ كليٍّ أو جزئيٍّ، وإعادة برمجته([92])، ونشر الحكم بالإدانة، وهذه العقوبة من شأنها المساسُ بسُمعته، ويمكنُ التمييزُ بين عقوبات الجنايات والجنح، وهي: الغرامةُ وحظر مُزاولة بعض الأنشطة والوضع تحت الرقابة وغلق المؤسَّسة والاستبعاد من الأسواق، ويمكنُ السماحُ بتطبيق الإكراه البدنيِّ للتقنيَّة في حالة عدم تنفيذ الأحكام الصَّادرة بالغرامة.
ومن المُتوقَّع في المستقبل أنْ نرى عقوباتٍ تخصُّ كيانات الذكاء الاصطناعيِّ على غرار العقوباتِ المُقرَّرة للأشخاص المعنويَّة.
وخلاصة القول في مسألة العقاب على جرائم الذكاء الاصطناعيِّ أنَّ
تقريرَ جزاءاتٍ عن هذه الجرائم يتطلَّبُ إصدار تشريعاتٍ جنائيَّةٍ تُجرم هذه الأفعال
وتُقرر لها عقوباتٍ مُحدَّدةً تطبيقًا لمبدأ الشرعيَّة الجنائيَّة: (لا جريمةَ ولا عقوبةَ إلاَّ بنصٍّ).
تقسيم العقوبات حسب الأطراف: –
1- العقوبات التي تُوَقَّعُ على المُبرمج أو المالك أو الغير:
حيث يعدُّ منتج كيانات تقنيَّة الذكاء الاصطناعيِّ هو المتحكِّم الوحيد في وضع أنظمة تشغيلها، وبالتالي فهو ملتزمٌ بوضع ضوابطَ مُعَيَّنَةٍ تُوَفِّرُ جميع أنواع التحكُّم التي تحتاجُها حماية الأمان والسلامة في حالة استخدامها بمعرفة المالك أو المُستخدم، فضلاً عن وضع معاييرَ تحمي المُستهلك من الغشِّ التجاريِّ الذي قد يرتكبُه المُنتج، وتضمنُ حماية المُستهلك حتى يحصلَ على مُنتجٍ يتمتَّعُ بمعاييرَ كافيةٍ من الجودة والأمان، كما يلتزمُ المُنتج أيضًا بالصيانة الدوريَّة لكيانات تقنيَّة الذكاء الاصطناعيِّ، ووضع وسائل الحماية من الهاكرز على تلك البرامج، ممَّا يُصعب عمليَّة اختراقها، ويكونُ ذلك الالتزام منصوصًا عليه في التشريعات، وفي حالة مُخالفة تلك الضوابط يُعَدُّ منتهكًا لمعايير الجودة والأمان المفروضين عليه من قبل القانون، ويتحمَّل المُنتج المسئوليَّةَ الجنائيَّةَ كاملةً عن خطئه في تلك الجرائم، سواء أكان هذا الخطأ في صورة العمد أم في صورة غير العمد، ويُطبق عليه العقوبة وفقًا لمحاكمةٍ عادلةٍ.([93])
من ناحيةٍ أخرى، فمالك أو مُستخدم تلك التقنيَّة يتمتَّعُ بمميزات تلك التقنيَّة، وبمجرَّد انتقال ملكيتها له فهو مسئولٌ عنها وعن الجرائم التي تُرتكب من قبل تلك التقنيات، وتُوقع عليه العقوبةُ المُقرَّرة عن تلك الأفعال، مع التفرقة بين الجرائم التي تحدثُ من التقنيَّة نتيجة تدخُّلٍ أو إهمالٍ من مالك أو مُستخدم التقنيَّة، مثل عدم معرفته بطريقة التعامُل مع تلك التقنيات وتشغيلها، فيعطي لها أمرًا أو يُعطل وظيفة أمان موجودة بها لينتج عن سلوكه هذا جريمة جنائيَّة، وقد تحدثُ جرائمُ تقنيَّة جرائم الذكاء الاصطناعيِّ بسبب إهمالٍ من مالك تلك التقنيات وعدم مُراعاة إرشادات الأمان المُرفقة بتلك التقنيَّة، ممَّا ينتج عن سلوكه وعدم احترازه قيامُ تلك التقنيَّة بارتكاب جريمةٍ جنائيَّةٍ، ففي هذه الحالة تُوقع العقوبةُ عليه؛ لأنَّ سلوكه هو الذي أحدث النتيجة الإجراميَّة، وتوافر العنصر الثالث للركن الماديِّ للجريمة؛ وهو علاقة السببيَّة بين السلوك والنتيجة الإجراميَّة، سواء كان هذا الخطأ في صورة العمد أم في صورة غير العمد، وكذلك الشأن إذا ثبت الخطأُ المُتسبِّب في جرائم تقنيَّة الذكاء الاصطناعيِّ للغير، مثل قيام الطرف الخارجيِّ باستغلال ثغرةٍ في الذكاء الاصطناعيِّ، دون المُساعدة أو الإهمال المذكورين في الحالة السابقة، فتقعُ المسئوليَّة الجنائيَّة كاملةً على هذا الطرف الخارجيِّ، مثال ذلك: اختراق الطرف الخارجيِّ للسحابة الإلكترونيَّة التي يتمُّ تخزين وإرسال الأوامر من خلالها لتقنيَّة الذكاء الاصطناعيِّ وقيامه بإصدار أوامرَ للذكاء الاصطناعيِّ على ارتكاب جريمةٍ مُعينةٍ، كإعطاء أمرٍ برمجيٍّ بالاعتداء على أشخاصٍ يحملون صفاتٍ مُعيَّنةً (لون بشرة – زي مُعيَّن)، ففي هذه الحالة تُوَقَّعُ العقوبةُ
عليه؛ لأنَّ سلوكه هو الذي أحدث النتيجة الإجراميَّة، وتوافرت علاقةُ السببيَّة بين السلوك والنتيجة الإجراميَّة، سواء أكان هذا الخطأ في صورة العمد أم في صورة غير العمد.
ونحن نرى أنه بالنسبة للعقوبات التي يمكن توقيعُها على المنتج في جرائم تقنيَّة الذكاء الاصطناعيِّ تسري على المالك أو الغير الذي يثبتُ الجرم في حقِّه، ويمكنُ أنْ تتدرَّجَ حسب درجة جسامتها من قبل تلك التقنيات، فلا مانعَ من توقيع عقوباتٍ تتدرَّجُ من الإعدام للسجن المؤبَّد أو السجن المُشدَّد أو السجن أو الحبس أو الغرامة تبعًا لدرجة خطورة وجسامة والضرر النَّاتج عنها، إضافةً للعقوبات التبعيَّة أو التكميليَّة وفقًا للقانون، وكذا لا مانعَ من تطبيق القواعد القانونيَّة للظروف المُشدَّدة للعقوبة والعود وفقًا للقانون.
2-العقوبات التي تُوَقَّعُ على كيانات الذكاء الاصطناعيِّ نفسه:
تتميَّزُ التقنياتُ الحديثةُ بخاصيَّة التعلُّمِ الذاتيِّ؛ حيث إنها تستخدمُ
خوارزمياتٍ حديثةً مُتطوِّرة، تُمكِّنها من اتِّخاذ قراراتٍ وتُنفذها بدون تدخُّلٍ
بشريٍّ، بجانب التعلُّم من المواقف التي تتعرَّضُ لها؛ ليكون بداخلها قواعدُ بياناتٍ عملاقةٌ مُتطورة تُمكِّنها من القيام بالتصرُّف في أغلب المواقف، وبتلك القدرات
من المُتصوَّر مستقبلاً ارتكابُها جرائمَ بإرادةٍ حرةٍ منفردةٍ دون تدخُّلٍ من مالك تلك التقنيات ودون خطأ أو تقصير من مصنعها، وبحكم أنَّ المسئوليَّة الجنائيَّة شخصيَّة
فلا يجوزُ توقيعُ عقابٍ عليهما (المالك أو المُنتج) لعدم مسئوليتهما عن تلك الجرائم، فتظهرُ إشكاليَّةٌ جديدةٌ؛ وهي عقاب تلك التقنيات والكيانات التي تعملُ بالذكاء الاصطناعي، ففي استطاعة المُجتمع أنْ يتقيَ هذه الخطورةَ عند اتِّخاذ التدابير الاحترازيَّة ضدَّ الشخص المعنويِّ نفسه، وهذه التدابيرُ يجوزُ اتِّخاذُها حيث لا يجوزُ العقاب، ومن هذه التدابير حلُّ الشخص المعنويِّ ووضعُه تحت الحراسة وحظرُ بعض نشاطه ومُصادرة ماله، أو إعدامه أو إلغاء الترخيص به، ولا شكَّ في أنَّ وسائلَ وإجراءاتِ اتِّخاذ هذه التدابير يجبُ أنْ يتدخَّلَ المُشرِّعُ بتنظيمها بسنِّ تشريعٍ يتضمَّنُ مثل تلك الجرائم والعقوبات المُقرَّرة لها.
المطلب الثالث
التطوُّر التشريعيُّ في بعض الدول لمُواجهة جرائم أنظمة الذكاء الاصطناعيِّ
إنَّ استخدامَ تقنيات الذكاءِ الاصطناعيِّ في شتَّى مناحي الحياة أظهر الحاجةَ إلى وضعِ الأُطر القانونيَّة والتدابير الوقائيَّة التي تحكمُ أنظمةَ الذكاءِ الاصطناعيِّ والروبوتات؛ تفاديًا للآثار السلبيَّة التي من المُمكن أنْ تُحدثها على المجتمعات والتي أدركتها معظمُ الدول وتسعى على التطويرِ التشريعيِّ لها، ومنها – على وجه المثال – ما يلي: –
موقفُ المُشرِّع الأمريكيِّ: أصدرت الولاياتُ المتحدةُ الأمريكيَّةُ في ديسمبر 2017 قانونَ مُستقبل الذكاء الاصطناعيِّ وآفاقه في العالم، وهو أولُ قانونٍ فيدراليٍّ يتمحورُ حول الذكاء الاصطناعيِّ، وبناءً على هذا القانون سوف تنشأ لجنةٌ مُختصَّةٌ لدراسة جميع حيثيات الذكاء الاصطناعيِّ وإصدار القرارات الخاصَّة في هذا الشأن، وكذلك دراسةُ آثار هذا الاستخدام لأنظمة الذكاء الاصطناعيِّ على القوى العاملة في الولايات المُتحدة الأمريكيَّة.
إضافةً إلى ذلك فقد أقرَّ المجلسُ التشريعيُّ لولاية إلينوي الأمريكيَّة في 29 مايو 2019 قانون إجراء المُقابلات باستخدام الفيديو كونفرنس في عمليات التوظيف، وقد دخل هذا القانونُ حيز التنفيذ في الأول من يناير 2020.
موقفُ المُشرِّع البريطانيِّ: قام مجلسُ اللوردات البريطاني بتاريخ 29 يونيو 2017 بتعيين لجنةٍ مُختارةٍ حول الذكاء الاصطناعيِّ؛ وذلك للنظر في الآثار الاقتصاديَّة والأخلاقيَّة والاجتماعيَّة للتطوُّرات في مجال الذكاء الاصطناعيِّ، وقد أصدرت هذه اللجنةُ أولَ تقريرٍ لها في أبريل 2018.
موقف المُشرِّع الأوربيِّ: في عام 2018 اقترح البرلمانُ الأوربيُّ على الدول الأعضاء في الاتِّحاد وضعَ تشريعٍ بشأن الجوانب القانونيَّة لتطوير استخدام الروبوتات والذكاء الاصطناعيِّ، بحيث يتمُّ ذلك خلال فترة ما بين 10 إلى 15 عامًا. ففي نطاق المسئوليَّة المدنيَّة قرَّر قواعد المسئوليَّة المدنيَّة للروبوتات وأنظمة الذكاء الاصطناعيِّ عن المخاطر سواء من خلال التوقُّع أم ما كان يجب عليه أنْ يتوقَّعَه ولكن بشروط؛ هي: مدى توافُر استقلاليَّة الروبوتات وأنظمة الذكاء الاصطناعيِّ في العمل، وكذلك مدى قُدرته على التعلُّم الذاتيِّ أو الآليِّ([94]). وفي نطاق التأمين عن هذه المخاطر فقد استحدث نظام التأمين الإجباريِّ من خلال صندوقٍ يضمنُ التعويضاتِ في حالة عدم وجود تغطيةٍ تأمينيَّةٍ عن هذه الحوادث. وفي النهاية أقرَّ البرلمانُ الأوربيُّ بالمسئوليَّة المدنيَّة عن أعمال أنظمة الذكاء الاصطناعيِّ والروبوتات مع نظرةٍ مستقبليَّةٍ تقومُ على إنشاء شخصيَّةٍ قانونيَّةٍ مستقلَّةٍ خاصَّة بالروبوتات وأنظمة الذكاء الاصطناعيِّ، وذلك على المدى الطويل.
وفي 14 نوفمبر 2018 أصدر الاتِّحادُ الأوربيُّ النصوصَ التكميليَّةَ للائحةِ الأوربيَّةِ العامَّة لحماية البيانات الشخصيَّة التي تضع إطارًا للتدفُّق الحرِّ للبيانات غير الشخصيَّة في الاتِّحاد الأوربيِّ رقم 1807 لسنة 2018، والتي تنصُّ على مبدأ حريَّة الحركة للبيانات غير الشخصيَّة داخل الاتِّحاد الأوربيِّ وعدم تقيُّدها أو منعها بداعي حماية الأفراد، ما لم يكن هناك مُبَرِّرٌ للتقيُّد أو لمنع الحماية للحفاظ على الأمن العام. ومن المعروف أنَّ الذكاءَ الاصطناعيَّ والتعلُّم الآليَّ الذاتيَّ معتمدٌ على البيانات غير الشخصيَّة.
وبناءُ على ذلك؛ يُقصد بالأمن العامِّ وفقًا لنصِّ المادَّة (52) من اتِّفاقيَّة الأداء للاتِّحاد الأوربيِّ، وكما تُفسِّره محكمة العدل بأنه: كلٌّ من الأمن الداخليِّ والخارجيِّ لدولة عضو، وكذلك المسائل المُتعلِّقة بالسلامة العامَّة، لا سيما المُتعلِّقة بالكشف والتحقيق والمُقاضاة في جرائم الجنايات. ويفترضُ ذلك وجود تهديدٍ حقيقيٍّ وجادٍّ بما فيه الكفاية، بحيث يُؤثِّر على واحدٍ من المصالح الأساسيَّة المُتعلِّقة بضمان أمن الشعب، فضلاً عن حظر الإخلال الخطير للمُجتمع، مثل تهديد المؤسَّسات والخدمات العامَّة الأساسيَّة، والعلاقات الخارجيَّة أو التعايش السلمي بين الأمم، أو الخطر على المصالح العسكريَّة، وذلك كلُّه وفقًا لمبدأ التناسُب، بحيث يجبُ أنْ تكونَ مُتطلبات موقع البيانات
التي يتمُّ تبريرها على أساس الأمن العام مناسبةً لتحقيق الهدفِ منها وللضرورة ولا تتجاوزُها.
موقفُ المُشرِّع المصريِّ: أصدر رئيسُ مجلس الوزراء القرار رقم 2889 لسنة 2019 بشأن إنشاء مجلسٍ وطنيٍّ للذكاء الاصطناعيِّ يتبعُ مجلس الوزراء([95])، ويختصُّ هذا المجلسُ بوضع الاستراتيجيَّة الوطنيَّة للذكاء الاصطناعي، والإشراف على تنفيذها، ومُتابعتها، وتحديثها تماشيًا مع التطوُّرات الدوليَّة في هذا المجال، وعلى الأخصِّ يقومُ بالمهامِّ التالية المُتعلِّقة بالإشكاليَّة محل البحث:
1. يقومُ المجلسُ بوضع السياسات والتوصيات المُتعلِّقة بالأطر الفنيَّة والقانونيَّة والاقتصاديَّة المُتعلِّقة بتطبيقات الذكاء الاصطناعيِّ.
2. إعداد التوصياتِ الخاصَّةِ بالتشريعات ذات الصِّلة بمجالات الذكاء الاصطناعيِّ ومقترحات تعديلها، وبما يُحقِّقُ دعم آليات التنفيذ وتحقيق الحماية والتأمين اللازم، وكذا المُشاركة في اللجان الوطنيَّة ذات الصِّلة.
الخاتمة
تثيرُ تقنياتُ الذكاءِ الاصطناعيِّ العديد من الإشكاليات في مجال القانون وفي مجال مُكافحة الجريمة، ففي مجال القانون الجنائيِّ تُثار إشكاليَّة المسئوليَّة الجنائيَّة النَّاشئة عن استخدام التقنيات الحديثة والعقوبات المُقرَّرة لجرائمها، وفي مجال مُكافحة الجرائم منعًا وكشفًا كإحدى أدوات الاستعانة بتقنيات الذكاء الاصطناعيِّ في أداء مهامِّ حفظ الأمن ومُكافحة الجرائم والتنبُّؤ بأماكن حدوثها، وذلك بناءً على بياناتٍ لأماكن تجمُّع المُجرمين وتتبُّعهم جغرافيًّا، وذلك ما يندرج تحت استراتيجيَّة المدن الذكيَّة.
وعلى الرغم من أنَّ المسئوليَّة الجنائيَّة للشخصِ المعنويِّ قد تقرَّرت في التشريعات التي تنتمي إلى النظام الأنجلوسكسونيِّ، وفي مقدمتها القانون الإنجليزي منذ منتصف القرن 19، فإنَّ القوانينَ ذات النظام اللاتينيِّ كالقانون الفرنسيِّ لم تُقر قوانينها الجزائيَّة بهذه المسئوليَّة إلاَّ مؤخرًا، لكنَّ الدول ذات النظام الاشتراكيِّ أجمعت على عدم مُساءلة الشخص المعنويِّ. بينما لم يتضمَّن قانونُ العقوباتِ المصريُّ نصًّا يُقَرِّرُ المسئوليَّة الجنائيَّة للأشخاص المعنويَّة؛ لأنَّ النصوصَ الحاليَّةَ صيغت خصيصًا للآدميين، وما تُقرِّره من عقوباتٍ وإجراءاتٍ يصعبُ تطبيقُها دون تعديلٍ على الأشخاص الطبيعيَّة، واستقرَّ القضاءُ على أنه في غير الأحوال الاستثنائيَّة المنصوص عليها قانونًا فلا يجوزُ مُساءلة الشخص المعنويِّ جنائيًّا عن الجرائم التي يقترفُها، وإنما يسألُ عنها الأعضاء الذين يدخلون في تكوينه.
أن منح الروبوتات الشخصية القانونية سيؤدي إلى تقليل أو استبعاد مسؤولية الشركة المُصنعة للروبوتات ومبرمجيها ومستخدميها، وبالتالي ستكون الروبوتات أكثر خطرًا وأقل دقة في التصنيع؛ لأن استبعاد أو تقليل مسؤولية هؤلاء سيجعلهم لا يلتزمون بالدقة في تصنيع الروبوتات.
وقد توصَّلت الدراسةُ إلى عدة نتائجَ وتوصياتٍ كالآتي:
النتائج:
1. إنَّ دخول البشريَّة عصر الثورة الصناعيَّة الرابعة التي تقومُ على تطبيقات الذكاء الاصطناعيِّ، والتطوُّر السريع في وسائل الاتِّصالات والتكنولوجيا، لعب دورًا مهمًّا في نشأة الجرائم المعلوماتيَّة والإلكترونيَّة وجرائم تقنيات الذكاء الاصطناعيِّ وزيادة وسرعة انتشارها.
2. تعدَّدت تعريفاتُ الجريمة الإلكترونيَّة، فلم يتفقْ فقهاءُ القانون على تعريفٍ جامعٍ لها.
3. تتمتَّع الجريمةُ الإلكترونيَّةُ وجرائم التقنيات الحديثة بطبيعةٍ قانونيَّةٍ مُغايرةٍ تمامًا للجريمة التقليديَّة.
4. تعدُّ الجرائمُ الإلكترونيَّةُ وجرائم التقنيات الحديثة أقلَّ عنفًا من الجرائم التقليديَّة، حيث إنها لا تحتاجُ إلى أدنى مجهودٍ عضليٍّ؛ بل تعتمدُ على الدراسةِ الذهنيَّةِ والتفكير العلميِّ القائم على معرفةٍ بتقنيات الحاسوب، والآلة.
5. إنَّ الباعث على ارتكاب الجرائم الإلكترونيَّة هو الحصولُ على النفعِ الماديِّ السريع، إضافةً إلى الإضرار بالمصلحة العامَّة للبلاد.
6. يسهلُ ارتكابُ الجرائم الإلكترونيَّة وجرائم التقنيات الحديثة، على الرغم من أنها تعدُّ جرائمَ صعبةَ الإثبات، حيث يصعبُ في كثير من الأحيان العثورُ على أثرٍ ماديٍّ للجريمة.
7. تؤدِّي عولمةُ الجرائم الإلكترونيَّة إلى تشتيت جهود التحرِّي والتنسيق الدوليِّ لتعقُّب مثل هذه الجرائم، فتعدُّ هذه الجرائمُ صورةً صادقةً من صور العولمة؛ لأنها من الممكن أنْ تقعَ في أكثرَ من دولةٍ في وقتٍ واحدٍ، فهي جرائمُ عابرة الحدود.
8. إنَّ المسئوليَّةَ الجنائيَّةَ في جرائم استخدام تقنيَّة الذكاء الاصطناعيِّ مسألةٌ مُعقَّدة، حيث يوجد أربعةُ أطرافٍ ترتبطُ غالبًا بهم المسئوليَّة الجنائيَّة (المنتج أو المُبرمج – المالك -التقنيَّة ذاتها- الغير)، فمن الناحية الواقعيَّة مُتصوَّرٌ أنْ يكونَ خطأ يقع من المنتج أو المالك لكيان تقنيَّة الذكاء الاصطناعي.
9. أغلبُ التشريعاتِ الأجنبيَّةِ والعربيةِ ما زالت بعيدةً كلَّ البعد عن الفكر المُتطوِّر لتكنولوجيا الذكاء الاصطناعيِّ؛ والتي سرعان ما ستهيمنُ على جميع مجالات الحياة.
التوصيات:
1. نوصي المُشرِّعَ المصريَّ بوضع قواعدَ تُنَظِّمُ استخدامَ تطبيقات الذكاء الاصطناعيِّ، وتُقرِّرُ الجزاءاتِ المُناسبةَ حال إساءة استخدامها، أو -على الأقلِّ -تعديل أحكام قانون مُكافحة جرائم تقنيَّة المعلومات بما يسمحُ بوضع إطارٍ مُتكاملٍ لمُواجهة إساءة استخدام مُعطيات الثورة الصناعيَّة الرابعة، ومن بينها تقنياتُ الذكاء الاصطناعيِّ، ففي استطاعة المُجتمع أنْ يتقيَ هذه الخطورةَ عند اتِّخاذ التدابير الاحترازيَّة ضدَّ الشخص المعنويِّ نفسه.
2. نوصي بضرورة تقنين الأوضاع التنظيميَّة الخاصَّة بإنتاج تلك التقنيات الذكيَّة وضمان سلامتها للمُستخدمين بما يُحَقِّقُ الهدف منها في تحقيق أكبر قدرٍ من تلك التقنيَّة في مناحي الحياة كافَّة.
3. نوصي بالاستفادة من تقنيات الذكاء الاصطناعيِّ في مُواجهة الجريمة منعًا وكشفًا وتنفيذًا لعقوبتها للوصول لِمَا يُسَمَّى المدن الذكيَّة.
4. نوصي بضرورة النصِّ التشريعيِّ في قانون الإجراءات الجنائيَّة بالتتبُّع الجغرافيِّ بواسطة تقنيَّة GPS كإحدى آليات جمع الأدلة.
5. نوصي بتدريس مُقرَّر باسم “علم الذكاء الاصطناعي” في جميع الجامعات، ويُخصَّص له دوراتٌ تدريبيَّةٌ للسَّادة رجال القضاء، والسادة العاملين بجميع مؤسَّسات الدولة.
6. نهيب بالجهات الرسمية السعي الى تطبيق فكرة الحكومة الإلكترونية تمهيدا لتطبيق تقنية البلوك تشين و بحث إمكانية تقليص استخدام الورق و الوسائل التقليدية في الإثبات و التوثيق لما لهذه التقنيات الحديثة من دور كبير في مكافحة الفساد و دعم الشفافية الحكومية.
7. إصدار القوانين اللازمة لتحديد المعايير و الحدود اللازمة لتطوير تقنيات الذكاء الاصطناعي او استيرادها على أن يتم ذلك في ضوء أهم القيم المجتمعية و الدينية للدولة.
8. ضرورة الوصول الى المعايير المناسبة لرسم حدود المسؤولية الجنائية عن الجرائم الناتجة عن استخدام تقنيات الذكاء الاصطناعي خاصة بالنسبة للمبرمج و المستخدم مع دراسة إمكانية تقرير المسؤولية عن التقنية نفسها.
9. التوسُّع في إنشاء إداراتٍ مُتخصِّصة في مجال تأمين الشبكات المعلوماتيَّة والمواقع الحكوميَّة، وتزويدها بالكوادر المُتخصِّصةِ لمُواجهة عمليات الاختراق المعلوماتيِّ، وتأمين هذه الشبكات من مخاطر وتداعيات الاختراق ومُواكبة التطوُّرات المُتلاحقة في هذا المجال أسوةً بالدول المتقدِّمة.
المراجع([96])
اولًا: المراجع العامَّة:
1. أحمد فتحي سرور: الوسيط في قانون العقوبات، دار النهضة العربيَّة، سنة 1989.
2. أشرف توفيق شمس الدين: “شرح قانون الإجراءات الجنائيَّة -مرحلة ما قبل المُحاكمة”، جامعة بنها، 2012.عبد التواب معوض الشوربجي: دروس في قانون العقوبات – القسم العام، كليَّة الحقوق، جامعة الزقازيق، 2017.
3. عبد الحميد الشواربي: المسئوليَّة الجنائيَّة في قانوني العقوبات والإجراءات الجنائيَّة، دار المطبوعات الجامعيَّة، الإسكندريَّة.
4. عبد العظيم وزير: القانون الجنائي الدستوري، دار الشروق، 2002.
5. النظريَّة العامَّة للجريمة، دار النهضة العربية، 2009.
6. مأمون محمد سلامة: قانون العقوبات -القسم العام” دار الفكر العربي، 1979.
7. محمود محمود مصطفى: “شرح قانون العقوبات – القسم العام”، دار النهضة العربيَّة، 1983.
8. محمود نجيب حسني: شرح قانون العقوبات – القسم العام”، دار النهضة العربيَّة، 1982.
9. نجاتي سيد أحمد: “مبادئ القسم العام في قانون العقوبات -الجريمة والعقوبة”، كليَّة الحقوق، جامعة الزقازيق، 2011.
ثانيًا: المراجع المُتخصِّصة:
1. إبراهيم علي صالح: المسئوليَّة الجنائيَّة للشخص المعنويِّ، دار المعارف، بدون سنة نشر.
2. الشوا محمد: ثورة المعلومات وانعكاساتها على قانون العقوبات، دار النهضة العربيَّة، 1994م.
3. الشوابكة محمد: جرائم الحاسوب والإنترنت، دار الثقافة للنشر والتوزيع، عمان، 2004م.
4. الصغير جميل: الإنترنت والقانون الجنائي، دار النهضة العربيَّة، 2002م.
5. القانون الجنائي والتكنولوجيا الحديثة، الجزء الأول، الجرائم النَّاشئة عن استخدام الحاسب الآليّ، دار النهضة العربيَّة، ط1، 1992م.
6. العريان محمد، الجرائم المعلوماتيَّة، دار الجامعة الجديدة للنشر والتوزيع، 2004م.
7. الملط أحمد، الجرائم المعلوماتيَّة، دار الفكر الجامعي، ط2، 2006م.
8. إيمان محمد سالم الكلباني: حماية خصوصيَّة الطفل في العالم الافتراضي، رسالة ماجستير -جامعة الإمارات العربيَّة المتحدة، العام الجامعي 2018-2019.
9. بشير عرنوس: “الذكاء الاصطناعي”، دار السحاب للنشر، القاهرة، سنة 2007.
10. بيومي عبد الفتاح، مبادئ الإجراءات الجنائيَّة في جرائم الكمبيوتر والإنترنت، دار الكتب القانونيَّة، 2007م.
11. حامد راشد: النظريَّة العامَّة للجريمة، دار أبو المجد للطباعة، 2017.
12. داود حسن، جرائم نظم المعلومات، أكاديميَّة نايف العربيَّة للعلوم الأمنيَّة، الرياض، 2000م.
13. رستم هشام، الجوانب الإجراميَّة للجرائم المعلوماتيَّة، مكتبة الآلات الحديثة، 1995م.
14. رمضان مدحت، جرائم الاعتداء على الأشخاص والإنترنت، دار النهضة العربيَّة، 2009م.
15. عفیفي كامل، جرائم الكمبيوتر وحقوق المؤلف والمصنَّفات الفنيَّة ودور الشرطة والقانون، منشورات الحلبي الحقوقيَّة، بیروت، 2003م.
16. علي بشار الشريف: تطبيقات الذكاء الاصطناعيِّ على الشبكات الاصطناعيَّة، جامعة تشرين، اللاذقيَّة، 2012.
17. غادة المنجم: الذكاء الاصطناعي، كليَّة العلوم الإداريَّة، جامعة الملك سعود، 2009.
18. فايق عوضين محمد: “تكنولوجيا البصمات والتقنيَّة الحديثة في مُواجهة الجريمة – كشفًا ومنعًا وتنفيذ عقوبتها”، مطابع الشرطة، القاهرة، 2014.
19. هدى قشقوش: جرائم الحاسب الإلكترونيِّ في التشريع المقارن، دار النهضة العربيَّة، 1997م.
20. محمد زكي محمود: “آثار الجهل والغلط في المسئوليَّة الجنائيَّة”، دار النهضة العربيَّة، القاهرة.
21. محمد نبهان السويلم: “الذكاء الاصطناعي”، سلسلة العلم والحياة، القاهرة، 2000م.
22. مراد عبد الفتاح: شرح جرائم الكمبيوتر والإنترنت، دار الكتب الوثائق المصريَّة، 2005م.
23. يوسف أمير: الجرائم المعلوماتيَّة على شبكة الإنترنت، دار المطبوعات الجامعيَّة، 2009م.
24. د. ياسر محمد اللمعي، المسئولية الجنائية عن أعمال الذكاء الاصطناعي ما بين الواقع والمأمول، (دراسة تحليلية استشرافية) بحث مقدَّم للمؤتمر السنويِّ الدوليِّ لكليَّة الحقوق جامعة المنصورة؛ بعنوان (الجوانب القانونيَّة والاقتصاديَّة للذكاء الاصطناعيِّ وتكنولوجيا المعلومات) مايو 2021.
ثالثًا: الرسائل العلمية.
1. أحمد إبراهيم محمد إبراهيم: المسئوليَّة الجنائيَّة النَّاتجة عن أخطاء الذكاء الاصطناعيِّ في التشريع الإماراتي-دراسة مقارنة، رسالة دكتوراه، جامعة عين شمس، 2020.
2. حمشاشي أمينة، ماهيَّة الجريمة المعلوماتيَّة، رسالة ماجستير، كليَّة الحقوق، الجزائر، 2009م.
3. قارة آمال، الجريمة المعلوماتيَّة، رسالة ماجستير، كليَّة الحقوق، جامعة الجزائر، 2002م.
4. منى محمد العتريس: الحماية الدستوريَّة للحقوق والحريات العامَّة في ظلِّ الظروف الاستثنائيَّة “دراسة مقارنة”، رسالة دكتوراه، كليَّة الحقوق، جامعة المنصورة، 2019.
رابعًا: الأبحاث والدوريات.
1. البشرى محمد: بحث بعنوان “التحقيق في جرائم الحاسب الآلي” مقدَّم إلى مؤتمر القانون والكمبيوتر والإنترنت المنعقد في الفترة من 1-3 مايو، الإمارات، كليَّة الشريعة والقانون.
2. الحنيص عبد الجبار: الاستخدام غير المشروع لنظام الحاسوب من وجهة نظر القانون، بحث منشور في مجلة جامعة دمشق للعلوم القانونيَّة والاقتصاديَّة، مج 27، ع1، 2011م.
3. السلمي عفاف: تطبيقات الذكاء الاصطناعيِّ، بحث منشور في مجلة دراسة المعلومات، جمعيَّة المكتبات والمعلومات السعوديَّة، ع 19، 2017م.
4. المقصودي محمد: الجرائم المعلوماتيَّة، بحث منشور في المجلة العربيَّة للدراسات الأمنيَّة، مج 33، ع 7، 2017م.
5. الملا إبراهيم: الذكاء الاصطناعي والجريمة الإلكترونيَّة، بحث منشور في مجلة الأمن والقانون، أكاديميَّة شرطة دبي، مج 26، ع1، 2018م.
6. تامر محمد صالح: “التتبُّع الجغرافي للمُتهم بواسطة تقنية GPSوالحق في الخصوصيَّة” – دراسة مقارنة، بحث مقدَّم للمؤتمر السنويِّ الدوليِّ لكليَّة الحقوق جامعة المنصورة بعنوان (الجوانب القانونيَّة والاقتصاديَّة للذكاء الاصطناعيِّ) مايو 2021م.
7. خالد سامي: الجهود الدوليَّة لمُكافحة الجرائم الإلكترونيَّة، مجلة الدراسات العليا، كليَّة الدراسات العليا، جامعة النيلين، السودان، مج 14، ع1، يناير 2016م.
8. سعيد خلفان الظاهري: “الذكاء الاصطناعي – القوة التنافسيَّة الجديدة”، مركز استشراف المستقبل ودعم اتِّخاذ القرار، العدد 239، 2017.
9. عائشة بنت بطي بن بشر: مبادئ وإرشادات أخلاقيات الذكاء الاصطناعي، دبي الذكيَّة، الإمارات العربيَّة المتحدة، 9 يناير2019.
10. عوض محمد: “مشكلات السياسة الجنائيَّة المُعاصرة في جرائم نظم المعلومات الكمبيوتر” بحث مقدَّم إلى المؤتمر السَّادس للجمعيَّة المصريَّة للقانون الجنائي، أكتوبر 1993م.
11. عيسى بن حيدر: “المسئوليَّة الجنائيَّة وموانعها”
www.albayan.ae /opinions/articles/2019-12-20 -1.3629959
12. فرج محمد: المخ البشري والذكاء الاصطناعي، بحث منشور في المجلة الثقافيَّة، الجامعة الأردنيَّة، ع 16، 2016م.
13. فريدون محمد نجيب: “وصف جريمة النشل بالمؤشرات”، بحوث ودراسات شرطيَّة، مركز اتِّخاذ القرار، يوليو 2016.
14. محمد سعد الدين محمد: “الذكاء الاصطناعي والحياة في عام 2030″، مركز استشراف المستقبل ودعم اتِّخاذ القرار، المستحدثات الشرطيَّة، 2017.
15. محمد العوضي: “مسئوليَّة المُنتج عن منتجاته الصناعيَّة”، مجلة القانون المدني، ع1، المركز المغربي للدراسات والاستشارات القانونيَّة وحل المنازعات، 2014.
16. محمد يعقوب محمد سعيد: النظام العالمي لتحديد المواقع، ص7. متاح على الموقع الآتي:
https://faculty.uaeu.ac.ae/myagoub/Arabic_GIS/Arabic_GIS%20[Compatibility%20Mode].pdf
وقد تمت زيارته في 1 يناير 2020م.
17.همام القوصي: إشكاليَّة الشخص المسئول عن تشغيل الروبوت، تأثير نظريَّة النائب الإنسانيِّ على جدوى القانون في المستقبل، دراسة تحليليَّة استشرافيَّة في قواعد القانون المدنيِّ الأوربيِّ الخاص بالروبوتات، مجلة جيل الأبحاث القانونيَّة المعمقة، العدد 25، لبنان، مايو 2018.
17. يحيى إبراهيم دهشان: المسئوليَّة الجنائيَّة عن جرائم الذكاء الاصطناعيِّ، مجلة الشريعة والقانون، عدد 82، إبريل 2020، كليَّة القانون، جامعة الإمارات، الإمارات العربيَّة المُتحدة.
19.يسري العصار: الاتِّجاهات الحديثة للقضاء الدستوريِّ بشأن حماية الحقِّ في الخصوصيَّة، مجلة كليَّة القانون الكويتيَّة العالميَّة، العدد 10، السنة الثالثة، يونيو 2015.
خامسًا: -المراجع الأجنبيَّة
1. AARIAN MARSHALLAND ALEX DAVIES DAVIES.UBER,SELF-DRIVING CAR SAW THE WOMAN IT KILLED REPORT SAYS WIRED.COM.2018
2. Akerkar R, Artificial intelligence for BUSINESS springer Briefs in Business. Springer, cham.2019.
3. Dorola jelonekAgata Turekl ziora, the Arificial intelligence Application in the Manngent of contemporany organization;theoretical Assumptions, current practices and Review,springer,cham,2019.
4. David L.POOLE & Alan K.MACKWORTH, Artificial intelligence: foundations of computational agents, Cambridge University Press, 2010
5. patrick HUBBARD,sophisticated robots,:balancing liability,regulation and innovation, 66 florida law review,2014.
6. Geisel A: The current and future impact of artificial intelligence on business International Journal of Scientific and Technology Research, Vol.(07), No.(05),2018.
7. Gentsch P.,Al in Marketing, sales and service.palgrave Macmillan,cham,2019.
8. Kristijian.(2018) digital digital license plates – the future of vehicle identification
9. Kristijian.( 2019).how will technology impact the future of private number plates ? the future of things
10.MAGGI SAVIN-BADEN,DAVID BURDEN. POSTDIGITAL SCIENCE AND EDUCATION. SPRINGER INTEMATIONAL PUBLISING,2019
11. Nils JNilsson,principles of Artificial intelligence,Morgan Kaufmann Publishers Inc,2014.
12.10-Peter stone,Rodney Brooks,Erik Brynjolfsson et al.’Artilicial I ntelligenee and life in 2030 “One Hundred year study on artilicial Intelligence:Report of the 2015-3016 study panel .stanford .University Stanford.CA September 2016.doc:
13.THE ECONOMIC TIMES.(2019). NEW TECHNOLOGIES TO COMBAT VEHICLE NUMBER PLATE THEFTS
14.David.G.Hotte:Virginie Hem: La lutte contre le blanchiment des capitaux, librairie General de Droit et de Jurisprudence, EJA, Falguière, Paris,2004.
15.Françoise Barbier – Chassang, Jean – Baptiste Crabiers, Arthur Gaudron, Conclusions auxfine de relaxe, DallozIP/IT, 2018.
16.Federica de Miglio, Tessa onida, Francesco Romano, and Serena Santoro, Electronic agents and the law of agency, Paper presented at the work-shop on the low of electronic agents, Bologna, I taly, July 13, 2012.
17.Strafer .Richardg: Money laundering, American law review, 1996 ,Vol. 33
18.Wooldridge & Jennings, Intelligent Agents : Theory and practice, Knowledge engineering Review, Camb. Up,Vol. 10, N 2, June 1995.
19. Nathalie MAXIMIN, Vers des règles européennes de droit civil applicables aux robots, résolution du parlementeuropéen, 16 févr., 2017, Communiqué de presse, Dalloz actualité, 1 mars, 2017.
20. Daniéle BOURCIER, De l’intelligence artificielle à la personne virtuelle : émergence d’une entité juridique ? éd., Juridiques Associées, Droit et Société, 2013, n°49, p. 859.
21.Marie CORNU, Les enjeux juridiques de l’accès aux donnés de l’inventaire, observatoire des politiques culturelles, l’observatoire, 2014/2, n°45, 2014, p.61.Cour de Cassation de France, Chambre Sociale, 16- 27866, 12 avril, 2018.
22.The UNCITRAL secretariat on the United Nations Convention on the use of electronic communications in international contracts, article 12.
23.Ugo PAGALLO, The laws of robots : crimes, contracts, and torts, Springer, 2013, n°77, p. 98
24.Guyora Binder, Criminal Law, The Oxford introductions to U.A Law, 2016 , pp. 285–286.
25.Muller, Ibid, pp. 604–605,. Lin, Why Ethics Matters for Autonomous Cars’, in Maurer, Gerdes, Lenz and Winner (eds), Autonomes Fahren, 2015, p. 69.
26.Cerka, Grigiene and Sirbikyte, Is it possible to grant legal personality to artificial intelligence software systems?’, Computer Law & Security Review 33(5), 2017, p. 688.
27.Salmon and Stokes, Algorithms take control of Wall Street’, Wired (29 February 2016), available at:https://www.wired.com/2010/12/ff_ai_flashtrading
سادسًا-المواقع الإلكترونيَّة:
1. Dalloz
3. https.//ar.m.wikpedia.org
4. http://Ail00 stanford.ed/2016 report.Accessed.
5. www.planete-a-roulettes.net/DOC/IA_BOISARD.pdf
6. http:// ww ww ww. Businessinsider.com/Stephen- hawking-elon-musk-backed-asimolar-ai-principles-for-artificial-intelligence-.
7. https://ww ww ww.albayan.ae/across-the-uae/news-and-reports.–https://al-akhbar.com/technology.
8. Https://ar.wilkipedia.org/wiki.-
9. https://epic.org/privacy/facebook/cambridge.analytica.
10.https://sitcegypt.org/?dl_name=data-protection_with-footnote.pdf
11.http://kenanaonline.com/users/ahmedkord/posts/323471
([2])Peter stone,Rodney Brooks, Erik Brynjolfsson et al.’Artilicial I ntelligenee and life in 2030 “One Hundred year study on artilicial Intelligence:Report of the 20153016 study panel .stanford .University Stanford.CA. September 2016.doc:
http://Ail00 stanford.ed/2016 report.Accessed: January 20.2020.
([3]) د. السلمي عفاف: تطبيقات الذكاء الاصطناعي، بحث منشور في مجلة دراسة المعلومات، ع 19، 2017م، ص109؛ د. فرج محمد: المخ البشري والذكاء الاصطناعي، بحث منشور في المجلة الثقافيَّة، ع16، 2016م.
([4]) Geisel A:The current and future impact of artificial intelligence on business International Journal of Scientific and Technology Research, Vol.(07), No.(05),2018, PP: 116122
([5]) Karl Manheim * and Lyric Kaplan, Artificial Intelligence: Risks to Privacy and Democracy,2019,p.113 available at this site :
([6])David L.POOLE & Alan K.MACKWORTH, Artificial intelligence: foundations of computational agents, Cambridge University Press, 2010, pp. 9 – 10.
([7]) Wooldridge & Jennings, Intelligent Agents: Theory and practice, Knowledge engineering Review, Camb. Up, Vol. 10, N 2, June 1995, p. 166.
([8]) د. الشوابكة محمد: جرائم الحاسوب والإنترنت، دار الثقافة للنشر والتوزيع، عمان، 2004م، ص 8؛ د. بيومي عبد الفتاح: مبادئ الإجراءات الجنائيَّة في جرائم الكمبيوتر والإنترنت، دار الكتب القانونيَّة، 2007، ص 1، 2،3.
([9]) د. الملا إبراهيم: الذكاء الاصطناعي والجريمة الإلكترونيَّة، بحث منشور في مجلة الأمن والقانون، أكاديميَّة شرطة دبي، المجلد 26، العدد الأول، 2018م، ص 120.
([10]) د. الملط أحمد: الجرائم المعلوماتيَّة، دار الفكر الجامعي، ط2، 2006م، ص 83؛ د. مراد عبد الفتاح: شرح جرائم الكمبيوتر والإنترنت، دار الكتب الوثائق المصريَّة، 2005، ص342 وما بعدها.
([11]) د. يوسف أمير: الجرائم المعلوماتيَّة على شبكة الإنترنت، دار المطبوعات الجامعيَّة، 2009م، ص 10 وما بعدها؛ د. الحنيص عبد الجبار: الاستخدام غير المشروع لنظام الحاسوب من وجهة نظر القانون الجزائي، بحث منشور في مجلة جامعة دمشق للعلوم القانونيَّة والاقتصاديَّة، المجلد 27، العدد الأول، 2011م، ص191.
([12]) د. خالد سامي: الجهود الدوليَّة لمُكافحة الجرائم الإلكترونيَّة، مجلة الدراسات العليا، كليَّة الدراسات العليا، جامعة النيلين، السودان، المجلد 14، العدد الرابع، يناير 2016م، ص 6؛ د. عفیفي كامل: جرائم الكمبيوتر وحقوق المؤلف والمصنفات الفنيَّة ودور الشرطة والقانون، منشورات الحلبي الحقوقيَّة، بیروت، 2003م، ص 32.
([13]) د. رستم هشام: الجوانب الإجراميَّة للجرائم المعلوماتيَّة، مكتبة الآلات الحديثة، 1995م، ص 29 وما بعدها؛ د. الشوابكة محمد: المرجع السابق، ص 10؛ خالد سامي، المرجع السابق، ص 9.
([14])ال (AI): هي اختصار لكلمة Artificial Intelligence))، والتي إذا تُرْجِمت حرفيًّا تكون بمعنى: قدرة الآلة على التصرُّف في المواقف المُختلفة من غير تدخُّل العقل البشري.
راجع تفصيلاً:
Soudoplatoff Serge S, L’intelligence artificielle: L’expertise partout accessible à tous, La Fondation pour l’innovation politique, Paris, France,2018.p.19.
في التسعينيات وأوائل الألفيَّة الجديدة ظهر التعلم الآلي المتعمق Machin learningوهو جزءٌ ضمن مجال الذكاء الاصطناعيِّ، وهو إكسابُ الآلاتِ القدرةَ على التعلُّمعن طريق استخدام خوارزمياتٍ تقومُ بفهم البيانات المعروضة عليها، ثم تُطبقها على عمليات اتِّخاذ القرار والتنبؤات بالمستقبل .وبداية من عام 2010 إلى الآن نعيش في عصر ال Deep learning وهو المستوى الأعلى والأكثر تعقيدًا من التعلم الآلي .
راجع تفصيلاً:
Boisard Olivier: Cours d’intelligence artificielle, disponible sur le site:
([15]) د. همام القوصي، إشكاليَّة الشخص المسئول عن تشغيل الروبوت، تأثير نظريَّة النائب الإنسانيِّ على جدوى القانون في المستقبل دراسة تحليليَّة استشرافيَّة في قواعد القانون المدنيِّ الأوربي الخاص بالروبوتات، مجلة جيل الأبحاث القانونيَّة المعمقة، العدد 25، لبنان، مايو 2018، ص 81.
([16]) د. الصغير جميل: الإنترنت والقانون الجنائي، دار النهضة العربيَّة، 2002م، ص 22؛ د. المقصودي محمد: الجرائم المعلوماتيَّة، بحث منشور في المجلة العربيَّة للدراسات الأمنيَّة، المجلد 33 العدد السابع، 2017، ص 111.
([17]) د. العريان محمد: الجرائم المعلوماتيَّة، دار الجامعة الجديدة للنشر والتوزيع، الإسكندريَّة، 2004م، ص 53؛ د. الملا إبراهيم: المرجع السابق، ص 135 وما بعدها؛ د. المقصودي محمد: المرجع السابق، ص 114.
([18]) د. داود حسن: جرائم نظم المعلومات، أكاديميَّة نايف العربيَّة للعلوم الأمنيَّة، الرياض، ط1، 2000م، ص 23؛ د. عفیفي كامل: المرجع السابق، ص 35 وما بعدها؛ د. الملا إبراهيم: المرجع السابق، ص 121 وما بعدها.
([19]) د. الصغير جميل: القانون الجنائيُّ والتكنولوجيا الحديثة، الجزء الأول، الجرائم النَّاشئة عن استخدام الحاسب الآلي، دار النهضة العربيَّة، ط1، 1992م، ص 15؛ د. العريان محمد: المرجع السابق، ص 61؛ د. الملط أحمد: المرجع السابق، ص 93 وما بعدها؛ د. الملا إبراهيم: المرجع السابق، 123 وما بعدها.
([20]) Federica de Miglio, Tessa onida, Francesco Romano, and Serena Santoro, Electronic agents and the law of agency, Paper presented at the workshop on the low of electronic agents, Bologna, I taly, July 13, 2012, p. 5.
([21]) Newsom V. BRANCH BANKING AND TRUST COMPANY, United States District Court, E.D. North Carolina, Eastern Division, January 9, 2019.
([22]) “…. L’introductin du programme informatique Watson va aider les charges de clientele a traiter les abondants courriels qu’ils recoivent…”. Voir: Cour de cassation de France, Chambre sociale, 16-27866, 12 avril 2018. http://juricaf,org/ *20-4-2021).
([23]) AL-MAJID, Waleed, Electronic Agents and Legal Personality: Time to Treat Them as Human ,Beings, Proceeding of BILETA, Annual Conference, Herfordshire 16-17 April, 2007, page 1.
([24]) “An electronic person who has legal duties and subjective rights is, in fact, a set of duties and rights, and the content of legal rights and obligations are the actions of artificial intelligence”. See: YASTREBOV, Oleg A., The Legal Capacity of Electronic Parsons: Theatrical and Methodological Approaches, Proceeding of the Institute of State and Law of the RAS, Volume 13. No. 2, Moscow, 2018, page 10. مشار إليه: همام القوصي ، ص26.
([25]) همام القوصي: إشكاليَّة الشخص المسئول عن تشغيل الروبوت، تأثير نظريَّة النائب الإنسانيِّ على جدوى القانون في المستقبل، دراسة تحليليَّة استشرافيَّة في قواعد القانون المدنيِّ الأوربيِّ الخاص بالروبوتات، مجلة جيل الأبحاث القانونيَّة المعمقة، العدد 25، لبنان، مايو 2018، ص 81. متاح على هذا الموقع بتاريخ 25-1-2020 https://jilrc.com/
([26]) للمزيد انظر: د. يسري العصار: الاتِّجاهات الحديثة للقضاء الدستوريِّ بشأن حماية الحقِّ في الخصوصيَّة، مجلة كليَّة القانون الكويتيَّة العالميَّة، العدد (10) السنة الثالثة، يونيو 2015، ص 42.
([27]) البيانات الشخصيَّة عرَّفتها المادَّة الأولى من قانون مُكافحة جرائم تقنيَّة المعلومات المصري رقم (175) الصَّادر سنة 2018 بأنها “أيُّ بياناتٍ متعلقةٍ بشخصٍ طبيعيٍّ مُحدد أو يمكن تحديده، بشكلٍ مُباشرٍ أو غير مُباشرٍ عن طريق الربط بينها وبين بياناتٍ أخرى”.
([28])تطبيقًا لذلك: ما حدث من تسريب مُستخدمي موقع فيس بوك لصالح شركة كامبريدج، وهي شركة استشاريَّة عملت في حملة دونالد ترامب الانتخابيَّة عام 2016، وطالب كلٌّ من الرئيس التنفيذيِّ لشركة أبل تيم كوك والميرة التنفيذيَّة لأي بي أم جيني روميتي بمزيد من الإجراءات لحماية البيانات الشخصيَّة للمُستخدمين، وعلَّق كوك على فضيحة الفيس بوك بأنها كارثة، ويُطالب بضرورة حماية بيانات المستخدمين …
https://epic.org/privacy/facebook/cambridge.analytica/7/2/2020
([29])حيث تمت الإشارة إلى وجود طريقتين يتمُّ من خلالهما جمعُ البياناتِ الرقميَّة للمُستخدمين على شبكة الإنترنت، للمزيد راجع: سارة الشريف: خصوصيَّة البيانات الرقميَّة، ورقة عمل منشورة عن سلسلة أوراق الحق في المعرفة، صادرة عن مركز دعم لتقنية المعلومات القاهرة – مصر، ص3. منشورة على الموقع الإلكتروني التالي:
https://sitcegypt.org/?dl_name=dataprotection_withfootnote.pdf
([30]) ملفات تعريف الارتباط أو ما يُعرف برسائل الكوكيز Cookies تعدُّ أحدثَ التقنيات الحديثة التي تُستخدم لتتبُّع المعلومات الشخصيَّة للمُستخدمين، بحيث تُمكن من تجميع وتخزين معلومات المُستخدم بمجرَّد المرور والدخول على الموقع، وبصفةٍ خاصَّةٍ المواقع التي يفضِّلها أو التي قام بزيارتها. للمزيد راجع: د. يونس عرب: المخاطر التي تُهدد الخصوصيَّة وخصوصيَّة المعلومات في العصر الرقميِّ، بحث منشور على الموقع الإلكتروني التالي: تاريخ الزيارة 30/12/2019 :
([31]) نيك أوكونيل: خصوصيَّة المُستهلك في العصر الذكي، ورقة عمل مقدَّمة في مؤتمر الشرق الأوسط حول قانون ونظام الاتِّصالات 2016، والمنعقد في إمارة دبي يومي 67 ديسمبر 2016، تاريخ الزيارة 27/12/2019 :
([32]) حيث قامت إحدى الشركات بدفع 35 مليون دولار غرامة بسبب تُهمة انتهاك خصوصيَّة العملاء عن طريق السماح للشركات بالوصول إلى بيانات البحث الخاصَّة بهم. انظر مقالاً بعنوان: “الإعلانات الرقميَّة تستحوذ على ثلث الإنفاق العالميِّ في الدعاية 147 مليار دولار حصتها السوقيَّة”. منشور على الموقع الإلكترونيِّ لجريدة الأهرام الاقتصادي التالي:
([33]) Loiseau (G): “ Quelle responsabilité de Google pour le fonctionnement du système Adwords”., CCE., no 6., juin 2014.
([34])El Kaakour (N.): “ L’intelligence artificielle et la responsabilité civile délictuelle”., Université Libanaise., Faculté de droit et des sciences politiques et administratives filière francophone., 2017.,p. 46.
([35]) Cass.comm. 5 avril 2018, no (13-21001), www.courdecassation.fr
– Cass.civ., 1ère, 3 mai 2018., no (16-26531), www.courdecassation.fr.
– Cass.civ., 1ère, 6 juillet 2017., Arrêt no 909 (16-77.217), www.courdecassation.fr
([36]) قضت محكمة النقض المصرية في حكمها الصادر في 28/3/2019 بأن:” الابداع والابتكار يعدان نمطًا من أنماط التفكير، ومستوى متقدم في سُلم القدرات الذهنية للإنسان يتميز به من غيره بالخروج عن المألوف. والابتكار، سواء المطلق أم النسبي، لازمه وجود خلق ذهني جديد. أما مجرد الأفكار المجردة والمفاهيم والمبادئ والاكتشافات والبيانات؛ فتنتفى لها الحماية القانونية”. حكم محكمة النقض المصرية، الدائرة المدنية، جلسة 28/3/2019، في الطعن رقم (7133) لسنة 88 القضائية، الموقع الإلكتروني لمحكمة النقض المصرية http://www.cc.gov.eg.
([37]) مشار إليه: د. عبد الهادي فوزي العوضي، المدخل لدراسة القانون المصري والعُماني، دار النهضة العربية، القاهرة، 2014، ص: (341).
([39]) Muller, Ibid, pp. 604–605,.Lin, Why Ethics Matters for Autonomous Cars’, in Maurer, Gerdes, Lenz and Winner (eds), Autonomes Fahren, 2015, p. 69.
([40])F.patrick HUBBARD,sophisticated robots,:balancing liability,regulation and innovation, 66 florida law review,2014,p.1803.
([41])AARIAN MARSHALLAND ALEX DAVIES DAVIES. UBER,SELFDRIVING CAR SAW THE WOMAN IT KILLED REPORT SAYS, WIRED.COM ,18.3.2018 .ON LINE :
HTTPS://WWW.WIRED.COM/STORY/UBER.SELF.DRIVINGCRASHARIZONANTSBREPORT/
تمت زيارة الموقع بتاريخ 1/2/2020.
([42]) Cerka, Grigiene and Sirbikyte, Is it possible to grant legal personality to artificial intelligence software systems?’, Computer Law & Security Review 33(5), 2017, p. 688.
([43]) Salmon and Stokes, Algorithms take control of Wall Street’, Wired (29 February 2016), available at: https://www.wired.com/2010/12/ff_ai_flashtrading.
([44])د. ياسر محمد اللمعي، المسئولية الجنائية عن أعمال الذكاء الاصطناعي ما بين الواقع والمأمول،(دراسة تحليلية استشرافية) بحث مقدَّم للمؤتمر السنويِّ الدوليِّ لكليَّة الحقوق جامعة المنصورة؛ بعنوان (الجوانب القانونيَّة والاقتصاديَّة للذكاء الاصطناعيِّ وتكنولوجيا المعلومات) مايو 2021، ص 8
([45])فمثلاً في أستراليا؛ حدثت مشكلةٌ؛ هي مهاجمة القروش للبشر في الشواطئ الأستراليَّة، وبدأت الجهود المُختلفة لحلِّ المشكلة، حيث قام بعضُ المهندسين في جامعة سيدني بتصميم برنامج ذكاء اصطناعيٍّ في طائرة بدون طيار، يستطيعُ من خلال كاميرا عالية الدقةبتقنيَّةٍ شبه تقنيَّة التعرف على الوجوه، أنْ يقومَ بعمل مسح للسواحل، وتحديد نوع الحيوانات المائيَّة والتعرُّف عليها. وبذلك استطاعت هذه الطائرات “Little Ripper” أنْ تتعرَّفَ على القرش، وتُحدد مدى خطورته، وفي حالة رصد آدميين في نطاق القرش تقومُ بإطلاق صافرةٍ للتنبيه، ويُتوقع أنه ستكون هناك تصميماتٌ مستقبليَّةٌ مُجهَّزة بقاربٍ مطاطيٍّ لتنفذ عمليَّة إنقاذ الشخص المُعرَّض للخطر. وحسب ما جاء في تقرير وكالة رويترز فإنَّ دقة راصدي القروش من البشر تُقَدَّرُ بنحو 20 :30%، إلاَّ أنه بعد استخدام الذكاء الاصطناعيِّ وصلت الدقة إلى نحو 90%.
انظر في ذلك: مقال بعنوان: “برنامج أستراليا ل ”الطائرات بدون طيار” يعتمد على الذكاء الاصطناعي”، متاح على الموقع الإلكتروني التالي: https://alborsaanews.com
([46]) د. منى محمد العتريس: الحماية الدستوريَّة للحقوق والحريات العامَّة في ظلِّ الظروف الاستثنائيَّة “دراسة مقارنة”، مركز الدراسات العربيَّة للنشر، 2021، ص 209.
([47]) د. عائشة بنت بطي بن بشر: مبادئ وإرشادات أخلاقيات الذكاء الاصطناعي، “دبي الذكيَّة الإمارات العربيَّة المتحدة”، 9 يناير2019، ص 16.
([48]) Françoise Barbier – Chassang, Jean – Baptiste Crabiers, Arthur Goudron, Conclusions aux fine de relaxe, Dalloz IP/IT, 2018, P. 604.
([49]) د. تامر محمد صالح: “التتبُّع الجغرافيُّ للمتهم بواسطة التقنيَّة والحق في الخصوصيّة دراسة مقارنة”، بحث مقدَّم للمؤتمر السنويِّ الدوليِّ لكليَّة الحقوق جامعة المنصورة؛ بعنوان (الجوانب القانونيَّة والاقتصاديَّة للذكاء الاصطناعيِّ وتكنولوجيا المعلومات) مايو 2021، ص 8؛ د. محمد يعقوب محمد سعيد، النظام العالمي لتحديد المواقع، ص7. مُتاح على الموقع الآتي:
https://faculty.uaeu.ac.ae/myagoub/Arabic_GIS/Arabic_GIS%20[Compatibility%20Mode].pdf
وقد تمت زيارته في 1 يناير 2020م
([55])د. أشرف توفيق شمس الدين: “شرح قانون الإجراءات الجنائيَّة مرحلة ما قبل المحاكمة”، جامعة بنها، 2012، ص 43.
([56]) د. عيسى بن حيدر: “المسئوليَّة الجنائيَّة وموانعها”.
www.albayan.ae/opinions/articles/20191220 1.3629959.
([58]) أشير لذلك في المؤتمر الثاني للحب والجنس والروبوت بلندن من JESSICA SZCZUXA من جامعة دويسبورج إنسن تحت عنوان “الروبوتات الجنسيَّة قد تقتل مُستخدميها.” في 14/2/ 2020
([59]) د. محمد العوضي: “مسئوليَّة المُنتج عن منتجاته الصناعيَّة”، مجلة القانون المدني، عدد1، المركز المغربي للدراسات والاستشارات القانونيَّة وحل المنازعات، 2014، ص26.
([60])Thibault de Ravel d’Esclapon, Intelligence artificielle : novelle résolution du parlement européen, Dalloz, 20 Février 2019.
([61]) م 40 من قانون العقوبات المصريِّ رقم 58 لسنة 1937 “يُعَدُّ شريكًا في الجريمة أولاً كلُّ مَنْ حرَّضَ على ارتكاب الفعل المُكوِّن لجريمةٍ فوقعت بناءً على هذا التحريض. ثانيًا: كلُّ من حرَّض على ارتكاب الفعل المُكوِّن للجريمة فوقعت بناءً على هذا الاتِّفاق. ثالثًا: من أعطى للفاعل سلاحًا أو آلاتٍ أو أيَّ شيءٍ آخر ممَّا يُساهم في ارتكاب الجريمة مع علمه بها أو ساعد بأيِّ طريقةٍ أخرى في الأعمال المُجهزة أو المُسهلة أو المُتمِّمة لارتكابها.
([62]) د. عبد الحميد الشواربي: “المسئوليَّة الجنائيَّة في قانوني العقوبات والإجراءات الجنائيَّة”، دار المطبوعات الجامعيَّة، الإسكندريَّة، ص29.
([63]) Daniéle BOURCIER, De l’intelligence artificielle à la personne virtuelle : émergence d’une entité juridique ? éd., Juridiques Associées, Droit et Société, 2013, n°49, p. 859.
([64]) Marie CORNU, Les enjeux juridiques de l’accès aux donnés de l’inventaire, observatoire des politiques culturelles, l’observatoire, 2014/2, n°45, 2014, p.61. Cour de Cassation de France, Chambre Sociale, 16 27866, 12 avril, 2018.
([65]) The UNCITRAL secretariat on the United Nations Convention on the use of electronic communications in international contracts, article 12.
([67])ومن أشهر الجرائم الجنائيَّة التي ارتُكبت نتيجةً لذلك عن طريق السيارات ذاتيَّة القيادة كانت في مارس 2018، حيث قامت سيارةٌ ذاتيَّة القيادة تابعةٌ لشركة UBER بالاصطدام بسيدة “هرزبرج”، ممَّا أدَّى إلى وفاتها متأثرةً بجراحها، وهي أولُ حالة وفاة مُسجلة للمُشاة من سيارة ذاتيَّة القيادة والتي كانت تسيرُ وتعملُ في وضعٍ مستقلٍّ ولم يتدخَّلْ السائقُ الاحتياطيُّ للسلامة البشريَّة للسيدة، ونحن نرى في هذه الحالة أن يتحمَّل المبرمج والمؤسَّسة التي يعمل من خلالها نظامُ الذكاء الاصطناعيِّ المسئوليَّة الجنائيَّة عن السلوك الإجراميِّ الذي تمَّ ارتكابه بسبب الخلل في برمجة نظام الذكاء الاصطناعي.
([68]))Https://ar.wilkipedia.org wiki/6/2/2020.
([69]) انظر: رأي كلٍّ من جون كينجستون الباحث بجامعة برايتون بالمملكة المتحدة وجابريل هاليفي الباحث بجامعة أونو بالولايات المتحدة الأمريكيَّة، حول المسئوليَّة القانونيَّة لبرامج وتطبيقات الذكاء الاصطناعيِّ، منشورة على موقع MIT Technology Review على الرابط: https://technologyreview.ae
([70]) د. عبد التواب معوض الشوربجي، دروس في قانون العقوبات القسم العام، كليَّة الحقوق، جامعة الزقازيق، 2017، ص176؛ د. يحيى دهشان، المرجع السابق، ص29.
([74]) د. نجاتي سيد أحمد: “مبادئ القسم العام في قانون العقوبات الجريمة والعقوبة”، كليَّة الحقوق، جامعة الزقازيق، 2011، ص479.
([75]) د. طلبة وهبة خطاب، ” النظرية العامة للالتزام – مصادر الالتزام غير الإرادية”، دار النهضة العربية، القاهرة، 2003، ص: (186)؛ د. حسام الدين كامل الأهواني، ” مصادر الالتزام غير الإرادية”، دار النهضة العربية، القاهرة، 2008، ص: (264)؛ د. السيد عيد نايل، “مصادر الالتزام غير الإرادية”، مكتبة كلية الحقوق – جامعة عين شمس، 2011، ص: (199).
– حكم محكمة النقض المصرية ، الصادر في الطعن رقم (3926) لسنة 79 القضائية، جلسة يوم 1/6/2020.
– حكم محكمة النقض المصرية ، الصادر في الطعن رقم (9195) لسنة 87 القضائية، جلسة يوم 23/3/2019.
– حكم محكمة النقض المصرية، الصادر في الطعن رقم (2005) لسنة 81 القضائية، جلسة يوم 9/5/2018.
جميع هذه الأحكام القضائية منشورة على الموقع الإلكتروني لمحكمة النقض المصرية، عبر الرابط الإلكتروني الآتي:
([77]) د. عبد الحميد الشواربي: “المسئوليَّة الجنائيَّة في قانوني العقوبات والإجراءات الجنائيَّة”، المرجع السابق،ص 40.
([78])انتشر على مواقع وسائل الإعلام منها ديلي ميل البريطانيَّة فيديو يُظهر “سيارة ذكيَّة تقتل روبوتًا آليًّا” عن حادث مصادمةٍ بين سيارة ماركة تسلا ذاتيَّة القيادة مع روبوت في مدينة لاس فيغاس الأمريكيَّة بتاريخ 8/1/2019.
https:www alkurra.com 14/2/2020
([79] (CHONÉ (A.S.), et GLASER (P.H.): Résponsabilité Civile du Fait du Robot doné d’ intelligence Artificielle: Faut-il créer une personnalité robotique?, CCC, nO 1, Janvier 2018.
([80]) يُطلق عليها السحابة الإلكترونيَّة أو السحابة المحوسبة، وهي أداةٌ فاعلةٌ لتبادل المصادر المعلوماتيَّة الإلكترونيَّة بكلِّ سهولةٍ ويسر، وتأتي هذه السحابةُ بالأدوات لإخضاع البيانات للمُعالجة والحفظ والتخزين والاسترجاع إليها حين طلبها.
https.//hyatoky.com. 14/2/2020.
([81])http://news>fintech.io/post/102fi85/how.governmentsarebeginningtoregulateal
في خطوةٍ تاريخيَّةٍ اجتمعت 42 دولة لدعم تأسيس إطارٍ عالميٍّ فيما يتعلَّقُ بتقنيات الذكاء الاصطناعيِّ التي نشأت مؤخرًا، وقد جاء ذلك التصريحُ على لسان ميشيل كارتسوس ممثل أمريكا لدى منظَّمة التعاون والتنمية الاقتصاديَّة، وذلك بتاريخ 15/3/2019، وعُقد ذلك الاجتماع في فرنسا.
([85]) د. عبد الحميد الشواربي: “المسئوليَّة الجنائيَّة في قانوني العقوبات والإجراءات الجنائيَّة”، مرجع سبق ذكره، ص68.
([86]) د. محمد زكي محمود: “آثار الجهل والغلط في المسئوليَّة الجنائيَّة”، القاهرة، دار النهضة العربيَّة، ص662.
([87]) الأشخاص المعنويَّة نوعان؛ الأول: أشخاصٌ معنويَّة عامَّة (عامَّة إقليميَّة مثل الدولة – المحافظة …عامَّة مرفقيَّة مثل الهيئات والمؤسسات…)، الثاني: أشخاصٌ معنويَّة خاصَّة (سواء بهدف تحقيق الربح كالشركات التجاريَّة أم لا تُحقق ربحًا كالجمعيات والأحزاب السِّياسيَّة).
([89]) د. إبراهيم علي صالح: “المسئوليَّة الجنائيَّة للشخص المعنويِّ”، دار المعارف، بدون سنة نشر، ص 182.
([91]) د. يحيى إبراهيم دهشان: المسئوليَّة الجنائيَّة عن جرائم الذكاء الاصطناعيِّ، مجلة الشريعة والقانون، عدد82، إبريل 2020، كليَّة القانون، جامعة الإمارات، الإمارات العربيَّة المتحدة، ص41.
)([92]) د. أحمد إبراهيم محمد إبراهيم: المسئوليَّة الجنائيَّة النَّاتجة عن أخطاء الذكاء الاصطناعيِّ في التشريع الإماراتي دراسة مقارنة، رسالة دكتوراه، جامعة عين شمس، 2020، ص85.
([93]) فهناك تخوُّفٌ من إنتاج تقنيات الذكاء الاصطناعيِّ لمُنتجاتٍ تُخالف القيم والتقاليد وتتعارض مع الدين، مثل فكرة استغلال تقنيات الذكاء الاصطناعيِّ وإدخالها على جسد الإنسان الميت، فيستطيعون التحكُّم في الجسد واستبدال الأعضاء والقيام بوظائفها كاملة.
MAGGI SAVINBADEN,DAVID BURDEN. POSTDIGITAL SCIENCE AND EDUCATION. SPRINGER INTEMATIONAL PUBLISING,2019 .P.88.
([94]) Nathalie MAXIMIN, Vers des règles européennes de droit civil applicables aux robots, résolution du parlement européen, 16 févr, 2017, Communiqué de presse, Dalloz actualité, 1 mars, 2017.


