fbpx
وعي ميتر

الحقوق القانونية للروبوتات

كتبت: نسرين طارق

قد يبدو العنوان ضرب من ضروب الخيال ولكن مع تطور الآلات الذكية، وبات الروبوت قادر على التصرف، كما نرى السيارات الذكية من دون سائق، اصبح يتحتم علينا تحديد المسؤوليات في حال أساءت هذه الآلات التصرف.

الروبوت الذي نتحدَّث عنه ليس بالضرورة ان يكون “رجلاً آلياً” يمشي على رجلين ويتحدث إليك بصوت معدني فمظاهر الذكاء الصناعي باتت من حولنا دون أن تكون مرئية بالضرورة، إنها في الذراع الإلكتروني الذي يركِّب سيارتك في المصنع، وفي التطبيق الذكي الذي يتابع ترتيبات سفرك بالموبايل. وكذلك التطبيقات الطبية والعسكرية والتعليمية المبنية على تقنيات الحوسبة السحابية، فسنجد أننا مغمورون بالذكاء الآلي في كثير من تفاصيل حياتنا.

من هنا ظهرت أفكار للبحث القانوني في ما لهذه الروبوتات من حقوق وما عليها من مسؤوليات، لمواجهة ما قد تتسبب به من قضايا خلافية حول أدائها ومسؤولياتها.

في عام 2010 ذكر فصل في دراسة مستقبلية للحكومة البريطانية أن الروبوتات الذكية قد تطالب في يوم من الأيام بحقوقها القانونية، تماما مثل البشر.

وفي حال وصل الأمر إلى هذا الحال  فإن حكومات العالم سيتوجب عليها أن تؤمن للروبوتات حقوق اجتماعية، مثل السكن والرعاية الصحية الخاصة بها (أي إصلاح أعطالها).

الدراسة تناولت “حقوق الروبوتات القانونية” والتطورات في الذكاء الاصطناعي، وكيف يمكن لذلك أن يؤثر على القانون والسياسة والأحوال المدنية.

وتقول الدراسة، التي أوردها موقع «بي بي سي أونلاين»، إن تغيراً هائلاً سيحصل إذا تطورت أجهزة الإنسان الآلي، إلى درجة تمكنها من التكاثر وتطوير ذواتها أو تطوير ذاتها بنفسها دون الحاجة الى الانسان فيما بعد.

ويلمح التقرير إلى أنه في فترة ما بين عشرين وخمسين عاماً من الآن قد تُمنح الروبوتات حقوقاً كالبشر، وفي حال تم ذلك، كما تقول الدراسة سيكون للروبوتات حقوق وواجبات مثل الإدلاء بأصواتها في الانتخابات، ودفع الضرائب وربما أداء الخدمة العسكرية.

كما علق ديفيد كينغ كبير مستشاري الحكومة البريطانية للشؤون العلمية بالقول: إن الهدف من الدراسة ليس التنبؤ بالمستقبل، بدافع الحاجة لاستكشاف أوسع نطاق من الخيارات المختلفة، للمساعدة في ضمان أن تكون الحكومة مستعدة على المدى البعيد، وأن تفكر في قضايا مختلفة في تخطيطها لما هو مقبل.

في أواخر يونيو 2016م، أشارت عدد من المواقع الإخبارية الكبرى إلى مسودة قانونية صادرة عن لجنة الشؤون القانونية بالاتحاد الأوروبي، تتضمن اقتراحاً بأن تكون للروبوتات حقوق مثل حقوق العمّال.. وتؤكد هذه المسودة مراراً على أن الروبوتات هي “أشخاص إلكترونية” يجب أن تكون لديها الأهلية القانونية، واستحقاق التعويضات حين يلحق بها أي نوع من الضرر.

وعلى الجانب الآخر وفي 2014م، أعلن مكتب البحوث البحرية التابع لإدارة البحرية الأمريكية عن منحة بقدر 7.5 مليون دولار ستصرف على مدى خمسة أعوام للباحثين من مختلف الجامعات الأمريكية من أجل بحث بناء الحس الأخلاقي والتفكير في مآلات الآلات والروبوتات الذكية.

هكذا نجد أن الحديث عن “الأخلاقية الروبوتية” لم يعد من نسج أفلام الخيال والروايات بل تحوَّل إلى مشروع حقيقي تحت مظلة المشرّع الحكومي.

ما هي تبعات وجود الروبوتات قانونياً وأخلاقياً؟

مثل هذه الأسئلة الكبرى تواجهها اليوم الشركات والجهات الكبرى التي تصنّع هذه التقنيات الروبوتية، إذ يستثمر الجيش الأمريكي المليارات من الدولارات في الآلات المتقدمة والروبوتات الحربية التي قد تغيِّر مسار الحرب تماماً في المستقبل.

وعلى الرغم من أن قوانين الجيش الأمريكي الآن تمنع استخدام الروبوتات المستقلة القاتلة، أو الروبوتات شبه المستقلة القادرة على القتال إلا بتحكم بشري مسبق، إلا أن تسارع البحوث في علوم الروبوتات يجعل من رفع هذا المنع مسألة وقت فحسب، ليصبح الروبوت المستقل قادراً على اتخاذ القرارات بنفسه. أما في عالم الأعمال، فليس خفياً الجهد المضني الذي تبذله كبريات الشركات التقنية مثل «تِسلا» و«غوغل» و«أوبر» لبناء سيارات ذاتية القيادة، تلك التي تسيّر نفسها بنفسها دون الحاجة إلى سائق بشري.

وبناء مثل هذه السيارات لا بد وأن يتضمن التحسب لمواقف تكون فيها السيارة المستقلة أمام خيارات صعبة مثل الاختيار بين التسبب في وفاة عدد من المشاة أو الانحراف عن الطريق لإلحاق الضرر بالسيارة وبراكبها، بالإضافة إلى تقديرات بأن تكون السيارات الآلية المستقلة ذاتية القيادة في الأسواق خلال السنوات العشر المقبلة، فيما تقدّر بعض شركات بناء الروبوتات في ألمانيا أن تكون الروبوتات الآلية المستقلة القادرة على العمل في الأسواق بحلول 2050م.

ضبط السلوك الأخلاقي للروبوت

تناولت الأبحاث المختلفة الحديث عن أخلاقيات الآلة وأخلاقيات الروبوتات جعل من هذا المجال موضوعاً للبحث العلمي والفلسفي.

فهناك مستوى يبحث في أخلاقيات بناء وتصميم الآلات الذكية. أما المجال الأهم والأكثر إثارة فيبحث في كيفية صناعة روبوتات تتمتع بقدر من الأخلاق أو القيم الأخلاقية، وبالتالي قادرة على التصرف على أساس أخلاقي، ما يمثل  تحدياً كبيرا في عالم أبحاث الروبوتات والذكاء الصناعي وعلى مستويين: مستوى المبدأ ومستوى التطبيق. فكيف يمكن للآلة على مستوى التطبيق أن تتعلم الأخلاق كمبادئ؟

قد يكون الجواب السهل أن عليها أن تتعلم من البيئة والتفاعل مع المحيط، لكن هذا قد يقود إلى نتائج كارثية. فعلى سبيل المثال:

أجريت دراسة في معهد البحوث المتقدمة في سويسرا عام 2009م حيث بُرمجت مجموعة من الروبوتات على التعاون في مهمة البحث عن مصادر غذائية معينة، لكن ما حصل مع مرور الوقت هو أن الروبوتات بدأت تتعلَّم الكذب والتدليس حتى تزيد من انتفاعها بالمصادر بمفردها.

وفي مارس 2016م، أطلقت «مايكروسوفت» حساب «Tay» في تويتر، وهو عبارة عن برنامج ذكاء صناعي يقوم بالكتابة والرد على المغرِّدين. وفي خلال ساعات قليلة من تفاعل تاي مع المستخدمين والتعلم منهم، ثم أصبح عنصرياً وقحاً، وسارعت «مايكروسوفت» إلى حذف التغريدات، وإيقاف نشاط الحساب الذي لم يعش إلا يوماً واحداً فقط !!

وعلى الرغم من أن برمجة الأخلاق تعتمد بشكل أساسي على تحليل عواقب الأفعال وتقييمها، إلا أن السؤال الملح يبقى، من يحدد المعايير الأخلاقية التي تتمتع بها الآلة؟

ارتطمت سيارة تسلا – التي كانت تقود نفسها ذاتياً – بشاح، مما نتج عن هذا الحادث الشنيع وفاة قائد الشاحنة، حيث أسفرت تحقيقات الحادث عن عدم تمييز حساسات السيارة لهيكل الشاحنة المقبلة.

السؤال هنا.. مَنْ يتحمَّل نتيجة الحادث؟

هل يتحمله المبرمج الذي صمم طريقة عمل الحساسات، أم السائق نفسه الذي لا حول له ولا قوة؟ أما الجانب الآخر من القرار فهو الجانب النفعي الذي يحدِّد البوصلة الأخلاقية للقرار، فحين تسير السيارة بسرعة كبيرة وتكون أمام خيارين: إما أن تقتل المشاة في وسط الشارع أو ترتطم بأي حاجز يحطمها ويقتل راكبيها، فعلى أي أساس يتم تفضيل القرار الأول عن القرار الثاني؟ هل يكون الأمر على أساس تقليل الخسائر أم حماية الآلة لنفسها من الهلاك؟

للإجابة عن هذا السؤال، حدَّد روائي الخيال العلمي إسحق عظيموف في الخمسينيات ثلاث قواعد أخلاقية للروبوتات، الغريب أننا بعد نحو سبعة عقود ما زلنا نعتمد نفس القواعد التي تنص على التالي:
• القاعدة الأولى: ألا يتسبب الروبوت بالضرر لأي إنسان وألا يسمح بحصول الضرر لأي إنسان.
• القاعدة الثانية: أن يتبع الروبوت أوامر الإنسان إلا إن تعارضت مع القاعدة الأولى.
• القاعدة الثالثة: أن يحمي الروبوت نفسه طالما أن هذا لا يتعارض مع القاعدتين الأولى والثانية.

لكن قواعد عظيموف تعرَّضت للنقد مؤخراً، ليس لأنها غير واقعية أو مستعصية على التنفيذ، بل لأنها مبهمة، فكيف نعلِّم الروبوتات معنى «الضرر» وحدوده وبالتالي تقديره بشكل صحيح.. وماذا عن الاستثناءات غير المحدودة التي نراها كبشر من البديهيات كما يفعل الأطباء مع المرضى على سبيل المثال.

السؤال الأهم الذي ينتظر مستقبل فلاسفة الحاسب والذكاء الصناعي يدور حول أهمية المشاعر الإنسانية في توجيه بوصلتنا الأخلاقية. التعاطف والألم والحب والسعادة ليست عمليات حسابية تجري داخل أدمغتنا، بل تجارب واعية تتحكم بتوجهاتنا الأخلاقية.

فهل سيهتدي العلماء والباحثون إلى تحويل كل هذه الأحاسيس إلى عمليات حسابية بلغة الصفر والواحد، حتى يكون لأخلاق الروبوتات بُعد عاطفي؟

لا يمكن لأحد أن ينكر ما توصل إليه المجتمع من تطور تكنولوجي ورقمي، فأصبحنا أمام روبوتات فائقة الذكاء تحاكي الذكاء البشري، وقد تتجاوزه في بعض الأحيان وتستقل بقرارات منفردة، ووجود ما يسمى بالأشخاص الافتراضية السابحة في العالم الافتراضي التي تمثل الإنسان في هذا العالم الخيالي . فالمنظومة القانونية لم تنظم هذه الحالات بل ما يعرفه القانون الخاص إلا التقسيم الثنائي المعتمد مند العهد الروماني ( أشخاص وأشياء ) وكل ما خرج عن هذا التقسيم فهو حالات خاصة.. فمازال القانون في معظم البلدان لم يحدد نظام لها في المنظومة القانونية، ويبقى النقاش قائم ومتواصل من جهة والتطور مستمر و متواصل من جهة أخرى.

كل ما سبق يستدعي إعادة النظر في كل منظومات المجتمع وذلك من كل النواحي الاقتصادية والأمنية والاجتماعية وكذلك القانونية أو التشريعية.

اصبح  لزاما على المشرع ضرورة تعديل التشريعات الحالية لتتماشى مع هذا العالم الرقمي، فبعدما كان يعالج النشاطات الإنسانية أصبح اليوم يصطدم بنشاطات تقوم بها البرمجيات والروبوتات الرقمية .

هل يمكننا القول ان الروبوتات مجرد امتداد للإنسان أم لنا أن نقول أنها شخص قانوني جديد له الاستقلالية القانونية عن الإنسان بما أنه يتصرف بشكل مستقل وله ذكاء يفوق ذكاء الشخص الطبيعي بالتالي يتمتع بالشخصية القانونية ؟

يحدد القانون الأشخاص ما بين شخص طبيعي وشخص اعتباري، لكن مع التطور ظهر ما يسمى بالشخص الافتراضي أو الروبوتات الذكية، فالقواعد القانونية الموجودة لا تستطيع فرض سيطرتها على هذه الكائنات الجديدة والتي أصبح لها الدور الفعال في المجتمعات الحالية.

فما هو وضع الشخص الافتراضي في التشريع؟

ولذلك أصبح من الضروري تحديد نظام قانوني للروبوتات خاصة إذا ما أصبحت مصدرا لأضرار تمس الإنسان.

ومازال العالم وخاصة خبراء القانون عالميا حتى الان في حاجة الى حل هذه الإشكالية الجديدة التي ظهرت مع مشاركة الروبوتات الحياة معنا.

 

مقالات ذات صلة

زر الذهاب إلى الأعلى