الروبوتات القاتلة؟!

«هيومان رايتس ووتش» تدعو إلى صياغة اتفاقية دولية لحظر تطوير وإنتاج واستخدام الأسلحة الآلية بشكل كامل

من الضروري وجود سيطرة إنسانية على العتاد الحربي الروبوتي من أجل تقليص أعداد القتلى والمصابين من المدنيين
TT

مع التوجهات العالمية المتزايدة والمتسارعة، وبخاصة في الدول المتقدمة، نحو تصنيع وتطوير روبوتات في كافة مجالات الحياة، هناك حاليا مخاوف وتساؤلات مشروعة حول القضايا والآثار والأبعاد الأخلاقية والاجتماعية والقانونية المحتملة التي يثيرها استخدام الروبوتات، وبخاصة في المجالات العسكرية، مثل الطائرات من دون طيار والأسلحة الروبوتية الأخرى. ومن ضمن تلك المخاوف هل يمكن تصميم روبوتات مسؤولة تستطيع التمييز بين الصواب والخطأ في مجال الحروب؟ وهل باستطاعة الروبوتات العسكرية أن تقوم برد فعل في الوقت المناسب مثل القيام بأعمال تخريب أو نصب كمين مفاجئ؟ وما المنطق الذي من خلاله يمكن تقديم بندقية روبوتية (آلية) إلى المحاكمة؟ وهل يمكن اعتبار الروبوت في هذه الحالة شخصا؟، وإذا أصاب الروبوت عطل وتسبب في حدوث أضرار لشخص ما، فمن المسؤول: هل صاحب الروبوت أم الشركة المصنعة له أم الروبوت نفسه؟، وإلى أي درجة من الأمان يجب أن تكون عليه الروبوتات قبل أن يتم نشرها في المجتمع ككل؟! ومؤخرا، في 19 نوفمبر (تشرين الثاني) الماضي، صدر عن منظمة «هيومان رايتس ووتش»، تقرير بعنوان: «فقدان الإنسانية: لماذا يجب حظر الروبوتات القاتلة؟»، في 50 صفحة، ودعت الحكومات إلى أن تفرض حظرا استباقيا على الأسلحة المستقبلية التي توصف أحيانا بـ«الروبوتات القاتلة»، التي سوف تكون قادرة على اختيار أهدافها وإطلاق النار عليها، من دون تدخل بشري.

ويعد هذا التقرير أول تقرير كبير من قبل منظمة غير حكومية، يتناول الأسلحة الآلية بشكل كامل، ويستند إلى بحوث معمقة ومستفيضة في القانون والتكنولوجيا والأخلاقيات الحاكمة لهذه الأسلحة المقترحة. وقد اشترك في نشره مع منظمة «هيومان رايتس ووتش»، قسم حقوق الإنسان بكلية القانون بجامعة هارفارد الأميركية.

وقد عرض التقرير إلى بواعث القلق إزاء هذه الأسلحة الآلية بشكل كامل، التي تعوزها الخصال البشرية اللازمة لتقدير قانونية وعدم قانونية قتل المدنيين، كما أن المعوقات التي تحول دون محاسبة أحد على الضرر الناجم عن هذه الأسلحة سوف تضعف من سلطة القانون إزاء انتهاكات المستقبل والقدرة على ردعها.

وقال ستيف غوس، مدير برنامج الأسلحة وحقوق الإنسان في «هيومان رايتس ووتش»: «إعطاء الآلات القدرة على تقرير من يعيش ومن يموت في ساحة المعركة مبالغة جسيمة في استخدام التكنولوجيا، ومن الضروري وجود سيطرة إنسانية على العتاد الحربي الروبوتي من أجل تقليص أعداد القتلى والمصابين من المدنيين». وأضاف: «من الضروري الكف عن تطوير الروبوتات القاتلة قبل أن تظهر في ترسانات أسلحة الدول». وتابع: «مع زيادة استثمارات الدول في هذه التقنية، يصبح من الأصعب إقناعها بالتخلي عنها».

ودعت منظمة «هيومان رايتس ووتش» وقسم حقوق الإنسان بجامعة هارفارد، إلى صياغة اتفاقية دولية تحظر بشكل قاطع، أي تطوير أو إنتاج أو استخدام للأسلحة الآلية بشكل كامل. كما دعت الدول إلى إصدار قوانين وتبني سياسات كتدابير لازمة لمنع تطوير وإنتاج واستخدام هذه الأسلحة على مستوى الدول.

وأشار التقرير إلى أنه لا توجد حتى الآن أي أسلحة آلية بشكل كامل، ولم تتخذ القوى الكبرى قرارات باستخدامها بعد، لكن الجيوش التي تستعين بقدر كبير من التقنية تعكف على تطوير أو طورت بالفعل نماذج أولية يظهر منها الدفع باتجاه قدر أكبر من الأسلحة والعتاد ذات قدرة الحركة الآلية بشكل كامل في ساحة المعركة، فقد بدأت عدة بلدان بالفعل تشارك في جهود التطوير التكنولوجي في هذا المضمار. ويتنبأ عدد من الخبراء بأنه من الممكن التوصل للأسلحة الآلية بشكل كامل خلال 20 إلى 30 عاما، ويرى البعض أنها قد تتوفر قبل ذلك.

وقالت منظمة «هيومان رايتس ووتش» وقسم حقوق الإنسان بجامعة هارفارد، إن الأسلحة الآلية بشكل كامل لا يمكنها أن تفي بمتطلبات القانون الدولي الإنساني، فلا يمكن لهذه الأسلحة أن تميز على النحو الكافي بين الجنود والمدنيين في ساحة المعركة، أو أن تستعين بإمكانيات التفكير واتخاذ القرار البشرية اللازمة لتقدير مدى تناسب الهجمات من حيث إن كانت الخسائر المدنية تفوق الميزة العسكرية المتحققة أم لا. كما أن الروبوتات تقوض من معايير عدم قانونية قتل المدنيين، فالأسلحة الآلية بشكل كامل لا يمكنها إظهار التعاطف البشري مع ضحاياها، ويمكن لأصحاب القرار في الدول المختلفة إساءة استخدام هذه الأسلحة بتوجيهها للتصدي لشعوبهم. وبينما يمكن أن يؤدي استبدال القوات البشرية بروبوتات مقاتلة إلى إنقاذ أرواح العسكريين، إلا أنها سوف تؤدي أيضا إلى زيادة سهولة نشوب الحروب، مع إحالة عبء النزاعات المسلحة من العسكريين إلى المدنيين.

ويخلص التقرير إلى أن استخدام الأسلحة الآلية بشكل كامل سوف يؤدي إلى ظهور ثغرة ضخمة فيما يخص المسؤولية والمحاسبة، فمحاولة تحميل القائد أو المبرمج أو الصانع المسؤولية القانونية على تصرفات الروبوت مسألة تواجهها تحديات كثيرة، فسوف يؤدي نقص المحاسبة إلى تقويض القدرة على ردع الانتهاكات للقانون الدولي، وتعويض الضحايا من خلال عدالة ناجزة تعيد إليهم حقوقهم المهدرة.

ويشير التقرير إلى أنه بينما أغلب الجيوش تقول إن البشر سوف يحافظون في المستقبل القريب على بعض السيطرة على الروبوتات المجهزة بالأسلحة، فإن فعالية هذا الإشراف تعتبر محل تساؤلات وشكوك، كما أن تصريحات العسكريين تركت الباب مفتوحا لاستخدام الأسلحة الآلية بشكل كامل في المستقبل.

وقال ستيف غوس: «مطلوب التدخل الآن، قبل أن تتجاوز الروبوتات القاتلة الخط الفاصل بين الخيال العلمي والتحقق على أرض الواقع».

يذكر أنه قد صدر حديثا، كتاب «أخلاقيات الروبوت: الآثار الاجتماعية والأخلاقية»، عن معهد ماساتشوستس للتكنولوجيا الأميركي الشهير (MIT)، من تحرير ثلاثة أساتذة بجامعة ولاية كاليفورنيا الأميركية للفنون التطبيقية، هم كل من باتريك لين، مدير مجموعة العلوم الناشئة والأخلاقيات، وكيث أبني، أستاذ فلسفة العلم، وجورج بيكي، أستاذ متقاعد بقسم علوم الكومبيوتر والهندسة. يقول المحررون إنه مع تقدم تكنولوجيا الروبوتات، تصبح المخاوف الأخلاقية أكثر إلحاحا، ويتساءلون: هل يجب أن تتم برمجة الروبوت لكي يسير على نظام كود معين في قواعد السلوك؟، وهل هذا ممكن؟، وهل هناك مخاطر من إقامة روابط وعلاقات بين البشر والروبوتات؟، وكيف يمكن للمجتمع والأخلاقيات أن تسهم في تغيير أسلوب التعامل مع الروبوتات؟. ويعد هذا الكتاب الأول من نوعه، الذي يجمع عددا كبيرا من المقالات الاستقصائية للقضايا المتعلقة بأخلاقيات الروبوتات، وقام بتأليفها مجموعة من العلماء والخبراء البارزين في مجالات علوم الروبوتات والعلوم الإنسانية، حيث يستكشف مجموعة من التساؤلات في مجال أخلاقيات الروبوت، الذي يعد من مجالات البحوث المهمة والناشئة حديثا، ويتناول القضايا والنظريات الأخلاقية ذات الصلة بمجال الروبوتات، وإمكانية برمجة الروبوتات لمعرفة الصواب والخطأ، بالإضافة إلى تساؤلات أخرى قانونية وسياسية، بما في ذلك حدود مسؤولية الروبوتات واعتبارات الخصوصية. والكتاب بالتالي يسد ثغرة في المؤلفات العلمية ومناقشة السياسيات المتعلقة بالروبوتات من خلال تقديم مجموعة متميزة من تحليلات الخبراء حول المواضيع ذات الأهمية المتزايدة في مجال أخلاقيات الروبوت. ويشير المحررون إلى أن الروبوتات حاليا تقوم على سبيل المثال بالأعمال العسكرية وبرعاية الأطفال والمسنين، لهذا أصبح من الضروري معرفة كيفية التعامل معها، وما هو أخلاقي حول تصنيعها واستخدامها والتعامل معها، وهو ما يطلق عليه «أخلاقيات الروبوت» (Roboethics). ويختتم المحررون الكتاب بالقول إنه «لكون الروبوتات قد تطورت ودخلت بالفعل إلى المنازل وأماكن العمل والمدارس والمستشفيات وساحات القتال، والمجتمع ككل، فإنه بات من الضروري، وأكثر من أي وقت مضى، أن نقوم بدراسة جادة لأخلاقيات الروبوت، لنصبح أكثر علما ومعرفة بالقضايا الأخلاقية والاجتماعية المتعلقة بها، وأكثر استعدادا لعالم أكثر تعاملا مع الآلات والروبوتات، ومواجهة التحديات المحتملة التي قد تسببها الروبوتات للأخلاقيات والمجتمع».

جدير بالذكر أن «هيومان رايتس ووتش»، هي منظمة أميركية غير حكومية، مقرها مدينة نيويورك، وهي إحدى المنظمات العالمية المستقلة الأساسية المعنية بإجراء البحوث والدفاع عن حقوق الإنسان وحمايتها، وبإلقاء الضوء على حالات انتهاك حقوق الإنسان وجذب انتباه المجتمع الدولي إليها، حيث تعطي المعرضين للقمع الفرصة للكشف عن الانتهاكات وتحميل القائمين بالقمع مسؤولية جرائمهم. وتحقيقات «هيومان رايتس ووتش» الدقيقة والموضوعية وجهود الدفاع عن حقوق الإنسان الاستراتيجية التي تستهدف أوضاعا وقضايا بعينها، تفرض ضغوطا متزايدة من أجل التحرك لمنع انتهاكات حقوق الإنسان وجعلها باهظة التكلفة. وعلى امتداد ثلاثين عاما، دأبت منظمة «هيومان رايتس ووتش» على العمل من أجل وضع الخطوط العريضة القانونية والأخلاقية في سبيل إحداث تغيير يضرب بجذوره عميقا، وناضلت من أجل توفير المزيد من العدالة والأمن لجميع الأفراد حول العالم.