استراتيجيات لحماية البشرية من المخاطر المحتملة للروبوتات

عندما تتعلم الروبوتات الصواب من الخطأ

تشديد على أهمية برمجة الروبوتات العسكرية كي تكون قادرة على العيش من خلال شفرة حربية صارمة (أ.ب)
TT

مع ارتفاع قيمة صناعة الروبوتات عالميا وتوقع دخولها في الكثير من مجالات الحياة وبخاصة في الأعمال العسكرية والمنزلية، وفي ظل التسارع المتزايد بين مصممي الروبوتات لدخول ما يسمى بـ«هوجة السوق» لإنتاج روبوتات في جميع المجالات، التي قد لا تخضع إلى تجارب كافية، الأمر الذي يزيد من مخاطر وقوع أخطاء في تصميم أو برمجة هذه الروبوتات، بدأ العلماء والباحثون في الآونة الأخيرة، وبخاصة علماء «أخلاقيات العلم»، في الاهتمام المتزايد بما يسمى بـ«أخلاقيات الروبوت»، والمخاوف من ظهور آلات أشد ذكاء قد تمثل خطرا على البشرية، وبخاصة في المجالات العسكرية، حيث تشير الكثير من التقارير الحديثة إلى أن الروبوتات المقاتلة سوف تقود المعارك الحربية خلال السنوات القليلة المقبلة، الأمر الذي يفرض الكثير من التساؤلات الجادة، استعدادا لما قد يحدث من تصرفات روبوتية خطرة تمثل انقلابا وتمردا ضد صانعيها من البشر، على غرار فيلم الخيال العلمي الأميركي «المدمر» لشوارزينجر عام 1984.

ويقصد بأخلاقيات الروبوت، أخلاقيات البشر من مصممي ومصنعي ومستخدمي الروبوتات، ومن بين التساؤلات الأخلاقية الجادة التي تطرحها التطورات السريعة المتزايدة في صناعة الروبوتات، أسئلة مثل: ماذا لو أصاب «الروبوت» عطل فني ما في نظامه أثناء تنفيذه عملية جراحية أو أثناء تقديمه كوبا ساخنا؟ وما هي الآثار التي قد تحدث للأطفال نتيجة قضاء فترات طويلة مع آلات وروبوتات عاجزة عن التعبير عن التعاطف الصادق أو الفهم؟ وإذا كان الروبوت قادرا على التعلم والتصرف باستقلالية فهل يمكن أن يتحمل الشخص الذي قام بتصميمه المسؤولية عن الأفعال الخطرة التي يمكن أن تصدر عنه؟ وهل نضطر يوما ما إلى الدفاع عن حضارتنا ضد آلات ذكية من صنع أيدينا؟

في مقال لـجون ماركوف في صحيفة «نيويورك تايمز» بعنوان «العلماء يخشون ظهور آلات أشد ذكاء من البشر»، يقول فيه إنه «على ضوء التقدم في الذكاء الصناعي، يتناقش مجموعة من علماء الكومبيوتر حول وضع قيود على البحث الذي يمكن أن يؤدي إلى فقدان السيطرة البشرية على النظم الكومبيوترية التي باتت تقوم بقسط متنام من الأعمال في المجتمع بدءا من شن الحرب، ووصولا إلى الحديث مع العملاء عبر الهاتف، ويتمثل الخوف في أن تؤدي إلى اضطرابات اجتماعية عميقة ويمكن أن تكون لها تبعات خطيرة». ويستطرد قائلا إنه «على الرغم من أن علماء الكومبيوتر يتفقون على أنه ما زالت تفصلنا مسافة كبيرة عن ظهور جهاز الكومبيوتر (هال Hal) الذي سيطر على سفينة الفضاء في فيلم الخيال العلمي (أوديسا الفضاء 2001)، فإنهم يقولون إن هناك مخاوف مشروعة من أن التقدم التقني يمكن أن يغير من القوة العاملة بتقليص عدد كبير من الوظائف وإجبار البشر على تعلم العيش مع الآلات التي تحاكي السلوكيات البشرية بصورة متنامية».

في تقرير صادر في ديسمبر (كانون الأول) 2008، بعنوان «الروبوتات العسكرية المستقلة: الخطر، الأخلاقيات، التصميم»، يعد بمثابة أول عمل جاد في مجال الأخلاقيات العسكرية للروبوتات، أعده «قسم الأخلاقيات والتكنولوجيا الناشئة» في جامعة ولاية كاليفورنيا للتقنيات المتعددة، بتمويل من مكتب أبحاث البحرية الأميركي، أكد على أن الروبوتات القتالية قد تتمتع بقدر كاف من الذكاء يتيح لها إمكانية اتخاذ قرارات مستقلة ذاتية بنفسها داخل ساحة الميدان القتالية، فلن تقوم فقط بما سنبرمجهم على فعله، وقد تأتي بميزات معرفية كبيرة تفوق الميزات الخاصة بالجنود من البشر، لهذا فهناك تشديد على أهمية برمجة الروبوتات العسكرية كي تكون قادرة على العيش من خلال شفرة حربية صارمة، وإلا فإن العالم سيتعرض إلى فظاعات مجهولة الهوية، نتيجة لما قد يحدث من تصرفات بواسطة أياديهم الفولاذية، وأشار التقرير إلى مجموعة من الموضوعات الأخلاقية والقانونية والاجتماعية والسياسية المرتبطة بتكنولوجيا الروبوت، ومنها: هل الروبوتات المستقلة قادرة على اتباع توجيهات القانون الدولي للحروب؟ وهل هذه الروبوتات تستطيع التفرقة بين العسكريين والمدنيين؟ وهل يمكنها التعرف على الجنود الجرحى والمصابين وتحجم عن إطلاق النار عليهم؟ وحذر التقرير من أن الإسراع في إنتاج الروبوتات يزيد من مخاطر أخطاء في التصميم أو البرمجة، وشدد على أن القوانين الأخلاقية للروبوتات على غرار القوانين الثلاثة للروبوتات لكاتب الخيال العلمي الأميركي إسحاق أسيموف، لن تكون كافية لضبط سلوكيات تلك الآلات العسكرية المستقلة ذاتيا، واقترح التقرير أن يكون الحل هو مزج نظم برمجة الروبوتات بقواعد تعلم الصواب والخطأ في الحروب.

في كتاب صدر العام الماضي بعنوان «الآلات الأخلاقية: تعليم الروبوتات الصواب من الخطأ» من تأليف كل من ويندل والاش وكولن آلين، جاء فيه أن «هناك 6 طرق لبناء روبوتات يمكن ألا تؤذي البشر، وهي: اجعل الروبوتات في مواقف أقل خطورة. لا تعط الروبوتات أسلحة. أعطهم قواعد مثل القوانين الثلاثة للروبوتات لأسيموف. برمج الروبوتات على مبادئ معينة. علم الروبوتات مثل الأطفال. اجعل الآلات تسيطر على الانفعالات».وجدير بالذكر أن لأعمال الخيال العلمي فضل السبق في تناول أخلاقيات الروبوتات، فقد كان لكاتب الخيال العلمي أسيموف فضل صياغة «القوانين الثلاثة الأساسية للروبوتات»، التي ما زالت إلى حد كبير تحكم إنتاج صناعة الروبوتات حتى الآن، وذلك في مجموعته القصصية «أنا والروبوت» عام 1950، وهذه القوانين هي: القانون الأول: يجب على الروبوت ألا يؤذي الإنسان أو أن يتسبب في إهماله بإلحاق الأذى بأي إنسان. والقانون الثاني: يجب على الروبوت أن يطيع أوامر الإنسان التي يصدرها له عدا الأوامر التي تتعارض مع القانون الأول. والقانون الثالث: يجب على الروبوت أن يحمي وجوده، ما دام ذلك لا يتعارض مع القانونين الأول والثاني.

كما تناولت أفلام الخيال العلمي الاحتمالات التي يمكن أن تحدث عندما يصبح للروبوتات وعي ذاتي، كما في فيلم «دائرة قصيرة»، الذي أنتج عام 1986، والذي يتناول الروبوت العسكري «الرقم 5»، وهو أحد خمسة روبوتات ذات قدرة تدميرية عالية كسلاح فتاك يضمن التفوق في المعارك الحربية، وأثناء التجارب يصاب «الرقم 5» بصاعقة برق قوية تخلق فيه نوعا من الحياة، يهرب ويطور لنفسه وعيا ذاتيا وضميرا وخوفا كبيرا من إعادة برمجته عند العودة إلى المصنع، وإلى جانب ذلك حسا طفوليا مندهشا من كل شيء، ويحاول «الرقم 5» إقناع الجميع بأنه أصبح حيا ويحاول أيضا تفادي الإمساك به بكل الطرق الممكنة، وبمساعدة فتاة مزرعة محبة للحيوانات تبدأ في تعليمه الأسلوب النبيل للحياة، فيبدأ في تعلم الكلام والحقائق الأولية عن الحياة والمشاعر الإنسانية إلى أن يصبح إنسانيا، ولكن هذا لا يمنع الجميع من محاولة الإيقاع به وتعطيله عن العمل، الأمر الذي يصبح كابوسا عند «الرقم 5»، الذي أصبح يرفض أي أمر يصدر إليه، وكل ما يريده هو التمسك بالحياة التي دبت في دائرته الإلكترونية.

ولجعل الروبوتات أكثر أخلاقية في المعارك، بدأ العلماء في تطوير نظم أخلاقية لها، فعلى سبيل المثال شرع عالم أخلاقيات الروبوت رونالد أركين، من معهد جورجيا للتكنولوجيا في أتلانتا الأميركية، في تطوير «نظام أخلاقي» للروبوتات يستند إلى مفهوم «الذنب»، فكلما اتخذ الروبوت قرارات بشأن الأسلحة التي يتعين عليه استخدامها في موقف معين، وحجم النيران التي يتعين عليه إطلاقها، سيكون عليه تقييم النتيجة واستخلاص الدروس للمرات القادمة. فلو استنتج الروبوت أن النيران المستخدمة تسببت في أضرار جانبية بين المدنيين، فإنه سيخفض من حجم النيران في المواجهات القادمة. ويشرح أركين مبدأه قائلا: «هذا ما يفعله الشعور بالذنب لدى البشر، بحيث يدفعهم إلى تغيير سلوكهم استجابة لتجارب سابقة».

وعلى صعيد آخر، أظهرت دراسة ألمانية حديثة، عرضت نتائجها على «المؤتمر الدولي للروبوتات والتشغيل الآلي»، الذي عقد في ألاسكا الأميركية في الفترة من 3 - 8 مايو (أيار) الماضي، أن الاستعانة بالروبوت في إنجاز المهام المنزلية يمكن أن يجلب الضرر للإنسان في المستقبل، فقد وجد العلماء في بعض الحالات أن الروبوت قادر على إحداث جروح «مميتة» إذا ما اعتدى على الإنسان، وفي هذه الدراسة الذي أجراها باحثون من «معهد الروبوتات والميكاترونيك» التابع لوكالة «علوم الفضاء الألمانية»، استخدم العلماء ذراعا روبوتية لها آلات حادة مبرمجة على إصابة الأنسجة البشرية الرخوة على سبيل الاختبار، وأجريت الاختبارات لمعرفة ما إذا كان بإمكان «نموذج نظام السلامة» الحد من الضرر الذي يمكن أن يصيب الإنسان، وتضمنت التجارب ذراعا روبوتية تزن 14 كيلوغراما ولها القدرة على الوصول إلى مسافة 1.1 متر، ومجهزة بآلات منزلية حادة بما في ذلك سكين لقطع شرائح اللحم وسكين مطبخ ومقص ومفك، وبرمجت الذراع الروبوتية على استخدام الآلات الحادة بما في ذلك طعن وقطع كتلة لحم وقدم خنزير ميت وذراع متطوع حقيقي، وشملت الاختبارات التي أجريت على الروبوت بعد تعطيل نظام السلامة إصابة كتل من السيليكون الصناعي وإحداث طعون وثقوب فيها، إضافة إلى قدم خنزير ميت. وأظهرت نتائج التجارب وجود جروح عميقة في معظم الحالات، وقال العلماء إن الجروح إذا ما أصابت كائنات حية فإنها ستكون «مميتة»، لكن الجروح التي أحدثها الروبوت قلت بعدما تم تشغيل نظام السلامة، وذلك بهدف تقليص الأضرار التي تصيب الإنسان.

يرى عالم الذكاء الصناعي والروبوتات نويل شاركي، من جامعة شيفيلد البريطانية، خلال مؤتمر عقد في لندن تحت رعاية «معهد الخدمات الملكية المتحدة» الذي يضم فريقا من خبراء الدفاع والأمن، أنه عندما تنتشر حروب الأسلحة الروبوتية فإن الأمر سيخرج عن سيطرة العنصر البشري، وفي مرحلة تالية ستهبط أسعار تلك الأسلحة وتتوافر قطع غيارها حتى للهواة، وحينها لن يتطلب الأمر مهارة عالية لصنع أسلحة مستقلة على شكل روبوت، ويضيف أن «هنالك حاجة ملحة لتقييم المجتمع الدولي مخاطر هذه الأسلحة الروبوتية الجديدة الآن، عوضا عن فعل ذلك بعد أن تكون قد شقت طريقها نحو الاستعمال الشائع».

وقد يكون من الصعب معرفة إلى أين ستتجه التطورات السريعة والمتقدمة في تكنولوجيا الروبوتات الذكية في المستقبل، ولكن تشير توقعات علماء وخبراء الذكاء الصناعي إلى أن الروبوتات الذكية التي تتمتع بقدر من الوعي الذاتي ستكون بيننا بحلول عام 2050، ففي هذا المجتمع الحديث ستتمكن الروبوتات من التواصل مع البشر بذكاء، وستكون لها عواطف بدائية وقدرة على تمييز الحديث، وستمتلك الحس والذوق السليمين، حتى يتمكن البشر من التواصل معها بسهولة، وهذا دفع علماء وخبراء الروبوتات والأخلاقيات إلى طرح مجموعة من التساؤلات الأخلاقية والفلسفية، التي من بينها: ما الذي سيحدث عندما تتعارض مصالح الروبوت مع مصالح الإنسان؟ وهل تستطيع الروبوتات أن تؤذينا ولو بالمصادفة؟ وهل من الممكن أن تسيطر علينا؟ لأننا نتعامل مع آلات تمتلك إرادة مستقلة ومزودة بقدرات عقلية وفيزيائية هائلة قد تتفوق على قدراتنا، خصوصا بعد أن نجحت شركة «IBM» في تطوير جهاز الكومبيوتر الذكي «Deep Blue»، الذي تمكن بجدارة عام 1997 من هزيمة بطل العالم في الشطرنغ آنذاك غاري كاسباروف، الذي اعتبره البعض علامة فارقة في تطور الذكاء الصناعي.

ويتساءل بيتر سنجر وأغاتا ساجان، في مقال لهما في ديسمبر الماضي بعنوان «حقوق الروبوتات»: «ماذا لو أصبحت الروبوتات معقدة إلى الحد الذي يسمح باكتسابها للمشاعر؟ وإذا نشأ لدى الآلات نوع من الوعي، فهل نضع مشاعرها في الاعتبار؟ والسؤال الصعب بطبيعة الحال هو: كيف نستطيع أن نجزم حقا بأن الروبوت كائن واع، وليس مجرد تصميم يحاكي الوعي؟ إن فهم الكيفية التي تمت بها برمجة الروبوت، من شأنه أن يزودنا ببعض الدلالات، فهل كتب المصمم برنامج الروبوت بحيث يبدي مظهر الوعي فحسب؟ إذا كان الأمر كذلك فلن يكون لدينا سبب للاعتقاد بأن الروبوت يتمتع بالوعي، ولكن إذا كان الروبوت قد صمم ليتمتع بقدرات شبيهة بالبشر، فإن ذلك من شأنه أن يقود بالمصادفة إلى اكتساب الوعي، وبهذا سوف يكون لدينا من الأسباب ما يدفعنا إلى الاعتقاد بأن الروبوت يتمتع بالوعي حقا، وعند هذه النقطة قد تنطلق حركة المطالبة بحقوق الروبوت!».