معضلة الاستخدام المزدوج في روبوتات مفتوحة المصدر

معضلة الاستخدام المزدوج في روبوتات مفتوحة المصدر

Posted on

تقنية مفتوحة المصدر المطورة في القطاع المدني لديها القدرة على استخدامها أيضًا في التطبيقات العسكرية أو إساءة استخدامها ببساطة. أصبح التنقل في هذه الإمكانات ذات الاستخدام المزدوج أكثر أهمية في المجالات الهندسية ، حيث يسير الابتكار في كلا الاتجاهين. في حين أن “انفتاح” تكنولوجيا المصدر المفتوح هو جزء مما يدفع الابتكار ويسمح للجميع بالوصول ، فإنه أيضًا ، للأسف ، يعني أنه يمكن الوصول إليه بسهولة للآخرين ، بما في ذلك الجيش والمجرمين.

ماذا يحدث عندما تعرض دولة مارقة ، أو ميليشيا غير دولة ، أو مطلق النار في المدرسة نفس الإبداع والابتكار مع تقنية مفتوحة المصدر التي يفعلها المهندسون؟ هذا هو السؤال الذي نناقشه هنا: كيف يمكننا التمسك بمبادئ البحث المفتوح والابتكار لتحقيق التقدم مع التخفيف من المخاطر المتأصلة التي تأتي مع التكنولوجيا التي يمكن الوصول إليها؟

أكثر من مجرد مخاطر مفتوحة ، دعنا نناقش التحديات المحددة للتكنولوجيا المفتوحة المصدر وإمكاناتها المزدوجة على الروبوتات. يمكن أن يساعد فهم هذه التحديات المهندسين على معرفة ما يبحثون عنه في تخصصاتهم.

قوة ومخاطر الانفتاح

تعتبر المنشورات والبرامج والمحتوى التعليمي المفتوح الوصول إليها أمرًا أساسيًا لتطوير الروبوتات. لقد أقاموا ديمقراطيين الوصول إلى المعرفة ، وتمكين التكاثر ، وعززوا مجتمعًا دوليًا تعاونيًا تعاونيًا من العلماء. كانت منصات مثل Arxiv و Github ومبادرات مفتوحة المصدر مثل نظام تشغيل الروبوت ومبادرة الروبوت الديناميكي المفتوح محوريًا في تسريع أبحاث وابتكار الروبوتات ، وليس هناك شك في أنه يجب أن يظلوا في متناول الجميع. إن فقدان الوصول إلى هذه الموارد سيكون مدمرًا لحقل الروبوتات.

ومع ذلك ، فإن الروبوتات تحمل مخاطر متصابة الاستخدام نظرًا لأن معظم تقنيات الروبوتات يمكن إعادة استخدامها للاستخدام العسكري أو الأغراض الضارة. أحد الأمثلة الحديثة للطائرات بدون طيار مصممة خصيصًا في النزاعات الحالية هو الثاقبة بشكل خاص. الحيلة التي عرضها الجنود الأوكرانيون في إعادة تشكيل وزيادة تكنولوجيا الطائرات بدون طيار المدنية في بعض الأحيان ، وغالبًا ما تكون معجبًا ، وغالبًا ما تكون معجبًا. لقد أصبح إبداعهم ممكنًا من خلال القدرة على تحمل تكاليف الطائرات بدون طيار وقطع الغيار والطابعات ثلاثية الأبعاد وتوافر البرامج والأجهزة مفتوحة المصدر. يتيح ذلك للأشخاص ذوي الخلفية التكنولوجية الصغيرة والمال لإنشاء الروبوتات والتحكم فيها وإعادة تعبئتها بسهولة للتطبيقات العسكرية. يمكن للمرء أن يجادل بالتأكيد بأن هذا كان له تأثير تمكين على الدفاع عن أوكرانيين. ومع ذلك ، فإن هذه الشروط نفسها تقدم أيضًا فرصًا لمجموعة واسعة من الجهات الفاعلة السيئة المحتملة.

يمكن إساءة استخدام المعرفة والتصميمات والبرامج المتاحة بشكل علني لتعزيز أنظمة الأسلحة الحالية مع إمكانات مثل التنقل القائم على الرؤية أو الاستهداف الذاتي أو التجويف. بالإضافة إلى ذلك ، ما لم يتم اتخاذ تدابير أمنية مناسبة ، فإن الطبيعة العامة لرمز المصدر المفتوح تجعلها عرضة للهجمات الإلكترونية ، مما قد يسمح للجهات الفاعلة الضارة بالسيطرة على الأنظمة الآلية وتسبب في خللها أو استخدامها لأغراض خبيثة. يدرك العديد من مستخدمي ROS بالفعل أنهم لا يستثمرون بما فيه الكفاية في الأمن السيبراني لتطبيقاتهم.

التوجيه ضروري

تعتبر المخاطر المزدوجة الاستخدام الناجمة عن الانفتاح في البحث والابتكار مصدر قلق للعديد من المجالات الهندسية. هل تعلم أن الهندسة كانت في الأصل نشاطًا عسكريًا فقط؟ تم صياغة كلمة “مهندس” في العصور الوسطى لوصف “مصمم ومُنشئ التحصينات والأسلحة”. طورت بعض التخصصات الهندسية ، وخاصة تلك التي تشمل تطوير أسلحة الدمار الشامل (الكيميائية والبيولوجية والإشعاعية والنووية) ، توجيهات واضحة ، وفي بعض الحالات ، لوائح حول كيفية إجراء البحوث والابتكار ونشرها. لديهم أيضًا عمليات تعتمد على المجتمع تهدف إلى تخفيف المخاطر ذات الاستخدام المزدوج المرتبطة بنشر المعرفة. على سبيل المثال ، Biorxiv و Medrxiv – خوادم preprint لعلوم الأحياء والعلوم الصحية – التقديمات الشاشة للمواد التي تشكل خطراً على الأمن الحيوي أو المخاطر الصحية قبل نشرها.

بالمقارنة ، لا يقدم مجال الروبوتات أي تنظيم محدد وتوجيهات قليلة حول كيفية التفكير في المخاطر المرتبطة بالانفتاح ومعالجتهم. لا يتم تعليم المخاطر المزدوجة الاستخدام في معظم الجامعات ، على الرغم من كونها شيئًا من المحتمل أن يواجهه الطلاب في حياتهم المهنية ، مثل تقييم ما إذا كان عملهم يخضع لموائح التحكم في التصدير على العناصر ذات الاستخدام المزدوج.

نتيجة لذلك ، قد لا يشعر الآليون بالتحفيز أو المجهزة لتقييم وتخفيف المخاطر المزدوجة الاستخدام المرتبطة بعملهم. يمثل هذا مشكلة كبيرة ، لأن احتمال حدوث ضرر مرتبط بإساءة استخدام البحوث والابتكار الروبوتية المفتوحة من المحتمل أن يكون أعلى من تلك الموجودة في الأبحاث النووية والبيولوجية ، وكلاهما يتطلب موارد أكثر بكثير. إن إنتاج أنظمة الأسلحة الآلية “افعل ذلك بنفسك” باستخدام تصميم وبرامج مفتوحة المصدر والمكونات التجارية الجاهزة أمر سهل نسبيًا ويمكن الوصول إليه. مع وضع ذلك في الاعتبار ، نعتقد أن الوقت قد حان لمجتمع الروبوتات للعمل من أجل مجموعته الخاصة من التوجيه الخاص بالقطاع لكيفية قيام الباحثين والشركات بالتنقل بشكل أفضل في المخاطر المزدوجة المرتبطة بالانتشار المفتوح لعملهم.

خريطة طريق عن الروبوتات المسؤولة

يعد تحقيق التوازن بين الأمن والانفتاح تحديًا معقدًا ، ولكنه يتحول مجتمع الروبوتات. لا يمكننا تحمل خنق الابتكار ، ولا يمكننا تجاهل احتمال الضرر. هناك حاجة إلى نهج استباقي متعدد الجوانب للتنقل في معضلة الاستخدام المزدوج. رسم دروسًا من مجالات الهندسة الأخرى ، نقترح خريطة طريق تركز على أربعة مجالات رئيسية: التعليم والحوافز والاعتدال والخطوط الحمراء.

تعليم

يعد دمج الأبحاث والابتكار المسؤولة في تعليم الروبوتات على جميع المستويات أمرًا بالغ الأهمية. لا يشمل ذلك الدورات المخصصة فحسب ، بل يشمل أيضًا التضمين المنهجي لاعتبارات الاستخدام المزدوج والأمن السيبراني في مناهج الروبوتات الأساسية. يجب أن نعزز ثقافة الابتكار المسؤول حتى نتمكن من تمكين أخصائيي الروبوتيين من اتخاذ قرارات مستنيرة ومعالجة المخاطر المحتملة بشكل استباقي.

يمكن أن تشمل المبادرات التعليمية:

الحوافز

يجب تشجيع الجميع على تقييم العواقب السلبية المحتملة لجعل عملهم مفتوحًا بالكامل أو جزئيًا. يمكن لوكالات التمويل أن تفرض تقييمات المخاطر كشرط لتمويل المشروع ، مما يشير إلى أهميتها. يمكن للمنظمات المهنية ، مثل جمعية IEEE Robotics and Automation Society (RAS) ، تبني وتعزيز أفضل الممارسات ، وتوفير الأدوات والأطر للباحثين لتحديد المخاطر وتقييمها وتخفيفها. يمكن أن تشمل هذه الأدوات قوائم مراجعة التقييم الذاتي للباحثين الفرديين وتوجيهات لكيفية قيام الكليات والمختبرات بإعداد لوحات مراجعة أخلاقية. يمكن للمجلات والمؤتمرات الأكاديمية أن تجعل تقييمات مخاطر مراجعة النظراء جزءًا لا يتجزأ من عملية النشر ، وخاصة بالنسبة للتطبيقات عالية الخطورة.

بالإضافة إلى ذلك ، يمكن للحوافز مثل الجوائز وبرامج الاعتراف تسليط الضوء على المساهمات المثالية لتقييم المخاطر والتخفيف منها ، مما يعزز ثقافة المسؤولية داخل المجتمع. يمكن أيضًا تحفيز تقييم المخاطر ومكافأته بطرق أكثر رسمية. يمكن للأشخاص في المناصب القيادية ، مثل المشرفين على الدكتوراه ورؤساء المختبرات ، بناء فرص مخصصة للطلاب والباحثين لمناقشة المخاطر المحتملة. يمكنهم عقد حلقات دراسية حول هذا الموضوع وتقديم مقدمات للخبراء الخارجيين وأصحاب المصلحة مثل علماء الاجتماع والخبراء من المنظمات غير الحكومية.

الاعتدال

يمكن لمجتمع الروبوتات تنفيذ آليات التنظيم الذاتي لتخفيف انتشار المواد عالية الخطورة. هذا يمكن أن يشمل:

  • فحص العمل قبل النشر لمنع نشر المحتوى الذي يشكل مخاطر خطيرة.
  • تنفيذ عناصر التحكم في الوصول المتدرج (“Gating”) إلى رمز مصدر أو بيانات معينة على مستودعات المصدر المفتوح ، وربما تتطلب من المستخدمين تحديد أنفسهم وتحديد استخدامهم المقصود.
  • وضع إرشادات واضحة والإشراف على المجتمع لضمان الشفافية ومنع سوء استخدام آليات الاعتدال هذه. على سبيل المثال ، يمكن لمؤسسات مثل RAS تصميم فئات من مستويات المخاطر لأبحاث وتطبيقات الروبوتات وإنشاء لجنة مراقبة لتتبع وتوثيق الحالات الحقيقية لإساءة استخدام أبحاث الروبوتات لفهم وتصور مقياس المخاطر وخلق استراتيجيات تخفيف أفضل.

خطوط حمراء

يجب أن يسعى مجتمع الروبوتات أيضًا إلى تحديد وإنفاذ الخطوط الحمراء لتطوير ونشر تقنيات الروبوتات. بذلت الجهود المبذولة لتحديد الخطوط الحمراء بالفعل في هذا الاتجاه ، لا سيما في سياق المبادرة العالمية IEEE على أخلاقيات الأنظمة الذكية المستقلة. كتبت الشركات ، بما في ذلك Boston Dynamics و Unitree و Agfility Robotics و ClearPath Robotics و anybotics والروبوتات المفتوحة خطابًا مفتوحًا يدعو إلى اللوائح حول سلاح الروبوتات للأغراض العامة. لسوء الحظ ، كانت جهودهم ضيقة للغاية في نطاقها ، وهناك الكثير من القيمة في إجراء مزيد من التعيينات النهائية للروبوتات التي ينبغي اعتبارها خارج الحدود أو تتطلب تحذيرًا إضافيًا.

سيكون من الصعب على المجتمع الاتفاق على الخطوط الحمراء القياسية ، لأن ما يعتبر مقبولًا أخلاقياً أو مشكلة ذاتية للغاية. لدعم هذه العملية ، يمكن للأفراد والشركات التفكير في ما يعتبرونه استخدامًا غير مقبول لعملهم. قد يؤدي ذلك إلى سياسات وشروط الاستخدام التي سيتعين على المستفيدين من برامج البحث المفتوح وبرامج التصميم المفتوح الموافقة رسميًا على (مثل التراخيص المحددة للاستخدام المفتوح). هذا من شأنه أن يوفر أساسًا لإلغاء الوصول ، ورفض تحديثات البرامج ، وربما يقاضي أو يضعون في القائمة السوداء الأشخاص الذين يسيئون استخدام التكنولوجيا. قامت بعض الشركات ، بما في ذلك Boston Dynamics ، بتنفيذ هذه التدابير إلى حد ما. يمكن لأي شخص أو شركة تجري بحثًا مفتوحًا تكرار هذا المثال.

الانفتاح هو مفتاح الابتكار وإضفاء الطابع الديمقراطي على العديد من التخصصات الهندسية ، بما في ذلك الروبوتات ، ولكنه يضخّم أيضًا إمكانية سوء الاستخدام. يتحمل المجتمع الهندسي مسؤولية معالجة معضلة الاستخدام المزدوج بشكل استباقي. من خلال تبني الممارسات المسؤولة ، من التعليم وتقييم المخاطر إلى الاعتدال والخطوط الحمراء ، يمكننا تعزيز نظام بيئي حيث يتعايش الانفتاح والأمن. التحديات كبيرة ، لكن المخاطر عالية جدًا لتجاهلها. من الأهمية بمكان ضمان استفادة المجتمع والابتكار المجتمع على مستوى العالم ولا تصبح محركًا لعدم الاستقرار في العالم. هذا الهدف ، كما نعتقد ، يتوافق مع مهمة IEEE ، التي تتمثل مهمتها في “تقدم التكنولوجيا لصالح الإنسانية”. يجب أن يكون المجتمع الهندسي ، وخاصةً الروبوتيين ، استباقيًا في هذه القضايا لمنع أي رد فعل عنيف من المجتمع ومبنى التدابير العكسية التي يمكن أن تؤدي إلى نتائجها أو اللوائح الدولية التي قد تضر بالعلوم المفتوحة.

مصدر

Leave a Reply

Your email address will not be published. Required fields are marked *