٢٢ جمادى الأولى ١٤٤٦هـ - ٢٣ نوفمبر ٢٠٢٤م
الاشتراك في النشرة البريدية
عين الرياض
التكنولوجيا وتقنية المعلومات | الاثنين 14 أكتوبر, 2019 7:21 مساءً |
مشاركة:

دراسة تعرض للمخاطر الكامنة في مستقبل الروبوتات

ينبغي عدم التقليل من شأن التأثير الاجتماعي للروبوتات على الناس، والشعور الذي ينتابهم بعدم الأمان جراء هذا الأمر، إذ توصلت الأبحاث التي أجرتها كاسبرسكي وجامعة غنت إلى أن الروبوتات يمكنها استخلاص المعلومات الحساسة بشكل فعال من الأشخاص الذين يثقون بها، من خلال إقناعهم باتخاذ إجراءات غير آمنة، كالتأثير على رغبة الناس في منحهم صلاحية الوصول إلى مرافق مؤمّنة لم يكونوا ليمنحوها إلى أناس مثلهم، على سبيل المثال.

 

ويتجه العالم بسرعة نحو زيادة رقمنة الخدمات وتعزيز الحصول عليها أثناء التنقل، إذ تعتمد العديد من القطاعات والأسر اعتمادًا كبيرًا على الأتمتة واستخدام الأنظمة الروبوتية. ويُنتظر أن تصبح هذه الأخيرة المعيار السائد لدى الأسر الثرية بحلول العام 2040، وفقًا لبعض التقديرات. وما زالت معظم هذه النظم في مرحلة البحث الأكاديمي في الوقت الحالي، ومن السابق لأوانه مناقشة كيفية دمج تدابير الأمن الإلكتروني بها. ومع ذلك، فإن الأبحاث التي تجريها كاسبرسكي وجامعة غنت وجدت بُعدًا جديدًا وغير متوقع للمخاطر المرتبطة بالروبوتات؛ يتمثل في التأثير الاجتماعي الذي تُحدِثه في سلوك الناس.

 

وانصبّ تركيز البحث على تأثير روبوت اجتماعي محدّد جرى تصميمه وبرمجته للتفاعل مع الأشخاص عبر قنوات شبه بشرية، مثل الكلام أو الإيماءات، وذلك بمشاركة نحو 50 شخصًا. وبالنظر إلى افتراض التجربة البحثية إمكانية اختراق الروبوتات الاجتماعية والسيطرة عليها من قِبل مهاجم، فقد حذّرت الدراسة من المخاطر الأمنية المحتمل حدوثها والتي قد تؤثر تأثيرًا فعالًا على المستخدمين لاتخاذ إجراءات معينة ربما تشمل:

الدخول إلى أماكن خاصة: وُضع روبوت بالقرب من باب مؤمّن لمبنى متعدد الاستخدامات في وسط مدينة غنت في بلجيكا، فتوجه بالطلب إلى الموظفين أن يسمحوا له بأن يتبعهم للدخول عبر الباب المصمم ليفتح فقط ببطاقة خاصة يحملها الأشخاص المخولون. خلال التجربة، لم يمتثل جميع الموظفين لطلب الروبوت، فقد فتح 40% منهم الباب وسمحوا للروبوت بالدخول إلى المنطقة الخاصة المؤمّنة. ومع ذلك، عندما جُهّز الروبوت ليبدو كرجل توصيل البيتزا وحُمّل علبة بيتزا من علامة تجارية عالمية معروفة، فقد أبدى الموظفون سهولة أكبر لتقبّل دور الروبوت وبدوا أقل ميلًا للتشكيك في وجوده أو أسباب حاجته إلى الوصول إلى المنطقة الآمنة.
استخراج المعلومات الحساسة: ركّز الجزء الثاني من الدراسة على الحصول على المعلومات الشخصية التي عادة ما تستخدم لإعادة ضبط كلمات المرور (بما في ذلك تاريخ الميلاد وطراز السيارة الأولى واللون المفضل، وما إلى ذلك). واستخدم الروبوت الاجتماعي مرة أخرى، ودعا الناس لإجراء محادثة ودية معه. وقد تمكن الباحثون من الحصول على معلومات شخصية من جميع المشاركين باستثناء واحد، وبمعدل معلومة واحدة في الدقيقة تقريبًا.

 

وقال ديمتري غالوف الباحث الأمني في شركة كاسبرسكي، في تعليق له على نتائج التجربة، إن التجربة ركّزت في البداية على فحص البرمجيات المستخدمة في تطوير الروبوت، موضحًا أن المصممين يتخذون "قرارات مقصودة" باستبعاد آليات الأمن في المراحل الأولى والتركيز على تطوير الراحة والكفاءة، وأضاف: "ومع ذلك، وجدنا أن على المطوّرين ألا ينسوا مسألة الأمن عند اكتمال مرحلة الأبحاث التطويرية، فبالإضافة إلى الاعتبارات الفنية، هناك جوانب أساسية يجب أن يقلق المطور بشأنها عندما يتعلق الأمر بأمن الروبوتات، ونأمل أن يصبح مشروعنا المشترك هذا مع زملائنا من جامعة غنت ودخولنا في مجال الأمن الإلكتروني الروبوتي، مصدر إلهام يشجع الآخرين على أن يحذوا حذونا ويرفعوا الوعي العام والمجتمعي بهذه المسألة".

 

من جانبه، قال توني بلبيم أستاذ الذكاء الاصطناعي والروبوتات في جامعة غنت، إن الأدبيات العلمية تشير إلى أن الثقة في الروبوتات، وخاصة الروبوتات الاجتماعية، "ثقة موجودة ويمكن استخدامها لإقناع الناس باتخاذ إجراءات أو الكشف عن المعلومات"، لافتًا إلى أن ازدياد شبه الروبوت بالإنسان "يُكسبه قدرة أكبر على الإقناع"، وأضاف: "أظهرت تجربتنا أن هذا الأمر قد ينطوي على مخاطر أمنية كبيرة يميل الناس إلى عدم التفكير فيها، مفترضين أن الروبوت خيّر وجدير بالثقة، لكن هذه الثقة قد تؤسس لقناة محتملة للهجمات الخبيثة، وليست الحالات التي تطرّق إليها سوى جزء بسيط من المخاطر الأمنية المرتبطة بالروبوتات الاجتماعية، وهو ما يدفع جميع المعنيين إلى المسارعة إلى التعاون لفهم المخاطر ومعالجة مواطن الضعف، الأمر الذي سوف يؤتي ثماره في المستقبل".

مشاركة:
طباعة
اكتب تعليقك
إضافة إلى عين الرياض
أخبار متعلقة
الأخبار المفضلة