١٧ جمادى الأولى ١٤٤٦هـ - ١٨ نوفمبر ٢٠٢٤م
الاشتراك في النشرة البريدية
عين الرياض
التكنولوجيا وتقنية المعلومات | السبت 6 أبريل, 2024 7:33 صباحاً |
مشاركة:

الإتجار بالتزييف العميق: كاسبرسكي تحذر من المخاطر الأمنية في عصر الذكاء الاصطناعي

أدى الاعتماد واسع النطاق لتقنيات الذكاء الاصطناعي وتعلم الآلة في السنوات الأخيرة إلى تزويد مصادر التهديد بأدوات جديدة متطورة لتنفيذ هجماتهم. ويُعد التزييف العميق أحد هذه المنتجات، إذ يقلد البشر ويتضمن كلاماً أو صوراً أو فيديو مولداً يصعب تمييزه من الحقيقي. وبينما عادة ما تستهلك هذه الهجمات وقتاً وجهداً أكبر من «مكافآتها» المحتملة، تحذر كاسبرسكي من وجوب إدراك الشركات والمستهلكين لكون عمليات التزييف العميق ستصبح مصدر قلق أكبر في المستقبل على الأرجح.

 

كشفت أبحاث كاسبرسكي وجود أدوات وخدمات صنع التزييف العميق في أسواق الشبكة المظلمة. وتوفر هذه الخدمات مقاطع فيديو مصنوعة بالذكاء الاصطناعي التوليدي ومخصصة لمجموعة متنوعة من الأغراض، بما في ذلك الاحتيال، والابتزاز، وسرقة البيانات السرية. كما تشير تقديرات خبراء كاسبرسكي إلى إمكانية شراء دقيقة واحدة من فيديوهات التزييف العميق مقابل أقل من 300 دولار أمريكي. 

 

بالإضافة لذلك، هناك مخاوف حول الفجوة الكبيرة في المعرفة الرقمية بين مستخدمي الإنترنت. حيث أشار استطلاع رأي رقمنة الأعمال الذي أجرته كاسبرسكي مؤخراً¹ إلى أن 51% من الموظفين الذين شملهم الاستطلاع في منطقة الشرق الأوسط وتركيا وإفريقيا (META) قالوا أنهم يستطيعون التمييز بين الصورة المُولدة بتقنية التزييف العميق والصورة الحقيقية؛ لكن ولدى إجراء الاختبار حقاً، لم يتمكن سوى 25%2 منهم من تمييز الصورة الحقيقية عن تلك المولدة بالذكاء الاصطناعي. ويعرّض ذلك المؤسسات للخطر، حيث غالباً ما يكون الموظفون هم الأهداف الأساسية للتصيد الاحتيالي وهجمات الهندسة الاجتماعية الأخرى.

 

على سبيل المثال، يمكن للمجرمين السيبرانيين إنشاء مقطع فيديو مزيف لرئيس تنفيذي يطلب تحويلاً مصرفياً أو يمنح الإذن لعملية دفع، وهو ما يسمح لهم بسرقة أموال الشركة. كما يمكنهم توليد مقاطع فيديو أو صور مزيفة للأفراد واستخدامها لابتزازهم مقابل المال أو المعلومات.

 

قال فلاديسلاف توشكانوف، الم البيانات الرئيسي في كاسبرسكي: «على الرغم من عدم توافر التقنية اللازمة لإنشاء التزييف العميق عالي الجودة على نطاق واسع حتى الآن، سيكون توليد أصوات لانتحال شخصية ما في الوقت الفعلي أحد أكثر الاستخدامات الممكنة للتقنية. وعلى سبيل المثال، تم خداع عامل مالي في شركة متعددة الجنسيات لتحويل 25 مليون دولار إلى المحتالين الذين استخدموا تقنية التزييف العميق لانتحال شخصية الرئيس المالي للشركة في مكالمة فيديو جماعية. من المهم أن نتذكر أن تهديد التزييف العميق لا يقتصر على الشركات فحسب، بل أنه يمتد إلى المستخدمين الأفراد أيضاً - حيث ينشر التزييف العميق المعلومات المضللة، ويستخدم في عمليات الاحتيال، وينتحل شخصيات الناس بدون موافقتهم، كما يشكل تهديداً سيبرانياً متزايداً يجب الحماية منه.»

 

للحماية من التهديدات المختلفة التي يشكلها التزييف العميق، توصي كاسبرسكي الأشخاص والشركات باتخاذ الإجراءات التالية:

 

  • انتبه للمكالمات المشبوهة: على الموظفين الانتباه إلى جودة الصوت الرديئة، والرتابة غير الطبيعية لصوت «الشخص»، وكلامه غير المفهوم، والضوضاء الخارجية.
  • انتبه إلى الميزات الأوضح لفيديوهات التزييف العميق: يشمل ذلك الحركة المتشنجة، والتغيرات في الإضاءة بين الإطارات، وتغير لون البشرة، وعدم تزامن الشفاه بشكل جيد مع الكلام، والإضاءة الضعيفة.
  • لا تتخذ قرارات بناءً على المشاعر أبداً، ولا تشارك التفاصيل مع أي شخص: من الأفضل دائماً أن تسأل عن الأشياء التي لا يعرفها سوى هذا الشخص أو توقف المكالمة وتتحقق من المعلومات الواردة مجدداً عبر عدة قنوات. وهنا تبرز إهمية بروتوكول «ثِق، لكن تحقق».
  • تحقق من ممارسات الأمن السيبراني للمؤسسة وقم بتحديثها. 
  • يمكن أن يساعد حل مثل Kaspersky Threat Intelligence في إبقاء متخصصي أمن المعلومات مطلعين على أحدث التطورات حول التزييف العميق.
  • يجب على الشركات تعزيز جدار حمايتها البشري من خلال ضمان فهم موظفيها لماهية التزييف العميق، وكيفية عمله، والتحديات التي يمكن أن يشكلها. ويمكن أن يشمل ذلك حملات التوعية والتثقيف المستمرة لتعليم الموظفين طريقة اكتشاف التزييف العميق. 

 

المراجع:

¹شمل الاستطلاع ألفي موظف في الشركات الصغيرة والمتوسطة والمؤسسات في منطقة الشرق الأوسط وتركيا وإفريقيا في عام 2023.        

 ²أولاً، سُئل المشاركون في الاستطلاع عما إذا كان بإمكانهم التمييز بين صور التزييف العميق والصور الحقيقية. ثم تم إعطاؤهم صورتين مأخوذتين من فيديوهات لممثل أمريكي شهير، وكانت إحدى هاتين الصورتين من فيديو مصنوع بالتزييف العميق. وبعدها، طُلب من المشاركين تحديد الصورة الحقيقية والصورة المزيفة.

-انتهى-

 

مشاركة:
طباعة
اكتب تعليقك
إضافة إلى عين الرياض
أخبار متعلقة
الأخبار المفضلة