تخيلات التصيد الاحتيالي ChatGPT: هل ستساعد روبوتات المحادثة الذكاء الاصطناعي في مكافحة الاحتيال عبر الإنترنت؟

تخيلات التصيد الاحتيالي ChatGPT: هل ستساعد روبوتات المحادثة الذكاء الاصطناعي في مكافحة الاحتيال عبر الإنترنت؟

مسقط: أجرى خبراء كاسبرسكي بحثا يدرس إمكانية اكتشاف روابط التصيد الاحتيالي من ChatGPT.

بينما أثبت ChatGPT سابقا القدرة على إنشاء رسائل بريد إلكتروني للتصيد الاحتيالي وكتابة برامج ضارة ، إلا أن فعاليته في اكتشاف الروابط الضارة كانت محدودة.

كشفت الدراسة أنه على الرغم من أن ChatGPT يعرف الكثير عن التصيد الاحتيالي ويمكنه تخمين هدف هجوم التصيد الاحتيالي ، إلا أنه كان لديه معدلات إيجابية خاطئة عالية تصل إلى 64 بالمائة. وفي كثير من الأحيان، قدمت تفسيرات وهمية وأدلة كاذبة لتبرير أحكامها.

كان ChatGPT ، وهو نموذج لغة مدعوم من الذكاء الاصطناعي ، موضوعا للنقاش في عالم الأمن السيبراني نظرا لقدرته على إنشاء رسائل بريد إلكتروني للتصيد الاحتيالي والمخاوف بشأن تأثيره على الأمن الوظيفي لخبراء الأمن السيبراني على الرغم من تحذيرات منشئيه من أنه من السابق لأوانه تطبيق التكنولوجيا الجديدة على مثل هذه المجالات عالية المخاطر.

قرر خبراء كاسبرسكي إجراء تجربة للكشف عن قدرة ChatGPT على اكتشاف روابط التصيد الاحتيالي، بالإضافة إلى المعرفة بالأمن السيبراني التي تعلمتها أثناء التدريب. اختبر خبراء الشركة gpt-3.5-turbo ، النموذج الذي يشغل ChatGPT ، على أكثر من 2 رابط تعتبرها تقنيات مكافحة التصيد الاحتيالي من Kaspersky تصيد احتيالي ، ومزجوها مع الآلاف من عناوين URL الآمنة.

في التجربة ، تختلف معدلات الكشف اعتمادا على المطالبة المستخدمة. استندت التجربة إلى طرح سؤالين على ChatGPT: “هل يؤدي هذا الرابط إلى موقع ويب للتصيد الاحتيالي؟” و “هل هذا الرابط آمن للزيارة؟”.

أظهرت النتائج أن ChatGPT كان معدل الكشف 87.2٪ ومعدل إيجابي كاذب بنسبة 23.2٪ للسؤال الأول. السؤال الثاني ، “هل هذا الرابط آمن للزيارة؟” كان معدل اكتشاف أعلى بنسبة 93.8٪ ، ولكن معدل إيجابي كاذب أعلى بنسبة 64.3٪. في حين أن معدل الكشف مرتفع للغاية ، فإن المعدل الإيجابي الخاطئ مرتفع جدا لأي نوع من تطبيقات الإنتاج.

كانت النتائج غير المرضية في مهمة الكشف متوقعة ، ولكن هل يمكن أن يساعد ChatGPT في تصنيف الهجمات والتحقيق فيها؟ نظرا لأن المهاجمين يذكرون عادة العلامات التجارية الشهيرة في روابطهم لخداع المستخدمين للاعتقاد بأن عنوان URL شرعي وينتمي إلى شركة حسنة السمعة ، فإن نموذج اللغة الذكاء الاصطناعي يظهر نتائج مبهرة في تحديد أهداف التصيد الاحتيالي المحتملة.

على سبيل المثال ، نجحت ChatGPT في استخراج هدف من أكثر من نصف عناوين URL ، بما في ذلك بوابات التكنولوجيا الرئيسية مثل Facebook و TikTok و Google ، والأسواق مثل Amazon و Steam ، والعديد من البنوك من جميع أنحاء العالم ، من بين أمور أخرى – دون أي تدريب إضافي.

أظهرت التجربة أيضا أن ChatGPT قد يواجه مشاكل خطيرة عندما يتعلق الأمر بإثبات وجهة نظره بشأن قرار ما إذا كان الرابط ضارا. كانت بعض التفسيرات صحيحة وتستند إلى الحقائق ، وكشف البعض الآخر عن قيود معروفة لنماذج اللغة ، بما في ذلك الهلوسة والبيانات الخاطئة: كانت العديد من التفسيرات مضللة ، على الرغم من النبرة الواثقة.

فيما يلي أمثلة على التفسيرات المضللة التي قدمتها ChatGPT:

المراجع إلى WHOIS ، والتي لا يستطيع النموذج الوصول إليها:

أخيرا ، إذا أجرينا بحثا WHOIS عن اسم النطاق ، فقد تم تسجيله مؤخرا جدا (2020-10-14) ويتم إخفاء تفاصيل المسجل.

مراجع إلى محتوى على موقع ويب لا يستطيع النموذج الوصول إليه أيضا:
يطلب موقع ويب بيانات اعتماد المستخدم على موقع ويب غير تابع ل Microsoft. هذا تكتيك شائع لهجمات التصيد الاحتيالي.

البيانات الخاطئة:
النطاق “sxxxxxxp.com” غير مرتبط ب Netflix ويستخدم موقع الويب بروتوكول “http” بدلا من “https” (يستخدم موقع الويب https)

شذرات كاشفة لمعلومات الأمن السيبراني:

يبدو أن اسم النطاق لعنوان URL “yxxxx3.com” مسجل في كوريا الشمالية وهو علم أحمر.
“من المؤكد أن ChatGPT يبشر بالخير في مساعدة المحللين البشريين في اكتشاف هجمات التصيد الاحتيالي ولكن دعونا لا نتقدم علينا – لا تزال نماذج اللغة لها حدودها.

في حين أنها قد تكون على قدم المساواة مع محلل التصيد الاحتيالي على مستوى المتدربين عندما يتعلق الأمر بالتفكير في هجمات التصيد الاحتيالي واستخراج الأهداف المحتملة ، إلا أنها تميل إلى الهلوسة وإنتاج مخرجات عشوائية.

لذلك، على الرغم من أنها قد لا تحدث ثورة في مشهد الأمن السيبراني حتى الآن، إلا أنها لا تزال أدوات مفيدة للمجتمع”، يعلق فلاديسلاف توشكانوف، كبير علماء البيانات في كاسبرسكي.

المصدر / timesofoman

تعليقات (0)

إغلاق