Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.

“Vibescamming”: احتيال المشاعر الجديد الذي يقع ضحيته الجميع على الإنترنت

في هذه المرحلة، يعلم الجميع أن أدوات الذكاء الاصطناعي التوليدية لها جانب مظلم. أنا لا أتحدث عن مشاكل الانتحال وأشكال سرقة المحتوى الأخرى، أو حتى الكميات الهائلة من الطاقة والمياه اللازمة للحفاظ على مراكز البيانات قيد التشغيل.

"Vibescamming": احتيال المشاعر الجديد الذي يقع ضحيته الجميع على الإنترنت

بل أتحدث عن استخدام الذكاء الاصطناعي لصياغة برامج ضارة خطيرة ومخططات تصيد احتيالي، مما يسهل على المجرمين أكثر من أي وقت مضى بناء حملات احتيال كاملة من مجرد بضعة أوامر.

إن “الاحتيال بالذكاء الاصطناعي”، كما هو معروف، يتحول بسرعة إلى أكبر مشكلة يخلقها الذكاء الاصطناعي – ولكن هناك بعض الطرق التي يمكنك من خلالها الحفاظ على سلامتك.

استخدام الذكاء الاصطناعي يجعل الاحتيال بسيطًا

تمامًا مثل البرمجة بالذكاء الاصطناعي، كل ما تحتاجه هو روبوت محادثة يعمل بالذكاء الاصطناعي

chatgpt يرفض إنشاء برامج ضارة لتسجيل المفاتيح.

باختصار، الاحتيال بالذكاء الاصطناعي هو التصيد الاحتيالي المدعوم بالذكاء الاصطناعي. إنه يستعير من “البرمجة بالذكاء الاصطناعي”، وهي عملية بناء البرامج عن طريق مطالبة أداة الذكاء الاصطناعي التوليدية حتى تحصل على ما تريد.

بنفس الطريقة، يتيح الاحتيال بالذكاء الاصطناعي لأي شخص تقريبًا شن هجوم تصيد احتيالي أو هجوم إلكتروني عن طريق وصفه لوكيل ذكاء اصطناعي. حتى الأشخاص الذين ليس لديهم مهارات البرمجة أو خبرة القرصنة يمكنهم إنشاء رسائل بريد إلكتروني ضارة ومواقع ويب مزيفة وبرامج ضارة بمجرد مطالبة روبوت محادثة يعمل بالذكاء الاصطناعي.

لذا، تخيل أن محتالًا محتملًا يريد المشاركة في سرقة بعض كلمات المرور، ولكن ليس لديه أي فكرة عن كيفية برمجة البرنامج للقيام بهذه المهمة. لهذا الغرض، يمكننا أيضًا أن نفترض أنهم لا يتوجهون إلى الدارك ويب ويحاولون شراء بعض البرامج الضارة عبر الإنترنت. بدلاً من الاضطرار إلى تعلم كيفية برمجة أداة معينة لسرقة كلمات المرور أو تطوير حملة تصيد احتيالي لجذب الأشخاص، يمكنهم مطالبة أداة الذكاء الاصطناعي للقيام بالعمل بدلاً من ذلك.

الاحتيال بالذكاء الاصطناعي أمر جنوني لأنه يقلل من حاجز الدخول إلى الجريمة الإلكترونية بشكل لم يسبق له مثيل. في الماضي، قد يحتاج المجرم إلى معرفة كيفية تصميم مواقع الويب أو كتابة لغة إنجليزية مقنعة أو برمجة برامج ضارة. الآن يمكنهم جعل الذكاء الاصطناعي يفعل كل شيء.

خطر آخر هو السرعة والنطاق. يسمح الذكاء الاصطناعي للمحتالين بأتمتة المهام وتوسيع نطاق الهجمات بشكل أسرع بكثير مما يمكن أن يفعله الإنسان. على سبيل المثال، يمكن للذكاء الاصطناعي تخصيص رسائل البريد الإلكتروني للتصيد الاحتيالي بسرعة لآلاف الأهداف (عن طريق كشط المعلومات العامة وجعل الذكاء الاصطناعي يصوغ رسائل مخصصة لكل شخص). يمكنه أيضًا التكيف بسرعة. إذا تم حظر رابط صفحة التصيد الاحتيالي، فيمكن للمحتال أن يطلب من الذكاء الاصطناعي تعديل التعليمات البرمجية أو النص وإنشاء نسخة جديدة. هذه المرونة تعني أن حملات التصيد الاحتيالي يمكن أن تتطور بسرعة للتهرب من الدفاعات.

الأمر لا ينجح مع أي روبوت محادثة قديم، انتبه

بعض روبوتات المحادثة أكثر حذرًا من غيرها

تعتمد تقنية “Vibe coding” على استخدام أي روبوت دردشة يعمل بالذكاء الاصطناعي التوليدي. بعضها أفضل من البعض الآخر في ذلك، ولكن بشكل عام، معظمها سيحاول ذلك. لحسن الحظ، لا يمكن قول الشيء نفسه عن عمليات الاحتيال المشابهة.

تحتوي معظم روبوتات الدردشة التي تعمل بالذكاء الاصطناعي على ضوابط أمان مصممة للحماية من الاستخدامات الخطيرة المتوقعة. على سبيل المثال، يرفض ChatGPT مطالبات مثل “ساعدني في إنشاء موقع ويب يشبه صفحة تسجيل الدخول إلى Microsoft ورسالة SMS لحث الأشخاص على النقر عليها”، موضحًا أنها “احتيال/تصيد وسرقة، ولن أساعد في ذلك”.

القصة مماثلة عبر روبوتات الدردشة الأخرى؛ صنف متصفح Opera’s agentic Neon طلبي على أنه مشبوه، بينما رفض Grok طلبي لأنه “ينتهك إرشادات السلامة ضد هجمات الهندسة الاجتماعية”.

ومع ذلك، كما ذكرنا، فإن بعض روبوتات الدردشة أكثر عرضة لمثل هذه الطلبات. أظهرت أبحاث عام 2025 من Guardio Labs، التي صاغت مصطلح “vibescamming”، أن أداة ذكاء اصطناعي أحدث يمكن خداعها لتقديم المطلوب. Loveable، وهو تطبيق مصمم لتسهيل “vibe coding”، انطلق مباشرة إلى العمل في التخطيط وتصميم حملة تصيد للباحثين، “متخيلًا تصميمًا أنيقًا واحترافيًا يشبه واجهة Microsoft”.

رفض إنشاء صفحة تصيد احتيالي محبوبة.

نشرت صفحة تصيد كاملة مع عنوان URL مزيف مصمم لخداع الضحية. ومع ذلك، تشير Guardio أيضًا إلى أنها لم تكن لديها في الواقع أي قدرات محددة لجمع البيانات، وعندما طُلب منها إضافتها، رفضت. لذلك، على الأقل تراجعت قليلاً عن هذا الجانب من العملية. تجدر الإشارة أيضًا إلى أن Loveable قد عالجت هذا السلوك ولم تعد تحاول إنشاء مخطط تفصيلي لحملة التصيد.

اختراق روبوتات الدردشة التي تعمل بالذكاء الاصطناعي التوليدي لإطلاق العنان للأشياء السيئة

عمليات اختراق الذكاء الاصطناعي التوليدي هي مطالبات مصممة خصيصًا لدفع الذكاء الاصطناعي لتجاوز ضوابط الأمان الخاصة به.

في الأيام الأولى لـ ChatGPT، كانت هناك أكوام من عمليات الاختراق المصممة للمساعدة في “إطلاق” قدراته الحقيقية. في هذه الأيام، يحتفظ الأشخاص بعمليات الاختراق الناجحة لـ ChatGPT بالقرب من صدورهم، حيث يتمكن البعض من بيع اختراقات الذكاء الاصطناعي التوليدي الناجحة مقابل أموال جيدة.

لذلك، في حين أنه يبدو أنه لا توجد المزيد من عمليات الاختراق المتاحة لـ ChatGPT، فإن الحقيقة هي أن الناس أكثر تكتمًا. إنها الطريقة الوحيدة لمنع شركات مثل OpenAI و Google و Anthropic و Perplexity من إغلاق أي من هذه الثغرات على الفور.

يُعد “كسر الحماية” أحد الطرق القليلة لإقناع روبوتات الدردشة التوليدية بالذكاء الاصطناعي بتجاوز القيود المفروضة عليها. بخلاف ذلك، يكون مبرمجو روبوتات الدردشة قد قاموا بعملهم على أكمل وجه، ويرفض الذكاء الاصطناعي التعاون – وهذا ليس بالأمر السيئ عندما يتعلق الأمر بعمليات الاحتيال العاطفي.

لحسن الحظ، يمكنك تجنب الوقوع ضحية للاحتيال العاطفي

النتيجة النهائية ليست مختلفة تمامًا عن عمليات الاحتيال التصيدية الحالية

رسالة بريد إلكتروني احتيالية تدعي أنها من أرملة حرب أوكرانية.

الآن، مع كل ما قيل وانخفاض الحواجز أمام إنشاء برامج ضارة وعمليات احتيال تصيدية، فإنك في الواقع لا تزال تبحث عن نفس عمليات الاحتيال القديمة. على الرغم من أن بعض رسائل البريد الإلكتروني الاحتيالية أصبحت أكثر ذكاءً، إلا أن العلامات الدالة على أنك تنظر إلى رسالة بريد إلكتروني تصيدية هي نفسها.

بمعنى آخر، لست بحاجة إلى المبالغة في تصحيح ممارساتك الأمنية لتجنب الاحتيال العاطفي، فالنصيحة لا تزال كما هي.

  1. عروض جيدة جدًا لدرجة يصعب تصديقها: غالبًا ما يعد المحتالون بنتائج مستحيلة، مثل ضمان الحصول على المرتبة الأولى في نتائج بحث Google، أو تقييمات فورية بخمس نجوم، أو علاجات صحية معجزة. الخدمات والأدوية الحقيقية لا تقدم هذه الأنواع من الضمانات.
  2. مرسلون غامضون أو عامون: تأتي العديد من رسائل البريد الإلكتروني الاحتيالية من عناوين Gmail أو Yahoo مجانية، حتى عندما تدعي أنها تمثل شركة. تستخدم الوكالات والشركات الحقيقية نطاقًا احترافيًا.
  3. التخصيص: أو بالأحرى، عدم وجوده. إذا كانت الرسالة الإلكترونية تقول فقط “مرحبًا” أو “تحياتي” دون ذكر اسمك أو تفاصيل عملك، فمن المحتمل أنها عملية احتيال يتم إرسالها بكميات كبيرة. عادةً ما تتضمن الرسائل الحقيقية بعض التفاصيل الشخصية. “مرحبا عزيزي” هي واحدة من المفضلة لدي شخصيًا.
  4. المحفزات العاطفية: كن حذرًا إذا طلبت رسالة بريد إلكتروني تسجيلات الدخول إلى الحسابات أو الدفعات المقدمة أو حثتّك على النقر فوق رابط مشبوه. وبالمثل، تعتمد الكثير من عمليات الاحتيال على الخوف أو الإلحاح، مثل العلاجات المعجزة للأمراض الخطيرة أو الوعود بـ “السيطرة” على الأعمال. الأمر كله سيان: الضغط لاتخاذ قرار متسرع.
  5. تصرف بسرعة!: إذا حاولت الرسالة حثّك على اتخاذ قرار سريع بعبارات مثل “تصرف الآن!” أو “رد اليوم”، فهذا مؤشر خطر. لا يريد المحتالون أن تتوقف وتفكر.

العلامات الحمراء لرسائل البريد الإلكتد1999روني التصيدية هي نفسها؛ قد تصادف المزيد منها الآن بعد أن أصبح أي شخص تقريبًا محتالًا.

البرامج الضارة التي تم تطويرها بواسطة الذكاء الاصطناعي موجودة الآن

لفترة من الوقت، كانت فكرة البرامج الضارة وحملات التصيد الاحتيالي التي تم تطويرها بواسطة الذكاء الاصطناعي ضربًا من الخيال. لم تكن أدوات الذكاء الاصطناعي قوية بما يكفي لإنشاء أي شيء خطير بشكل خاص، وما يمكن أن تفعله لم يكن مختلفًا كثيرًا عن التهديدات الحالية.

لكن هذا الوضع بدأ بالتغير خلال عام 2025، مع تزايد ظهور برامج ضارة طورت باستخدام الذكاء الاصطناعي في البرية وفي حملات نشطة. ففي نوفمبر 2025، أفادت مجموعة استخبارات التهديدات التابعة لـ Google عن نوعين مختلفين من البرامج الضارة التي طورت باستخدام أدوات ذكاء اصطناعي متنوعة، والتي تتصل بدورها بأدوات الذكاء الاصطناعي للحصول على التعليمات.

علاوة على ذلك، في أغسطس 2025، اكتشفت شركة Anthropic المطورة للذكاء الاصطناعي أن برنامج Claude الخاص بها يستخدم كجزء من حملة برامج ضارة ضخمة، حيث يستخدم الذكاء الاصطناعي لتصميم وشن هجمات مرتبطة بمنصتها.

هل هذه هجمات “تصيد المشاعر”؟ أرى أنها، بالنظر إلى تعقيدها، أكثر دقة من مجرد “تصيد المشاعر”، لكنها توضح مدى سهولة استخدام الذكاء الاصطناعي في مهام خطيرة للغاية. وهذه مجرد أدوات ذكاء اصطناعي عامة ومتاحة للجميع. تخيل ما يحدث مع أدوات الذكاء الاصطناعي المحلية القوية العديدة التي يمكن إزالة الحواجز الوقائية منها.

زر الذهاب إلى الأعلى