روابط سريعة
لطالما كانت تطبيقات المواعدة عبر الإنترنت مُرتعًا لعمليات الاحتيال العاطفية والرومانسية. حيث يُحاول مجرمو الإنترنت الذهاب إلى أبعد الحدود لسرقة الأموال والمعلومات الشخصية والصور الشخصية. ستجد ملفاتهم الشخصية المُزيفة في كل مكان.
ومع انتشار أدوات الذكاء الاصطناعي التوليدي ، أصبح الاحتيال العاطفي والرومانسي أسهل في التنفيذ. فهي تُخفض الحواجز أمام الدخول. فيما يلي بعض الطرق الشائعة التي يستغل بها المُحتال الذكاء الاصطناعي — بالإضافة إلى كيفية حماية نفسك. تحقق من الأسباب التي تجعل مشكلات الأمان للذكاء الاصطناعي التوليدي تزداد سوءًا.
1. إرسال رسائل البريد الإلكتروني التي يتم إنشاؤها بواسطة الذكاء الاصطناعي
تزداد صعوبة تصفية رسائل البريد الإلكتروني العشوائية. يُسيء الاحتيال العاطفي والرومانسي استخدام أدوات الذكاء الاصطناعي التوليدي لكتابة رسائل مُضللة ومُقنعة وإنشاء حسابات مُتعددة في غضون دقائق. حيث يتمكن المُحتال من الإقتراب من المئات على الفور تقريبًا.
سترى رسائل البريد العشوائي التي تم إنشاؤها بواسطة AI عبر العديد من الأنظمة الأساسية ، وليس فقط صندوق البريد الإلكتروني الخاص بك. خذ عملية احتيال الرقم الخطأ كمثال. يُرسل المُحتال صورًا ذاتية لطيفة أو صورًا مُوحية بشكل جماعي. وإذا استجاب أي شخص ، فسيتم اعتباره ضحية بريئة.
بمجرد اتصال شخص ما ، سيتم نقله إلى منصة أخرى للمُراسلة (على سبيل المثال ، WhatsApp أو Telegram). معظم المُخططات تعمل لأسابيع. يبني المُحتال الثقة تدريجياً قبل أن يطلب من الأهداف الانضمام إلى خطط الاستثمار أو مساعدتهم على تحمل تكلفة فواتيرهم أو دفع ثمن الرحلات.
حافظ على سلامتك من خلال تجنب الرسائل العشوائية تمامًا. قلل من تفاعلك مع الغرباء ، بغض النظر عن مظهرهم أو ما يُقدمونه.
2. الرد على المزيد من المحادثات بسرعة
تنتشر روبوتات الدردشة كالنار في الهشيم على الإنترنت. أفادت Imperva أنَّ الروبوتات السيئة شكلت 30% من حركة البيانات التلقائية على الويب في عام 2022. ستجد واحدًا في غضون ثوانٍ من التمرير عبر صفحات Tinder.
أحد أسباب هذا الارتفاع المفاجئ في الروبوتات هو انتشار أدوات الذكاء الاصطناعي التوليدي. والتي تُساعد على تطوير الروبوتات بكميات كبيرة. ما عليك سوى إدخال المُطالبة الصحيحة ، وستُقدم أداتك مُقتطف شفرة برمجية كاملًا وفعالًا لإنشاء الروبوتات.
اعرف متى تتحدث إلى روبوت. على الرغم من أنَّ الذكاء الاصطناعي يستخدم نغمة محادثة طبيعية ، إلا أنَّ حواره لا يزال رتيبًا ومُربكًا. بعد كل شيء ، تتبع روبوتات الدردشة الأنماط فقط. قد تنتج ردودًا متشابهة على أسئلة وبيانات وطلبات مُختلفة.
3. تكوين هويات مُتعددة من الصور المسروقة
تتلاعب مولدات الفن بالذكاء الاصطناعي بالصور. خذ العرض التوضيحي أدناه كمثال. قمنا بتغذية Playground AI بصورة واضحة لمُغنية مشهور — أنتجت المنصة ثلاثة أشكال مُختلفة في غضون ثوانٍ.
نعم ، تحتوي على بعض العيوب. لكن لاحظ أننا استخدمنا أداة مجانية تُشغل نموذجًا قديمًا لتحويل المُطالبات النصية إلى صورة. يُنتج المحتال مُخرجات أكثر واقعية بتكرارات مُعقَّدة. يُمكنه بسرعة عرض مئات الصور المُخصصة والمعالجة من بضع عينات فقط.
لسوء الحظ ، يصعب اكتشاف صور الذكاء الاصطناعي. سيكون أفضل رهان هو إجراء بحث عكسي عن الصور وتنقيح النتائج ذات الصلة. تحقق من ما هو DALL-E وكيف يتم إنشاء الصور من أوصاف نصية؟
4. إنشاء حسابات مُخادعة ذات مظهر أصيل
تقترب الروبوتات من الضحايا بشكل جماعي. لذا فإنَّ الشخص الذي يستخدم الاحتيال الرومانسي يُفضل مُخططًا مُستهدفًا حيث يُنشئ ملفًا شخصيًا واحدًا أو اثنين فقط بمظهر حقيقي. سيستخدم الذكاء الاصطناعي ليبدو مقنعًا. يُمكن لأدوات الذكاء الاصطناعي التوليدي تأليف أوصاف ذات مظهر أصيل تبدو طبيعية وحقيقية ؛ القواعد النحوية السيئة لن تكون مشكلة بعد الآن.
إليك ChatGPT وهو يقترح بعض الهوايات لإدراجها في ملف تعريف المُواعدة.
وهنا ChatGPT يكتب سيرة ذاتية كاملة لملف تعريف المواعدة.
نظرًا لأنَّ هذه العملية تستغرق الكثير من الوقت ، فإنها تتطلب أيضًا مردودًا أكبر. لذلك ، يميل المُحتال إلى طلب المزيد. بمجرد كسب ثقتك ، سيطلب المساعدة في “المشكلات” المختلفة ، مثل دفع فواتير المستشفى أو مدفوعات القروض أو الرسوم الدراسية. قد يزعم شخص ما أنه سيزورك إذا قمت بدفع ثمن تذكرته.
هؤلاء المجرمون الإلكترونيون ماهرون في التلاعب بالضحايا. أفضل أسلوب هو تجنب التعامل معهم منذ البداية. لا تدعهم يقولون أي شيء. خلاف ذلك ، قد تقع تدريجيًا في خداعهم وأساليبهم في التلاعب.
5. استغلال تقنية التزييف العميق للابتزاز الجنسي
أدوات التزييف العميق المُتقدمة بالذكاء الاصطناعي تتطور بمعدل سريع ينذر بالخطر. تعمل التقنيات الجديدة على تقليل العيوب الطفيفة في مقاطع الفيديو المُزيفة بشكل عميق ، مثل الوميض غير الطبيعي ، وتفاوت درجات لون البشرة ، والصوت المشوه ، والعناصر غير المُتسقة.
لسوء الحظ ، تعمل هذه الأخطاء أيضًا كعلامات تحذير. يُؤدي تمكين المستخدمين من إزالتها إلى صعوبة التمييز بين مقاطع الفيديو الشرعية وتلك المزيفة.
يوضح بلومبرج كيف يُمكن لأي شخص لديه معرفة تقنية أساسية أن يتلاعب بصوته ومرئياته لتكرار مظهر الآخرين. تحقق من المخاطر الرئيسية لتقنية التزييف العميق وكيفية اكتشافها.
بصرف النظر عن إنشاء حسابات واقعية للمواعدة ، يستغل المُحتال أدوات التزييف العميق للابتزاز الجنسي. حيث يخلط الصور ومقاطع الفيديو العامة مع المواد الإباحية. بعد التلاعب بالمحتوى غير المشروع ، سيقوم بابتزاز الضحايا والمُطالبة بالمال أو البيانات الشخصية أو الخدمات الجنسية.
لا تستسلم إذا تم استهدافك. اتصل بالرقم 1–800-FBI ، أو تواصل مع أي مكتب لإنفاذ القانون ، أو قم بزيارة المكتب الشرطة المحلي إذا وجدت نفسك في هذا الموقف.
6. تكامل نماذج الذكاء الاصطناعي مع أنظمة القرصنة للوصول إلى كلمات السر
بينما تدعم نماذج اللغات مفتوحة المصدر بعض التطورات في مجال الذكاء الاصطناعي ، فإنها أيضًا عرضة للاستغلال. سيستغل المُجرم أي شيء يُمكنه الوصول إليه. لا يُمكنك أن تتوقع منه تجاهل الخوارزمية الكامنة وراء نماذج اللغة المُعقَّدة للغاية مثل LLaMA و OpenAssistant.
في الحيل الرومانسية ، غالبًا ما يدمج المُتسلل نماذج اللغة مع اختراق كلمة السر. تُمكِّن إمكانيات تعلم الآلة والتعلم العميق للذكاء الاصطناعي أنظمة القرصنة القوية على إنتاج مجموعات كلمات السر بسرعة وكفاءة. يُمكنها حتى إجراء تنبؤات مُستنيرة إذا تم توفير سياق كافٍ.
ليس لديك سيطرة على ما يفعله المُحتال. لحماية حساباتك ، تأكد من إنشاء كلمة سر آمنة حقًا تتكون من أحرف خاصة ومجموعات أبجدية رقمية وأكثر من 14 حرفًا. تحقق من كيف يعمل اختراق كلمة السر؟ ما يجب معرفته.
7. تقليد أناس حقيقيين باستنساخ الصوت
بدأت مولدات الصوت بالذكاء الاصطناعي كلعبة رائعة. يقوم المُستخدم بتحويل عينات من مقطوعات فنانيه المُفضلة إلى أغانٍ أو حتى أغاني جديدة. خذ Heart on my sleeve كمثال. صنع Ghostwriter977 ، مُستخدم TikTok ، أغنية فائقة الواقعية تُقلد Drake و The Weeknd ، على الرغم من أن أيًا من الفنانين لم يُغنيها.
على الرغم من النكات والميمات المُحيطة به ، فإنَّ تركيب الكلام أمر خطير للغاية. تُمكن المجرمين من تنفيذ هجمات متطورة. على سبيل المثال ، يستغل الاحتيال الرومانسي أدوات استنساخ الصوت لاستدعاء الأهداف وترك تسجيلات خادعة. لن يُلاحظ الضحايا غير المعتادين على تركيب الكلام أي شيء غير عادي.
احمِ نفسك من عمليات الاستنساخ الصوتي للذكاء الاصطناعي من خلال دراسة كيفية توليف صوت المُخرجات. استكشف هذه المولدات. إنها فقط تُنشئ نُسخًا شبه متطابقة — ستظل تكتشف بعض العيوب والتناقضات. تحقق من الطرق التي قد تُنظم بها الحكومات أدوات الذكاء الاصطناعي.
احم نفسك من المُحتالين بالذكاء الاصطناعي أثناء المُواعدة
مع تقدم أدوات الذكاء الاصطناعي التوليدي ، ستُطور عمليات الاحتيال العاطفية طرقًا جديدة لاستغلالها. لا يُمكن للمُطورين إيقاف هؤلاء المجرمين. قم بدور استباقي في مكافحة الجرائم الإلكترونية بدلاً من مجرد الوثوق بأنَّ القيود الأمنية ستعمل. لا يزال بإمكانك استخدام تطبيقات المواعدة. لكن تأكد من أنك تعرف الشخص الموجود على الجانب الآخر من الشاشة قبل التعامل معه.
واحترس من المُخططات الأخرى المدعومة بالذكاء الاصطناعي. إلى جانب الحيل الرومانسية ، يستخدم المجرمون الذكاء الاصطناعي لسرقة الهوية والابتزاز الإلكتروني وهجمات برامج الفدية والقرصنة العنيفة. تعلم كيفية مكافحة هذه التهديدات أيضًا. يُمكنك الإطلاع الآن على أخطاء يجب تجنبها عند استخدام أدوات الذكاء الاصطناعي التوليدي.