Preloader
کلاه‌برداری‌های هوش مصنوعی؛ روش‌ها و راه‌های شناسایی

کلاه‌برداری‌های هوش مصنوعی؛ روش‌ها و راه‌های شناسایی

با پیشرفت فناوری هوش مصنوعی، مجرمان سایبری اکنون قادرند حملاتی هوشمند، شخصی‌سازی‌شده و فریبنده ایجاد کنند. روش‌هایی مانند فیشینگ پیشرفته، جعل صدا و ویدیوهای دیپ‌فیک، شناسایی این حملات را برای کاربران بسیار دشوار کرده‌اند.

 روش‌های رایج کلاه‌برداری با هوش مصنوعی

 فیشینگ هوشمند

طبق تحقیقات شرکت Ivanti، مهاجمان از هوش مصنوعی تولیدی (GenAI) برای ساخت پیام‌های فیشینگ باورپذیر و ارزان استفاده می‌کنند. این پیام‌ها با استفاده از اطلاعات موجود در فضای مجازی شخصی‌سازی شده و احتمال فریب قربانی را افزایش می‌دهند.

 ویدیوهای جعلی (Deepfake)

استفاده از دیپ‌فیک دیگر محدود به چهره‌های مشهور نیست. حالا حتی مدیران شرکت‌ها نیز در معرض جعل چهره و صدا قرار دارند، که می‌تواند برای کلاه‌برداری‌های مالی یا اطلاعاتی خطرناک باشد.

 کلونینگ صدا

مجرمان با ابزارهای هوش مصنوعی، صدای افراد نزدیک به قربانی مثل اعضای خانواده یا دوستان را تقلید کرده و پیام‌های جعلی اضطراری ارسال می‌کنند. طبق نظرسنجی McAfee، این یکی از سریع‌ترین روش‌های کلاه‌برداری نوین است.

 

 چطور این کلاه‌برداری‌ها را تشخیص دهیم؟

زبان و سبک نوشتار

  • متن‌هایی با لحن بیش‌ازحد رسمی یا ربات‌گونه
  • عدم وجود جزئیات شخصی
  • تفاوت با سبک معمول ارتباط فرد

 تصاویر و ویدیوها

  • حرکات غیرطبیعی چشم یا دست
  • نورپردازی غیرواقعی یا پس‌زمینه‌های مصنوعی
  • پوست بیش‌ازحد صاف یا حالات چهره ناهماهنگ

تماس‌ها و صداهای جعلی

  • صداهایی با سرعت غیرطبیعی یا یکنواخت
  • نبود احساس انسانی در صدا
  • تفاوت لهجه یا تلفظ نسبت به فرد واقعی

 

 راهکارهای مقابله با کلاه‌برداری‌های هوش مصنوعی

  1. هشیار باشید:به پیام‌ها یا تماس‌های ناخواسته با احتیاط پاسخ دهید.
  2. آموزش ببینید:درباره جدیدترین روش‌های کلاه‌برداری مطلع باشید.
  3. از احراز هویت چندعاملی (MFA)در حساب‌های مهم خود استفاده کنید.
  4. ابزارهای تشخیص محتوا (برای متن، تصویر و ویدیو) را به کار بگیرید.
  5. تأیید اطلاعات حساسدرخواست‌های فوری را با تماس مستقیم و مطمئن بررسی کنید.

جمع‌بندی

فناوری‌های هوش مصنوعی باعث پیشرفت کلاه‌برداری‌های سایبری شده‌اند، اما با افزایش آگاهی، استفاده از ابزارهای حفاظتی و بررسی دقیق پیام‌ها می‌توان از قربانی شدن جلوگیری کرد. خبر خوب اینکه هنوز استفاده گسترده و حرفه‌ای مجرمان از GenAI محدود است، و سازمان‌ها فرصت دارند تا پیش‌دفاع‌های مؤثر طراحی کنند.

 

منبعمدادپرس
 www.medadpress.ir