
خطرات پنهان استفاده ناآگاهانه از GenAI در سازمانها
در محیط کاری امروز، استفاده از ابزارهای هوش مصنوعی مولد (GenAI) برای تسریع امور و افزایش بهرهوری بسیار رایج شده است. اما آیا واقعاً از ریسکهای امنیتی آن آگاه هستیم؟
براساس گزارش جدیدی از شرکت امنیتی Netskope، بهطور میانگین سازمانها در هر ماه بیش از ۷.۷ گیگابایت داده را از طریق ابزارهای GenAI به اشتراک میگذارند، در حالیکه ۷۵٪از کاربران سازمانی به این ابزارها دسترسی دارند.
روی تاریک GenAI: خطراتی که نادیده گرفته میشوند
واقعیت نگرانکننده این است که ۸۹٪از سازمانها هیچ نظارتی بر استفاده از GenAI درون مجموعهی خود ندارند. همچنین ۷۱٪ از کاربران با حسابهای شخصی از این ابزارها استفاده میکنند و حتی در صورت استفاده از حساب کاری، ۵۸٪از ورودها بدون سیستم یکپارچه ورود (SSO) انجام میشود. این موضوع، تیمهای امنیت سایبری را در تاریکی نگه میدارد.
به عنوان نمونه، کارکنان شرکت سامسونگ بهطور ناخواسته اطلاعات محرمانهای را از طریق ChatGPT افشا کردند. این اتفاق منجر به ممنوعیت استفاده از ابزارهای GenAI در این شرکت شد.
«هوش مصنوعی سایه» یا Shadow AI: تهدید پنهان سازمانها
Shadow AI به استفاده غیررسمی از ابزارهای هوش مصنوعی در سازمانها اطلاق میشود — استفادهای که بدون مجوز، ردیابی یا آگاهی بخش فناوری اطلاعات صورت میگیرد. دادههای وارد شده به این ابزارها ممکن است در سرورهای خارج از کنترل شرکت ذخیره شود و زمینهساز نشت اطلاعات و نقض حریم خصوصی شود.
بر اساس تحقیق شرکت Ivanti:
۸۱٪ از کارکنان اداری آموزش کافی درباره GenAI دریافت نکردهاند.
۱۵٪ از کارکنان از ابزارهای غیرمجاز استفاده میکنند.
فقط ممنوعیت کافی نیست
هرچند برخی شرکتها استفاده از GenAI را بهطور کامل ممنوع کردهاند، اما این راهکار به تنهایی مؤثر نیست. بدون آگاهی و آموزش کافی، این ممنوعیتها تنها باعث استفاده پنهانی و خارج از کنترل میشود.
راهکارهای پیشنهادی برای سازمانها:
تدوین سیاستهای شفاف درباره نحوه و زمان استفاده از ابزارهای GenAI در محل کار.
ارائه آموزشهای کاربردی به کارمندان درخصوص فرصتها و خطرات GenAI.
ممیزی منظم و پایش فعالیتها برای تضمین استفاده ایمن و مطابق با قوانین.
کنترل اطلاعات ورودی به ابزارهای GenAI برای حفظ حریم خصوصی و دادههای حساس.
نقطه کور مدیران: پذیرش بدون آگاهی
درحالیکه بسیاری از سازمانها تمایل دارند از GenAI برای رقابتپذیری استفاده کنند، اما پیادهسازی بدون درک دقیق از نحوه کارکرد این ابزارها میتواند منجر به نقض امنیت اطلاعات، مشکلات حقوقی و آسیب به اعتبار برند شود.
رهبران سازمانی نیازی به متخصص بودن در حوزه AI ندارند، اما باید سؤالات کلیدی را مطرح کنند:
این مدلهای هوش مصنوعی از چه دادههایی استفاده میکنند؟
چه نوع نظارتی روی آنها اعمال میشود؟
در صورت بروز خطا یا نشت اطلاعات، چه کسی مسئول است؟
بدون پاسخ به این سؤالات، پذیرش GenAI نه یک استراتژی بلکه یک ریسک بزرگ خواهد بود
منبع: مدادپرس
www.medadpress.ir