حرکت در میان تهدید فزایندهی استفاده غیرمدیریتشده از هوش مصنوعی
هوش مصنوعی در حال متحول کردن شیوهی عملکرد سازمانها و کسبوکارهاست، اما این تحول بزرگ در کنار فرصتهایش، تهدیدهای تازه و نادیدهای را نیز پدید آورده است. با گسترش سریع استفاده کارکنان و واحدهای مختلف از ابزارهای مبتنی بر هوش مصنوعی، بسیاری از سازمانها بهتدریج در حال از دست دادن کنترل بر نحوه و محل استفاده از این فناوری هستند.
در دل این روند، پدیدهای جدید و نگرانکننده ظهور کرده است. هوش مصنوعی سایه (Shadow AI) یعنی استفاده از ابزارهای هوش مصنوعی بدون نظارت یا تأیید تیمهای فناوری اطلاعات و امنیت. این مسئله اکنون به یکی از چالشهای راهبردی اصلی برای مدیران ارشد امنیت اطلاعات (CISO) تبدیل شده است.
بر اساس گزارش جدید شرکت Delinea با عنوان «هوش مصنوعی در امنیت هویت در سال ۲۰۲۵: نیاز به راهبردی نو»، حدود ۴۴ درصد از سازمانهایی که از هوش مصنوعی بهره میبرند، اعلام کردهاند که واحدهای مختلفشان بدون هماهنگی با بخشهای فناوری یا امنیت، از ابزارهای هوش مصنوعی استفاده میکنند. همین میزان 44 درصد نیز از فعالیت کارکنان در استفادهی غیرمجاز از هوش مصنوعی مولد (Generative AI)آسیب دیدهاند.
در ادامه، سه تهدید اصلی ناشی از گسترش هوش مصنوعی سایه و راهکارهای کلیدی برای کاهش این خطرات از منظر CISO بررسی میشود:
راهکار اول؛ شکافهای سیاستگذاری و نبود نظارت کافی بر حاکمیت هوش مصنوعی
اگرچه ۸۹ درصد از سازمانها ادعا میکنند نوعی سیاست یا کنترل امنیتی برای محدودسازی یا نظارت بر دسترسی هوش مصنوعی به دادههای حساس دارند، اثربخشی و گسترهی این تدابیر بهطور چشمگیری متفاوت است.
تنها ۵۲ درصد از شرکتهای جهانی از کنترلهای جامع برخوردارند، در حالی که سازمانهای کوچکتر فاصلهی بیشتری از استاندارد مطلوب دارند. نبود چارچوب حاکمیت قوی و شفافیت کافی در فعالیتهای هوش مصنوعی باعث افزایش خطر نقض داده، تخطی از مقررات و افشای ناخواستهی اطلاعات میشود.
برای مثال، داشتن سیاست مشخصی برای استفاده مجاز از ابزارهای هوش مصنوعی باید حداقل اقدام ممکن باشد، اما فقط ۵۷ درصد از سازمانها چنین سیاستی را ایجاد کردهاند. کنترلهای حیاتی دیگر نیز وضعیت مطلوبی ندارند:
کنترل دسترسی به مدلها و عاملهای AI تنها در ۵۵ درصد از شرکتها فعال است، ثبت و ممیزی فعالیتهای AI هم در ۵5 درصد و مدیریت هویت برای موجودیتهای هوش مصنوعی در فقط ۴۸ درصد از سازمانها اجرا میشود.
بدون این کنترلهای زیربنایی، مدیران امنیت اطلاعات عملاً دید کاملی نسبت به فعالیتهای هوش مصنوعی در زیرساخت دیجیتال خود ندارند.
راهکار دوم؛ چالشهای عصر هوش مصنوعی عاملی (Agentic AI)
با پیشرفت سریع فناوری به سمت هوش مصنوعی عاملی (Agentic AI) سیستمهایی که قادرند بهصورت خودکار تصمیمگیری و اقدام کنند؛ ابعاد تازهای از تهدیدهای امنیتی پیدا کردهاند.
هرچه این Agent AIها کنترل و دسترسی بیشتری بر دادهها و سامانههای حیاتی سازمانی به دست آورند، خطر نفوذ، سوءاستفاده یا اجرای اقدامهای غیرمجاز افزایش مییابد. ضعف در امنیت هویت دیجیتال، این آسیبپذیری را چند برابر میکند.
در چنین شرایطی، لازم است تیمهای امنیتی راهبردهای سنتی خود را بهروزرسانی کرده و هویتهای ماشینی (Machine Identities) را همانند کاربران انسانی با دقت، احراز، کنترل و پایش کنند. تنها با چنین نگاهی میتوان از رشد سامانههای خودمختار در عین حفظ امنیت دادهها بهرهبرداری کرد.
راهکار سوم؛ اعتماد بیش از حد سازمانها به مدیریت هویت ماشینی
در حالی که بسیاری از سازمانها هنوز فاقد حاکمیت جامع در حوزهی هوش مصنوعی هستند، سطح اعتمادشان به امنیت هویت ماشینی بیش از واقعیت است.
طبق پژوهش Delinea، ۹۳ درصد از سازمانها به امنیت هویتهای ماشینی خود اطمینان دارند، اما در عمل ۸۲ درصد از آنها فقط از فرایندهای اولیه برای مدیریت چرخهی عمر این هویتها استفاده میکنند و تنها ۵۸ درصد کنترلهای جامع و خودکار دارند.
بهعلاوه، فقط ۶۱ درصد از شرکتها اعلام کردهاند که دید کامل نسبت به همهی هویتهای ماشینی در شبکهی خود دارند. این شکاف میان اعتماد و واقعیت باعث میشود تهدیدهای پنهان در لایههای هوش مصنوعی بدون شناسایی باقی بمانند و در نهایت به رخنههای امنیتی منجر شوند.
چگونه از امنیت هویت در برابر هوش مصنوعی سایه محافظت کنیم؟
برای کاهش خطرات ناشی از استفاده غیرمدیریتشده از هوش مصنوعی، نخستین گام تقویت شفافیت و حاکمیت است.
سازمانها باید دستورالعملهای دقیق برای استفاده مجاز از ابزارهای هوش مصنوعی تدوین کرده، کنترلهای سختگیرانهی دسترسی را اعمال کنند، فعالیتهای AI را ثبت و ممیزی کنند و سیستم مدیریت هویت برای موجودیتهای هوش مصنوعی را نهادینه سازند.
زمانی که موجودیتهای AI بهعنوان «هویتهای مستقل دیجیتال» در نظر گرفته شوند، با همان استانداردهای احراز هویت، مجوزدهی، نظارت و پاسخگویی کاربران انسانی میتوان از پتانسیل این فناوری بدون آسیب به امنیت بهرهمند شد.
با گسترش Agentic AI، لازم است راهبردهای مدیریت هویت دیجیتال نیز تحول یابند. این تحول شامل کنترل دقیقتر دسترسی، پایش پیوستهتر، ممیزی عمیقتر و بهکارگیری سامانههای پیشرفتهی مدیریت هویت است که بتوانند با سرعت رشد فناوری هوش مصنوعی همگام شوند.
در نهایت، مدیران امنیت اطلاعات و رهبران فناوری CISO و CTO باید رویکردی پیشگیرانه، پویا و مشارکتی در پیش بگیرند، رویکردهایی نظیر همکاری مداوم با واحدهایی که در حال آزمودن ابزارهای هوش مصنوعی هستنند یا نسبت به تهدیدات نوظهور روند افزایش آگاهی در پیش بگیرند. آنها باید چارچوبی قدرتمند برای حاکمیت هوش مصنوعی طراحی کنند که میان نوآوری، امنیت و مدیریت ریسک توازن برقرار کند.
سازمانی که بتواند امنیت هویت دیجیتال خود را همپای تحولات هوش مصنوعی ارتقا دهد، میتواند با اطمینان از ظرفیتهای AI بهره گیرد و در عین حال از دادهها و عملیات حیاتی خود در برابر تهدیدات سایه محافظت کند.
منبع: مدادپرس
www.medadpress.ir
