Preloader
هشدار جدی درباره کدنویسی با هوش مصنوعی

هشدار جدی درباره کدنویسی با هوش مصنوعی

با گسترش استفاده از دستیارهای هوش مصنوعی در توسعه نرم‌افزار، پژوهش‌های جدید نشان می‌دهند سرعت تولید کد تضمین‌کننده اما کیفیت و امنیت آن نیست و همچنان چالش‌های جدی در این زمینه وجود دارد.  

گفتنی است، مدل‌های زبانی حالا بخش زیادی از کدنویسی، از رِفَکتور تا ساخت کامل اپلیکیشن، را انجام می‌دهند؛ اما آسیب‌پذیری‌های سنتی نرم‌افزار اکنون با خطاهای خاص مدل‌های هوش مصنوعی ترکیب شده و همین موضوع تقریباً هر هفته مشکلات تازه‌ای ایجاد می‌کند.

مطالعات Veracode نشان می‌دهد اگرچه مدل‌های امروزی در ۹۰ درصد موارد کد بدون خطا تولید می‌کنند، ۴۵ درصد خروجی آن‌ها همچنان شامل ضعف‌های کلاسیک OWASP است. گزارش ویز نیز تأیید می‌کند که ۲۰ درصد اپلیکیشن‌های وایب‌کدنویسی‌شده دارای باگ‌های جدی هستند.

 نمونه‌هایی مانند استارتاپ Enrichlead که ۱۰۰ درصد کد خود را با Cursor AI نوشته بود و پس از کشف نقص‌های امنیتی تعطیل شد، نشان می‌دهد اعتماد کامل به خروجی مدل‌ها می‌تواند خسارت‌بار باشد.

به گفته پژوهشگران رایج‌ترین ضعف‌ها همچنان شامل نبود اعتبارسنجی ورودی، افشای کلیدهای API، احراز هویت ناقص، استفاده از توابع خطرناک، کتابخانه‌های قدیمی و حتی پیکربندی اشتباه دیتابیس‌ها است. برخی رخدادهای اخیر مانند نفوذ به پلتفرم Nx یا آسیب‌پذیری Base44 نیز ثابت می‌کند که خطر فقط در کد نیست؛ بلکه در پلتفرم‌های اجرای اپلیکیشن و حتی ابزارهای توسعه AI نیز وجود دارد.

برخی پژوهش‌ها نشان‌دهنده آن است که بازنویسی‌های متعدد توسط مدل‌ها امنیت کد را کاهش می‌دهد و پرومپت‌های مبهم، زمینه‌ساز تولید کد آسیب‌پذیرتر می‌شوند. در صنایع حساس مثل مالی یا درمانی نیز «کمبود عمق» مدل‌ها سبب نادیده‌گرفتن الزامات قانونی می‌شود.

کارشناسان تأکید دارند که کاهش ریسک تنها با ترکیبی از اقدامات تکنیکی و سازمانی ممکن است: بررسی خودکار کد با ابزارهای SAST، تعریف الزامات امنیتی در پرومپت‌های سیستمی، بازبینی انسانی متخصص و آموزش توسعه‌دهندگان برای استفاده امن‌تر از AI.