حریم خصوصی در ChatGPT؛ تنظیمات، ذخیره داده و روشهای حفاظت
در عصر هوش مصنوعی، حجم زیادی از اطلاعات شخصی در جریان گفتوگو با مدلهای زبانی به اشتراک گذاشته میشود؛ از ترجیحات تغذیه و وضعیت زندگی گرفته تا اطلاعات تماس و دادههای مالی. اگر ندانیم که این دادهها کجا ذخیره میشوند و برای چه هدفی پردازش میشوند، امنیت دیجیتال ما در خطر است. در این راهنما، سیاستهای حفظ حریم خصوصی در ChatGPT (از شرکت OpenAI) بررسی شده و روشهای پیکربندی تنظیمات امنیتی بهصورت عملی توضیح داده میشود تا بتوانید بالاترین سطح حفاظت را تجربه کنید.
دادههایی که ChatGPT از کاربران جمعآوری میکند
OpenAI، توسعهدهنده ChatGPT، دو سیاست حفظ حریم خصوصی دارد: یکی برای کاربران منطقه اقتصادی اروپا (EEA)، بریتانیا و سوئیس، و دیگری برای سایر مناطق جهان. هر دو شامل جمعآوری گستردهای از دادههای شخصی و فنی هستند، از جمله:
- اطلاعات حساب کاربری (نام، رمز عبور، تاریخ تولد، تراکنشها)
- محتوای کاربران (پرامپتها، تصاویر، فایلها و صداها)
- دادههای فنی (IP، نوع مرورگر، زمان درخواست و نحوه تعامل)
- دادههای استفاده (کشور، منطقه زمانی، نوع اتصال و ویژگیهای استفادهشده)
- اطلاعات دستگاه (مدل و سیستمعامل)
- موقعیت مکانی تقریبی از طریق IP
- کوکیها و فناوریهای مشابه برای احراز هویت و افزایش امنیت
کاربران اروپایی در EEA حق دارند از پردازش دادههای خود برای بازاریابی مستقیم یا اهداف “منافع مشروع” شرکت جلوگیری کنند، در حالی که کاربران سایر مناطق چنین اختیاری را ندارند.
چگونه ChatGPT با دادهها رفتار میکند
بهصورت پیشفرض، ChatGPT دادههای گفتوگوهای کاربران (متن و فایلهای بارگذاریشده) را ممکن است برای آموزش مدل استفاده کند. این سیاست برای نسخههای رایگان، Plus و Pro فعال است.
در مقابل، حسابهای Enterprise، Business و API بهصورت پیشفرض از دادههای کاربران برای آموزش استفاده نمیکنند، مگر اینکه مدیران سازمان اجازه دهند.
اهداف اصلی OpenAI از پردازش دادههای کاربران عبارتاند از:
حفظ عملکرد و پاسخگویی به کاربران
بهبود کیفیت و توسعه قابلیتها
ارتباط با کاربران و اطلاعرسانی
حفاظت امنیتی در برابر حملات
پایبندی به الزامات قانونی
شرکت همچنین اعلام کرده ممکن است دادهها را ناشناسسازی کند، اما الزام همیشگی برای انجام آن ندارد و انتقال داده به پیمانکاران، شرکای فنی یا نهادهای دولتی را در چارچوب قانون مجاز میداند.
محل ذخیره دادهها و استاندارد امنیتی
تمام دادههای کاربران روی سرورهای OpenAI در ایالات متحده ذخیره میشود. با وجود تفاوت استانداردهای حفاظتی میان کشورها، شرکت میگوید امنیت و حفاظت را برای تمام کاربران در یک سطح ثابت نگه میدارد.
نحوه جلوگیری از استفاده دادهها برای آموزش مدل
برای غیرفعال کردن استفاده از دادههای شخصی در فرآیند آموزش:
- روی نام حساب کاربری در گوشه پایین سمت چپ کلیک کنید.
- وارد Settings (تنظیمات) شوید.
- بخش Data Controls (کنترل دادهها) را باز کنید.
- گزینهی “Training” یا ذخیره تاریخچه چتها را غیرفعال کنید.
با این کار دادههای شما برای آموزش مدل استفاده نمیشوند و تاریخچه گفتگوها نیز ذخیره نخواهد شد. این تنظیمات بهترین راه برای حفظ حریم خصوصی واقعی در ChatGPT هستند.
منبع: مدادپرس
www.medadpress.ir
