Preloader
حریم خصوصی در ChatGPT؛ تنظیمات، ذخیره داده و روش‌های حفاظت

حریم خصوصی در ChatGPT؛ تنظیمات، ذخیره داده و روش‌های حفاظت

در عصر هوش مصنوعی، حجم زیادی از اطلاعات شخصی در جریان گفت‌وگو با مدل‌های زبانی به اشتراک گذاشته می‌شود؛ از ترجیحات تغذیه و وضعیت زندگی گرفته تا اطلاعات تماس و داده‌های مالی. اگر ندانیم که این داده‌ها کجا ذخیره می‌شوند و برای چه هدفی پردازش می‌شوند، امنیت دیجیتال ما در خطر است. در این راهنما، سیاست‌های حفظ حریم خصوصی در ChatGPT (از شرکت OpenAI) بررسی شده و روش‌های پیکربندی تنظیمات امنیتی به‌صورت عملی توضیح داده می‌شود تا بتوانید بالاترین سطح حفاظت را تجربه کنید.

 

 داده‌هایی که ChatGPT از کاربران جمع‌آوری می‌کند

OpenAI، توسعه‌دهنده ChatGPT، دو سیاست حفظ حریم خصوصی دارد: یکی برای کاربران منطقه اقتصادی اروپا (EEA)، بریتانیا و سوئیس، و دیگری برای سایر مناطق جهان. هر دو شامل جمع‌آوری گسترده‌ای از داده‌های شخصی و فنی هستند، از جمله:

  • اطلاعات حساب کاربری (نام، رمز عبور، تاریخ تولد، تراکنش‌ها)
  • محتوای کاربران (پرامپت‌ها، تصاویر، فایل‌ها و صداها)
  • داده‌های فنی (IP، نوع مرورگر، زمان درخواست و نحوه تعامل)
  • داده‌های استفاده (کشور، منطقه زمانی، نوع اتصال و ویژگی‌های استفاده‌شده)
  • اطلاعات دستگاه (مدل و سیستم‌عامل)
  • موقعیت مکانی تقریبی از طریق IP
  • کوکی‌ها و فناوری‌های مشابه برای احراز هویت و افزایش امنیت

کاربران اروپایی در EEA حق دارند از پردازش داده‌های خود برای بازاریابی مستقیم یا اهداف “منافع مشروع” شرکت جلوگیری کنند، در حالی که کاربران سایر مناطق چنین اختیاری را ندارند.

 

 چگونه ChatGPT با داده‌ها رفتار می‌کند

به‌صورت پیش‌فرض، ChatGPT داده‌های گفت‌وگوهای کاربران (متن و فایل‌های بارگذاری‌شده) را ممکن است برای آموزش مدل استفاده کند. این سیاست برای نسخه‌های رایگان، Plus و Pro فعال است.

در مقابل، حساب‌های Enterprise، Business و API به‌صورت پیش‌فرض از داده‌های کاربران برای آموزش استفاده نمی‌کنند، مگر اینکه مدیران سازمان اجازه دهند.

اهداف اصلی OpenAI از پردازش داده‌های کاربران عبارت‌اند از:

حفظ عملکرد و پاسخ‌گویی به کاربران

بهبود کیفیت و توسعه قابلیت‌ها

ارتباط با کاربران و اطلاع‌رسانی

 حفاظت امنیتی در برابر حملات

 پایبندی به الزامات قانونی

شرکت همچنین اعلام کرده ممکن است داده‌ها را ناشناس‌سازی کند، اما الزام همیشگی برای انجام آن ندارد و انتقال داده به پیمانکاران، شرکای فنی یا نهادهای دولتی را در چارچوب قانون مجاز می‌داند.

 محل ذخیره داده‌ها و استاندارد امنیتی

تمام داده‌های کاربران روی سرورهای OpenAI در ایالات متحده ذخیره می‌شود. با وجود تفاوت استانداردهای حفاظتی میان کشورها، شرکت می‌گوید امنیت و حفاظت را برای تمام کاربران در یک سطح ثابت نگه می‌دارد.

 

نحوه جلوگیری از استفاده داده‌ها برای آموزش مدل

برای غیرفعال کردن استفاده از داده‌های شخصی در فرآیند آموزش:

  1. روی نام حساب کاربری در گوشه پایین سمت چپ کلیک کنید.
  2. وارد Settings (تنظیمات) شوید.
  3. بخش Data Controls (کنترل داده‌ها) را باز کنید.
  4. گزینه‌ی “Training” یا ذخیره تاریخچه چت‌ها را غیرفعال کنید.

با این کار داده‌های شما برای آموزش مدل استفاده نمی‌شوند و تاریخچه گفتگوها نیز ذخیره نخواهد شد. این تنظیمات بهترین راه برای حفظ حریم خصوصی واقعی در ChatGPT هستند.

 

منبعمدادپرس
www.medadpress.ir