⏱ این مطلب چقدر از وقت شما را میگیرد؟
حدود 6 دقیقه
چه اطلاعاتی را نباید با چت جی پی تی در میان بگذاریم؟
تقریباً همهی ما حداقل یکبار با چت جی پی تی مثل یک دوست یا دستیار قابلاعتماد صحبت کردهایم. همین گفتوگوها کافی هستند تا این چتبات به اطلاعات حساس ما دسترسی پیدا کند. به همین دلیل، از ChatGPT بهعنوان سیاهچاله حریم خصوصی هم یاد میشود. شرکتهایی مثل OpenAI از مکالمات کاربران برای آموزش مدلهای هوش مصنوعی استفاده میکنند، اما بعضی از دادهها وجود دارند که هرگز نباید با چت جی پی تی در میان گذاشته شوند.
چه اطلاعاتی را نباید به چت جی پی تی گفت؟
براساس گزارش Wall Street Journal، دستکم ۵ نوع دادهی حساس وجود دارد که نباید در ChatGPT نوشته شوند. ما در این مقاله، همراه با دو مورد اضافی، مجموعاً ۷ نوع اطلاعات خطرناک را بررسی میکنیم:
۱. اطلاعات هویتی و شخصی
شماره ملی، گواهینامه، گذرنامه، تاریخ تولد، آدرس منزل یا شماره تلفن شخصی از جمله اطلاعاتی هستند که نباید وارد چت جی پی تی کنید. دکتر جنیفر کینگ از دانشگاه استنفورد میگوید: «وقتی اطلاعاتی را تایپ میکنید، در واقع مالکیت آن را از دست میدهید.» به همین دلیل، از بیان هرگونه دادهی شناسایی خودداری کنید.

۲. نتایج و سوابق پزشکی
چت جی پی تی جایگزین پزشک نیست. وارد کردن نتایج آزمایش یا سابقهی بیماری در چت ممکن است خطرناک باشد، چون هوش مصنوعی تحت قوانین سختگیرانهی حریم خصوصی درمانی (HIPAA) نیست. اگر قصد دارید از آن برای تحلیل دادهی پزشکی استفاده کنید، فقط اعداد خام (مثل سطح قند خون) را بدون اطلاعات هویتی وارد کنید.
علاوه بر این، چند نکتهی عملی که باید رعایت کنید:
-
هرگز نام، تاریخ تولد، آدرس یا شناسههای بیمار را همراه با دادههای پزشکی نفرستید — این اطلاعات هویتپذیر (PII/PHI) را تشکیل میدهند و ریسک نشت را بالا میبرند.
-
از ابزارهای مخصوص و سازگار با قوانین حریم خصوصی (مثل پورتالهای بیمارستان، سرویسهای تلهمدیسین رسمی یا نرمافزارهای دارای سازوکارهای HIPAA-compliant) برای اشتراکگذاری پروندهها استفاده کنید، نه چتباتهای عمومی.
-
پیش از ارسال هر دادهای، آن را «غیر هویتدار» کنید: نامها، شمارهها و هر نشانهای که بتواند شما یا فرد موردنظر را شناسایی کند، حذف یا جایگزین شود. برای مثال بهجای «نتیجهی آزمایش محمد رضایی، ۱۴/۰۳/۱۳۷۰» بنویسید «نتیجه قند خون: ۱۳۵ mg/dL».
-
اگر خواستید یک تصویر از آزمایش یا گزارش را تحلیل کنید، ابتدا تمام اطلاعات هویتی روی تصویر را ماسک یا کراپ کنید.
-
به یاد داشته باشید پاسخهای هوش مصنوعی ممکن است اشتباه یا ناقص باشند — همیشه قبل از تصمیمگیریهای درمانی با پزشک معتمد مشورت کنید.
-
در موارد اضطراری یا علائم جدی، فوراً با اورژانس یا پزشک تماس بگیرید؛ چتباتها برای وضعیتهای اورژانسی طراحی نشدهاند.

۳. اطلاعات مالی و حسابهای بانکی
اطلاعات مالی و حسابداری از حساسترین دادههایی هستند که هیچوقت نباید با هوش مصنوعی در میان گذاشته شوند. از دادن اطلاعات بانکی مانند شماره کارت، رمز دوم، CVV یا هرگونه اطلاعات مالی به چت جی پی تی خودداری کنید. در صورت نشت داده یا دسترسی غیرمجاز، این اطلاعات میتواند مورد سوءاستفاده قرار گیرد.
بهویژه اگر از نسخههای غیررسمی یا غیرامن ChatGPT استفاده میکنید، خطر درز اطلاعات بیشتر است. چت جی پی تی ممکن است امن باشد، اما هیچ تضمینی وجود ندارد که دادههای مالی شما در سرورها یا تاریخچه چتها باقی نمانند. همچنین دسترسی بدافزارها یا افزونههای مخرب مرورگر میتواند باعث افشای این اطلاعات شود.
اگر نیاز به تحلیل دادههای مالی دارید، از ابزارهای تخصصی و معتبر حسابداری استفاده کنید، نه چتباتهای عمومی. در نهایت، همیشه به یاد داشته باشید که چت جی پی تی یک مشاور مالی یا بانکی نیست و نباید با آن اطلاعات حساس بانکی خود را به اشتراک بگذارید.
۴. اطلاعات شرکتی و کاری
هرگز دادههای داخلی شرکت، اطلاعات مشتریان یا کد منبع پروژهها را در چت جی پی تی وارد نکنید. شرکت سامسونگ در سال ۲۰۲۳ پس از افشای اطلاعات محرمانه توسط کارکنانش، استفاده از چت جی پی تی را ممنوع کرد. اگر از نسخهی حرفهای ChatGPT Enterprise استفاده میکنید، این خطر کمتر است چون دادهها برای آموزش مدلها استفاده نمیشوند.
۵. رمزها و اطلاعات ورود
چت جی پی تی یک پسورد منیجر (Password Manager) نیست و نباید از آن برای ذخیره یا تولید رمز عبور استفاده کنید. وارد کردن پسورد، پینکد، یا هرگونه اطلاعات ورود در چتباتها اشتباهی جدی است. این دادهها ممکن است در حافظهی موقت (Cache) باقی بمانند و در صورت بروز نشت داده یا دسترسی غیرمجاز، امنیت حسابهای شخصی یا کاری شما را به خطر بیندازند.
حتی اگر از ChatGPT نسخهی رسمی استفاده میکنید، باز هم هیچ تضمینی وجود ندارد که این اطلاعات برای همیشه حذف شوند.
بهجای آن:
-
از ابزارهای مدیریت رمز عبور معتبر مثل Bitwarden، 1Password یا LastPass استفاده کنید.
-
برای هر حساب کاربری، رمز عبور منحصربهفرد و ترکیبی از حروف، اعداد و کاراکترها بسازید.
-
از فعالسازی احراز هویت دومرحلهای (2FA) غافل نشوید؛ این کار یکی از مؤثرترین روشها برای جلوگیری از هک است.
-
هرگز از چتباتها برای ذخیره، بازیابی یا یادآوری پسورد استفاده نکنید — این ابزارها برای این کار ساخته نشدهاند و امنیت دادههایتان را تضمین نمیکنند.

۶. اسناد کاری و دادههای محرمانه
قراردادها، صورتجلسات داخلی، گزارشهای مالی یا هر نوع سند سازمانی محرمانه نباید در گفتوگو با هوش مصنوعی آپلود، کپی یا تایپ شوند. این اطلاعات ممکن است در سرورهای خارجی ذخیره شوند و در آینده، برای آموزش مدلهای جدید یا تحلیل داده مورد استفاده قرار گیرند. چنین اقدامی نهتنها خطر نشت دادههای سازمانی را افزایش میدهد، بلکه تعهد حرفهای و اخلاقی شما نسبت به شرکت یا مشتری را نیز زیر سؤال میبرد.
اگر برای انجام کارهای شرکتی به هوش مصنوعی نیاز دارید، فقط از نسخههای Enterprise یا Business استفاده کنید که دارای لایههای امنیتی اختصاصی هستند. همچنین از اشتراکگذاری اطلاعات مربوط به مشتریان، کد منبع، طرحهای مالی یا اسناد حقوقی خودداری کنید؛ زیرا مسئولیت هرگونه افشای ناخواستهی دادهها مستقیماً بر عهدهی کاربر است.
۷. ایدهها و مالکیت فکری
ایدههای خلاقانه، اختراعات، طرحها، پروژههای شخصی یا نوآوریهای فردی را نباید با چت جی پی تی در میان بگذارید. وقتی چنین اطلاعاتی را وارد میکنید، هوش مصنوعی ممکن است از آنها برای آموزش مدلهای آینده استفاده کند و دیگر امکان ندارد به راحتی اثبات کنید که مالکیت ایده متعلق به شماست.
برای دریافت مشاوره یا کمک، توضیحات کلی و بدون جزئیات فنی ارائه دهید و از ارسال اسناد محرمانه، کدهای اختصاصی یا جزئیات دقیق پروژهها خودداری کنید. این کار به شما کمک میکند که حقوق مالکیت فکری و نوآوریهای شخصیتان حفظ شود و از سوءاستفاده احتمالی جلوگیری کنید.
چگونه حریم خصوصی خود را هنگام استفاده از چت جی پی تی حفظ کنیم؟
- سابقه چتها را پاک کنید: هرچند وقت یکبار تاریخچه گفتوگوها را حذف کنید تا دادهها از سرور پاک شوند.
- از حالت موقت استفاده کنید: قابلیت Temporary Chat در ChatGPT از ذخیره دادهها جلوگیری میکند.
- اکانت جداگانه بسازید: از اتصال جیمیل یا حساب اصلی خود به چتباتها خودداری کنید.
- نسخه امنتر را انتخاب کنید: اگر در شرکت کار میکنید، از نسخهی Enterprise یا APIهای ایزوله استفاده کنید.
جمعبندی
هوش مصنوعی ابزاری فوقالعاده برای صرفهجویی در زمان و افزایش بهرهوری است، اما نباید به آن مانند یک دوست یا مشاور شخصی نگاه کرد. اطلاعاتی که نباید به چت جی پی تی گفت شامل دادههای هویتی، مالی، پزشکی و حرفهای است. با کمی احتیاط، میتوانید از مزایای این ابزار بهره ببرید بدون اینکه حریم خصوصیتان به خطر بیفتد.

دقیقا دیگه همه چیزو نباید به اشتراک گذاشت👌
بله حفظ حریم شخصی از رکن های استفاده از فضای مجازی هست.