⏱ این مطلب چقدر از وقت شما را میگیرد؟
حدود 2 دقیقه
بر اساس گزارش ها طبق سیاستهای جدید OpenAI با تغییر سیاستهای خود، فصل تازهای را برای ChatGPT آغاز کرده است. بر اساس دستورالعملهای جدید، این چتبات هوشمند دیگر اجازه ندارد توصیههای پزشکی یا حقوقی مستقیم به کاربران ارائه دهد.
این تصمیم در راستای افزایش ایمنی کاربران و کاهش مسئولیتهای حقوقی گرفته شده است. از این پس، ChatGPT صرفاً نقش یک ابزار آموزشی و اطلاعرسانی را دارد و نه مشاوری تخصصی.
🚫 چرا ChatGPT دیگر توصیه تخصصی نمیدهد؟
OpenAI اعلام کرده است که کاربران نباید برای دریافت مشاورههایی که نیازمند گواهی حرفهای هستند—از جمله در حوزههای پزشکی، حقوقی، مالی، مسکن یا اشتغال—به ChatGPT تکیه کنند.
این تغییرات بهویژه پس از رشد سریع استفاده از هوش مصنوعی در تصمیمگیریهای حساس صورت گرفتهاند.
علاوه بر این، تشخیص چهره افراد بدون رضایت آنها نیز در سیاستهای جدید محدود شده است. هدف از این اقدامات، محافظت از حریم خصوصی و جلوگیری از سوءاستفادههای احتمالی است.
⚙️ ChatGPT حالا چگونه پاسخ میدهد؟
در نسخههای جدید، ChatGPT به جای ارائه نسخه درمانی یا تنظیم دادخواست، تنها اصول کلی را توضیح میدهد و کاربران را به متخصصان واجد شرایط ارجاع میدهد.
دیگر خبری از نام دارو، دوز مصرف، یا الگوی شکایت نیست. حتی اگر کاربران سؤالات خود را بهصورت فرضی مطرح کنند، هوش مصنوعی مجاز به دور زدن محدودیتها نخواهد بود.
مکالمات با ChatGPT برخلاف جلسات پزشک یا وکیل، محرمانه محسوب نمیشوند و ممکن است در برخی شرایط حقوقی مورد استفاده قرار گیرند.
🧩 تمرکز بر ایمنی و بهداشت روانی
OpenAI در ماههای اخیر امکانات جدیدی برای ارتقای ایمنی کاربران در موقعیتهای بحرانی معرفی کرده است. برای مثال، در گفتوگوهایی دربارهی افسردگی، خودکشی یا روانپریشی، ChatGPT با حساسیت بیشتری عمل کرده و کاربران را به منابع رسمی یا خطوط حمایتی ارجاع میدهد.
💡 ChatGPT هنوز مفید است، اما جایگزین انسان نیست
با وجود این محدودیتها، ChatGPT همچنان ابزاری قدرتمند برای خلاصهسازی اطلاعات، ایدهپردازی و آموزش محسوب میشود.
اما نباید فراموش کرد که هوش مصنوعی نمیتواند مانند یک روانشناس یا پزشک، زبان بدن یا احساسات انسانی را درک کند.
در نتیجه، استفاده از ChatGPT باید در حد کمک فکری و تحقیقاتی باقی بماند، نه تصمیمگیریهای حیاتی.
