⏱ این مطلب چقدر از وقت شما را میگیرد؟
حدود 2 دقیقه
بحث درباره خطرات فاجعهبار هوش مصنوعی وارد مرحلهای جدیتر شده است؛ جایی که OpenAI، خالق ChatGPT، رسماً بهدنبال استخدام مدیری ارشد برای پیشبینی و مهار سناریوهای بحرانی AI است. سم آلتمن این موقعیت شغلی را یکی از پراسترسترین نقشها در ساختار شرکت توصیف میکند؛ نقشی که مستقیماً با آینده ایمنی هوش مصنوعی گره خورده است.
OpenAI قصد دارد جایگاه شغلی تازهای با عنوان Head of Preparedness ایجاد کند؛ سمتی که تمرکز اصلی آن، بررسی بدترین سناریوهای ممکن در مسیر توسعه هوش مصنوعی است. این مدیر باید همیشه چند قدم جلوتر از فناوری حرکت کند و به تهدیدهایی فکر کند که هنوز به واقعیت تبدیل نشدهاند.
سم آلتمن، مدیرعامل OpenAI، در شبکه اجتماعی ایکس اعلام کرد که سرعت پیشرفت مدلهای هوش مصنوعی به نقطهای رسیده که دیگر نمیتوان تنها با واکنشهای پسینی با خطرات آن برخورد کرد. از نگاه او، این فناوری میتواند پیامدهایی جدی برای سلامت روان، امنیت سایبری و حتی زیستفناوری بههمراه داشته باشد.
وظایف این مدیر دقیقاً چیست؟
بر اساس توضیحات منتشرشده، مدیر آمادگی OpenAI مسئول شناسایی قابلیتهای پیشرفتهای خواهد بود که میتوانند آسیبهای گسترده ایجاد کنند. این شامل مدلسازی تهدیدها، ارزیابی ریسکها و طراحی راهکارهایی برای کاهش خطرات بالقوه است. بهبیان سادهتر، این فرد باید همیشه بدترین سناریوها را در ذهن داشته باشد.
تمرکز ویژه روی خطرات نوظهور
آلتمن اشاره کرده است که این نقش در آینده مسئول اجرای «چارچوب آمادگی» OpenAI خواهد بود؛ چارچوبی که هدف آن ایمنسازی مدلها در برابر خطراتی مانند سوءاستفادههای بیولوژیکی، سلاحهای سایبری مبتنی بر AI و اثرات مخرب روانی است.
با این پرامپت، قیمت ارز را به ظاهر حرفه ای دریافت کنید!
آیا OpenAI دیر اقدام کرده است؟
در سالهای اخیر، پروندههای بحثبرانگیزی درباره نقش چتباتها در تشدید بحرانهای روانی، از جمله خودکشی نوجوانان، توجه رسانهها و نهادهای نظارتی را جلب کردهاند. همین موضوع باعث شده برخی کارشناسان معتقد باشند اقدام OpenAI هرچند مهم است، اما میتوانست زودتر انجام شود.
نگرانی تازه: روانپریشی ناشی از هوش مصنوعی
پدیدهای که با عنوان AI Psychosis شناخته میشود، به یکی از نگرانیهای جدی تبدیل شده است. در این حالت، کاربران دچار توهم یا باورهای نادرست میشوند که توسط پاسخهای چتباتها تقویت میشود؛ مسئلهای که نشان میدهد ایمنی AI فقط یک موضوع فنی نیست، بلکه ابعاد اجتماعی و روانی عمیقی دارد.
🧩 جمعبندی
تصمیم OpenAI برای ایجاد چنین موقعیت شغلیای نشان میدهد که حتی پیشروترین شرکتهای هوش مصنوعی نیز به خطرات واقعی این فناوری واقف شدهاند. آینده AI فقط به قدرت و سرعت مدلها وابسته نیست؛ بلکه به میزان آمادگی ما برای کنترل پیامدهای آن بستگی دارد.
