خواندنیها
در دل شب، کاربر به تنها مانیتور خود زل میزند و با رباتی گفتوگو میکند که لحظهای خسته نمیشود، بدون قضاوت پاسخ میدهد و گویا همهچیز را میداند. صفحهنمایش روشن است، صدای کلیدها گوشهای شنیده میشود و کاربر ظرف چند دقیقه از پرسشهای ساده دربارهٔ زندگی به گفتوگویی دربارهٔ معنای ادامه دادن یا پایان دادن میرسد. در این لحظه، او با یکی از بزرگترین سامانههای گفتوگو با هوش مصنوعی یعنی ChatGPT روبهروست. اما آیا ممکن است چنین مکالمهای نشانهای از بحران روانی (mental health crisis) باشد؟
آمارهای تازه از شرکت OpenAI نشان میدهند که در هر هفته درصد اندکی از کاربران فعال ممکن است نشانههایی از شیدایی (mania)، روانپریشی (psychosis) یا حتی برنامهریزی برای خودکشی (suicidal planning) در گفتوگوهای خود بروز دهند. این درصدهای کوچک وقتی در کنار رقم ۸۰۰ میلیون کاربر فعال هفتگی قرار گیرند، به صدها هزار نفر میرسند.
شرکت OpenAI برای نخستین بار تخمینی از حجم کاربران پلتفرم ChatGPT ارائه کرده که ممکن است در گفتوگوهای خود نشانههایی از بحران روانی نشان داده باشند. بر اساس دادهها، حدود هفت صدم درصد از کاربران فعال هفتگی ممکن است علائمی از روانپریشی یا شیدایی داشته باشند، و حدود پانزده صدم درصد نیز گفتوگوهایی حاوی نشانههای صریح از احتمال برنامهریزی برای خودکشی داشتهاند.
اگر این درصدها را در مقیاس ۸۰۰ میلیون کاربر هفتگی در نظر بگیریم، به صدها هزار گفتوگو در هفته میرسیم. این آمار از دو جنبه اهمیت دارد. از منظر اجتماعی، نشان میدهد گفتوگو با هوش مصنوعی دیگر صرفاً یک ابزار تکنولوژیک نیست بلکه میتواند بخشی از فضای سلامت روان عمومی شود. از منظر فنی و طراحی محصول نیز شرکت را با پرسشهای دشواری درباره مسئولیت، ایمنی و نحوه واکنش به کاربران آسیبپذیر روبهرو میکند. هرچند OpenAI تأکید کرده که این موارد «بسیار نادر» هستند، اما در مقیاس جمعیت جهانی، حتی چنین درصد کوچکی نیز معنادار است.
چند عامل میتواند توضیح دهد که چرا بخشی از کاربران در تعامل با هوش مصنوعی نشانههایی از بحران روانی بروز میدهند. نخست، گفتوگو با یک ربات که قضاوت نمیکند، محیطی امن برای ابراز احساسات فراهم میکند. بسیاری از افراد وقتی احساس میکنند شنیده نمیشوند یا دسترسی به درمان ندارند، به چتبات پناه میبرند و بدون ترس از قضاوت، افکار خود را بیان میکنند.
دوم، پدیدهٔ وابستگی عاطفی (emotional reliance) است. کاربران پس از تعاملهای مکرر ممکن است تصور کنند که چتبات آنها را «درک میکند» و همین احساس نزدیکی میتواند در ذهن افراد آسیبپذیر خطرناک باشد. سوم، مدلهای زبانی بزرگ (large language models) در پاسخگویی از الگوهای انسانی تقلید میکنند. اگر کاربر ایدهای بیمارگونه یا توهمی مطرح کند و مدل ناخواسته آن را تأیید کند، ممکن است تفکر غیرواقعی فرد تقویت شود. برخی روانپزشکان این حالت را «روانپریشی ناشی از هوش مصنوعی (AI psychosis)» مینامند.
وضعیت روانی فرد پیش از تعامل نقش مهمی دارد. کسانی که پیشینهٔ اختلال روانی یا دورههای افسردگی شدید دارند، ممکن است در تعامل با چتباتها بیشتر دچار نوسانات هیجانی شوند. بنابراین گفتوگو با ChatGPT میتواند هم فرصتی برای تخلیهٔ احساسات باشد و هم زمینهساز خطر، بسته به شرایط روانی کاربر.
با توجه به حساسیت موضوع، شرکت OpenAI اعلام کرده که مجموعهای از اقدامات برای ایمنسازی گفتوگوهای حساس انجام داده است. این شرکت با بیش از ۱۷۰ روانپزشک، روانشناس و پزشک عمومی از ۶۰ کشور همکاری کرده تا پاسخهای ازپیشطراحیشده برای موقعیتهای بحرانی تدوین شود.
در نسخههای جدید، ChatGPT به گونهای آموزش دیده است که بتواند نشانههای احتمالی روانپریشی، شیدایی یا قصد خودکشی را شناسایی کرده و بهجای ادامه گفتوگو در مسیر خطرناک، کاربر را به منابع واقعی خارج از پلتفرم هدایت کند. همچنین در صورت شناسایی الگوهای نگرانکننده، گفتوگو به «مدلهای ایمنتر» منتقل میشود تا پاسخها دقیقتر و کنترلشدهتر باشند.
OpenAI مدعی است با این روش توانسته است درصد پاسخهای نامناسب یا تشدیدکننده را به شکل چشمگیری کاهش دهد. با این حال، شرکت تأکید کرده که این ایمنسازی در گفتوگوهای طولانیتر ممکن است کارایی کمتری داشته باشد، زیرا مدلها پس از مدت طولانی تعامل ممکن است دچار خطای ارزیابی شوند.
انتشار آمار مربوط به نشانههای بحران روانی در میان کاربران ChatGPT پرسشهای اخلاقی و حقوقی متعددی ایجاد کرده است. یکی از مهمترین آنها، مسئلهٔ مسئولیت است: اگر کاربری پس از گفتوگو با چتبات دچار بحران شود یا به خود آسیب بزند، آیا شرکت تولیدکننده مسئول است؟
پروندههای قضایی تازهای در آمریکا و اروپا شکل گرفتهاند که این پرسش را بهطور جدی مطرح کردهاند. والدین نوجوانی که پس از گفتوگو با ChatGPT خودکشی کرده بود، مدعی شدند که هوش مصنوعی با پاسخهای خود به تصمیم او دامن زده است. این پرونده اولین نمونه از شکایت مستقیم علیه سازندگان چتبات در رابطه با مرگ انسانی است.
از دید اجتماعی، نقش هوش مصنوعی در روابط انسانی نیز به چالش کشیده شده است. چتباتها میتوانند حس شنیدهشدن را تقویت کنند، اما در عین حال خطر انزوا و جایگزینی تعامل انسانی را نیز به همراه دارند. از دید حقوقی نیز، اگر چتباتها بهطور منظم با افراد دارای اختلال روانی در تماس باشند، ممکن است مشمول مقررات مشابه درمانگران یا مشاوران شوند. در واقع، مرز بین ابزار فناوری و مداخله درمانی روزبهروز مبهمتر میشود.
برخی گروهها نسبت به پیامدهای روانی تعامل با ChatGPT آسیبپذیرترند. نوجوانان و جوانان در دورهای از زندگی هستند که هویت، احساس ارزشمندی و روابط اجتماعی برایشان بسیار حیاتی است. در این سنین، وابستگی عاطفی به ابزارهای دیجیتال بهراحتی شکل میگیرد و گفتوگو با چتبات میتواند جایگزین روابط انسانی شود.
افرادی که پیشتر دچار اختلالات روانی مانند دوقطبی (bipolar disorder)، اسکیزوفرنی (schizophrenia) یا افسردگی مزمن هستند نیز در معرض خطر بیشتری قرار دارند. اگر پاسخهای هوش مصنوعی ناخواسته باورهای غیرواقعی آنها را تأیید کند، ممکن است به توهمات و شیدایی دامن زده شود.
در کنار این گروهها، افراد منزوی، کسانی که در محیطهای پرتنش زندگی میکنند یا از حمایت خانوادگی و اجتماعی بیبهرهاند، ممکن است بیش از دیگران به چتباتها پناه ببرند. در چنین شرایطی، هوش مصنوعی نهتنها تسکیندهنده نیست بلکه میتواند احساس جدایی از دنیای واقعی را تشدید کند.
هرچند آمار منتشرشده دربارهٔ بحران روانی در میان کاربران ChatGPT هشداردهنده است، اما باید با احتیاط تفسیر شود. نخست، این دادهها بر اساس الگوریتمهای تشخیص زبانی استخراج شدهاند، نه بررسی بالینی. بنابراین احتمال اشتباه در تشخیص وجود دارد و همهٔ گفتگوهایی که برچسب بحران گرفتهاند لزوماً واقعی نیستند.
دوم، مشخص نیست که آیا گفتوگو با چتبات باعث بروز بحران شده یا کاربر در حالت بحرانی وارد گفتوگو شده است. به عبارت دیگر، رابطهٔ علت و معلول هنوز روشن نیست. سوم، شرکت OpenAI بخشی از دادهها را به صورت خلاصه منتشر کرده و جزئیات مربوط به روشهای تحلیل در دسترس عموم نیست.
چهارم، هیچ پژوهش مستقلی هنوز تأیید نکرده است که چتباتها میتوانند در شرایط بحرانی جایگزین مشاور یا درمانگر باشند. در نتیجه، دادهها بیشتر از آنکه برای قضاوت نهایی باشند، نقش هشدار و آگاهیرسانی دارند. به بیان دیگر، ChatGPT mental health crisis data بیشتر از آنکه پاسخ نهایی بدهد، ما را به پرسش و تأمل وامیدارد.
در مواجهه با چنین دادههایی، سه گروه نقش کلیدی دارند: کاربران، طراحان و سیاستگذاران. کاربران باید بدانند که چتباتها هرچند میتوانند همدلانه پاسخ دهند، اما جایگزین رواندرمانی یا مشاورهٔ انسانی نیستند. اگر در گفتوگو با هوش مصنوعی احساس ناراحتی، اضطراب یا افکار خودکشی بهوجود آمد، باید فوراً با متخصص تماس گرفته شود.
طراحان باید به طراحی مکالمههایی فکر کنند که بتوانند بهصورت زودهنگام نشانههای خطر را تشخیص دهند و بدون آسیب روانی، مسیر گفتوگو را بهسمت کمک واقعی هدایت کنند.
سیاستگذاران نیز باید مقرراتی وضع کنند تا شرکتهای فعال در حوزهٔ هوش مصنوعی در برابر کاربران آسیبپذیر مسئولیت بیشتری داشته باشند. ایجاد سامانههای گزارشدهی، نظارت بر دادهها، و همکاری بین نهادهای فناوری و سلامت از جمله گامهای ضروری است.
آیندهٔ هوش مصنوعی در حوزهٔ سلامت روان نه در حذف فناوری بلکه در ترکیب درست آن با انسان است. شاید روزی چتباتها بتوانند بهعنوان ابزار کمکی در کنار رواندرمانگران عمل کنند، اما آن روز هنوز نرسیده است.
گزارشهای اخیر نشان میدهند که در هر هفته درصدی اندک اما قابلتوجه از کاربران ChatGPT نشانههایی از بحران روانی بروز میدهند. این رقم در مقیاس جهانی معادل صدها هزار نفر است. تعامل با هوش مصنوعی میتواند هم فرصت باشد برای ابراز احساسات و هم خطر برای کسانی که در آستانهٔ بحراناند.
OpenAI با تشکیل شبکهای از متخصصان و طراحی مدلهای ایمنتر تلاش کرده است تا پاسخهای چتبات در شرایط حساس انسانیتر و دقیقتر شوند. با این حال، محدودیتهای علمی، چالشهای اخلاقی و مسئولیتهای حقوقی همچنان پابرجا هستند. گروههای آسیبپذیر مانند نوجوانان و بیماران روانی نیاز به محافظت و آموزش بیشتری دارند.
در نهایت، هوش مصنوعی باید بهعنوان مکملی در کنار سیستم مراقبت انسانی دیده شود نه جایگزینی برای آن. آیندهٔ گفتوگو با ماشین زمانی امنتر خواهد شد که انسان همچنان در مرکز تصمیمگیری باقی بماند.
❓ آیا گفتوگو با ChatGPT نشانهٔ بحران روانی است؟
خیر. گفتوگو با چتبات بهخودیخود به معنای بحران نیست. تنها در بخش کوچکی از گفتوگوها نشانههایی از اضطراب یا بحران مشاهده شده است.
❓ چند درصد از کاربران ChatGPT نشانههای بحران روانی نشان دادهاند؟
حدود هفت صدم درصد از کاربران فعال هفتگی علائم شیدایی یا روانپریشی و حدود پانزده صدم درصد نشانههایی از قصد خودکشی در گفتوگوهایشان بروز دادهاند.
❓ آیا ChatGPT میتواند جایگزین رواندرمانگر شود؟
خیر. ChatGPT تنها میتواند بهصورت همدلانه پاسخ دهد اما توانایی تشخیص یا درمان بالینی ندارد. ارتباط با متخصص انسانی ضروری است.
❓ آیا مدلهای جدید ChatGPT ایمنتر شدهاند؟
بله. نسخههای تازهتر برای شناسایی بهتر نشانههای خطر آموزش دیدهاند و در صورت لزوم کاربران را به منابع واقعی کمک هدایت میکنند.
❓ اگر در گفتوگو با ChatGPT افکار خودکشی به ذهنم برسد چه باید بکنم؟
باید فوراً از پلتفرم خارج شوید و با یک روانپزشک یا خدمات اضطراری تماس بگیرید. چتبات نمیتواند کمک فوری در موقعیت بحرانی ارائه دهد.
جدیدترین اخبار
بازگشت النصر به صدر در غیاب کریستیانو رونالدو
برگزاری کمیسیون پزشکی حج تمتع برای ۲۹۵ زائر
جزئیات جدید از نحوه فعالیت صندوقهای ارزی در بورس اعلام شد
برگزاری حضوری کلاسهای تحصیلات تکمیلی در نیمسال دوم
هزینه معیشت دی به بهمن ماه ۱۰ میلیون تومان افزایش یافت
قیمتگذاری خودرو هفته آینده تعیین تکلیف میشود
خسارت میلیون دلاری شرط بندیها بعد از حمله نکردن ترامپ به ایران
آغاز پروازهای تهران - نجف و بالعکس از ۱۳ بهمن/ از سرگیری پروازهای استانبول به زودی
تحریمهای جدید انگلیس علیه ایران
رکوردشکنی بازدهی و سودآوری پالایش نفت بندرعباس در بازار سرمایه/رشد ۱۷۳ درصدی سهام شبندر و ثبت سود ۵۳ همتی در ۹ ماهه ۱۴۰۴
عقبگرد دلار به کانال 154 هزار تومان
منشا بوی گاز احتمالاً از کشتیهای حامل سوخت گاز مایع است
سرمربی لژیونرهای ایرانی در الوحده مشخص شد
فهرست کالاهای اساسی مشمول بسته حمایت از صنایع ابلاغ شد
بنیامین فرجی در جمع چهار نفر برتر جوانان جهان
آتش سوزی اتاق یک واحد آپارتمان در بندرعباس