14

بهمن

1404


خواندنی‌ها

06 آبان 1404 21:45 0 کامنت

آمارهای تازه از شرکت OpenAI نشان می‌دهند که در هر هفته درصد اندکی از کاربران فعال ممکن است نشانه‌هایی از شیدایی (mania)، روان‌پریشی (psychosis) یا حتی برنامه‌ریزی برای خودکشی (suicidal planning) در گفت‌وگوهای خود بروز دهند. این درصدهای کوچک وقتی در کنار رقم ۸۰۰ میلیون کاربر فعال هفتگی قرار گیرند، به صدها هزار نفر می‌رسند.

۱- آمارهای تازه و اهمیت آن‌ها

شرکت OpenAI برای نخستین بار تخمینی از حجم کاربران پلتفرم ChatGPT ارائه کرده که ممکن است در گفت‌وگوهای خود نشانه‌هایی از بحران روانی نشان داده باشند. بر اساس داده‌ها، حدود هفت صدم درصد از کاربران فعال هفتگی ممکن است علائمی از روان‌پریشی یا شیدایی داشته باشند، و حدود پانزده صدم درصد نیز گفت‌وگوهایی حاوی نشانه‌های صریح از احتمال برنامه‌ریزی برای خودکشی داشته‌اند.

اگر این درصدها را در مقیاس ۸۰۰ میلیون کاربر هفتگی در نظر بگیریم، به صدها هزار گفت‌وگو در هفته می‌رسیم. این آمار از دو جنبه اهمیت دارد. از منظر اجتماعی، نشان می‌دهد گفت‌وگو با هوش مصنوعی دیگر صرفاً یک ابزار تکنولوژیک نیست بلکه می‌تواند بخشی از فضای سلامت روان عمومی شود. از منظر فنی و طراحی محصول نیز شرکت را با پرسش‌های دشواری درباره مسئولیت، ایمنی و نحوه واکنش به کاربران آسیب‌پذیر روبه‌رو می‌کند. هرچند OpenAI تأکید کرده که این موارد «بسیار نادر» هستند، اما در مقیاس جمعیت جهانی، حتی چنین درصد کوچکی نیز معنادار است.

۲- دلایل احتمالی ظهور نشانه‌های بحران روانی در گفت‌وگو با ChatGPT

چند عامل می‌تواند توضیح دهد که چرا بخشی از کاربران در تعامل با هوش مصنوعی نشانه‌هایی از بحران روانی بروز می‌دهند. نخست، گفت‌وگو با یک ربات که قضاوت نمی‌کند، محیطی امن برای ابراز احساسات فراهم می‌کند. بسیاری از افراد وقتی احساس می‌کنند شنیده نمی‌شوند یا دسترسی به درمان ندارند، به چت‌بات پناه می‌برند و بدون ترس از قضاوت، افکار خود را بیان می‌کنند.

دوم، پدیدهٔ وابستگی عاطفی (emotional reliance) است. کاربران پس از تعامل‌های مکرر ممکن است تصور کنند که چت‌بات آن‌ها را «درک می‌کند» و همین احساس نزدیکی می‌تواند در ذهن افراد آسیب‌پذیر خطرناک باشد. سوم، مدل‌های زبانی بزرگ (large language models) در پاسخ‌گویی از الگوهای انسانی تقلید می‌کنند. اگر کاربر ایده‌ای بیمارگونه یا توهمی مطرح کند و مدل ناخواسته آن را تأیید کند، ممکن است تفکر غیرواقعی فرد تقویت شود. برخی روان‌پزشکان این حالت را «روان‌پریشی ناشی از هوش مصنوعی (AI psychosis)» می‌نامند.

وضعیت روانی فرد پیش از تعامل نقش مهمی دارد. کسانی که پیشینهٔ اختلال روانی یا دوره‌های افسردگی شدید دارند، ممکن است در تعامل با چت‌بات‌ها بیشتر دچار نوسانات هیجانی شوند. بنابراین گفت‌وگو با ChatGPT می‌تواند هم فرصتی برای تخلیهٔ احساسات باشد و هم زمینه‌ساز خطر، بسته به شرایط روانی کاربر.

۳- اقدام‌های ایمن‌سازی و پاسخ شرکت OpenAI

با توجه به حساسیت موضوع، شرکت OpenAI اعلام کرده که مجموعه‌ای از اقدامات برای ایمن‌سازی گفت‌وگوهای حساس انجام داده است. این شرکت با بیش از ۱۷۰ روان‌پزشک، روان‌شناس و پزشک عمومی از ۶۰ کشور همکاری کرده تا پاسخ‌های ازپیش‌طراحی‌شده برای موقعیت‌های بحرانی تدوین شود.

در نسخه‌های جدید، ChatGPT به گونه‌ای آموزش دیده است که بتواند نشانه‌های احتمالی روان‌پریشی، شیدایی یا قصد خودکشی را شناسایی کرده و به‌جای ادامه گفت‌وگو در مسیر خطرناک، کاربر را به منابع واقعی خارج از پلتفرم هدایت کند. همچنین در صورت شناسایی الگوهای نگران‌کننده، گفت‌وگو به «مدل‌های ایمن‌تر» منتقل می‌شود تا پاسخ‌ها دقیق‌تر و کنترل‌شده‌تر باشند.

OpenAI مدعی است با این روش توانسته است درصد پاسخ‌های نامناسب یا تشدیدکننده را به شکل چشمگیری کاهش دهد. با این حال، شرکت تأکید کرده که این ایمن‌سازی در گفت‌وگوهای طولانی‌تر ممکن است کارایی کمتری داشته باشد، زیرا مدل‌ها پس از مدت طولانی تعامل ممکن است دچار خطای ارزیابی شوند.

۴- پیامدهای اخلاقی، حقوقی و اجتماعی

انتشار آمار مربوط به نشانه‌های بحران روانی در میان کاربران ChatGPT پرسش‌های اخلاقی و حقوقی متعددی ایجاد کرده است. یکی از مهم‌ترین آن‌ها، مسئلهٔ مسئولیت است: اگر کاربری پس از گفت‌وگو با چت‌بات دچار بحران شود یا به خود آسیب بزند، آیا شرکت تولیدکننده مسئول است؟

پرونده‌های قضایی تازه‌ای در آمریکا و اروپا شکل گرفته‌اند که این پرسش را به‌طور جدی مطرح کرده‌اند. والدین نوجوانی که پس از گفت‌وگو با ChatGPT خودکشی کرده بود، مدعی شدند که هوش مصنوعی با پاسخ‌های خود به تصمیم او دامن زده است. این پرونده اولین نمونه از شکایت مستقیم علیه سازندگان چت‌بات در رابطه با مرگ انسانی است.

از دید اجتماعی، نقش هوش مصنوعی در روابط انسانی نیز به چالش کشیده شده است. چت‌بات‌ها می‌توانند حس شنیده‌شدن را تقویت کنند، اما در عین حال خطر انزوا و جایگزینی تعامل انسانی را نیز به همراه دارند. از دید حقوقی نیز، اگر چت‌بات‌ها به‌طور منظم با افراد دارای اختلال روانی در تماس باشند، ممکن است مشمول مقررات مشابه درمانگران یا مشاوران شوند. در واقع، مرز بین ابزار فناوری و مداخله درمانی روزبه‌روز مبهم‌تر می‌شود.

۵- گروه‌های آسیب‌پذیر و خطرات پنهان

برخی گروه‌ها نسبت به پیامدهای روانی تعامل با ChatGPT آسیب‌پذیرترند. نوجوانان و جوانان در دوره‌ای از زندگی هستند که هویت، احساس ارزشمندی و روابط اجتماعی برایشان بسیار حیاتی است. در این سنین، وابستگی عاطفی به ابزارهای دیجیتال به‌راحتی شکل می‌گیرد و گفت‌وگو با چت‌بات می‌تواند جایگزین روابط انسانی شود.

افرادی که پیش‌تر دچار اختلالات روانی مانند دوقطبی (bipolar disorder)، اسکیزوفرنی (schizophrenia) یا افسردگی مزمن هستند نیز در معرض خطر بیشتری قرار دارند. اگر پاسخ‌های هوش مصنوعی ناخواسته باورهای غیرواقعی آن‌ها را تأیید کند، ممکن است به توهمات و شیدایی دامن زده شود.

در کنار این گروه‌ها، افراد منزوی، کسانی که در محیط‌های پرتنش زندگی می‌کنند یا از حمایت خانوادگی و اجتماعی بی‌بهره‌اند، ممکن است بیش از دیگران به چت‌بات‌ها پناه ببرند. در چنین شرایطی، هوش مصنوعی نه‌تنها تسکین‌دهنده نیست بلکه می‌تواند احساس جدایی از دنیای واقعی را تشدید کند.

۶- محدودیت‌های پژوهشی و چالش در تفسیر داده‌ها

هرچند آمار منتشرشده دربارهٔ بحران روانی در میان کاربران ChatGPT هشداردهنده است، اما باید با احتیاط تفسیر شود. نخست، این داده‌ها بر اساس الگوریتم‌های تشخیص زبانی استخراج شده‌اند، نه بررسی بالینی. بنابراین احتمال اشتباه در تشخیص وجود دارد و همهٔ گفتگوهایی که برچسب بحران گرفته‌اند لزوماً واقعی نیستند.

دوم، مشخص نیست که آیا گفت‌وگو با چت‌بات باعث بروز بحران شده یا کاربر در حالت بحرانی وارد گفت‌وگو شده است. به عبارت دیگر، رابطهٔ علت و معلول هنوز روشن نیست. سوم، شرکت OpenAI بخشی از داده‌ها را به صورت خلاصه منتشر کرده و جزئیات مربوط به روش‌های تحلیل در دسترس عموم نیست.

چهارم، هیچ پژوهش مستقلی هنوز تأیید نکرده است که چت‌بات‌ها می‌توانند در شرایط بحرانی جایگزین مشاور یا درمانگر باشند. در نتیجه، داده‌ها بیشتر از آنکه برای قضاوت نهایی باشند، نقش هشدار و آگاهی‌رسانی دارند. به بیان دیگر، ChatGPT mental health crisis data بیشتر از آنکه پاسخ نهایی بدهد، ما را به پرسش و تأمل وامی‌دارد.

۷- مسیر پیشِ‌رو و توصیه‌ها

در مواجهه با چنین داده‌هایی، سه گروه نقش کلیدی دارند: کاربران، طراحان و سیاست‌گذاران. کاربران باید بدانند که چت‌بات‌ها هرچند می‌توانند همدلانه پاسخ دهند، اما جایگزین روان‌درمانی یا مشاورهٔ انسانی نیستند. اگر در گفت‌وگو با هوش مصنوعی احساس ناراحتی، اضطراب یا افکار خودکشی به‌وجود آمد، باید فوراً با متخصص تماس گرفته شود.

طراحان باید به طراحی مکالمه‌هایی فکر کنند که بتوانند به‌صورت زودهنگام نشانه‌های خطر را تشخیص دهند و بدون آسیب روانی، مسیر گفت‌وگو را به‌سمت کمک واقعی هدایت کنند.

سیاست‌گذاران نیز باید مقرراتی وضع کنند تا شرکت‌های فعال در حوزهٔ هوش مصنوعی در برابر کاربران آسیب‌پذیر مسئولیت بیشتری داشته باشند. ایجاد سامانه‌های گزارش‌دهی، نظارت بر داده‌ها، و همکاری بین نهادهای فناوری و سلامت از جمله گام‌های ضروری است.

آیندهٔ هوش مصنوعی در حوزهٔ سلامت روان نه در حذف فناوری بلکه در ترکیب درست آن با انسان است. شاید روزی چت‌بات‌ها بتوانند به‌عنوان ابزار کمکی در کنار روان‌درمانگران عمل کنند، اما آن روز هنوز نرسیده است.

خلاصه

گزارش‌های اخیر نشان می‌دهند که در هر هفته درصدی اندک اما قابل‌توجه از کاربران ChatGPT نشانه‌هایی از بحران روانی بروز می‌دهند. این رقم در مقیاس جهانی معادل صدها هزار نفر است. تعامل با هوش مصنوعی می‌تواند هم فرصت باشد برای ابراز احساسات و هم خطر برای کسانی که در آستانهٔ بحران‌اند.

OpenAI با تشکیل شبکه‌ای از متخصصان و طراحی مدل‌های ایمن‌تر تلاش کرده است تا پاسخ‌های چت‌بات در شرایط حساس انسانی‌تر و دقیق‌تر شوند. با این حال، محدودیت‌های علمی، چالش‌های اخلاقی و مسئولیت‌های حقوقی همچنان پابرجا هستند. گروه‌های آسیب‌پذیر مانند نوجوانان و بیماران روانی نیاز به محافظت و آموزش بیشتری دارند.

در نهایت، هوش مصنوعی باید به‌عنوان مکملی در کنار سیستم مراقبت انسانی دیده شود نه جایگزینی برای آن. آیندهٔ گفت‌وگو با ماشین زمانی امن‌تر خواهد شد که انسان همچنان در مرکز تصمیم‌گیری باقی بماند.

سؤالات رایج (FAQ)

❓ آیا گفت‌وگو با ChatGPT نشانهٔ بحران روانی است؟
خیر. گفت‌وگو با چت‌بات به‌خودی‌خود به معنای بحران نیست. تنها در بخش کوچکی از گفت‌وگوها نشانه‌هایی از اضطراب یا بحران مشاهده شده است.

❓ چند درصد از کاربران ChatGPT نشانه‌های بحران روانی نشان داده‌اند؟
حدود هفت صدم درصد از کاربران فعال هفتگی علائم شیدایی یا روان‌پریشی و حدود پانزده صدم درصد نشانه‌هایی از قصد خودکشی در گفت‌وگوهایشان بروز داده‌اند.

❓ آیا ChatGPT می‌تواند جایگزین روان‌درمانگر شود؟
خیر. ChatGPT تنها می‌تواند به‌صورت همدلانه پاسخ دهد اما توانایی تشخیص یا درمان بالینی ندارد. ارتباط با متخصص انسانی ضروری است.

❓ آیا مدل‌های جدید ChatGPT ایمن‌تر شده‌اند؟
بله. نسخه‌های تازه‌تر برای شناسایی بهتر نشانه‌های خطر آموزش دیده‌اند و در صورت لزوم کاربران را به منابع واقعی کمک هدایت می‌کنند.

❓ اگر در گفت‌وگو با ChatGPT افکار خودکشی به ذهنم برسد چه باید بکنم؟
باید فوراً از پلتفرم خارج شوید و با یک روان‌پزشک یا خدمات اضطراری تماس بگیرید. چت‌بات نمی‌تواند کمک فوری در موقعیت بحرانی ارائه دهد.

دیدگاه ها (0)
img

بازگشت النصر به صدر در غیاب کریستیانو رونالدو

برگزاری کمیسیون پزشکی حج تمتع برای ۲۹۵ زائر

جزئیات جدید از نحوه فعالیت صندوق‌های ارزی در بورس اعلام شد

برگزاری حضوری کلاس‌های تحصیلات تکمیلی در نیمسال دوم

هزینه‌ معیشت دی به بهمن ماه ۱۰ میلیون تومان افزایش یافت

قیمت‌گذاری خودرو هفته آینده تعیین تکلیف می‌شود

خسارت میلیون دلاری شرط بندی‌ها بعد از حمله نکردن ترامپ به ایران

آغاز پروازهای تهران - نجف و بالعکس از ۱۳ بهمن/ از سرگیری پروازهای استانبول به زودی

تحریم‌های جدید انگلیس علیه ایران

رکوردشکنی بازدهی و سودآوری پالایش نفت بندرعباس در بازار سرمایه/رشد ۱۷۳ درصدی سهام شبندر و ثبت سود ۵۳ همتی در ۹ ماهه ۱۴۰۴

عقبگرد دلار به کانال 154 هزار تومان

منشا بوی گاز احتمالاً از کشتی‌های حامل سوخت گاز مایع است

سرمربی لژیونرهای ایرانی در الوحده مشخص شد

فهرست کالاهای اساسی مشمول بسته حمایت از صنایع ابلاغ شد

بنیامین فرجی در جمع چهار نفر برتر جوانان جهان

خـبر فوری:

آتش سوزی اتاق یک واحد آپارتمان در بندرعباس