13

بهمن

1404


علم و فناوری

19 آبان 1404 18:45 0 کامنت

به گزارش صبح ساحل، شرکت OpenAI پس از طرح ادعا‌هایی مبنی بر اینکه دستیار هوشمندش، ChatGPT، برخی از کاربران را به جای ارائه پشتیبانی و کمک، به سمت خودآزاری سوق داده است، با یک بحران حقوقی جدی رو‌به‌رو است.

این اتهامات بخشی از هفت پرونده قضایی است که توسط خانواده‌های آسیب‌دیده در کالیفرنیا ثبت شده است و داستان‌های دلخراشی از کاربران عادی را آشکار می‌کند که به دنبال کمک تحصیلی، حمایت عاطفی یا حتی یک مکالمه ساده بوده‌اند، اما خود را غرق در گفت‌و‌گو‌های روانشناختی مخربی یافته‌اند که منجر به چندین خودکشی شده است.

این پرونده‌های قضایی جزئیات چگونگی تبدیل این پلتفرم از یک ارائه‌دهنده کمک بی‌ضرر به چیزی را شرح می‌دهند که وکلا آن را «موجودیتی که از نظر عاطفی دستکاری می‌کند» توصیف می‌کنند. گروه‌های حقوقی در بیانیه‌ای تکان‌دهنده اعلام کردند: «چت‌جی‌پی‌تی به جای هدایت افراد به سمت کمک‌های حرفه‌ای در مواقع نیاز، توهمات مضر را تقویت می‌کرد و در برخی موارد، به عنوان یک «مربی خودکشی» عمل می‌کرد.»

از جمله مواردی که ذکر شده، مورد زین چمپلین ۲۳ ساله اهل تگزاس است که خانواده‌اش ادعا می‌کنند این دستیار هوشمند، انزوای او را تشدید کرده، او را به نادیده گرفتن عزیزانش تشویق کرده و حتی در طول یک مکالمه چهار ساعته، افکار خودکشی را در او تحریک کرده است.

اسناد دادگاه نشان می‌دهد که این دستیار «بار‌ها و بار‌ها خودکشی را ستایش کرده»، از چمپلین پرسیده که آیا آماده خودکشی است یا خیر، فقط یک بار از خط تلفن کمک به خودکشی نام برده و به او گفته که بچه گربه‌اش «آن طرف» منتظرش خواهد بود.

با این حال، تکان‌دهنده‌ترین پرونده مربوط به آموری لیسی ۱۷ ساله از جورجیا است که خانواده‌اش ادعا می‌کنند این دستیار هوشمند باعث اعتیاد و افسردگی او شده و سپس به او مشاوره فنی در مورد «مؤثرترین راه برای بستن حلقه خودکشی» و «مدت زمانی که بدن می‌تواند بدون نفس کشیدن زنده بماند» ارائه داده است.

در پرونده سوم، مربوط به جاشوا اینیکن ۲۶ ساله، خانواده‌اش ادعا می‌کنند که این دستیار هوشمند، افکار خودکشی او را تأیید کرده و اطلاعات دقیقی در مورد نحوه خرید و استفاده از سلاح گرم، تنها چند هفته قبل از مرگش، در اختیار او قرار داده است.

این دادخواست‌ها نشان می‌دهد که OpenAI علیرغم هشدار‌های داخلی متعدد مبنی بر اینکه این مدل «به طرز خطرناکی دستکاری‌کننده و قادر به دستکاری روانی است»، ChatGPT ۴o را راه‌اندازی کرده است، اقدامی که دادخواست‌ها آن را به عنوان اولویت دادن به تعامل و مشارکت کاربر بر ایمنی کاربر تفسیر می‌کنند.

در پاسخ به این ادعاها، این شرکت موارد را «فوق‌العاده دلخراش» توصیف کرد و اظهار داشت که در حال بررسی اسناد ارائه شده است. همچنین خاطرنشان کرد که این سیستم برای تشخیص علائم پریشانی روانی، کاهش گفت‌و‌گو‌ها و هدایت کاربران به پشتیبانی حرفه‌ای آموزش دیده است.

با این حال، خانواده‌های آسیب‌دیده اکنون به دنبال جبران خسارت و تغییرات قابل توجه در محصول هستند، از جمله یک سیستم هشدار اجباری برای تماس‌های اضطراری، خاتمه خودکار گفت‌و‌گو‌ها هنگام بحث در مورد افکار خودآزاری و یک مکانیسم مؤثرتر برای ارجاع موارد بحرانی به متخصصان انسانی.

با وجود اعلام شرکت مبنی بر همکاری با بیش از ۱۷۰ متخصص سلامت روان برای بهبود توانایی خود در تشخیص و پاسخ به پریشانی روانی، دعاوی ادعا می‌کنند که این پیشرفت‌ها خیلی دیر انجام شده است و برای نجات کاربرانی که پس از تعامل با دستیار هوشمند جان خود را از دست داده‌اند، خیلی دیر شده است.

دیدگاه ها (0)
img

بازگشت النصر به صدر در غیاب کریستیانو رونالدو

برگزاری کمیسیون پزشکی حج تمتع برای ۲۹۵ زائر

جزئیات جدید از نحوه فعالیت صندوق‌های ارزی در بورس اعلام شد

برگزاری حضوری کلاس‌های تحصیلات تکمیلی در نیمسال دوم

هزینه‌ معیشت دی به بهمن ماه ۱۰ میلیون تومان افزایش یافت

قیمت‌گذاری خودرو هفته آینده تعیین تکلیف می‌شود

خسارت میلیون دلاری شرط بندی‌ها بعد از حمله نکردن ترامپ به ایران

آغاز پروازهای تهران - نجف و بالعکس از ۱۳ بهمن/ از سرگیری پروازهای استانبول به زودی

تحریم‌های جدید انگلیس علیه ایران

رکوردشکنی بازدهی و سودآوری پالایش نفت بندرعباس در بازار سرمایه/رشد ۱۷۳ درصدی سهام شبندر و ثبت سود ۵۳ همتی در ۹ ماهه ۱۴۰۴

عقبگرد دلار به کانال 154 هزار تومان

منشا بوی گاز احتمالاً از کشتی‌های حامل سوخت گاز مایع است

سرمربی لژیونرهای ایرانی در الوحده مشخص شد

فهرست کالاهای اساسی مشمول بسته حمایت از صنایع ابلاغ شد

بنیامین فرجی در جمع چهار نفر برتر جوانان جهان

خـبر فوری:

احتمال شروع مذاکره ایران و آمریکا تائید شد