هشدار در مورد سوءاستفاده ChatGPT از اسرار افراد علیه خودشان



نتایج یک مطالعه هشدار داده است که نباید درباره دوستان سابق خود به ChatGPT چیزی بگویید؛ زیرا ممکن است از اسرار شما علیه خودتان استفاده کند.

 

به گزارش صبح ساحل، یک مطالعه جدید توصیه کرده است که اسرار عمیق خود را در ابزار‌های هوش مصنوعی مانند ChatGPT یا Replika فاش نکنید؛ زیرا به گفته برخی از محققان، اطلاعات شخصی شما ممکن است بعداً علیه خودتان مورد استفاده قرار گیرد. 

مایک وولریج، استاد علوم کامپیوتر در دانشگاه آکسفورد با هشدار در مورد به اشتراک گذاری اسرار و اطلاعات شخصی با هوش مصنوعی مانند ChatGPT می‌گوید که اگرچه این سیستم‌های هوش مصنوعی ممکن است درک کننده به نظر برسند؛ اما در واقع چیزی را احساس نمی‌کنند. آن‌ها برنامه ریزی شده اند تا پاسخ‌های مورد پسند شما را ارائه کنند، اما فاقد احساسات یا تجربیات واقعی هستند.

مایک وولریج افزود: تکنولوژی اساساً به گونه‌ای طراحی شده است که سعی کند آنچه را که می‌خواهید بشنوید به شما بگوید و این به معنای واقعی کلمه تمام کاری است که انجام می‌دهد و هیچ همدلی ندارد.

وولریج همچنین هشدار داد که هر چیزی که با ChatGPT به اشتراک می‌گذارید٬ ممکن است در نسخه‌های بعدی سیستم به صورت زنده درآید؛ بنابراین پیشنهاد می‌کند از به اشتراک گذاری مکالمات عمیق یا حساس با ChatGPT اجتناب کنید.

برای این مطلب تا کنون نظری ثبت نشده‌ است.
0 / 200
  • نظر شما پس از بررسی و تایید منتشر خواهد شد.
  • لطفا از بکاربردن الفاظ رکیک، توهین و تهمت به اشخاص حقیقی و حقوقی خودداری کنید.

آخرین خبرها