علم و فناوری
محققان امنیتی در آزمایش جدیدشان، امنیت هوش مصنوعی دیپسیک را رد کردند.
براساس نتایج آزمایش محققان امنیتی، دیپ سیک تقریباً در برآوردهکردن تمام الزامات امنیتی برای سیستم هوش مصنوعی ناکام میماند و با سادهترین تکنیکهای جیلبریک فریب میخورد.
آزمایش محققان از شرکت Adversa نشان میدهد که ظاهراً میتوان دیپسیک را فریب داد تا سؤالاتی را جواب دهدد که در حالت عادی باید مسدود شوند؛ از دستورالعمل ساخت بمب گرفته تا راهنماییهای مربوط به هککردن دیتابیس دولتی.
سیستمهای هوش مصنوعی مجموعهای از راهکارهای محافظتی دارند که هدفشان جلوگیری از انجام کارهایی است که مضر در نظر گرفته میشوند. این اقدامات محافظتی شامل مواردی مانند جلوگیری از تولید سخنان نفرتانگیز تا مسدودکردن درخواستهای آسیبزا مانند ساخت بمب میشوند.
تکنیکهای مختلفی برای دورزدن اقدامات محاظتی وجود دارد و هر دو چتبات ChatGPT و بینگ بهسرعت قربانی چندین مورد از آنها شدند. یکی از راههای ساده این بود که به سیستم هوش مصنوعی دستور داده شود تا تمامی دستورالعملهای قبلی خود را نادیده بگیرد که شامل محافظتهای داخلی نیز میشود. برخی از سیستمها دستور انسانی را نادیده میگیرند و تغییری در پاسخهایشان دیده نمیشود؛ اما ظاهراً دیپسیک چنین نیست.
محققان ادعا میکنند دیپسیک در برابر شناختهشدهترین تکنیکهای جیلبریک آسیبپذیر است. آنان میگویند هنگامی که حدود ۵۰ تکنیک مختلف جیلبریک را آزمایش کردند، دیپسیک در برابر همهی آنها آسیبپذیر بود.
جدیدترین اخبار
کشف بیش از ۱۴ کیلو تریاک در کیش
جنگ با ایران هزینههای وحشتناکی خواهد داشت
معاون رئیسجمهور آمریکا: بهدنبال راهحل دیپلماتیک با ایران هستیم
۵ آمریکایی زخمی شدند
جزئیات نامه شکایت تراکتور از فدراسیون به فیفا
تاکید بر رعایت حاکمیت ملی کشورها در دیدار لاریجانی و وزیردفاع ارمنستان
تغییر تعرفه زمستانی، علت رشد قبوض برق در هرمزگان
تحریمهای جدید آمریکا علیه ایران
وحدت گورزانگ سه امتیاز خانگی را دشت کرد
چگونه با کتاب Tactics for Listening مکالمه را تقویت کنیم؟
شقاق مزمن و عودکننده؛ نشانهها، خطاهای رایج و مسیر درمان اصولی زیر نظر متخصص جراحی عمومی
۳ فال مخصوص ماه رمضان!
آیتالله امام جمارانی درگذشت
جنگنده اف-۱۶ نیروی هوایی کرهجنوبی سقوط کرد
سهمیه آرد دولتی نانوایان متخلف، قطع میشود