اخبار تکنولوژی

حفره امنیتی در ChatGPT: افشای اطلاعات محرمانه کاربران، از رمز عبور تا اسکریپت PHP

نویسنده : دانیال نوروزی۱۰ بهمن ۱۴۰۲
0 دیدگاه

یک کاربر آرس‌تکنیکا گزارش داد که ChatGPT گفتگوهای خصوصی حاوی اطلاعات محرمانه ورود و جزئیات شخصی کاربران بی‌ارتباط را به بیرون درز می‌دهد.

تصاویری که این کاربر در روز دوشنبه ارسال کرد، نشان می‌دهد که ChatGPT گفتگوهای خصوصی شامل نام‌های کاربری، گذرواژه‌ها و سایر اطلاعات شخصی مربوط به کاربران غیرمرتبط را فاش می‌کند.

دو مورد از هفت تصویر ارسالی به‌ویژه نگران‌کننده بود. هر دو تصویر شامل چندین جفت نام کاربری و گذرواژه بودند که به نظر می‌رسید به یک سیستم پشتیبانی فنی مرتبط با کارمندان یک درگاه آنلاین تجویز دارو متصل باشند. به‌نظر می‌رسد یک کارمند در حال استفاده از ChatGPT برای حل مشکلات مربوط به این درگاه بوده است.

کاربر در پیامی آمیخته با خشم و ناامیدی نوشته است: «این فوق‌العاده وحشتناک و غیرقابل‌باور است که چطور این سیستم ضعیف طراحی شده و چطور موانعی بر سر راه بهبود آن قرار گرفته‌اند. اگر اختیار با من بود، فقط برای این حماقت، [نام حذف شده سازنده نرم‌افزار] را اخراج می‌کردم. این کار اشتباه است.»

علاوه بر زبان صریح و گذرواژه‌ها، گفتگوی لو رفته شامل نام اپلیکیشن مورد استفاده کارمند و شماره شعبه‌ای است که مشکل در آن رخ داده است.

کل گفتگو بسیار فراتر از بخش حذف‌شده در تصویر بالا ادامه می‌یابد. لینکی که کاربر آرس‌تکنیکا، چِیس وایتساید، در اختیار این نشریه قرار داده است، کل گفتگو را نشان می‌دهد. این URL جفت‌های گذرواژه بیشتری را فاش می‌کند.

این نتایج در صبح روز دوشنبه، اندکی پس از استفاده وایتساید از ChatGPT برای یک پرسش بی‌ارتباط، ظاهر شدند.

وایتساید در ایمیلی نوشت: «من برای یک پرسش (در این مورد، برای پیدا کردن نام‌های خلاقانه برای رنگ‌های یک پالت) به سراغ ChatGPT رفتم و وقتی لحظاتی بعد برگشتم، متوجه گفتگوهای اضافی شدم. دیشب که از ChatGPT استفاده کردم (من یک کاربر پرکار هستم) آنجا نبودند. هیچ پرسشی انجام نشده بود – آن‌ها فقط در تاریخچه من ظاهر شدند و مطمئناً از من نیستند (و فکر نمی‌کنم از کاربر مشابهی هم باشند).»

دیگر گفتگوهای درز کرده به وایتساید شامل نام یک ارائه که شخصی روی آن کار می‌کرد، جزئیات یک پروپوزال تحقیقاتی منتشر نشده و یک اسکریپت نوشته‌شده با زبان برنامه‌نویسی PHP می‌شود. به‌نظر می‌رسد کاربران هر گفتگوی لو رفته متفاوت و بی‌ارتباط با یکدیگر باشند. گفتگوی مربوط به درگاه تجویز دارو، سال ۲۰۲۰ را ذکر می‌کند. تاریخ در گفتگوهای دیگر مشاهده نمی‌شود.

این اتفاق و موارد مشابه، اهمیت حذف اطلاعات شخصی از پرسش‌های مطرح‌شده با ChatGPT و سایر سرویس‌های هوش مصنوعی را به خوبی نشان می‌دهد. در ماه مارس گذشته، OpenAI، سازنده ChatGPT، پس از باگی که باعث نمایش عناوین گفتگوی یک کاربر فعال برای کاربران بی‌ارتباط می‌شد، این چت‌بات را به‌صورت موقت از دسترس خارج کرد.

در ماه نوامبر، پژوهشگرانی مقاله‌ای منتشر کردند که نشان می‌داد آن‌ها چگونه با پرسش‌های خاص، ChatGPT را فریب داده‌اند تا ایمیل، شماره تلفن و فکس، آدرس‌های فیزیکی و سایر اطلاعات شخصی موجود در مواد مورد استفاده برای آموزش مدل زبان بزرگ ChatGPT را فاش کند.

نگرانی درباره احتمال درز اطلاعات مالکیتی یا خصوصی، باعث شده است شرکت‌هایی مانند اپل، استفاده کارمندان خود از ChatGPT و سایت‌های مشابه را محدود کنند.

دیدگاهتان را بنویسید