شاید در ظاهر ChatGPT ابزاری به نظر برسد که در انجام وظیفه بسیار مفید وارد عمل شود اما قبل از اینکه از آن بخواهید یادداشت های مهم را خلاصه کند یا کار شما را مورد بررسی قرار دهد، باید به خاطر داشته باشید که هر چیزی که با ChatGPT به اشتراک می گذارید می تواند برای آموزش ذخیره و استفاده شود و شاید از آن اطلاعات در پاسخ به کاربران دیگر استفاده شود. این چیزی است که احتمالا چندین کارمند سامسونگ باید قبل از به اشتراک گذاشتن اطلاعات محرمانه با ChatGPT از آن آگاه میبودند.
به گفته The Economist Korea، بلافاصله پس از اینکه بخش نیمه هادی سامسونگ اجازه استفاده از ChatGPT را به مهندسان خود داد، کارگران آن حداقل در سه گفت و گویی که با این چت بات داشتهاند، اطلاعات محرمانه را با آن به اشتراک گذاشتهاند. گزارش شده است که یکی از کارمندان از چت بات خواسته است تا کد منبع پایگاه داده حساس را از نظر خطا بررسی کند، دیگری بهینه سازی کد را درخواست کرده و سومی یک جلسه ضبط شده را به ChatGPT ارسال کردهاست.
گزارشها حاکی از آن است که سامسونگ پس از اطلاع از حفرههای امنیتی، با محدود کردن طول اعلانهای ChatGPT کارمندان به یک کیلوبایت یا 1024 کاراکتر، تلاش کرده است تا خطاهایی که ممکن است در آینده و در هنگام کار با این هوش مصنوعی رخ دهد را محدود کند. همچنین گفته می شود که این شرکت در حال بررسی وضعیت سه کارمند مورد بحث و ساخت ربات چت خود برای جلوگیری از حوادث مشابه است.
مالک ربات چت OpenAI از کاربران میخواهد اطلاعات محرمانه را در مکالمات با ChatGPT به اشتراک نگذارند زیرا “نمیتواند اطلاعات خاصی را از تاریخچه شما حذف کند.” تنها راه خلاص شدن از شر اطلاعات شخصی در ChatGPT، حذف حساب کاربری شما است، فرآیندی که ممکن است تا چهار هفته طول بکشد.
فاجعهای که برای سامسونگ به وقوع پیوست، مثال دیگری از این است که چرا احتیاط هنگام استفاده از رباتهای چت، همانطور که شاید در تمام فعالیتهای آنلاین خود باید آن را در نظر داشته باشید، ارزش دارد. شما هرگز نمی دانید که اطلاعات شما به کجا میرود.