غول فناوری کرهای اخیرا استفاده از ChatGPT را برای سادهسازی فرآیندها و تقویت تجارت تراشهها به کارمندان خود پیشنهاد کرد، توصیهای که تنها با گذشت سه هفته از آن منجر به لو رفتن اطلاعات محرمانه مهم سامسونگ شد.
نشت اطلاعات محرمانه سامسونگ زمانی اتفاق افتاد که کارمندان این شرکت، اطلاعات حساسی مانند کد منبع (سورسکد) و جزئیات ابعاد تجهیزات تراشهسازی را در ChatGPT وارد کردند، این کار موجب شد تا دادههای ارائه شده از سوی کارمندان سامسونگ به ChatGPT به بخشی از دیتابیس این هوش مصنوعی که از آن تعلیم میبیند، تبدیل شود؛ به این معنا که نه تنها کارمندان سامسونگ بلکه تمام کاربران این هوشمصنوعی میتوانند به این اطلاعات دسترسی داشته باشند.
لو رفتن اطلاعات محرمانه سامسونگ از آن جایی آغاز شد که یکی از کارکنان واحد تجاری Semiconductor and Device Solutions سامسونگ کد منبع مرتبط به دیتابیس تجهیزات تراشهسازی این شرکت را در ChatGPT وارد کرد، این کار برای حل سریع یکی از مشکلات انجام شد و پس از آن نشت اطلاعاتی دیگری در نتیجه وارد کردن کد مربوط به بازدهی و بهینهسازی فرایند تراشهسازی سامسونگ اتفاق افتاد و دوباره و برای سومین بار یک کارمند سامسونگ از ChatGPT خواست خلاصهی یکی از جلسات داخلی شرکت را تهیه کند که در نتیجه آن جزئیات جلسه محرمانه سامسونگ در اختیار کاربران این هوش مصنوعی قرار گرفت.
سامسونگ برای جلوگیری از درز اطلاعات محرمانه بیشتر، اقداماتی را در نظر گرفتهاست؛ از جمله به کارمندان خود دستور داده در مورد داده هایی که با ChatGPT به اشتراک میگذارند، محتاط باشند و ظرفیت هر ورودی را به حداکثر 1024 بایت محدود کردهاست.
این شرکت همچنین تصریح کرده است که هنگامی که اطلاعات به چت ربات هوش مصنوعی داده می شود، به سرورهای خارجی منتقل می شود که در آنجا قابل بازیابی یا حذف نیستند.
اتفاقی که رخ داد اهمیت امنیت دادهها و نیاز شرکتها به بررسی دقیق خطرات و مزایای بالقوه استفاده از رباتهای هوش مصنوعی در محل کار خود را برجسته کرد. در حالی که رباتهای هوش مصنوعی میتوانند کارایی را بهبود بخشند و فرآیند کار را سادهتر کنند، اما برای اطمینان از محرمانهبودن و امنیت اطلاعات حساس، استفاده از آنها نیاز به آموزش مناسب دارد.