باگ امنیتی در ربات مبتنی بر هوش مصنوعی چت جی پی تی/chatGPT!

وجود یک باگ در ربات چت جی پی تی/ chatGPT شرکت OpenAI را مجبور کرد تا محصول خود را به صورت موقت از دسترس خارج کند.

chatgpt

براساس گزارش وبلاگ OpenAI؛ این باگ می تواند به کاربران امکان مشاهده اطلاعات شخصی کاربران دیگر مانند اطلاعات کارت بانکی و آدرس محل سکونت را بدهد.
شرکت سازنده چت‌بات معروف ChatGPT، به‌تازگی علت غیرفعال شدن اخیر محصول خود را اعلام کرد. براساس این گزارش، وجود یک باگ در ChatGPT، می تواند باعث برملاشدن اطلاعات حساس کاربران مانند اطلاعات کارت بانکی شود.

باگ ربات چت جی پی تی/ chatGPT چه اثراتی داشته است؟
این باگ در کتابخانه متن‌باز redis-py رخ داده است. بر اثر این باگ، تعدادی از اطلاعات کاربران روی سرور باقی ماند و کاربران دیگر توانستند این داده ها را مشاهده کنند. این داده ها شامل چهار رقم آخر کارت بانکی ، تاریخ انقضای کارت، نام و نام خانوادگی فرد، آدرس پست الکترونیکی و آدرس محل سکونت مربوط به حساب بانکی کاربر می شود. البته این اولین دفعه ای نیست که شاهد چنین باگ های امنیتی هستیم. سال 2015 نیز حادثه مشابه این، گریبان پلتفرم استیم را گرفته بود. اما، وقوع باگ این چنینی در چت بات مبتنی بر هوش مصنوعی شرکت OpenAI بسیار عجیب به نظر می رسد. شاید به این خاطر، که شرکت سازنده اقدامات زیادی را برای بالابردن سطح امنیتی سرویس های خود انجام داده است.

طبق این گزارش، تبعات این حادثه حدود ۱.۲ درصد از مشترکین طرح ChatGPT پلاس را در تاریخ 20 مارس تحت تاثیر قرار داد. این اطلاعات محرمانه در دوشنبه گذشته به مدت 9 ساعت قابل مشاهده بود. کاربران می توانستند با مراجعه به صفحه مدیریت اشتراک ها، داده های کاربران دیگر را ببینند. به دنبال آن، ایمیل های حاوی اطلاعات بانکی مشترکان پرمیوم نیز به آدرس های اشتباه ارسال شد.

در حال حاضر این شرکت اعلام کرد که توانسته این باگ امنیتی را برطرف کند و به کاربرانی که اطلاعات آن ها منتشر شده است نیز اطلاع رسانی کرده است. OpenAI همچنین مدعی شد به منظور جلوگیری از تکرار چنین حوادثی، معیارهای سخت گیرانه تری را برای کنترل نرم افزار خود اتخاذ می کند.


چاپ