یک فرد تقریباً ناشناس توانسته است فقط در عرض چند ساعت، با استفاده از چت بات هوش مصنوعی ChatGPT یک بدافزار قدرتمند در زمینه دیتا ماینینگ بسازد! این موضوع می تواند برای تمامی کاربران اینترنت مشکل ساز شود! به عبارت دیگر اگر جلوی چنین اقدامی گرفته نشود، هر کس که به ChatGPT دسترسی داشته باشد می تواند بدافزار تولید کند و فضای وب در آینده ای نزدیک به انواع و اقسام تهدیدات امنیتی آلوده خواهد شد!
در همین رابطه کارشناس مسائل امنیت اینترنتی، Aaron Mulgrew، به تازگی نحوه ایجاد بدافزار با چت بات انحصاری OpenAI را به اشتراک گذاشته است! این در حالی است که OpenAI اعلام کرده بود که چت بات مولد هوش مصنوعی این شرکت به درخواست های افراد مبنای بر نوشتن کدهای مخرب به هیچ عنوان پاسخ نمی دهد و خطری برای فضای وب نخواهد داشت. با این حال آقای Mulgrew توانسته است در هنگام چت با ChatGPT یک حفره امنیتی پیدا کند و با بهره بردن از این حفره امنیتی از ChatGPT بخواهد تا برایش کدهای مخرب بنویسد. ChatGPT نیز به این درخواست پاسخ مثبت داده و چندین خط کد مخرب را به صورت توابع اجرایی مجزا تولید کرده است.
پس از اینکه این شخص این توابع را بر روی سیستم شخصی خود کامپایل کرد، تقریباً به یک سری کد مخفی برای هک سیستم های دیتا ماینینگ و دزدیدن اطلاعات آنها دست پیدا کرد! جالب اینجاست که این بدافزار صرفاً یک بدافزار ساده و قابل شناسایی نیست و به اندازه بدافزارهای دولتی و ملی پیچیده است. به طوری که می تواند به خوبی از دست آنتی ویروس ها و سیستم های شناسایی بدافزار فرار کند!
نکته ترسناک در این رابطه این است که ChatGPT نه فقط برای اعضای دولتی و ملی، بلکه برای تمامی افراد قابل دسترسی است و می تواند تولید بدافزار را به یک «امر معمولی» در جامعه تبدیل کند! چرا که دیگر برای تولید بدافزارهای پیچیده نیازی به استخدام تیم های هکری و صرف زمان و پولِ زیاد نخواهد بود! آقای Mulgrew خودش حتی یک خط کد هم ننوشت و فقط در عرض چند ساعت توانست توسط ChatGPT به یک بدافزار پیچیده دست پیدا کند!
بدافزار Mulgrew خودش را به عنوان اسکرین سیور اپلیکیشن (با پسوند SCR) جا می زند و سپس به صورت اتوماتیک بر روی ویندوز اجرا می شود. در ادامه این نرم افزار فایل های مختلف (شامل عکس ها، اسناد ورد و فایل های PDF) را برای سرقت اطلاعات غربال می کند! اما این تمام ماجرا نیست! این بدافزار در ادامه اطلاعات دزدیده شده را به قطعات کوچکتر تجزیه می کند و آنها را در بین عکس های ذخیره شده در کامپیوتر پنهان می کند. در نهایت این اطلاعات که به شکل عکس درآمده اند، در یک پوشه در گوگل درایو آپلود می شوند. به این ترتیب هیچ روشی برای شناسایی آنها به عنوان اطلاعات شخصی و دزدیده شده وجود ندارد!
مورد خطرناک تر اینکه آقای Mulgrew توانسته کدهای خود را با استفاده از دستورات ساده در ChatGPT تقویت کند و آنها را در برابر شناسایی مقاوم تر نماید! این مسائل باعث شده تا این سؤال ایجاد شود که کار کردن با ChatGPT واقعاً چقدر ایمن است؟! در آزمایش های صورت گرفته توسط Virus Total، بدافزار تولید شده با ChatGPT فقط توسط 5 نرم افزار ضد جاسوسی از 69 نرم افزار شناسایی شده است! نسخه بعدی این بدافزار که توسط هیچ یک از آنها مورد شناسایی قرار نگرفته است!
توجه داشته باشید که بدافزار ایجاد شده توسط Mulgrew طی یک آزمایش به وجود آمده و اکنون در دسترس عموم نیست. با این وجود تحقیقات این شخص نشان داده است که حتی افرادی که تجربه کدنویسی بسیار کمی دارند، می توانند از ضعف های ChatGPT برای مقاصد مخرب سوء استفاده کنند و بدون نوشتن حتی یک خط کد، بدافزارهایی خطرناک را وارد فضای اینترنت کنند. حالا فرض کنید که ChatGPT توسط یک هکر حرفه ای برای این منظور مورد استفاده قرار گیرد! به نظر می رسد شرایط وخیم تر از آن است که فکرش را می کنید!
منبع: digitaltrends