تکنولوژی های هوش مصنوعی به تاخت و تاز خود در اینترنت ادامه می دهند! امروزه طیف وسیعی از افراد، از کاربران خانگی و دانش آموزان دبیرستانی گرفته تا مهندسین حرفه ای در شرکت های بزرگ نرم افزاری، از این ابزارها استفاده می کنند و از آنها برای ارتقای کارهای خود ایده می گیرند. حتی ربات های هوش مصنوعی به ابزار مناسبی برای تقلب و دور زدن کارها هم تبدیل شده اند و بسیاری از دانش آموزان و دانشجویان تکالیف خود را با آنها انجام می دهند!
گسترش نفوذ هوش مصنوعی به زندگی روزمره بشر، نگرانی ها درباره امنیت آن را بیشتر کرده است. چرا که چت بات های هوش مصنوعی پتانسیل لو دادن اطلاعات خصوصی افراد را دارند و اتفاقاً خیلی راحت هم این کار را می کنند! به همین دلیل استفاده از این ابزارها در برخی کشورها با محدودیت هایی مواجه شده است. به عنوان مثال مقامات کشور ایتالیا چندی پیش استفاده از هوش مصنوعی ChatGPT را به طور کامل ممنوع کردند و این سرویس برای چندین روز در این کشور از دسترس خارج شده بود! حالا هم خبر آمده که سامسونگ هم همین رویه را در پیش گرفته و استفاده از هر نوع ابزار مولد هوش مصنوعی، شامل ChatGPT، Google Bard و Bing Chat را برای کارمندان خود ممنوع کرده است! دلیل این ممنوعیت، نگرانی های امنیتی عنوان شده است.
تنش بین شرکت های بزرگ تکنولوژی با ابزارهای هوش مصنوعی همچنان دارد! یکی از شرکت هایی که از باگ های امنیتی این چت بات ها ضربه خورده، سامسونگ است! چندی پیش برخی از مهندسین سامسونگ یک سری اطلاعات محرمانه را به ChatGPT وارد کردند و چند روز بعد این اطلاعات به بیرون درز پیدا کرده بود! از آنجایی که این غول کره ای دنیای تکنولوژی دوست ندارد دوباره چنین اتفاقی را تجربه کند، تصمیم به تحریم همه جانبه ابزارهای هوش مصنوعی گرفته است!
در همین راستا سامسونگ به تمامی کارمندان خود در تمامی سطوح اعلام کرده است که استفاده از هر نوع ابزار مولد هوش مصنوعی مانند چت جی پی تی، گوگل بارد و بینگ چت ممنوع است. این قانون از اول ماه مِی 2023 لازم الاجراست و این ابزارها نباید بر روی هیچ یک از دستگاه های داخلی شرکت های سامسونگ (شامل کامپیوتر رومیزی، تبلت و گوشی) مورد استفاده قرار گیرند.
درست است که لحن سامسونگ جدی و سخت گیرانه به نظر می رسد، اما نباید تصور کنیم که این شرکت علیه فناوری های هوش مصنوعی اعلام جنگ کرده است! قطعاً سامسونگ از ظرفیت های چت بات هایی مانند ChatGPT در ارتقای بازدهی کارمندان آگاه است و این ممنوعیت به صورت موقتی خواهد بود. در همین راستا مقامات این شرکت اعلام کرده اند که «سامسونگ در حال بررسی اقدامات امنیتی برای ایجاد یک محیط قابل اطمینان برای استفاده ایمن از ابزارهای مولد هوش مصنوعی برای افزایش بهره وری و کارایی کارکنان است. با این حال تا زمانی که این شرایط مهیا نشود، استفاده از هوش مصنوعی مولد را به طور موقت ممنوع خواهیم کرد».
متأسفانه باید بگوییم که این اقدام سامسونگ کاملاً منطقی و درست است! چرا که ChatGPT و دیگر چت بات های هوش مصنوعی مشکلات امنیتی زیادی دارند و نگرانی های متعددی را ایجاد کرده اند. این ابزارها برای تمام مردم دنیا در دسترس هستند و هر کسی در هر جایی می تواند با آنها کار کند. مسلماً هکرها هم بیکار نمی نشینند و به سراغ آنها خواهند رفت! هر چند برای سوء استفاده از شکاف های امنیتی این ربات ها نیازی نیست تا حتماً یک هکر باشید! چندی پیش یک فرد عادی توانسته بود بدون نوشتن حتی یک خط کد، با ChatGPT یک بدافزار پیشرفته ایجاد کند! حالا تصور کنید یک هکر حرفه ای چه کارهایی می تواند با این ربات انجام دهد!
این مسائل باعث شده اند تا OpenAI تمام تمرکز خود را به بر طرف کردن مشکلات امنیتی ChatGPT و ارتقای قابلیت های آن در زمینه حفظ حریم شخصی افراد معطوف کند. برنامه نویسان گوگل و مایکروسافت هم مشغول ارتقای Bard و Bing در این زمینه هستند. باید ببینیم تلاش های این شرکت ها کِی به ثمر خواهد نشست و چه زمانی می توانیم بدون نگرانی و دغدغه بابت لو رفتن اطلاعاتمان با چت بات های هوش مصنوعی کار کنیم!
منبع: gizmochina