شرکت مادر گوگل، Alphabet، به تمامی کارمندان خود هشدار داده است که در هنگام استفاده از چت بات های هوش مصنوعی، حتی بارد، کاملاً محتاط باشند! همچنین این شرکت به مهندسان و برنامه نویسان خود گفته است که از کدهای تولید شده توسط این چت بات ها اصلاً به صورت مستقیم در پروژه های خود استفاده نکنند. این موضوع کاملاً جدی است و می تواند زنگ خطری برای تمامی افراد در دنیا باشد!

گوگل در مورد خطرات چت بات ها هشدار داده است

در گزارشی که توسط رویترز منتشر شده، به نقل از چهار فرد نزدیک به این موضوع آمده است که شرکت Alphabet به کارکنان خود توصیه کرده است که از وارد کردن اطلاعات محرمانه خود در چت بات های هوش مصنوعی اکیداً خودداری کنند.

از زمانی که ChatGPT در اوایل سال جاری میلادی در دسترس عموم قرار گرفت، همواره هشدارهایی درباره عدم به اشتراک گذاری بیش از اندازۀ اطلاعات با ابزارهای هوش مصنوعی مولد اعلام شده است. به عنوان مثال NCSC به عنوان بخشی از آژانس اطلاعاتی GCHQ بریتانیا گفته است که پیام های حساسی که از جانب کاربر به ربات های هوش مصنوعی ارسال می شود (مانند اطلاعات هویتی یا پزشکی و اطلاعات محرمانه شرکت ها و سازمان ها) توسط تیم اداره کننده این ربات ها قابل مشاهده است و از آنها برای تمرین و آموزش این ربات ها استفاده می شود.

یکی از معروف ترین شرکت هایی که استفاده از ChatGPT را به طور کامل برای کارمندان خود ممنوع کرده، سامسونگ است. این شرکت کره ای این تصمیم را در ماه May و پس از سه بار لو رفتن اطلاعات محرمانه در زمینه طراحی نسل آینده تراشه های نیمه هادی خود اتخاذ کرده است. آمازون نیز کارمندان خود را به اشتراک گذاری کد یا اطلاعات محرمانه شرکت با این چت بات منع کرده است. اپل نیز به طور کامل استفاده از ابزارهای هوش مصنوعی را ممنوع اعلام کرده است! شاید برایتان جالب باشد که OpenAI، خالق چت جی پی تی، نیز به کاربران توصیه کرده است تا در هنگام کار کردن با این ربات، حواسشان به چیزی که در آن تایپ می کنند باشد.

علاوه بر اینکه بازبینی کنندگان انسانی داده های حساسی را که کاربران وارد کرده اند می خوانند، خطر افشای این اطلاعات در نشت یا هک داده ها نیز وجود دارد. در ماه مارس به دلیل بروز یک باگ، OpenAI ویژگی تاریخچه چت را در ChatGPT به طور موقت غیر فعال کرد. این باگ باعث می شد که عنوان مکالمات یک کاربر برای کاربران دیگر قابل مشاهده باشد و این موضوع حریم شخصی افراد را به طور کامل نقض کرده بود.

گوگل در مورد خطرات چت بات ها هشدار داده است

علی رغم این محدودیت ها، یک نظر سنجی اخیر از 12000 کارمند متخصص نشان داد که 43 درصد از آنها گفته اند که از ابزارهای هوش مصنوعی مانند ChatGPT در محل کار خود استفاده می کنند. جالب اینجاست که یک سوم آنها گفته اند که این کار را بدون اطلاع مدیران خود انجام می دهند!

همان طور که اشاره شد، Alphabet به مهندسان خود گفته است که به طور مستقیم از کدهای تولید شده توسط چت بات های هوش مصنوعی در پروژه های خود استفاده نکنند. هنگامی که از آلفابت دلیل این موضوع پرسیده شد، این شرکت پاسخ داد که Bard می تواند کدهای نامطلوب و مخرب تولید کند. همچنین گوگل اعلام کرده است که قصد دارد در مورد نواقص فناوری های خود با کاربران کاملاً شفاف باشد.

به طور کلی هوش مصنوعی گوگل بارد مسیر پر تلاطمی را تجربه کرده است. این چت بات در همان روزهای آغازین حیات خود با دادن پاسخ های اشتباه به سؤالات کاربران جنجال زیادی به پا کرد. چند ماه بعد، اخباری منتشر شد که کارمندان گوگل به مدیران خود پیشنهاد داده اند که اصلاً نباید این چت بات را به طور عمومی منتشر می کردند. به گفته این کارمندان در آن زمان، گوگل بارد یک «دروغگوی وسواسی»، «فوق العاده بی ارزش» و «فراتر از بی مصرف» است!

گوگل در مورد خطرات چت بات ها هشدار داده است

اکنون به نظر می رسد اوضاع برای گوگل بارد وخیم تر هم شده است! چرا که گوگل اعلام کرده که این چت بات هوش مصنوعی را به دلیل نگرانی های امنیتی در کشورهای اروپایی عرضه نخواهد کرد! در حال حاضر تنها عاملی که می تواند از توسعه روزافزون هوش مصنوعی جلوگیری کند، همین نگرانی های امنیتی است! باید ببینیم این نگرانی ها برطرف خواهند شد یا مشکلات اساسی را برای چت بات های هوش مصنوعی ایجاد می کنند!

منبع: techspot