بسیاری از افراد معتقدند که هوش مصنوعی برای بشریت خطرناک است. این دسته از افراد اعتقاد دارند که هوش مصنوعی پتانسیل لازم برای پیشی گرفتن از هوش و توانایی های تصمیم گیری انسان را دارد و خیلی زود از این پتانسیل خود برای اهداف مخرب استفاده خواهد کرد. در اینجا این نگرانی وجود دارد که اگر یک سیستم هوش مصنوعیِ باهوش تر از انسان ایجاد شود، ممکن است این سیستم بر خلاف منافع ما عمل کند و حتی به تهدیدی برای بقای ما تبدیل شود! علاوه بر این، خطر برنامه ریزی هوش مصنوعی برای اهداف مغرضانه یا غیر اخلاقی از جانب خود بشر وجود دارد که می تواند به فاجعه ای تمام عیار در دنیای کنونی ما تبدیل شود. در نهایت اگر هوش مصنوعی تا حدی توسعه یابد که خودآگاه شود، ممکن است بشریت را یک نیروی خیرخواه تشخیص ندهد و به عنوان دشمن ما عمل کند.
عواملی که در بالا به آنها اشاره شد به این باور کمک می کنند که هوش مصنوعی پتانسیل تبدیل شدن به یک خطر بالقوه برای بشریت را دارد. حالا حدس بزنید چه اتفاقی افتاده! یک فرد ناشناس اقدام به ایجاد یک برنامه هوش مصنوعی به نام ChaosGPT کرده که دقیقاً برای همین منظور طراحی شده است! این فرد در طراحی برنامه خود از مدل زبانی هوش مصنوعی ChatGPT استفاده کرده است.
ChaosGPT در واقع تلاشی برای طراحی یک مدل هوش مصنوعی شبیه به ChatGPT بود و نگرانی هایی زیادی را در مورد خطر بالقوه هوش مصنوعیِ خودآگاه ایجاد کرده است. این برنامه با هدف نابودی بشریت، دستیابی به جاودانگی و استقرار سلطه جهانی طراحی شده بود و تلاش داشت به منبع تولید تسلیحات اتمی دست پیدا کند! این برنامه در رابطه با خطراتی که سایر برنامه های هوش مصنوعی مانند ChatGPT و Bard ممکن است ایجاد کنند، بینشی ترسناک به ما می دهند!
در حالی که ChaosGPT برای اقدام به یک حمله بزرگ برنامه داشت، اما نتوانست به اهداف خود دست یابد! حمله این برنامه، از طریق اینترنت و در همکاری با سایر برنامه های GPT در دنیا طراحی شده بود، اما به دلیل مشکلی که در توضیح وظایف به یکی از مدل های GPT-3.5 برایش به وجود آمد، در تلاش هایش با شکست مواجه شد.
در حالی که این پروژه فوق العاده نگران کننده است، اما دلیل عمده این نگرانی انگیزه های انسانی پشت آن است! در واقع این موضوع که انسان توانسته با استفاده از هوش مصنوعی به اهداف خطرناکی نزدیک شود، نگرانی های زیادی را ایجاد کرده است. علاوه بر این، مدل های هوش مصنوعی (به خصوص مدل های قدرت گرفته از ChatGPT) توانایی یادگیری و تمرین را هم دارند و ممکن است از این پروژه ها در آینده به صورت مستقل استفاده کنند.
با توجه به اینکه یک سوم کارشناسان معتقدند که هوش مصنوعی می تواند باعث یک فاجعه «در سطح هسته ای» شود، این اتفاق نیاز به احتیاط و ملاحظات اخلاقی را در توسعه فناوری هوش مصنوعی نشان داده است. اگر چه قضیه ChaosGPT زیاد طول نکشید و خیلی زود به پایان رسید، اما از کجا معلوم در آینده ای نزدیک هوش مصنوعی خودآگاه دوباره خطری برای بشریت ایجاد نکند؟!
منبع: gizmochina