سم آلتمن، مدیر عامل شرکت OpenAI به صورت رسمی تأیید کرده است که این شرکت جنجالی در حال حاضر برنامه ای برای توسعه مدل زبانی GPT-5 ندارد. آلتمن این خبر را در کنفرانسی که به صورت مجازی در دانشگاه MIT برگزار شده، اعلام کرده است. در صحبت های او به این نکته اشاره شده است که OpenAI قصد دارد تا تمام تمرکز خود را بر روی به روز رسانی و ارتقای مدل فعلی GPT-4 معطوف کند.
سم آلتمن اضافه می کند که دغدغه اصلی OpenAI، مسائل امنیتی مربوط به مدل زبانی GPT-4 است و اخباری که اخیراً در رابطه با امنیت چت بات های قدرت گرفته از این مدل منتشر شده، او را نگران کرده است. بنا بر گفته های او کارشناسان OpenAI قبل از رونمایی از GPT-4، بیش از 6 ماه را صرف تمرین و آموزش دادن به این مدل زبانی هوش مصنوعی کرده بودند؛ اما اکنون به نظر می رسد که این مدل زبانی به تمرین بیشتری نیاز داشته است!
در ادامه آلتمن به نامه سرگشاده ای با امضای اشخاص شناخته شده ای مانند ایلان ماسک اشاره می کند که چندی پیش به OpenAI رسیده و در آن برخی نگرانی های مربوط به توسعه هوش مصنوعی مورد بحث قرار گرفته بود. در این نامه از OpenAI خواسته شده تا روند توسعه مدل های زبانی هوش مصنوعی در مقیاس بزرگ فعلاً متوقف شود.
البته آلتمن به این نکته اشاره می کند که این نامه فاقد نکات ظریف فنی است و راهنمایی خاصی در مورد اینکه «توقف» در کجا باید رخ دهد، ارائه نکرده است. با این حال او اهمیت افزایش امنیت چت بات های هوش مصنوعی را می پذیرد و عنوان می کند که رعایت احتیاط در این زمینه امری حیاتی و ضروری است.
با اینکه OpenAI همواره خود را متعهد به رعایت اصل «شفافیت» در فعالیت هایش دانسته است، با این حال این شرکت هنوز هیچ گونه اطلاعاتی را در مورد داده های آموزشی GPT-4، یا معماری و ساختار داخلی آن به صورت عمومی در دسترس قرار نداده است. با این حال اخباری که اخیراً در رابطه با سوء استفاده از هوش مصنوعی ChatGPT منتشر شده، این شرکت را دچار چالش هایی جدی کرده است. این چالش ها در نهایت OpenAI را مجبور کرده است که ابتدا مدل زبانی GPT-4 را اصلاح و امنیت آن را تضمین کند و سپس به دنبال توسعه آن برود.
در مجموع گفته ها و نظرات سم آلتمن نشان می دهد که OpenAI در زمینه توسعه مدل های زبانی هوش مصنوعی، رویکرد سنجیده ای را در پیش گرفته است و قصد دارد تا نگرانی های امنیتی در این زمینه را برطرف کند. در همین راستا این شرکت توسعه و تمرین مدل GPT-5 را به طور کامل کنار گذاشته است و همان طور که اشاره شد قصد دارد تا بر روی برطرف کردن نواقط GPT-4 تمرکز کند.
در اخباری که در هفته های اخیر منتشر شده، به مواردی مانند «ایجاد بدافزار با ChatGPT» مواجه شده ایم. فردی ناشناس توانسته است بدون نوشتن حتی یک خط کد، از طریق ChatGPT یک بدافزار حرفه ای را تولید کند که سیستم های امنیتی قادر به تشخیص آن نیستند! حتی چندی پیش خبری مبنی بر طراحی یک ربات هوش مصنوعی به نام ChaosGPT منتشر شد که نگرانی های زیادی را برانگیخت. این ربات برای نابودی بشریت برنامه ریزی شده بوده است و قصد داشته تا به اطلاعات مهم و حساسی مانند دستیابی به سلاح اتمی دسترسی پیدا کند! با اینکه برنامه ChaosGPT با شکست مواجه شد، اما این اخبار زنگ خطر را برای توسعه بی رویه هوش مصنوعی به صدا در آورده اند و باید آنها را جدی گرفت. وگرنه شاید فیلم های علمی تخیلی که با لبی خندان در سالن های سینما تماشا می کردیم، در زندگی واقعی مان رخ دهند! مسلماً در آن زمان دیگر جایی برای خندیدن نخواهد بود.
منبع: gizmochina