هفته گذشته، گروهی از فعالان فناوری و متخصصان هوش مصنوعی ازجمله ایلان ماسک، با ارائه یک نامه سرگشاده خواستند تا توسعه سیستمهای هوش مصنوعی قدرتمندتر از GPT-۴ بهدلیل «خطرات آن برای جامعه و بشریت» به مدت شش ماه متوقف شود. هرچند توقف این روند میتواند به درک بهتر و تنظیم خطرات اجتماعی ایجادشده توسط هوش مصنوعی کمک کند، برخی افراد استدلال کردهاند که این تلاش توسط رقبای برخی رهبران این حوزه مانند OpenAI انجام شده است تا بتوانند در این فضا به رقابت بپردازند.
بیشتر بخوانید:
-
ایلان ماسک هشدار داد: هر چه سریعتر جلوی این تهدید بزرگ را بگیرید!
تحلیلگر شرکت گارتنر در مصاحبهای با VentureBeat توضیح میدهد که «وقفه ششماهه درخواستی برای توقف آموزش مدلهای قدرتمندتر از GPT-۴ است. GPT-۵ بهزودی پس از GPT ۴.۵ منتشر خواهد شد که انتظار میرود به AGI (هوش عمومی مصنوعی) دست پیدا کند. هنگامی که AGI در دسترس قرار گیرد، احتمالاً برای ایجاد کنترلهای ایمنی که بهطور مؤثر از انسان در مقابل استفاده از این سیستمها محافظت میکند، خیلی دیر خواهد بود».
با وجود نگرانیهایی که در مورد خطرات اجتماعی ناشی از هوش مصنوعی مولد وجود دارد، بسیاری از کارشناسان امنیت سایبری همچنین اشاره کردهاند که وقفه در توسعه هوش مصنوعی بههیچوجه کمککننده نخواهد بود. درعوض، آنها استدلال کردهاند که این تصمیم فرصت موقتی برای تیمهای امنیتی ایجاد خواهد کرد تا بتوانند روشهای دفاعی خود را توسعه دهند.
یکی از قانعکنندهترین استدلالهایی که علیه توقف تحقیقات هوش مصنوعی ارائه شده است، ادعا میکند که این تصمیم فقط بر فروشندگان تأثیرگذار خواهد بود و نه عوامل تهدید. طبق این استدلال، مجرمان سایبری همچنان توانایی توسعه حملات جدید و همچنین تقویت تکنیکهای تهاجمی خود را خواهند داشت.
«استیو گروبمن»، مدیر ارشد فناوری McAfee، به VentureBeat گفت: «توقف توسعه نسل بعدی هوش مصنوعی مانع حرکت این فناوری به سمتهای خطرناک نخواهد شد. با پیشرفت فناوری، وجود سازمانها و شرکتهایی با آیین و استانداردهایی که به پیشرفت فناوری ادامه میدهند، برای اطمینان از اینکه از فناوری به مسئولانهترین شکل ممکن استفاده میشود، ضروری است.»
درواقع کارشناسان این صنعت پیشنهاد میکنند که بهجای توقف توسعه مدلهای جدید، تمرکز روی نحوه مدیریت خطرات مرتبط با استفاده مخرب از هوش مصنوعی مولد و ترغیب فروشندگان هوش مصنوعی به شفافیت بیشتر میتواند به کاهش خطرات مربوط به این زمینه کمک بیشتری کند.
۵۸۵۸