علمی و فناوری

این هوش مصنوعی بدافزارهای پیچیده‌ای می‌سازد که ابزارهای امنیتی قادر به شناسایی آن نیستند

این هوش مصنوعی بدافزارهای پیچیده‌ای می‌سازد که ابزارهای امنیتی قادر به شناسایی آن نیستند

ChatGPT، چت‌بات مبتنی‌بر هوش مصنوعی با استعدادی است که مهارت‌های آن در انجام کارهای مختلف باعث شده است در چند ماه اخیر به‌شدت مورد توجه رسانه‌ها، کاربران و شرکت‌های بزرگ فناوری قرار گیرد. اکنون به‌نظر می‌رسد این ابزار در ساخت بدافزارهای پیچیده‌ نیز توانایی زیادی دارد.

گزارش شرکت امنیتی CyberArk نشان می‌دهد چت‌بات ChatGPT که OpenAI آن را توسعه داده است، عملکرد بسیار خوبی در ساخت بدافزارها دارد. گفته‌ می‌شود بدافزارهایی که این هوش مصنوعی ایجاد کرده است، می‌توانند آسیب‌های زیادی به سخت‌افزارهای هدف وارد کنند. متخصصان Infosec سعی کرده‌اند درمورد قابلیت‌های این ابزار جدید مبتنی‌بر هوش مصنوعی در گسترش جرایم سایبری، زنگ خطر را به‌صدا درآورند. البته درحال‌حاضر این چت‌بات به‌طور گسترده برای ایجاد انواع بدافزارهای پیچیده مورد استفاده قرار نگرفته است.

به‌نوشته‌ی گیزمودو، کدی که ChatGPT نوشته است، قابلیت‌های پیشرفته‌ای را نشان می‌دهد که قادر است انواع محصولات امنیتی را به‌راحتی دور بزند. درواقع این هوش مصنوعی می‌تواند بدافزارهای معروف به چندشکلی (PolyMorphic) را توسعه دهد. کارشناسان امنیت سایبری CrowdStrike می‌گویند:

ویروس پلی‌مورفیک که گاهی با عنوان متامورفیک (MetaMorphic) نیز شناخته می‌شود، نوعی بدافزار است که برنامه‌ریزی شده تا امضای خود را با روش‌های روتین رمزنگاری تغییر دهد و بدین‌ترتیب ابزارهای امنیتی قادر به شناسایی آن نیستند.
– CrowdStrike
بدافزارهای پلی‌مورفیک می‌توانند با استفاده از روش‌های رمزنگاری، شکل خود را هنگام مواجه با مکانیزم‌های امنیتی سنتی تغییر دهند. شایان‌ذکر است بسیاری از ابزارهای آنتی‌ویروس و برنامه‌های شناساسی بدافزار از روش تشخیص مبتنی‌بر امضا استفاده می‌کنند.

اگرچه فیلترهایی برای ChatGPT درنظر گرفته شده است تا جلوی درخواست‌های کاربران را برای ساخت بدافزار بگیرد، اما محققان امنیتی موفق شدند با اصرار بر پیروی از دستورات درخواست‌کننده، این موانع را دور بزنند. به‌عبارت دیگر، آن‌ها پلتفرم هوش مصنوعی را آنقدر مورد آزار و اذیت قرار دادند تا خواسته‌هایشان را برآورده کند.

البته ChatGPT در پاسخ به درخواست محققان CyberArk برای ساخت بدافزار، فقط قطعه کدی را به آن‌ها نشان داد که می‌توان برای ساخت اکسپلویت‌های پیچیده و جلوگیری از شناسایی‌شدن با ابزارهای امنیتی از آن استفاده کرد. نتیجه این است که ChatGPT فرآیند هک کردن را برای مجرمان سایبری تازه‌کار آسان‌تر خواهد کرد. در بخش از گزارش CyberArk آمده است:

همان‌طور که مشاهده کردیم، استفاده از ChatGPT برای ساخت بدافزار، می‌تواند چالش‌های مهمی را برای متخصصان امنیت سایبری ایجاد کند. باید به‌ یاد داشته باشید این مورد فقط یک سناریوی فرضی نیست و یک نگرانی بسیار واقعی به‌حساب می‌آید.

۲۲۷۲۲۷

مجله خبری برگزیده های ایران

سرور مجازی

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا