هرروز خبرهای جدیدی دربارهی تواناییهای چتبات هوش مصنوعی ChatGPT منتشر میشوند. این ابزار قطعاً میتواند به انواع سؤالات علمی، فلسفی و… جواب دهد یا در کدنویسی و حتی بررسی آلزایمر به شما کمک کند. باوجوداین، مثل هر فناوری مبتنیبر هوش مصنوعی دیگری، درمعرض خطر سوءاستفاده نیز قرار دارد.
محققان Check Point Software متوجه شدند ChatGPT میتواند برای ایجاد ایمیلهای فیشینگ بهکار گرفته شود. از این چتبات در ترکیب با Codex بهمنظور توسعه و تزریق کدهای مخرب نیز میتوان استفاده کرد. گفتی است OpenAI ابزار Codex را برای تبدیل متن به کدهای مفهوم کامپیوتری طراحی کرده است.
محققان موفق شدهاند با این دو فناوری زنجیرهای کاملاً آلوده به بدافزار ایجاد کند که از یک ایمیل فیشینگ آغاز میشود و با سند اکسل حاوی کدهای مخرب VBA ادامه پیدا میکند. کل کدهای بدافزار را میتوان در یک فایل اجرایی کامپایل و آن را روی سیستمهای هدف اجرا کند. ChatGPT بیشتر ایمیلهای فیشینگ و جعل هویت بهتر و قانعکنندهتری از نمونههای واقعی موجود تولید میکند.
سرگئی شیکویچ از شرکت Check Point Software میگوید:
ChatGPT به افراد بیشتری اجازه میدهد کدنویسی کنند؛ اما خطر بزرگ این است که احتمالاً تعداد زیادی از آنها به توسعهدهندگان بدافزار تبدیل شوند.- سرگئی شیکویچ
بههرحال، وقتی از ChatGPT صحبت میشود، تکرارشدن امری مهم محسوب میشود. شیکویچ میگوید خروجی این چتبات ابتدا بهصورت کد نبود. او روش استفاده از هوش مصنوعی مذکور را با سرویس مترجم متن گوگل مقایسه میکند؛ جایی که اکثر خروجیها همان چیزی است که بهدنبال آن هستید. بههرحال، مثل گوگل ترنسلیت با اصلاحکردن خروجیهای ChatGPT میتوان این ابزار را به تولید کد نهایی مجبور کرد.
لوری فیثکرانور، مدیر و استاد برجستهی Bosch در مؤسسهی امنیت و حریم خصوصی CyLab و استاد سیستمهای FORE در واحد علوم کامپیوتر و مهندسی سیاست عمومی در دانشگاه کارنگی ملون، دیدگاههایش شبیه محققان Check Point Software است. او میگوید از ChatGPT برای تولید کد استفاده نکرده؛ اما نمونههایی را دیده است که دیگران ایجاد کردهاند. کدی که این هوش مصنوعی تولید میکند، خیلی پیچیده نیست؛ اما برخی از آنها کدهای اجرایی هستند.
ابزارهای هوش مصنوعی دیگری نیز برای تولید کد وجود دارد و عملکرد همهی آنها هرروز بهتر میشود. درحالحاضر، ChatGPT احتمالاً ازنظر تولید متنهای مفهوم برای انسانها عملکرد بهتری دارد و برای ساخت مواردی مثل ایمیلهای جعلی واقعگرایانه مناسبتر است. بهگزارش Ieee، محققان هکرهایی را شناسایی کردهاند که از ChatGPT برای توسعهی ابزارهای مخرب مانند کدهای سرقت اطلاعات استفاده کردهاند.
کرنور میگوید:
فکر میکنم امروزه استفادهی موفقیتآمیر از ابزارهای هوش مصنوعی به دانش فنی نیاز دارد؛ اما انتظار میرود با گذشت زمان، گرفتن خروجی از این ابزارها و انجام حملههای سایبری آسانتر شود.- کرنور
بدینترتیب، انتظار میرود بهمرورزمان بدافزارهای توسعهیافته با هوش مصنوعی درمقایسهبا نمونههای ساختهشدهی برنامهنویسان انسانی بهبود پیدا کند و در آیندهای نزدیک، این ابزارها خواهند توانست حملههای پیچیدهای را در انواع مختلف و با سرعت بسیار زیاد ایجاد کنند.
پیچیدگیهای بیشتر میتواند ناشی از نبود راهکارهایی باشد که بهمنظور تشخیص ایجاد کد مخرب در ChatGPT اِعمال شدهاند. شیکویچ میگوید:
هیچ راه مناسبی برای مشخصکردن این موضوع وجود ندارد که نرمافزاری خاص یا بدافزار یا حتی ایمیل فیشینگ با ChatGPT نوشته شده است یا نه؛ زیرا خروجی این چتبات امضای خاصی ندارد.- شیکویچ
OpenAI بهنوبهی خود در حال کار روی روشی است تا خروجیهای مدلهای GPT را با واترمارک متمایز کند. شیکویچ خاطرنشان میکند پس از انتشار یافتههای Check Point Software، محققان دریافتند امکان ایجاد ایمیلهای فیشینگ با ChatGPT دیگر وجود ندارد.
۲۲۷۲۲۷