این هوش مصنوعی بدافزارهای پیچیده ای می سازد که ابزارهای امنیتی قادر به شناسایی آن نیستند

به گزارش وبلاگ مجله پریها، زومیت نوشت: چت بات هوش مصنوعی ChaGPT قابلیت های زیادی دارد و ظاهراً یکی از این مهارت ها، نوشتن بدافزارهایی است که می توانند رایانه های هدف را نابود نمایند.

این هوش مصنوعی بدافزارهای پیچیده ای می سازد که ابزارهای امنیتی قادر به شناسایی آن نیستند

ChatGPT، چت بات مبتنی بر هوش مصنوعی با استعدادی است که مهارت های آن در انجام کارهای مختلف باعث شده است در چند ماه اخیر به شدت مورد توجه رسانه ها، کاربران و شرکت های بزرگ فناوری قرار گیرد. اکنون به نظر می رسد این ابزار در ساخت بدافزارهای پیچیده نیز توانایی زیادی دارد.

گزارش شرکت امنیتی CyberArk نشان می دهد چت بات ChatGPT که OpenAI آن را توسعه داده است، عملکرد بسیار خوبی در ساخت بدافزارها دارد. گفته می گردد بدافزارهایی که این هوش مصنوعی ایجاد نموده است، می توانند آسیب های زیادی به سخت افزارهای هدف وارد نمایند. متخصصان Infosec سعی نموده اند درمورد قابلیت های این ابزار تازه مبتنی بر هوش مصنوعی در توسعه جرایم سایبری، زنگ خطر را به صدا درآورند. البته درحال حاضر این چت بات به طور گسترده برای ایجاد انواع بدافزارهای پیچیده مورد استفاده قرار نگرفته است.

به نوشته گیزمودو، کدی که ChatGPT نوشته است، قابلیت های پیشرفته ای را نشان می دهد که قادر است انواع محصولات امنیتی را به راحتی دور بزند. درواقع این هوش مصنوعی می تواند بدافزارهای معروف به چندشکلی (PolyMorphic) را توسعه دهد. کارشناسان امنیت سایبری CrowdStrike می گویند:

ویروس پلی مورفیک که گاهی با عنوان متامورفیک (MetaMorphic) نیز شناخته می گردد، نوعی بدافزار است که برنامه ریزی شده تا امضای خود را با روش های روتین رمزنگاری تغییر دهد و بدین ترتیب ابزارهای امنیتی قادر به شناسایی آن نیستند.

- CrowdStrike

بدافزارهای پلی مورفیک می توانند با استفاده از روش های رمزنگاری، شکل خود را هنگام روبرو با مکانیزم های امنیتی سنتی تغییر دهند. شایان ذکر است بسیاری از ابزارهای آنتی ویروس و برنامه های شناساسی بدافزار از روش تشخیص مبتنی بر امضا استفاده می نمایند.

اگرچه فیلترهایی برای ChatGPT درنظر گرفته شده است تا جلوی درخواست های کاربران را برای ساخت بدافزار بگیرد، اما محققان امنیتی پیروز شدند با اصرار بر پیروی از دستورات درخواست نماینده، این موانع را دور بزنند. به عبارت دیگر، آن ها پلتفرم هوش مصنوعی را آنقدر مورد آزار و اذیت قرار دادند تا خواسته هایشان را برآورده کند.

البته ChatGPT در پاسخ به درخواست محققان CyberArk برای ساخت بدافزار، فقط قطعه کدی را به آن ها نشان داد که می توان برای ساخت اکسپلویت های پیچیده و جلوگیری از شناسایی شدن با ابزارهای امنیتی از آن استفاده کرد. نتیجه این است که ChatGPT فرآیند هک کردن را برای مجرمان سایبری تازه کار آسان تر خواهد نمود. در بخش از گزارش CyberArk آمده است:

همان طور که مشاهده کردیم، استفاده از ChatGPT برای ساخت بدافزار، می تواند چالش های مهمی را برای متخصصان امنیت سایبری ایجاد کند. باید به یاد داشته باشید این مورد فقط یک سناریوی فرضی نیست و یک نگرانی بسیار واقعی به شمار میرود.

227227

منبع: خبرآنلاین
انتشار: 4 بهمن 1401 بروزرسانی: 4 بهمن 1401 گردآورنده: pariha.ir شناسه مطلب: 2204

به "این هوش مصنوعی بدافزارهای پیچیده ای می سازد که ابزارهای امنیتی قادر به شناسایی آن نیستند" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "این هوش مصنوعی بدافزارهای پیچیده ای می سازد که ابزارهای امنیتی قادر به شناسایی آن نیستند"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید