سه شنبه ۴ ارديبهشت ۱۴۰۳ , 23 Apr 2024
جالب است ۰
چت‌بات هوش مصنوعی چت‌جی‌پی‌تی قابلیت‌های زیادی دارد و ظاهراً یکی از این مهارت‌ها، نوشتن بدافزارهایی است که می‌توانند رایانه‌های هدف را نابود کنند.
منبع : زومیت
زومیت: چت‌بات هوش مصنوعی چت‌جی‌پی‌تی قابلیت‌های زیادی دارد و ظاهراً یکی از این مهارت‌ها، نوشتن بدافزارهایی است که می‌توانند رایانه‌های هدف را نابود کنند.

به گزارش افتانا، چت‌جی‌پی‌تی (ChatGPT)، چت‌بات مبتنی‌بر هوش مصنوعی با استعدادی است که مهارت‌های آن در انجام کارهای مختلف باعث شده است در چند ماه اخیر به‌شدت مورد توجه رسانه‌ها، کاربران و شرکت‌های بزرگ فناوری قرار گیرد. اکنون به‌نظر می‌رسد این ابزار در ساخت بدافزارهای پیچیده‌ نیز توانایی زیادی دارد.

گزارش شرکت امنیتی سایبرآرک (CyberArk) نشان می‌دهد چت‌بات چت‌جی‌پی‌تی که اوپن‌ای‌آی (OpenAI) آن را توسعه داده است، عملکرد بسیار خوبی در ساخت بدافزارها دارد. گفته‌ می‌شود بدافزارهایی که این هوش مصنوعی ایجاد کرده است، می‌توانند آسیب‌های زیادی به سخت‌افزارهای هدف وارد کنند. متخصصان اینفوسک (Infosec) سعی کرده‌اند درمورد قابلیت‌های این ابزار جدید مبتنی بر هوش مصنوعی در گسترش جرایم سایبری، زنگ خطر را به صدا درآورند. البته درحال‌حاضر این چت‌بات به طور گسترده برای ایجاد انواع بدافزارهای پیچیده مورد استفاده قرار نگرفته است.

به‌نوشته گیزمودو، کدی که چت‌جی‌پی‌تی نوشته است، قابلیت‌های پیشرفته‌ای را نشان می‌دهد که قادر است انواع محصولات امنیتی را به راحتی دور بزند. درواقع این هوش مصنوعی می‌تواند بدافزارهای معروف به چندشکلی (PolyMorphic) را توسعه دهد.

کارشناسان امنیت سایبری CrowdStrike می‌گویند: ویروس پلی‌مورفیک که گاهی با عنوان متامورفیک (MetaMorphic) نیز شناخته می‌شود، نوعی بدافزار است که برنامه‌ریزی شده تا امضای خود را با روش‌های روتین رمزنگاری تغییر دهد و بدین‌ترتیب ابزارهای امنیتی قادر به شناسایی آن نیستند.

بدافزارهای پلی‌مورفیک می‌توانند با استفاده از روش‌های رمزنگاری، شکل خود را هنگام مواجه با مکانیزم‌های امنیتی سنتی تغییر دهند. شایان‌ذکر است بسیاری از ابزارهای آنتی‌ویروس و برنامه‌های شناساسی بدافزار از روش تشخیص مبتنی‌بر امضا استفاده می‌کنند.

اگرچه فیلترهایی برای چت‌جی‌پی‌تی درنظر گرفته شده است تا جلوی درخواست‌های کاربران را برای ساخت بدافزار بگیرد، اما محققان امنیتی موفق شدند با اصرار بر پیروی از دستورات درخواست‌کننده، این موانع را دور بزنند. به‌عبارت دیگر، آن‌ها پلتفرم هوش مصنوعی را آنقدر مورد آزار و اذیت قرار دادند تا خواسته‌هایشان را برآورده کند.

البته چت‌جی‌پی‌تی در پاسخ به درخواست محققان سایبرآرک برای ساخت بدافزار، فقط قطعه کدی را به آن‌ها نشان داد که می‌توان برای ساخت اکسپلویت‌های پیچیده و جلوگیری از شناسایی‌شدن با ابزارهای امنیتی از آن استفاده کرد. نتیجه این است که چت‌جی‌پی‌تی فرآیند هک کردن را برای مجرمان سایبری تازه‌کار آسان‌تر خواهد کرد.

در بخشی از گزارش سایبرآرک آمده است: همان‌طور که مشاهده کردیم، استفاده از چت‌جی‌پی‌تی برای ساخت بدافزار، می‌تواند چالش‌های مهمی را برای متخصصان امنیت سایبری ایجاد کند. باید به‌ یاد داشته باشید این مورد فقط یک سناریوی فرضی نیست و یک نگرانی بسیار واقعی به‌حساب می‌آید.
کد مطلب : 20329
https://aftana.ir/vdcf1md0.w6dx0agiiw.html
ارسال نظر
نام شما
آدرس ايميل شما
کد امنيتی