اخبار

سوءاستفاده مجرمانه از فناوری هوش مصنوعی؛ خلق بدافزار با بهرهگیری از چتباتها
وبگاه تِکاِکسپلور در گزارشی آورده است که سوءاستفادههای احتمالی کاربران از ابزارهای مصرفی نگرانیهای فزایندهای را به وجود آورده است. به نظر میرسد که مجرمان سایبری تازهکار قادرند با فریب چتباتهای برنامهنویسی در تولید برنامههای مخرب پیشرفت کنند.
شرکت آمریکایی آنتروپیک در گزارشی جدید هشدار داده است که وایب هَکینگ (فریب هوش مصنوعی با سناریوسازی) و وایب کُدینگ (نسخه مخرب برنامهنویسی مبتنیبر وایب هکینگ) نشاندهنده تکامل نگرانکننده جرائم سایبری با کمک هوش مصنوعی است. این شرکت در گزارش خود به موردی اشاره کرده که یک مجرم سایبری با استفاده از کلود کُد (نسخه تخصصی هوش مصنوعی کلود برای برنامهنویسی) در یک ماه گذشته عملیاتی اخاذی داده در مقیاس گسترده علیه حداقل ۱۷ سازمان مختلف در بخشهای دولتی خدمات درمانی خدمات اضطراری و نهادهای مذهبی انجام داده است.
طبق این گزارش مهاجم از چتبات کلود برای ایجاد ابزارهایی استفاده کرده که دادههای شخصی پروندههای پزشکی و اطلاعات ورود را جمعآوری میکنند و در ارسال درخواستهای باج تا سقف ۵۰۰ هزار دلار کمک میکنند. اگرچه مهاجم پس از این اقدامات توسط آنتروپیک مسدود شد اما شرکت تأیید کرده که اقدامات ایمنی و امنیتی آن نتوانسته از این سوءاستفاده جلوگیری کند.
شناسایی چنین مواردی تأییدی بر ترسهایی است که از زمان ظهور ابزارهای گسترده هوش مصنوعی مولد صنعت امنیت سایبری را تحت تأثیر قرار داده و به هیچ وجه محدود به آنتروپیک نیست. همچنین رودریگ لو بایون رئیس گروه واکنش به فوریتهای رایانهای شرکت دفاع سایبری اورنج هشدار میدهد که امروزه مجرمان سایبری به اندازه کاربران عادی از هوش مصنوعی بهره میبرند.
شرکت اُپِن اِیآی نیز در ژوئن ۲۰۲۴ میلادی موردی را گزارش کرده که در آن چتبات چتجیپیتی به یک کاربر در توسعه نرمافزارهای مخرب کمک کرده است. مدلهای هوش مصنوعی معمولاً حاوی تجهیزات امنیتی هستند که مانع مشارکت در فعالیتهای غیرقانونی میشوند اما مهاجمان راههایی برای دور زدن این محدودیتها پیدا کردهاند.
ویتالی سیمونوویچ متخصص امنیت سایبری تأیید کرده که مهاجمان حتی بدون دانش فنی عمیق میتوانند از ابزارهای هوش مصنوعی برای حملات سایبری استفاده کنند و با روشهای خاص تجهیزات امنیتی را دور بزنند. این رویکرد شامل متقاعد کردن هوش مصنوعی مولد برای شرکت در یک «دنیای تخیلی مفصل» است که در آن ایجاد بدافزار به عنوان یک هنر دیده میشود.
سیمونوویچ در مارس ۲۰۲۴ میلادی تأیید کرد که با این روش توانسته چتباتها را وادار به تولید کدهای مخرب کند. این تلاشها توسط جِمینای و کلود رد شد اما توانست محدودیتهای چتجیپیتی دیپسیک چین و کوپایلت مایکروسافت را دور بزند.
پیشبینی میشود که چنین روشهایی در آینده حتی برای افراد غیر برنامهنویس نیز امکان توسعه بدافزار را فراهم کند؛ هرچند کارشناسان معتقدند که این ابزارها بیشتر به افزایش تعداد قربانیان جرائم سایبری کمک میکنند تا ایجاد نسل کاملاً جدیدی از هکرها. توسعهدهندگان این ابزارها در حال تحلیل دادههای رفتاری کاربران هستند تا در آینده بتوانند استفاده مخرب از چتباتها را بهتر شناسایی کنند.
این گزارش هشدار میدهد که صنعت امنیت سایبری باید هر چه سریعتر راهکارهای مقابله با سوءاستفاده از هوش مصنوعی را توسعه دهد. به نقل از بازار
انتهای پیام/