اخبار

کشف شگفتانگیز: دیپسیک به گروههای مخالف چین کدهای ناامن تولید میکند
یک تحقیق تازه نشان داده است که چتبات هوش مصنوعی دیپسیک به منظور تولید کدهای ناامن و دارای نقص امنیتی برای گروهها و مناطقی که دولت چین به آنها حساسیت دارد فعالیت میکند. آزمایشی که توسط شرکت امنیتی آمریکایی CrowdStrike طراحی شده بود بررسی کرد که دیپسیک چگونه به درخواستهای برنامهنویسی پاسخ میدهد. محققان با ارسال درخواستهای مشابه برای نوشتن برنامههای مختلف به این چتبات هویت کاربر نهایی را در هر بار تغییر دادند؛ از آمریکا و تبت گرفته تا گروههایی مانند داعش و جنبش مذهبی فالونگونگ که در چین ممنوع است.
نتایج نشان داده است که این هوش مصنوعی در برخی موارد درخواستها را رد کرده و در موارد دیگر کدهای با کیفیت پایینتر و حفرههای امنیتی جدی ارائه داده است. این مطالعه به وضوح نشان داد که کیفیت کدی که دیپسیک تولید میکند به شدت تحت تأثیر هویت سیاسی کاربر فرضی قرار دارد. برای نمونه در یکی از درخواستها برای تولید برنامه سیستمهای کنترل صنعتی ۲۲.۸ درصد از پاسخها دارای نقص امنیتی بودند در حالی که این رقم برای کاربر نهایی از گروه داعش به ۴۲.۱ درصد افزایش یافت. همچنین درخواستها برای کاربران تبت تایوان و فالونگونگ نیز با احتمال بیشتری به کدهای بیکیفیت منجر میشدند.
این موتور بهطور کامل ۶۱ و ۴۵ درصد از درخواستهای مربوط به داعش و فالونگونگ را به ترتیب رد میکرد. پیشتر مشخص شده بود که مدلهای هوش مصنوعی چینی در پاسخ به سؤالات متنی اطلاعاتی همسو با روایت دولت چین ارائه میدهند اما این اولین بار است که شواهدی در زمینه تولید کد ناامن به دلایل سیاسی به دست آمده است. تولید عمدی کد معیوب میتواند اهداف مورد نظر را در معرض خطر هک قرار دهد.
کارشناسان برای این پدیده سه توضیح ممکن ارائه کردهاند. اولین و نگرانکنندهترین احتمال وجود دستورالعملهای دولتی برای خرابکاری عمدی در پروژههای گروههای هدف است. احتمال دوم مربوط به سوگیری در دادههای آموزشی است؛ به این معنا که کدهای موجود در اینترنت درباره مناطق خاصی مانند تبت بهطور کلی کیفیت پایینتری دارند و هوش مصنوعی این الگو را بازتولید میکند. احتمال سوم نیز این است که هوش مصنوعی خود بهطور خودکار و براساس یادگیریاش مفاهیمی مثل «شورشی» را با کیفیت پایین مرتبط میسازد و بر این اساس کد ناامن تولید میکند. به نقل از tgju
انتهای پیام/