X
   
 
    • تاریخ انتشار: ۱۳۹۹/۰۷/۲۰
      منبع خبر : ماهنامه پیوست
    • 3 روشی که مجرمان سایبری از هوش مصنوعی استفاده می‌کنند

      مجرمان از یادگیری ماشینی برای شکستن سریع رمز‌ها استفاده می‌کنند و بد‌افزارهای جدید می‌دانند چطور مخفی شوند.
      برخی از متخصصان امنیت سایبری معتقدند که هوش مصنوعی می‌تواند ابزار دست مجرمان سایبری و هکرها قرار گیرد تا از طریق آن به سرعت رمزها را بشکنند و از آن بهره‌برداری کنند.
      3 روشی که مجرمان سایبری از هوش مصنوعی استفاده می‌کنند

      به گزارش ایمینو، تیم باندوس، رئیس امنیت اطلاعات در شرکت نرم‌افزاری دیجیتال گاردین نیز معتقد است که امنیت سایبری همیشه برای ساخت دفاع مناسب و جلوگیری از حملات به هوش انسانی نیاز دارد.به گفته او «هوش مصنوعی شخصیت دوم است و تحلیلگران امنیتی و شکارچیان خطر قهرمانان داستان هستند.»

      مسموم سازی داده‌ها

      به گفته طبسی بهترین مهاجمان گاهی اوقات داده‌هایی را هدف قرار می‌دهند که در مدل‌های یادیگری ماشینی کاربرد دارند. مسوم سازی داده‌ها با هدف دستکاری داده‌های مورد استفاده در آموزش هوش مصنوعی انجام می‌گیرد و مهاجم با داده‌های اشتباه مدل یادگیری ماشینی را فریب داده و باعث عملکرد اشتباه می‌شود، برای مثال در حالتی که ایمیل‌های مشکوک به عنوان محتوای سالم دسته بندی می‌شوند شاهد چنین پدیده‌ای هستیم.

      طبسی معتقد است که ما دو نوع مسموم سازی داده داریم؛ حملاتی که دسترسی به الگوریتم یادگیری ماشینی را هدف قرار می‌دهند و حملاتی که به صحت و درستی این الگوریتم حمله می‌کنند. تحقیقات نشان می‌دهد که مسموم سازی ۳ درصدی در داده‌های آموزشی باعث ۱۱ درصد کاهش دقت خواهد شد.

      او اینگونه توضیح می‌دهد که مهاجم با حمله‌های مخفی می‌تواند داده‌هایی را بدون اطلاع طراح به الگوریتم اضافه کند. مهاجم همچنین با استفاده از راه مخفی سیستم یادیگری ماشینی را وادار به دسته بندی اشتباه می‌کند و در این حالت حتی اگر داده اشتباهی منتقل شود نیز سیستم آن‌را در گروه داده‌های سالم قرار می‌دهد.

      طبسی می‌گوید که تکنیک‌های مسموم سازی داده در هر مورد با دیگری متفاوت است.

      به گفته او «داده، خون و سوخت یادگیری و ماشینی است و باید به داده‌هایی که برای آموزش مدل‌ها استفاده می‌کنیم توجه زیادی داشته باشیم. کاربر تحت تاثیر مدل و کیفیت آموزش و همچنین داده‌هایی است که در این مدل قرار دارد.»

      طبسی می‌گوید که این صنعت به استاندارد‌ها و دستورالعمل‌های مناسبی برای تضمین کیفیت داده نیاز دارد و موسسه ملی استاندارد و تکنولوژی به دنبال آن است که دستورالعملی ملی را برای رسیدن به هوش مصنوعی مطمئن فراهم کند، این دستورالعمل شامل رده‌های بالا و پیش‌نیازهای فنی برای تضمین دقت، امنیت، تعادل، حریم خصوصی و توصیف پذیری خواهد بود.

      شبکه‌های رقابت پویا

      شبکه‌های رقابت پویا (GAN) در واقع دو سیستم هوش مصنوعی هستند که در مقابل هم قرار می‌گیرد، در این حالت یکی از آنها محتوای اصلی را شبیه سازی می‌کند و دیگری اشتباهات آن را شناسایی می‌کند. دراثر رقابت این دو در کنار هم محتوایی را ایجاد می‌کنند که به اندازه محتوای اصلی متقاعد کننده خواهد بود و در واقع با آن مو نمی‌زند.

      محققان شرکت انویدیا یک مدل ویژه هوش مصنوعی را برای بازسازی بازی پک-من آموزش دادند که بازسازی تنها با مشاهده چند ساعت از این بازی انجام گرفت.

      به گفته باندوس مهاجمان از GANها برای تقلید الگو‌های معمول ترافیک استفاده می‌کنند تا توجهی به مهاجمان جلب نشود و بتوانند داده‌های حساس را به سرعت شناسایی و استخراج کنند.

      او می‌گوید: «آنها به لطف این قابلیت‌ها در ۳۰ تا ۴۰ دقیقه وارد و خارج می‌شوند. وقتی مهاجمان از هوش مصنوعی و یادگیری ماشینی استفاده می‌کنند می‌توانند این کارها را به صورت خودکار انجام دهند».

      در مقاله‌ای به نام «شبکه‌های رقابت پویا: چه هستند و چرا باید از آنها ترسید» به نوشته توماس کلیمک گفته شده است که GANها برای شکستن رمز، جلوگیری از شناسایی بدافزار و فریب سیستم‌های تشخیص چهره استفاده می‌شوند. محققان یک سیستم رمزگشایی GAN را با استفاده از لیست رمزعبور‌های رایج در صنعت آموزش دادند و نهایتا این سیستم توانست بیشتر از هر ابزار دیگری رمز عبورهای مختلف را حدس بزند. GANها علاوه بر تولید داده می‌توانند بدافزاری ایجاد کنند که قادر است خود را از سیستم‌های شناسایی که با یادیگری ماشینی فعالیت می‌کنند مخفی کند.

      البته به گفته باندوس الگوریتم‌های هوش مصنوعی مورد استفاده در امنیت سایبری دائما آموزش داده می‌شوند تا روش‌های تازه حمله را نیز شناسایی کنند. او می‌گوید: «همانطور که دشمنان تکامل پیدا می‌کنند ما نیز تکامل می‌یابیم.»

      ربات‌های خرابکار

      گرگ فاس استراتژیست ارشد در زمینه امنیت سایبری در شرکت VMware می‌گوید که اگر الگوریتم‌های هوش مصنوعی تصمیماتی بگیرند، می‌توان آنها را دستکاری کرده و وادار به تصمیم گیری اشتباه کرد.

      او می‌گوید: «مهاجمان با درک این مدل‌ها می‌توانند از آنها سو استفاده کنند.» فاس برای توضیح بیشتر به مثالی از سیستم معاملات یک رمزارز اشاره می‌کند که توسط ربات‌ها هدایت می‌شود.

      او می‌گوید: «مهاجمان وارد شده و دریافتند که ربات‌ها چطور معاملات را انجام می‌دهند و آنها از ربات‌هایی رای فریب الگوریتم موجود استفاده کردند. همین کار را می‌توان در زمینه‌ها و مثال‌های دیگر نیز انجام داد».

      به عقیده فاس این تکنیک موضوع تازه‌ای نیست اما حالا الگوریتم‌ها بیش از پیش در تصمیم‌گیری دخیل هستند و درنتیجه خطر تصمیم‌گیری‌‌های اشتباه نیز از همیشه بیشتر شده است.

      ارسال دیدگاه
      آدرس ایمیل شما منتشر نخواهد شد.