یادگیری ماشین تخاصمی، فریب یادگیری ماشین یا مدلهای هوش مصنوعی است که اغلب با نیت مخرب انجام میشود. این ترفند که به آن هوش مصنوعی متخاصم نیز میگویند، با دستکاریهای جزئی در ورودیها رخ میدهد که میتواند الگوریتمهای یادگیری ماشین را دور بزند یا فریب دهد.
این دستکاری میتواند منجر به شناسایی اشتباه یا حتی نامرئی شدن سیستمهای یادگیری ماشین شود. همانطور که یادگیری ماشین و هوش مصنوعی در امنیت سایبری به شدت مورد استفاده قرار میگیرند، دور زدن تکنیکهای آنها میتواند منجر به حملات سایبری موفقیتآمیز شود.
-
چگونه میتوان این تهدید را تشخیص داد:
تهدیدهای Adversarial Machine Learning تا زمانی که یادگیری ماشین و هوش مصنوعی وجود دارند، ادامه خواهند داشت. بنابراین این بدان معناست که این تهدیدها ادامه دارند. یک نمونه رایج در دنیای تهدیدات سایبری، تلاش برای فرار از هرزنامه و فیلترهای فیشینگ برای ارسال ایمیلهای مخرب است.
-
چگونه میتوان از این تهدید جلوگیری کرد:
سازندگان مدلهای یادگیری ماشین و هوش مصنوعی دائماً در تلاشند تا آنها را تقویت کرده و روشهایی را برای مقابله با حملات یادگیری ماشینی متخاصم پیادهسازی کنند. اما بهترین شکل پیشگیری، رویکرد امنیتی لایهای است.
تنها تکیه بر یک شکل از تشخیص تهدید یادگیری ماشین، شبکهها را آسیبپذیر میکند. بنابراین با آموزش کارکنان، بخشبندی شبکهها، افزودن احراز هویت چند مرحلهای و پیادهسازی چندین روش امنیتی، لایههای اضافهتری ایجاد کنید.