مسمومیت دادهها در نرمافزارهای امنیتیای که از هوش مصنوعی یا AI و یادگیری ماشین یا ML استفاده میکنند، احتمالاً خطر بزرگ بعدی در امنیت سایبری خواهد بود. بنا به سخنرانی اصلی در مراسم RSA 2021 که توسط یوهانس اولریچ، رئیس تحقیقات در موسسهی تکنولوژی SANS انجام شد، همه باید به این تهدید توجه کنند. اولریچ در RSA گفت: «یکی از اصلیترین تهدیدات در زمینهی یادگیری ماشین این است که یکی از مهاجمین بتواند روی نمونههایی تأثیر بگذارد که برای آموزش مدلها مورد استفاده قرار میدهیم.»
با ظهور این تهدید جدید، مدافعان باید یاد بگیرند که چطور حملات مسمومیت داده را شناسایی کرده و چطور از آنها پیشگیری نمایند. در غیر این صورت، تصمیمات کسبوکار و امنیت سایبری براساس دادههای ناسالم اتخاذ خواهند شد.
مسمومیت داده یا Data Poisoning چیست؟
وقتی مهاجمین دادههای مورد استفاده برای آموزش مدلهای هوش مصنوعی یا AI را دستکاری میکنند، این دادهها عملاً مسموم میشوند از آنجایی که هوش مصنوعی برای یادگیری نحوه پیشبینی دقیق به آن دادهها متکی است، پیشبینیهای ایجاد شده توسط الگوریتم نادرست خواهند بود.
عاملان تهدید اکنون به نوعی دادهها را دستکاری میکنند که برای حملات سایبری قابلاستفاده باشد. مثلاً میتوانند صرفاً با تغییر دادههای یک موتور پیشنهاد یا Recommendation Engine کارهای زیادی انجام دهند. سپس میتوانند کسی را فریب دهند تا یک برنامهی کاربردی بدافزار را دانلود کرده یا روی یک لینک آلوده کلیک کند.
مسمومیت داده از آنجایی خطرناک است که از AI علیه ما استفاده میکند. اعتماد ما به پیشبینیهای AI برای جوانب بسیار زیادی از زندگی و کار، بهطور روزافزون در حال افزایش است AI همه کاری انجام میدهد، از کمک به ما در انتخاب فیلم گرفته تا اینکه کدام مشتری ممکن است سرویس خود را کنسل کند. با توجه به تسریع تغییروتحول دیجیتال به دلیل کووید-۱۹، AI از قبل هم متداولتر شده است. تراکنشها و اتصالات دیجیتال بیشتر هنجار هستند تا استثنا.
مسمومیت داده و ابزارهای امنیت سایبری
عاملان تهدید از مسمومیت داده استفاده میکنند تا به ابزاری نفوذ کنند که مدافعان برای شناسایی تهدیدات مورد استفاده قرار میدهند. اول از همه، میتوانند دادهها را تغییر داده یا اضافه کنند تا دستهبندیهای نادرستی ایجاد نمایند. همچنین، مهاجمین از مسمومیت داده استفاده میکنند تا Back Door ایجاد نمایند. این افزایش حملات مسمومیت داده روی ابزار AI بدین معناست که کسبوکارها و مؤسسات ممکن است درمورد استفاده از آن ابزارها دچار درنگ شوند. این امر همچنین تشخیص اینکه کدام داده مورداعتماد است را برای مدافعان دشوارتر میکند.
اولریچ در طول این سخنرانی گفت که شروع حل این مشکل داشتن دانش کافی از مدلهای مورد استفادهی امنیت سایبری AI است. اگر درک نکنیم که چه چیزی از دادهها محافظت میکند، تشخیص اینکه آیا تکنیکها و ابزارها کارآمد هستند یا نه دشوار خواهد بود.
شناسایی حملات مسمومیت داده
شناسایی حملات مسمومیت داده چالشبرانگیز و زمانبر هستند. پس قربانیان معمولاً متوجه میشوند که قبل از شناسایی مشکل، آسیب گستردهای رخ داده است. بهعلاوه، آنها نمیدانند که کدام داده واقعی و کدام داده دستکاری شده است. معمولاً حملات مسمومیت داده بهصورت داخلی رخ میدهد و با سرعت خیلی آرامی انجام میشود. هر دوی این موارد باعث میشوند که غفلت از تغییرات در داده آسان باشد.
آیا نباید از هوش مصنوعی استفاده کرد؟
پس آیا نباید از AI استفاده کرد؟ در این زمان، نمیتوان بهطور کامل AI را رها کرد. این کار منجر میگردد به اینکه عاملان تهدید با استفاده از AI و ML، حملاتی را بسازند که امکان دفاع در برابر آنها را نداشته باشیم. درعوض، ما بهعنوان مدافع نباید کورکورانه به ابزار و دادههایی که داریم اعتماد کنیم. کسب دانش بیشتر در زمینهی نحوهی کار الگوریتمها و چک کردن منظم دادهها برای پیدا کردن ناهنجاری به ما کمک میکند که جلوتر از حملات حرکت نماییم.