The field of adversarial machine learning has emerged to study vulnerabilities of machine learning approaches in adversarial settings and to develop techniques to make learning robust to adversarial manipulation. This book provides a technical overview of this field. After reviewing machine learning concepts and approaches, as well as common use cases of these in adversarial settings, we present a general categorization of attacks on machine learning. We then address two major categories of attacks and associated defenses: decision-time attacks, in which an adversary changes the nature of instances seen by a learned model at the time of prediction in order to cause errors, and poisoning or training time attacks, in which the actual training dataset is maliciously modified. In our final chapter devoted to technical content, we discuss recent techniques for attacks on deep learning, as well as approaches for improving robustness of deep neural networks. We conclude with a discussion of several important issues in the area of adversarial learning that in our view warrant further research.
Given the increasing interest in the area of adversarial machine learning, we hope this book provides readers with the tools necessary to successfully engage in research and practice of machine learning in adversarial settings.
ترجمه فارسی (ترجمه ماشینی)
فراوانی روزافزون مجموعه دادههای بزرگ با کیفیت بالا، همراه با پیشرفتهای فنی قابلتوجه در چند دهه گذشته، یادگیری ماشینی را به ابزاری اصلی تبدیل کرده است که در طیف گستردهای از وظایف از جمله بینایی، زبان، امور مالی و امنیت به کار میرود. با این حال، موفقیت با چالشهای جدید مهمی همراه بوده است: بسیاری از کاربردهای یادگیری ماشین ماهیت خصمانه دارند. برخی از آنها متخاصم هستند زیرا ایمنی آنها بسیار مهم است، مانند رانندگی مستقل. یک حریف در این برنامهها میتواند یک طرف مخرب باشد که هدفش ایجاد تراکم یا تصادف است، یا حتی ممکن است موقعیتهای غیرعادی را مدلسازی کند که آسیبپذیریهای موتور پیشبینی را آشکار میکند. برنامههای کاربردی دیگر خصمانه هستند زیرا وظیفه آنها و/یا دادههایی که استفاده میکنند. به عنوان مثال، دسته مهمی از مشکلات در امنیت شامل شناسایی هستند، مانند بدافزار، هرزنامه، و تشخیص نفوذ. استفاده از یادگیری ماشین برای شناسایی موجودات مخرب، انگیزه ای را در بین دشمنان ایجاد می کند تا با تغییر رفتار یا محتوای اشیاء مخربی که ایجاد می کنند، از شناسایی فرار کنند.
زمینه یادگیری ماشین خصمانه برای مطالعه آسیبپذیریهای رویکردهای یادگیری ماشین در تنظیمات متخاصم و توسعه تکنیکهایی برای قویتر کردن یادگیری در برابر دستکاری دشمنان پدید آمده است. این کتاب مروری فنی بر این زمینه ارائه می دهد. پس از بررسی مفاهیم و رویکردهای یادگیری ماشین، و همچنین موارد استفاده متداول از آنها در تنظیمات متخاصم، ما یک دسته بندی کلی از حملات به یادگیری ماشین را ارائه می دهیم. سپس به دو دسته اصلی از حملات و دفاعهای مرتبط میپردازیم: حملات زمان تصمیم، که در آن دشمن ماهیت نمونههایی را که توسط یک مدل آموختهشده در زمان پیشبینی مشاهده میشود، تغییر میدهد تا باعث ایجاد خطا شود، و حملات زهرآگین یا زمانی آموزش، در که مجموعه داده آموزشی واقعی به طور مخرب اصلاح شده است. در فصل پایانی خود که به محتوای فنی اختصاص دارد، تکنیکهای اخیر برای حملات به یادگیری عمیق و همچنین رویکردهایی برای بهبود استحکام شبکههای عصبی عمیق را مورد بحث قرار میدهیم. ما با بحث در مورد چندین موضوع مهم در زمینه یادگیری خصمانه نتیجه گیری می کنیم که از نظر ما تحقیقات بیشتر را ایجاب می کند.
با توجه به علاقه روزافزون به حوزه یادگیری ماشینی متخاصم، امیدواریم این کتاب ابزارهای لازم را برای مشارکت موفقیتآمیز در تحقیق و تمرین یادگیری ماشین در محیطهای متخاصم در اختیار خوانندگان قرار دهد.
نقد و بررسیها
هنوز بررسیای ثبت نشده است.