@article{ author = {مهران صفایانیandپویان َشالبافانandسید هاشم احمدیandمهدیه فلاح علی آبادیandعبدالرضا میرزائی}, title = {ارائه روشی مقاوم در برابر حملات تخاصمی با استفاده از فرایندهای گوسی مقیاس‌پذیر و رأی‌گیری}, journal = {فصلنامه مهندسی برق و مهندسی کامپيوتر ايران}, volume = {19}, number = {92}, page = {275-288}, year = {1400}, publisher = {پژوهشکده برق جهاد دانشگاهی}, issn = {16823745}, eissn = {16823745}, doi = {}, abstract = {در سال‌های اخیر، مسئله‌ای تحت عنوان آسیب‌پذیری مدل‌های مبتنی بر یادگیری ماشین مطرح گردیده است که نشان می‌دهد مدل‌های یادگیری در مواجهه با آسیب‌پذیری‌ها از مقاومت بالایی برخوردار نیستند. یکی از معروف‌ترین آسیب‌ها یا به بیان دیگر حملات، تزریق مثال‌های تخاصمی به مدل می‌باشد که در این مورد، شبکه‌های عصبی و به ویژه شبکه‌های عصبی عمیق بیشترین میزان آسیب‌پذیری را دارند. مثال‌های تخاصمی، از طریق افزوده‌شدن اندکی نویز هدفمند به مثال‌های اصلی تولید می‌شوند، به طوری که از منظر کاربر انسانی تغییر محسوسی در داده‌ها مشاهده نمی‌شود اما مدل‌های یادگیری ماشینی در دسته‌بندی داده‌ها به اشتباه می‌افتند. یکی از روش‌های موفق جهت مدل‌کردن عدم قطعیت در داده‌ها، فرایندهای گوسی هستند که چندان در زمینه مثال‌های تخاصمی مورد توجه قرار نگرفته‌اند. یک دلیل این امر می‌تواند حجم محاسباتی بالای این روش‌ها باشد که کاربردشان در مسایل واقعی را محدود می‌کند. در این مقاله از یک مدل فرایند گوسی مقیاس‌پذیر مبتنی بر ویژگی‌های تصادفی بهره گرفته شده است. این مدل علاوه بر داشتن قابلیت‌های فرایندهای گوسی از جهت مدل‌کردن مناسب عدم قطعیت در داده‌ها، از نظر حجم محاسبات هم مدل مطلوبی است. سپس یک فرایند مبتنی بر رأی‌گیری جهت مقابله با مثال‌های تخاصمی ارائه می‌گردد. همچنین روشی به نام تعیین ارتباط خودکار به منظور اعمال وزن بیشتر به نقاط دارای اهمیت تصاویر و اعمال آن در تابع هسته فرایند گوسی پیشنهاد می‌گردد. در بخش نتایج نشان داده شده که مدل پیشنهادشده عملکرد بسیار مطلوبی در مقابله با حمله علامت گرادیان سریع نسبت به روش‌های رقیب دارد.}, keywords = {Neural networks, Gaussian process, scalable Gaussian process, adversarial examples}, title_fa = {ارائه روشی مقاوم در برابر حملات تخاصمی با استفاده از فرایندهای گوسی مقیاس‌پذیر و رأی‌گیری}, abstract_fa = {در سال‌های اخیر، مسئله‌ای تحت عنوان آسیب‌پذیری مدل‌های مبتنی بر یادگیری ماشین مطرح گردیده است که نشان می‌دهد مدل‌های یادگیری در مواجهه با آسیب‌پذیری‌ها از مقاومت بالایی برخوردار نیستند. یکی از معروف‌ترین آسیب‌ها یا به بیان دیگر حملات، تزریق مثال‌های تخاصمی به مدل می‌باشد که در این مورد، شبکه‌های عصبی و به ویژه شبکه‌های عصبی عمیق بیشترین میزان آسیب‌پذیری را دارند. مثال‌های تخاصمی، از طریق افزوده‌شدن اندکی نویز هدفمند به مثال‌های اصلی تولید می‌شوند، به طوری که از منظر کاربر انسانی تغییر محسوسی در داده‌ها مشاهده نمی‌شود اما مدل‌های یادگیری ماشینی در دسته‌بندی داده‌ها به اشتباه می‌افتند. یکی از روش‌های موفق جهت مدل‌کردن عدم قطعیت در داده‌ها، فرایندهای گوسی هستند که چندان در زمینه مثال‌های تخاصمی مورد توجه قرار نگرفته‌اند. یک دلیل این امر می‌تواند حجم محاسباتی بالای این روش‌ها باشد که کاربردشان در مسایل واقعی را محدود می‌کند. در این مقاله از یک مدل فرایند گوسی مقیاس‌پذیر مبتنی بر ویژگی‌های تصادفی بهره گرفته شده است. این مدل علاوه بر داشتن قابلیت‌های فرایندهای گوسی از جهت مدل‌کردن مناسب عدم قطعیت در داده‌ها، از نظر حجم محاسبات هم مدل مطلوبی است. سپس یک فرایند مبتنی بر رأی‌گیری جهت مقابله با مثال‌های تخاصمی ارائه می‌گردد. همچنین روشی به نام تعیین ارتباط خودکار به منظور اعمال وزن بیشتر به نقاط دارای اهمیت تصاویر و اعمال آن در تابع هسته فرایند گوسی پیشنهاد می‌گردد. در بخش نتایج نشان داده شده که مدل پیشنهادشده عملکرد بسیار مطلوبی در مقابله با حمله علامت گرادیان سریع نسبت به روش‌های رقیب دارد.}, keywords_fa = {شبکه‌های عصبی، فرایندهای گوسی، فرایندهای گوسی مقیاس‌پذیر، مثال‌های تخاصمی}, URL = {rimag.ir/fa/Article/28868}, eprint = {rimag.ir/fa/Article/Download/28868},