محققان در ایالات متحده آمریکا توانستهاند مشکل حمله هکرها به مدلهای هوش مصنوعی را برطرف کنند. آنها برای دستیابی به این هدف، از مدل دیگری برای فریب شبکه عصبی و اجبار برای تحلیل تصاویر ویرایش شده استفاده کردند.
بنابر گزارش MIT Technology Review، محققان در دانشگاه «ایلینوی» اعلام کردهاند یکی از بزرگترین نقصها در آموزش هوش مصنوعی، آسیبپذیری آنها در برابر حملات هکرها است. در این زمینه سیستمهای تشخیص عکس یا بازسازی تصاویر با بیشترین حملات مواجه میشوند.
حملات گسترده به این سیستمها زنگ خطری برای مقامات در بخش مراقبتهای پزشکی محسوب میشود، جایی که اغلب این روش برای بازسازی تصاویر پزشکی مورد استفاده قرار میگیرد. در صورتی که هوش مصنوعی تصویر اشتباهی دریافت کند، نتیجه آن تشخیص غلط نوع بیماری خواهد بود.
برای جلوگیری از چنین مشکلی، دانشمندان روش جدیدی برای آموزش سیستمهای یادگیری عمیق ارائه کردهاند که آنها را در برابر خطا مقاومتر میکند و همچنین آنها را در زمانی که مسائل امنیتی اهمیت بالایی دارند، قابل اطمینانتر میکند.
محققان برای دستیابی به این روش، شبکه عصبی مسئول بازسازی تصاویر را به یک مدل با امکان تولید نمونههای رقابتی (تصاویر با تفاوتهای اندک نسبت به عکسهای اصلی) متصل کردند. در طی آموزش، یکی از هوشهای مصنوعی بدنبال فریب دیگری با نمایش تصاویر متفاوت نسبت به نمونههای اصلی بود.
در طی این آزمایش، مدل مخصوص بازسازی تصاویر دائما در حال تحلیل تصاویر بود تا بتواند تغییرات در آنها را تشخیص دهد و متوجه شود با یک تصویر ویرایش شده روبهرو است یا خیر. در نهایت این سیستم توانست تمام تصاویر ویرایش شده را شناسایی کند که از عملکرد بهتر آن نسبت به سایر شبکههای عصبی خبر میدهد.
دانشمندان در هنگام آزمایشها سعی کردند به صورت دستی سیستم را هک کرده و تصاویر ویرایش شده را به آن نشان دهند که تمام آنها از سوی هوش مصنوعی رد شدند.