درحال بارگذاری...
هوش مصنوعی «مطمئن نیستم» را یاد گرفت
تحصیلی

هوش مصنوعی «مطمئن نیستم» را یاد گرفت

گروهی از محققان کره ای روشی برای آموزش هوش مصنوعی ابداع کرده اند تا «اطمینان نداشتن» از پاسخ را به آن بیاموزند.

به گزارش خبرگزاری مهر به نقل از فیز، گروهی از محققان موسسه KAIST در کره جنوبی یک روش آموزش جدید برای هوش مصنوعی ابداع کرده اند که به این فناوری امکان می هد وضعیت های ناشناخته یا دانش نادیده را شناسایی کند و مبنایی برای کاهش بیش از حد و بهبود اعتماد پذیری فراهم کند.

این محققان به رهبری «سی بوم پایک» از دپارتمان مغز و علوم شناختی متوجه شده اند «مقدار دهی اولیه تصادفی» که به طور گسترده در یادگیری عمیق (نوعی هوش مصنوعی) به کار می رود، احتمالا دلیل اصلی اعتماد بیش از حد در این فناوری است.

آنها برای غلبه بر این چالش یک استراتژی «گرم کردن» پیشنهاد کرده اند که در آن شبکه های عصبی به مدت کوتاه با استفاده از نویز های تصادفی یا داده های ورودی بی معنی آموزش می بینند.

پژوهشگران متوجه شدند اعتماد بیش از حد هوش مصنوعی در مرحله مقدار دهی اولیه ظاهر می شود که ممکن است به اشتباهات مهمی در مراحل بعدی آموزش منجر شود. در واقع هنگامیکه داده های تصادفی به یک شبکه عصبی مقدار دهی تصادفی وارد شوند، مدل با وجود آنکه چیزی نیاموخته، قابلیت اعتماد بالایی از خود نشان می دهد. این ویژگی ممکن است به توهم در هوش مصنوعی مولد تبدیل شود که در آنجا اطلاعات اشتباه به شیوه ای قابل قبول تولید می شوند.

همچنین آنها سرنخ هایی برای حل این مشکلات در مغز زیستی یافتند. مغز انسان حتی قبل از تولد، مدارهای عصبی را از طریق «فعالیت عصبی خودجوش» یا سیگنال های مغزی که بدون داده ورودی تولید می شوند، تشکیل می دهد.

محققان با به کار گیری این کانسپت در شبکه های هوش مصنوعی یک مرحله «گرم کردن» معرفی کردند که در آن شبکه قبل از یادگیری واقعی، با استفاده از داده های نویزی تصادفی پیش آموزش دریافت می کند. این امر به فرایندی منجر می شود که در آن هوش مصنوعی عدم قطعیت خود را قبل از یادگیری داده ها تنظیم می کند. اطمینان اولیه مدل هوش مصنوعی در سطح پایینی نزدیک به شانس قرار می‌گیرد و به طور قابل توجهی سوگیری بیش از حد اطمینان مشاهده شده در مقداردهی اولیه مرسوم را کاهش می‌دهد.

به بیان دیگر مدل هوش مصنوعی پیش از یادگیری از داده های واقعی، نخست وضعیت «من هنوز چیزی نمی دانم» را می آموزد. در نتیجه صحت و اطمینان مدل به طور طبیعی همسان می شوند.

تحقیق پیش رو این احتمال را مطرح می‌کند که هوش مصنوعی می‌تواند فراتر از تولید پاسخ‌های صحیح صرف، عمل کند و توانایی تشخیص «آنچه می‌داند» از «آنچه نمی‌داند» یعنی فراشناخت و توانایی تشخیص وضعیت شناختی خود را توسعه دهد.

نظرات

نظرتان را با ما به اشتراک بگذارید!

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *