سال انتشار: ۱۳۹۱

محل انتشار: نهمین کنفرانس بین المللی مهندسی صنایع

تعداد صفحات: ۷

نویسنده(ها):

مهدی ایمانی – دانشجوی کارشناسی ارشد مهندسی برق
سیده فاطمه قریشی – دانشجوی کارشناسی ارشد مهندسی مکانیک
مسعود شریعت پناهی – دانشیار دانشگاه تهران
فرهاد ایمانی – دانشجوی کارشناس ارشد مهندسی صنایع

چکیده:

روشهای یادگیری ماشین به ویژه روشهای مبتنی بریادگیری تقویتی Reinforcement Learning که کاربرد گسترده ای درحوزههایی همچون داده کاوی و کنترل سیستم های الکترومکانیکی یافته اند عموما برایکاردرمحیطهای مارکوفی Markovian) طراحی شده اند و باحذف این ویژگی ازمحیط کارایی این روش ها بشدت کاهش می یابد دراین مقاله رهیافت جدیدی برای تبدیل محیطهای غیرمارکوفی Non-Markovian بهمحیطهای مارکوفی ارایه گردیدها ست دراین رهیافت وضعیت های STATE جدید با برقراری شرط استقلال وضعیت ها به صورت لایه ای به وضعیت های پیشین اضافه شده و درنتیجه هرکنش action درهروضعیت بهصورت کاملا مجزا ازوضعیتهای دیگر اعمال میگردد برای نشان دادنکارایی رهیافت پیشنهادی این روش درحل دو مساله کنترل حرکت یک ربات متحرک خودگردان درمحیطهای غیرمارکوفی به کارگرفته شده است دراین مسائل پس از اعمال روش پیشنهادی استفاده ازروش های کلاسیک یادگیری تقویتی همچون Q-Learning ، SARSA ، TD(0) R-Learning را ممکن ساخته است.