کاربرد یادگیری تقویتی در جهت یابی حرکت سرپنتین ربات مارمانند

هدف این مقاله هدایت و کنترل ربات مارمانند با استفاده از یادگیری تقویتی (Reinforcement learning) می باشد. این مقاله به مدل‌سازی و شبیه سازی ربات مارمانند می‌‌پردازد و سپس نتایج آن را روی ربات واقعی پیاده‌سازی می‌نماید. در ابتدا معادلات دینامیک یک ربات مارمانند با n عضو (Link) در حرکت سرپنتین (Serpent...

Full description

Bibliographic Details
Main Authors: هادی کلانی, علیرضا اکبرزاده توتونچی
Format: Article
Language:fas
Published: Ferdowsi University of Mashhad 2015-02-01
Series:نشریه علوم کاربردی و محاسباتی در مکانیک
Subjects:
Online Access:https://mechanic-ferdowsi.um.ac.ir/article_31028_299acdc6462526d58c3f444ad129dbef.pdf
_version_ 1797974090097623040
author هادی کلانی
علیرضا اکبرزاده توتونچی
author_facet هادی کلانی
علیرضا اکبرزاده توتونچی
author_sort هادی کلانی
collection DOAJ
description هدف این مقاله هدایت و کنترل ربات مارمانند با استفاده از یادگیری تقویتی (Reinforcement learning) می باشد. این مقاله به مدل‌سازی و شبیه سازی ربات مارمانند می‌‌پردازد و سپس نتایج آن را روی ربات واقعی پیاده‌سازی می‌نماید. در ابتدا معادلات دینامیک یک ربات مارمانند با n عضو (Link) در حرکت سرپنتین (Serpentine Locomotion) با استفاده از روش گیبس-اپل (Gibbs-Appell) به‌صورت ساده، جامع و کارآمد به‌دست آمده است. روش ارائه شده در این مطالعه حجم محاسبات برای دینامیک ربات مارمانند را تا حد قابل توجهی نسبت به‌کارهای پیشین کاهش می دهد. سپس مدل فیزیکی ربات در نرم‌افزار سیم مکانیک (SimMechanics) مدل‌سازی گشته و از آن برای تأیید معادلات دینامیک استفاده شده است. در این مقاله از یادگیری Q (Q learning) برای آموزش ربات مارمانند و جهت یابی آن استفاده شده است. هم‌چنین تأثیر پارامترهای منحنی سرپنوید و منحنی بدن مار روی سرعت یادگیری بررسی شده است. نتایج نشان می‌دهند پارامترهای فیزیکی که شکل ربات مار را تغییر نمی دهند، بر روی یادگیری ربات تأثیر محسوسی نمی گذارند. در انتها، نرم‌افزار شبیه‌سازی وباتس و ربات مارمانند FUM-Snake II برای تصدیق نتایج حاصل از یادگیری به‌کار گرفته شده است. نتایج به‌دست آمده از ربات آزمایشگاهی نشان می دهد که مسیر حرکت این ربات پس از یادگیری به روش Q، با مسیر پیش‌بینی شده توسط حل‌ دینامیکی پیشنهادی و نتایج شبیه‌سازی در نرم‌افزار وباتس همگی دارای مطابقت خوبی می باشند.
first_indexed 2024-04-11T04:13:28Z
format Article
id doaj.art-debdc455cde446d38147e25b42cfe8f3
institution Directory Open Access Journal
issn 2008-918X
2423-6519
language fas
last_indexed 2024-04-11T04:13:28Z
publishDate 2015-02-01
publisher Ferdowsi University of Mashhad
record_format Article
series نشریه علوم کاربردی و محاسباتی در مکانیک
spelling doaj.art-debdc455cde446d38147e25b42cfe8f32023-01-01T04:32:54ZfasFerdowsi University of Mashhadنشریه علوم کاربردی و محاسباتی در مکانیک2008-918X2423-65192015-02-012619711810.22067/fum-mech.v26i1.2087131028کاربرد یادگیری تقویتی در جهت یابی حرکت سرپنتین ربات مارمانندهادی کلانی0علیرضا اکبرزاده توتونچی1دانشگاه فردوسیدانشگاه فردوسیهدف این مقاله هدایت و کنترل ربات مارمانند با استفاده از یادگیری تقویتی (Reinforcement learning) می باشد. این مقاله به مدل‌سازی و شبیه سازی ربات مارمانند می‌‌پردازد و سپس نتایج آن را روی ربات واقعی پیاده‌سازی می‌نماید. در ابتدا معادلات دینامیک یک ربات مارمانند با n عضو (Link) در حرکت سرپنتین (Serpentine Locomotion) با استفاده از روش گیبس-اپل (Gibbs-Appell) به‌صورت ساده، جامع و کارآمد به‌دست آمده است. روش ارائه شده در این مطالعه حجم محاسبات برای دینامیک ربات مارمانند را تا حد قابل توجهی نسبت به‌کارهای پیشین کاهش می دهد. سپس مدل فیزیکی ربات در نرم‌افزار سیم مکانیک (SimMechanics) مدل‌سازی گشته و از آن برای تأیید معادلات دینامیک استفاده شده است. در این مقاله از یادگیری Q (Q learning) برای آموزش ربات مارمانند و جهت یابی آن استفاده شده است. هم‌چنین تأثیر پارامترهای منحنی سرپنوید و منحنی بدن مار روی سرعت یادگیری بررسی شده است. نتایج نشان می‌دهند پارامترهای فیزیکی که شکل ربات مار را تغییر نمی دهند، بر روی یادگیری ربات تأثیر محسوسی نمی گذارند. در انتها، نرم‌افزار شبیه‌سازی وباتس و ربات مارمانند FUM-Snake II برای تصدیق نتایج حاصل از یادگیری به‌کار گرفته شده است. نتایج به‌دست آمده از ربات آزمایشگاهی نشان می دهد که مسیر حرکت این ربات پس از یادگیری به روش Q، با مسیر پیش‌بینی شده توسط حل‌ دینامیکی پیشنهادی و نتایج شبیه‌سازی در نرم‌افزار وباتس همگی دارای مطابقت خوبی می باشند.https://mechanic-ferdowsi.um.ac.ir/article_31028_299acdc6462526d58c3f444ad129dbef.pdfربات مارمانندروش گیبس-اپلیادگیری تقویتییادگیری q
spellingShingle هادی کلانی
علیرضا اکبرزاده توتونچی
کاربرد یادگیری تقویتی در جهت یابی حرکت سرپنتین ربات مارمانند
نشریه علوم کاربردی و محاسباتی در مکانیک
ربات مارمانند
روش گیبس-اپل
یادگیری تقویتی
یادگیری q
title کاربرد یادگیری تقویتی در جهت یابی حرکت سرپنتین ربات مارمانند
title_full کاربرد یادگیری تقویتی در جهت یابی حرکت سرپنتین ربات مارمانند
title_fullStr کاربرد یادگیری تقویتی در جهت یابی حرکت سرپنتین ربات مارمانند
title_full_unstemmed کاربرد یادگیری تقویتی در جهت یابی حرکت سرپنتین ربات مارمانند
title_short کاربرد یادگیری تقویتی در جهت یابی حرکت سرپنتین ربات مارمانند
title_sort کاربرد یادگیری تقویتی در جهت یابی حرکت سرپنتین ربات مارمانند
topic ربات مارمانند
روش گیبس-اپل
یادگیری تقویتی
یادگیری q
url https://mechanic-ferdowsi.um.ac.ir/article_31028_299acdc6462526d58c3f444ad129dbef.pdf
work_keys_str_mv AT hạdyḵlạny ḵạrbrdyạdgyrytqwytydrjhtyạbyḥrḵtsrpntynrbạtmạrmạnnd
AT ʿlyrḍạạḵbrzạdhtwtwncẖy ḵạrbrdyạdgyrytqwytydrjhtyạbyḥrḵtsrpntynrbạtmạrmạnnd