<?xml version="1.0" encoding="utf-8"?>
<journal>
<title>Journal of Control</title>
<title_fa>مجله کنترل</title_fa>
<short_title>JoC</short_title>
<subject>Engineering &amp; Technology</subject>
<web_url>http://joc.kntu.ac.ir</web_url>
<journal_hbi_system_id>1</journal_hbi_system_id>
<journal_hbi_system_user>admin</journal_hbi_system_user>
<journal_id_issn>2008-8345</journal_id_issn>
<journal_id_issn_online>2538-3752</journal_id_issn_online>
<journal_id_pii></journal_id_pii>
<journal_id_doi>10.61186/joc</journal_id_doi>
<journal_id_iranmedex></journal_id_iranmedex>
<journal_id_magiran></journal_id_magiran>
<journal_id_sid></journal_id_sid>
<journal_id_nlai></journal_id_nlai>
<journal_id_science></journal_id_science>
<language>fa</language>
<pubdate>
	<type>jalali</type>
	<year>1402</year>
	<month>2</month>
	<day>1</day>
</pubdate>
<pubdate>
	<type>gregorian</type>
	<year>2023</year>
	<month>5</month>
	<day>1</day>
</pubdate>
<volume>17</volume>
<number>1</number>
<publish_type>online</publish_type>
<publish_edition>1</publish_edition>
<article_type>fulltext</article_type>
<articleset>
	<article>


	<language>fa</language>
	<article_id_doi></article_id_doi>
	<title_fa>یادگیری تکرار سیاست حداقل مربعات عصبی با معماری نقاد- تنها</title_fa>
	<title>Neural Least Square Policy Iteration learning with Critic-only architecture</title>
	<subject_fa>تخصصي</subject_fa>
	<subject>Special</subject>
	<content_type_fa>پژوهشي</content_type_fa>
	<content_type>Research paper</content_type>
	<abstract_fa>&lt;div style=&quot;text-align: justify;&quot;&gt;کنترل هوشمند مسائل کنترلی واقعی بر پایه یادگیری تقویتی اغلب نیاز به تصمیم گیری در فضای حالت&amp;ndash; عمل بزرگ و یا پیوسته دارد. از آنجا که تعداد پارامترهای قابل تنظیم در یادگیری تقویتی گسسته، رابطه مستقیمی با عدد اصلی فضای متغیرهای حالت&amp;ndash; عمل مسأله دارد، لذا در چنین مسائلی مشکل تنگنای ابعاد، سرعت کم یادگیری و راندمان پایین وجود دارد. استفاده از روشهای آموزش تقویتی پیوسته برای حل این مشکلات مورد توجه محققان است. در همین راستا، در این مقاله یک الگوریتم جدید یادگیری تقویتی عصبی (NRL) بر مبنای معماری نقاد&amp;ndash; تنها برای حل مسائل کنترلی معرفی میگردد. روش ارائه شده یک روش مستقل از مدل و نرخ یادگیری است و از ترکیب روش &amp;quot;تکرار سیاست کمترین مربعات&amp;quot; (LSPI) با شبکه توابع پایه شعاعی (RBF) به عنوان یک تقریب زننده ی تابعی حاصل شده است. الگوریتم پیشنهادی &amp;quot;تکرار سیاست کمترین مربعات عصبی&amp;quot; (NLSPI) نامیده می شود. در این روش، با استفاده از توابع پایه تعریف شده در ساختار شبکه عصبی RBF، راهکاری برای رفع چالشِ تعریف توابع پایه حالت- عمل در LSPI ارائه شده است. ورودی های شبکه جفت حالت و عمل های مسأله و خروجی آن تابع ارزش عمل تقریب زده شده می باشد. هدف، به روز رسانی برخط وزن های شبکه عصبی با استفاده از روش ارائه شده به صورتی است که بهترین تقریب از تابع ارزش عمل صورت گیرد. به منظور اعتبارسنجی روش ارائه شده، عملکرد الگوریتم پیشنهادی در مورد حل دو مسأله کنترلی با روش های دیگر مقایسه شده است. نتایج بدست آمده، برتری روش در یادگیری سیاست شبه بهینه را بخوبی نشان می دهد.&lt;/div&gt;</abstract_fa>
	<abstract>&lt;div style=&quot;text-align: justify;&quot;&gt;Intelligent control of real control problems based on reinforcement learning often requires decision-making in a large or continuous state-action space. Since the number of adjustable parameters in discrete reinforcement learning has a direct relationship with cardinality of the state-action space of the problem, so in such problems, we are faced with the curse of dimensiality, low learning speed and low efficiency. The use of continuous reinforcement learning methods to overcome these problems have attracted many research interests. In this paper a novel Neural Reinforcement Learning (NRL) scheme is proposed. The presented method is model free and learning rate independent, and is obtained by combining Least Squares Policy Iteration (LSPI) with Radial Basis Functions (RBF) as a function approximator, and we call it &amp;quot;Neural Least Squares Policy Iteration&amp;quot; (NLSPI). In this method, by using the basis functions defined in the RBF neural network structure, we have provided a solution to solve the challenge of defining the state-action basis functions in LSPI. In order to validate the presented method, the performance of the proposed algorithm in solving two control problems has been compared with other methods. The overall results show the superiority of our method in learning the pseudo-optimal policy.&lt;/div&gt;</abstract>
	<keyword_fa>یادگیری تقویتی عصبی, معماری نقاد- تنها, تکرار سیاست کمترین مربعات, شبکه توابع پایه شعاعی</keyword_fa>
	<keyword>Neural reinforcement learning, Critic-only architecture, Least Square Policy Iteration, RBF network.</keyword>
	<start_page>61</start_page>
	<end_page>76</end_page>
	<web_url>http://joc.kntu.ac.ir/browse.php?a_code=A-10-566-3&amp;slc_lang=fa&amp;sid=1</web_url>


<author_list>
	<author>
	<first_name>Omid</first_name>
	<middle_name></middle_name>
	<last_name>Mehrabi</last_name>
	<suffix></suffix>
	<first_name_fa>امید</first_name_fa>
	<middle_name_fa></middle_name_fa>
	<last_name_fa>محرابی</last_name_fa>
	<suffix_fa></suffix_fa>
	<email>o.mehrabi62@gmail.com</email>
	<code>10031947532846009308</code>
	<orcid>10031947532846009308</orcid>
	<coreauthor>No</coreauthor>
	<affiliation>Islamic Azad University</affiliation>
	<affiliation_fa>واحد علوم و تحقیقات، دانشگاه آزاد اسلامی، تهران، ایران</affiliation_fa>
	 </author>


	<author>
	<first_name>Ahmad</first_name>
	<middle_name></middle_name>
	<last_name>Fakharian</last_name>
	<suffix></suffix>
	<first_name_fa>احمد</first_name_fa>
	<middle_name_fa></middle_name_fa>
	<last_name_fa>فخاریان</last_name_fa>
	<suffix_fa></suffix_fa>
	<email>ahmad.fakharian@qiau.ac.ir</email>
	<code>10031947532846009309</code>
	<orcid>10031947532846009309</orcid>
	<coreauthor>Yes
</coreauthor>
	<affiliation>Islamic Azad University</affiliation>
	<affiliation_fa>گروه مهندسی برق، واحد قزوین، دانشگاه آزاد اسلامی، قزوین، ایران</affiliation_fa>
	 </author>


	<author>
	<first_name>Mehdi</first_name>
	<middle_name></middle_name>
	<last_name>Siahi</last_name>
	<suffix></suffix>
	<first_name_fa>مهدی</first_name_fa>
	<middle_name_fa></middle_name_fa>
	<last_name_fa>سیاهی</last_name_fa>
	<suffix_fa></suffix_fa>
	<email>mehdi_siahi@yahoo.com</email>
	<code>10031947532846009310</code>
	<orcid>10031947532846009310</orcid>
	<coreauthor>No</coreauthor>
	<affiliation>Islamic Azad University</affiliation>
	<affiliation_fa>دانشکده مهندسی برق و کامپیوتر، واحد علوم و تحقیقات، دانشگاه آزاد اسلامی، تهران، ایران</affiliation_fa>
	 </author>


	<author>
	<first_name>Amin</first_name>
	<middle_name></middle_name>
	<last_name>Ramezani</last_name>
	<suffix></suffix>
	<first_name_fa>امین</first_name_fa>
	<middle_name_fa></middle_name_fa>
	<last_name_fa>رمضانی</last_name_fa>
	<suffix_fa></suffix_fa>
	<email>ramezani@modares.ac.ir</email>
	<code>10031947532846009311</code>
	<orcid>10031947532846009311</orcid>
	<coreauthor>No</coreauthor>
	<affiliation>Tarbiat Modares University</affiliation>
	<affiliation_fa>دانشکده مهندسی برق و کامپیوتر، دانشگاه تربیت مدرس، تهران، ایران</affiliation_fa>
	 </author>


</author_list>


	</article>
</articleset>
</journal>
