بحث همگرایی در شبکههای عصبی شناساگر و کنترلکننده یکی از موارد پراهمیت در مهندسی کنترل میباشد، که در این راستا تحقیقات متنوعی صورت پذیرفته است که عمدتاً در چهار چوب شبکههای عصبی معمولی بوده است. در این مقاله الگوریتم گرادیان نزولی تطبیقی با یادگیری پارامترهای شبکه عصبی چند لایه بصورت بهنگام بر اساس بسط سری تیلور خطای خروجی مطرح و همگرایی الگوریتم آموزشی بررسی شده است. برای افزایش دقت و سرعت همگرایی، جملههای مرتبه دوم و بالاتر بسط سری تیلور با استفاده از گرادیان نزولی بروز رسانی میشود. الگوریتم آموزشی معرفی شده برای دو مثال شبیهسازی شده است. نتایج شبیهسازی کاهش خطا و افزایش سرعت همگرایی را نشان میدهند.
The convergence of learning rate in neural networks identifier and controller is one of challenging issues which attracts great interest from researchers. This paper suggests the adaptive gradient descent algorithm with learning laws which assures the convergence of multi-layer perceptron neural network based on Taylor series expansion of output error. In the proposed method the learning rate can be calculated online. To increase the accuracy and the speed of convergence, the second and higher order terms of the Taylor series expansion are not considered constant and are updated during the algorithm. Simulating the suggested algorithm on two examples reveals that with considering the bounds in the proposed method, the aims for learning rate, convergence of learning algorithm are guaranteed and the speed of convergence of training algorithm is increased.