در این مقاله، یک روش پیشتعلیم دوسویه برای همگرا نمودن تعلیم شبکههای عصبی عمیق با یادگیری دیگرانجمنی ارائه شده است. تعلیم این شبکهها بهدلیل مواجه بودن با تعداد بالای کمینههای موضعی اغلب همگرا نمیگردد. این در حالی است که با مقداردهی اولیه مناسب وزنهای شبکه، میتوان از بسیاری از کمینههای موضعی اجتناب نمود. روش پیشتعلیم لایهبهلایه دوسویه روشی سریع و کارا میباشد که در یک مسیر دوسویه بهطور جلوسو و عقبسو با استفاده از ورودیها و خروجیهای مطلوب شبکه، به تنظیم مقادیر اولیه وزنهای آن میپردازد. برای این منظور از تعلیم شبکههای کمکی یک لایه پنهان مبتنی بر وزنهای لایه تحت پیشتعلیم از شبکه عمیق و وزنهای کمکی استفاده میشود. سپس مقادیر وزن حاصل از تعلیم اینها در ساختار اصلی شبکه تحت پیشتعلیم قرار داده میشوند و برای تنظیم دقیق وزنها، تعلیم یکپارچه صورت میگیرد. این روش برای پیشتعلیم وزنهای سه شبکه عصبی عمیق بازشناس فرد، حالتهای احساسی و ارقام دستنوشتار مورد استفاده قرار گرفت و نشان داده شد که با بهکارگیری این روش پیشتعلیم، سرعت همگرایی تعلیم بهطور چشمگیری افزایش مییابد. همچنین میزان بازشناسیها در پایگاه دادههای چهره به میزان قابل توجهی بهبود مییابد که حاکی از افزایش قدرت تعمیم شبکه با استفاده از این روش میباشد.
In this paper, a bidirectional pre-training method for initializing weights of hetero-associative deep neural network was presented. Training of deep neural networks, because of confrontation with a large number of local minima, is not often converged. This is while through proper initializing weights instead of random values at the beginning of the training; it is possible to avoid many local minima. The bidirectional layer-by-layer pre-training method pre-train weights in forward and backward manners in parallel. Afterwards, the weight values resulted from their training are applied in the deep neural network. The bidirectional layer-by-layer pre-training was applied for pre-training of the classifier deep neural network weights, and revealed that both the training speed and the recognition rate were improved in Bosphorus and CK+ databases.