期刊名称:Dokuz Eylül Üniversitesi Sosyal Bilimler Enstitüsü Dergisi
印刷版ISSN:1302-3284
电子版ISSN:1308-0911
出版年度:2009
卷号:11
期号:3
页码:75-96
出版社:Dokuz Eylul Univeristy
摘要:Geleceğe yönelik planlar yapılırken belirsizlik içeren kararların verilmesinde stokastik yaklaşımlardan biri olan markov karar süreçleri (MDP) yöneticilere destek sağlayabilmektedir. Kar maksimizasyonu, maliyet minimizasyonu gibi tek bir amaç ele alındığında MDP’lerinin çözümünde değer iterasyonu, politika iterasyonu veya doğrusal programlama gibi yöntemler kullanılabilmektedir. Ancak, işletmelerin rekabet ortamında aldıkları kararlar, birden fazla ve çoğunlukla da birbiriyle çatışan amaçların eş zamanlı olarak ele alınmasını gerektirmektedir. Hedef programlama (GP) yaklaşımı bu tür sorunların çözümünde kullanılabilmektedir. Çalışmanın amacı, stokastik yapıdaki çok amaçlı karar problemlerinin çözümü için MDP ve GP yaklaşımlarının bir arada kullanıldığı bütünleşik bir bakış açısı ortaya koymaktır. Bu doğrultuda otomotiv yan sanayinde faaliyet gösteren bir işletmenin üretim/envanter sistemi ele alınmıştır.
其他摘要:To make decisions involving uncertainty while making future plans, Markov Decision Process (MDP), one of the stochastic approaches, may provide assistance to managers. Methods such as value iteration, policy iteration or linear programming can be used in the solution of MDPs when only one objective such as profit maximization or cost minimization is considered. However the decisions made by business while operating in a competition environment require considering multiple and usually conflicting objectives simultaneously. Goal programming (GP), can be used to solve such problems. The aim of this study is to provide an integrated perspective involving the utilization of MDP and GP approaches together for the solution of stochastic multi-objective decision problems. To this end the production/inventory system of a business operating in the automotive supplier industry is considered.
关键词:Markov Karar Süreci; Doğrusal Programlama; Hedef;Programlama; Çok Amaçlı Markov Karar Süreci.