(۲- ۱۴)
این ساده سازی می تواند اینگونه تفسیر شود که از آن جاییکه ξs بزرگتر از ∑sΩ psξs است، بنابراین θs = ۰ است. درحالتیکه مقدار ∑sΩ psξs بزرگ تر از ξs است، در نتیجه، θs = ∑sΩ psξs – ξs.
عبارت دوم در تابع هدف ρ(δ۱, δ۲, …, δs)، تابع جریمه غیرموجه بودن است و برای جبران میزان تعدی از سمت راست محدودیتهای کنترلی در برخی سناریوها بهکار میرود. در واقع تعدی از سمت راست محدودیت به معنای غیرموجه بودن آن محدودیت میباشد. این جریمه توسط ضریب ω کنترل می شود.
با توجه به این بحث تابع هدف می تواند به صورت زیر مدل شود:
(۲- ۱۵)
بهینه سازی پایدار[۱۵۶] با پارامترهای بازه ای
بنتال و نمیرووسکی[۱۵۷] (۲۰۰۰) در پژوهشی که روی چندین مورد مطالعاتی از کتابخانه مسائل بهینه سازی خطی Net Library انجام دادهاند به این نتیجه رسیدند که در کاربردهای برنامه ریزی خطی در دنیای واقعی، نمی توان این احتمال را که عدم قطعیتهای کوچک در داده ها می تواند جواب بهینه معمول را از نقطه نظر کاربردی کاملاً بی معنی نماید، نادیده گرفت. از این رو بطور طبیعی گرایش به سمت ایجاد مدل هایی که بتواند جواب ها را حتی الامکان نسبت به عدم قطعیت داده ها ایمن نماید، رو به فزونی نهاد. اولین تلاش ها در این راستا توسط سویستر[۱۵۸](۱۹۷۳) صورت پذیرفت. او یک مدل بهینه سازی خطی را پیشنهاد داده است که در آن جواب بدست آمده به ازای تمامی مقادیر متعلق به یک مجموعه محدب، شدنی باقی میماند. مدل پیشنهادی او جواب هایی را تولید مینماید که بسیار محافظه کار هستند بدین معنی که قسمت عمدهای از بهینگی مسئله اسمی جهت تضمین پایداری آن قربانی می شود.
او مدل برنامه ریزی خطی زیر را در نظر گرفته است:
P1: maximize c’x
subject to
(۲- ۱۶)
xj ≥ ۰,
و فرض کرده که عدم قطعیت پارامتر aij را تحت تأثیر قرار میدهد. در روش بهینه سازی پایدار فرض بر این است که در سطر iام از معادله (۲-۱۶) تنها برخی از پارامترها مقید به شرط عدم قطعیت هستند و این مجموعه از پارامترها را با Ji نمایش می دهند. هر پارامتر aij که Ji j را بصورت یک متغیر تصادفی محدود و متقارن مدل می کنند که تنها می تواند مقادیر بازه [āij−âij, āij+âij] را با مرکزیت āij، که مقدار اسمی نامیده می شود، اختیار نماید و âij میزان دقت برآورد را اندازه میگیرد.
او نشان میدهد که مسئله فوق معادل مسئله زیر است:
P2: maximize c’x
فرم در حال بارگذاری ...