که در آن α وγ ثابت هستند. در حقیقت α مشابه با فاکتور سرد شدن در الگوریتم SA می­باشد. برای هر مقدار ۰< α <1 و γ>0 زمانی که t به سمت بی نهایت میل کند، Ait به صفر و rit به مقدار ri0 میل می­ کند به عبارتی :

(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))

Ait →۰, rit ri0 as t→۰
در ابتدا هر خفاش مقادیر متفاوتی از بلندی صدا و نرخ ارسال پالس دارد. این پارامترها در ابتدا به صورت تصادفی انتخاب می­ شود. سپس مقدار آن­ها به روزرسانی می­ شود.
برای بخش جستجوی محلی، وقتی یک راه حل از بین بهترین راه­ حل­های موجود انتخاب شد، موقعیت جدید برای هر خفاش به­ طور محلی توسط پیاده­روی تصادفی به صورت زیر تعیین می­ شود:
(۳-۱۰) xnew = xold+εAt
که در آن ε یک عدد تصادفی در بازه­ی[-۱,۱] است و At میانگین بلندی صدای تمامی خفاش­ها در این زمان است[۴۸]،[۴۹].
۳-۳-۷- راه حل‌های پیشنهادی برای بهبود عملکرد الگوریتم خفاش
۳-۳-۷-۱‌- انتخاب جمعیت اولیه براساس قاعده‌ی تولید عدد متضاد[۵۱]
جهت افزایش نرخ و سرعت همگرایی به جواب، باید برای هر کدام از اعضای جمعیت اولیه تقریب مناسبی زده شود. تولید عدد متضاد از جمله راهکارهایی است که به این منظور استفاده می­ شود.
اگر Xi یک بردار تصادفی در فضای جستجو باشد بردار متضاد آن به صورت زیر ساخته می‌شوند:
(۳-۱۱)
متغیرهای باید در محدوده‌ی تغییرات xi,j یعنی باشند. حال اگر دارای تابع هدف بهتری نسبت به باشد جایگزین آن می‌شود.
۳-۳-۷-۲- استراتژی جهش خود تطبیق
همان­گونه که پیشتر ذکر شد مشکل اصلی الگوریتم BA گیر کردن در بهینه‌های محلی است. برای حل این مشکل و فرار از بهینه‌های محلی روش جدیدی مبتنی بر دو قانون جهش استفاده شده است. در هر تکرار، هر عضو جمعیت فقط می‌تواند از یکی از این جهش‌ها برای بهبود وضعیت خود استفاده کند. برای انتخاب نوع جهش، برای هر عضو از اعضای جمعیت یک عدد تصادفی تولید می­ شود. با توجه به مقدار Si یکی از دو نوع جهش برای عضو مورد ­نظر انتحاب می­ شود.

    • روش جهش اول:

در این روش در هر تکرار kپس از محاسبه میانگین جواب­ها و اختلاف آن با بهترین جواب، طبق رابطه زیر موقعیت جدید به­دست می ­آید:
(۳-۱۲)
به ترتیب خفاش با بهترین موقعیت از نظر تابع هدف و میانگین موقعیت خفاش‌ها در تکرار جاری می‌باشد. نیز ضریب یادگیری است که با توجه به رابطه‌ی یکی از دو مقدار یک یا دو را اختیار می‌کند. این روش علاوه بر افزایش سرعت همگرایی ،از همگرایی زودرس جلوگیری می­ کند.

    • روش جهش دوم:

روش دوم به منظور جلوگیری از افتادن در بهینه‌های محلی و ایجاد سکون در جمعیت از تئوری موج ضربه‌ای کوچک (Wavelet) کمک می­گیرد. تابع موج ضربه‌ای مورلت[۵۲] (شکل ۳-۷) به عنوان تابع موج ضربه‌ای مادر[۵۳] به کار می‌رود که فرمول آن به فرم زیر است:
(۳-۱۳)
شکل۳-۷ تابع موج ضربه‌ای مورلت
پارامتر d تعبیه شده در این تابع، کمک می‌کند تا تصمیم‌گیرنده بتواند دامنه‌ی تابع را تعیین کند:
(۳-۱۴)
در هر تکرار برای هر خفاش که این جهش را برای تولید بردار طراحی آزمایشی انتخاب کرده، سه عضو متفاوت از جمعیت کنونی انتخاب می‌گردد پس از آن عملگر جهش طبق رابطه زیر اعمال می‌گردد:
(۳-۱۵)
که همان می‌باشد و به صورت زیر نوشته می‌شود:
(۳-۱۶)
در این رابطه یک عدد تصادفی تولید شده در بازه‌ی [-۴,۴] می‌باشد و d به صورت زیر نوشته می‌شود:
(۳-۱۷)
که حد بالا و پارامتر تعیین‌کننده یکنواختی افزایش تابع d می‌باشند. درتکرارهای ابتدایی الگوریتم، مقدار k نسبت به ماکزیمم تکرار kmax خیلی کوچک­تر است پس d براساس رابطه‌ی (۱۷-۳) مقدار کوچکی است که در نتیجه آن مقدار Δ بزرگ خواهد بود. اگر >0Δ باشد موجب می‌گردد تا خفاش مورد نظر در جهت بهترین موقعیت کشف شده توسط الگوریتم در این تکرار حرکت کند. اگر ۰>Δ باشد باعث می‌شود خفاش مورد نظر در خلاف جهت بهترین موقعیت کشف شده توسط الگوریتم در این تکرار حرکت کند. این حرکت در جهت خلاف کمک می­ کند تا نقاط رها شده­ای که ممکن است حاوی اطلاعات مفید باشند کشف شوند. هر چه الگوریتم به ماکزیمم تکرار خود نزدیک­تر شود d بسیار بزرگ­تر می‌گردد در نتیجه آن Δ کوچک­تر می‌شود. مقدار کوچک برای Δ باعث می‌گردد الگوریتم BA بیشتر به جستجوی محلی و بهره‌برداری بپردازد.
بعد انتخاب نوع جهش و انجام آن برای هر خفاش‌ها، بردار آزمایشی تولید شده با بردار اولیه ترکیب می‌گردد و بردار جدید تحت رابطه‌ی زیر به دست آید:
(۳-۱۸)
حال اگر بردار جدید تابع هدف کوچکتری نسبت به بردار اولیه داشته باشد جایگزین آن می‌شود، در غیر این صورت الگوریتم با همان بردار اولیه به کار خود ادامه می‌دهد.
۳-۵- معیارهای مقایسه‌ی الگوریتم‌های بهینه‌سازی
در مقایسه الگوریتم‌های بهینه‌سازی دو معیار همگرایی و عملکرد مطرح می‌شود . بعضی از الگوریتم‌ها دارای همگرایی بوده ولی ممکن است عملکرد ضعیفی داشته باشند ، یعنی فرایند بهبود آنها از کارایی و سرعت لازم برخوردار نباشد ؛ برعکس بعضی دیگر از الگوریتم‌ها همگرایی نداشته ولی عملکرد آنها خیلی خوب است . در فاز عملکرد چندین معیار مطرح است که در ادامه بررسی می­ شود.
۳-۵-۱-کارآیی[۵۴]
این معیار میزان موفقیت الگوریتم را در تولید جواب‌های بهینه نشان می‌دهد. هرچه بهترین جواب، بدترین جواب و میانگین جواب‌ها به یکدیگر نزدیک‌تر باشند، نشان‌دهنده­­ی کارایی بالای الگوریتم می‌باشند.
۳-۵-۲- انحراف استاندارد[۵۵]
معیار انحراف استاندارد دومین معیار مورد استفاده برای مقایسه‌ی عملکرد الگوریتم‌های متفاوت در زمینه‌ی حل مسأله‌ی بهینه‌سازی مورد نظر می‌باشد. این معیار به طور گسترده توسط محققین در مقالات زیادی مورد استفاده قرار می‌گیرد. Std نشان‌دهنده‌ی میزان انحراف جواب‌های خروجی نسبت به میانگین جواب‌ها می‌باشد. هر چه Std ‌یک الگوریتم کمتر باشد، نشان می‌دهد که آن الگوریتم دارای عملکرد بهتر و مطمئن‌تری در به دست آوردن جواب است.
۳-۵-۳- قابلیت اعتماد[۵۶]

موضوعات: بدون موضوع  لینک ثابت


فرم در حال بارگذاری ...