منابع دانشگاهی و تحقیقاتی برای نگارش مقاله ارائه روشی جدید در خوشه بندی … – منابع مورد نیاز برای مقاله و پایان نامه : دانلود پژوهش های پیشین |
که در آن α وγ ثابت هستند. در حقیقت α مشابه با فاکتور سرد شدن در الگوریتم SA میباشد. برای هر مقدار ۰< α <1 و γ>0 زمانی که t به سمت بی نهایت میل کند، Ait به صفر و rit به مقدار ri0 میل می کند به عبارتی :
(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))
Ait →۰, rit → ri0 as t→۰
در ابتدا هر خفاش مقادیر متفاوتی از بلندی صدا و نرخ ارسال پالس دارد. این پارامترها در ابتدا به صورت تصادفی انتخاب می شود. سپس مقدار آنها به روزرسانی می شود.
برای بخش جستجوی محلی، وقتی یک راه حل از بین بهترین راه حلهای موجود انتخاب شد، موقعیت جدید برای هر خفاش به طور محلی توسط پیادهروی تصادفی به صورت زیر تعیین می شود:
(۳-۱۰) xnew = xold+εAt
که در آن ε یک عدد تصادفی در بازهی[-۱,۱] است و At میانگین بلندی صدای تمامی خفاشها در این زمان است[۴۸]،[۴۹].
۳-۳-۷- راه حلهای پیشنهادی برای بهبود عملکرد الگوریتم خفاش
۳-۳-۷-۱- انتخاب جمعیت اولیه براساس قاعدهی تولید عدد متضاد[۵۱]
جهت افزایش نرخ و سرعت همگرایی به جواب، باید برای هر کدام از اعضای جمعیت اولیه تقریب مناسبی زده شود. تولید عدد متضاد از جمله راهکارهایی است که به این منظور استفاده می شود.
اگر Xi یک بردار تصادفی در فضای جستجو باشد بردار متضاد آن به صورت زیر ساخته میشوند:
(۳-۱۱)
متغیرهای باید در محدودهی تغییرات xi,j یعنی باشند. حال اگر دارای تابع هدف بهتری نسبت به باشد جایگزین آن میشود.
۳-۳-۷-۲- استراتژی جهش خود تطبیق
همانگونه که پیشتر ذکر شد مشکل اصلی الگوریتم BA گیر کردن در بهینههای محلی است. برای حل این مشکل و فرار از بهینههای محلی روش جدیدی مبتنی بر دو قانون جهش استفاده شده است. در هر تکرار، هر عضو جمعیت فقط میتواند از یکی از این جهشها برای بهبود وضعیت خود استفاده کند. برای انتخاب نوع جهش، برای هر عضو از اعضای جمعیت یک عدد تصادفی تولید می شود. با توجه به مقدار Si یکی از دو نوع جهش برای عضو مورد نظر انتحاب می شود.
-
- روش جهش اول:
در این روش در هر تکرار kپس از محاسبه میانگین جوابها و اختلاف آن با بهترین جواب، طبق رابطه زیر موقعیت جدید بهدست می آید:
(۳-۱۲)
به ترتیب خفاش با بهترین موقعیت از نظر تابع هدف و میانگین موقعیت خفاشها در تکرار جاری میباشد. نیز ضریب یادگیری است که با توجه به رابطهی یکی از دو مقدار یک یا دو را اختیار میکند. این روش علاوه بر افزایش سرعت همگرایی ،از همگرایی زودرس جلوگیری می کند.
-
- روش جهش دوم:
روش دوم به منظور جلوگیری از افتادن در بهینههای محلی و ایجاد سکون در جمعیت از تئوری موج ضربهای کوچک (Wavelet) کمک میگیرد. تابع موج ضربهای مورلت[۵۲] (شکل ۳-۷) به عنوان تابع موج ضربهای مادر[۵۳] به کار میرود که فرمول آن به فرم زیر است:
(۳-۱۳)
شکل۳-۷ تابع موج ضربهای مورلت
پارامتر d تعبیه شده در این تابع، کمک میکند تا تصمیمگیرنده بتواند دامنهی تابع را تعیین کند:
(۳-۱۴)
در هر تکرار برای هر خفاش که این جهش را برای تولید بردار طراحی آزمایشی انتخاب کرده، سه عضو متفاوت از جمعیت کنونی انتخاب میگردد پس از آن عملگر جهش طبق رابطه زیر اعمال میگردد:
(۳-۱۵)
که همان میباشد و به صورت زیر نوشته میشود:
(۳-۱۶)
در این رابطه یک عدد تصادفی تولید شده در بازهی [-۴,۴] میباشد و d به صورت زیر نوشته میشود:
(۳-۱۷)
که حد بالا و پارامتر تعیینکننده یکنواختی افزایش تابع d میباشند. درتکرارهای ابتدایی الگوریتم، مقدار k نسبت به ماکزیمم تکرار kmax خیلی کوچکتر است پس d براساس رابطهی (۱۷-۳) مقدار کوچکی است که در نتیجه آن مقدار Δ بزرگ خواهد بود. اگر >0Δ باشد موجب میگردد تا خفاش مورد نظر در جهت بهترین موقعیت کشف شده توسط الگوریتم در این تکرار حرکت کند. اگر ۰>Δ باشد باعث میشود خفاش مورد نظر در خلاف جهت بهترین موقعیت کشف شده توسط الگوریتم در این تکرار حرکت کند. این حرکت در جهت خلاف کمک می کند تا نقاط رها شدهای که ممکن است حاوی اطلاعات مفید باشند کشف شوند. هر چه الگوریتم به ماکزیمم تکرار خود نزدیکتر شود d بسیار بزرگتر میگردد در نتیجه آن Δ کوچکتر میشود. مقدار کوچک برای Δ باعث میگردد الگوریتم BA بیشتر به جستجوی محلی و بهرهبرداری بپردازد.
بعد انتخاب نوع جهش و انجام آن برای هر خفاشها، بردار آزمایشی تولید شده با بردار اولیه ترکیب میگردد و بردار جدید تحت رابطهی زیر به دست آید:
(۳-۱۸)
حال اگر بردار جدید تابع هدف کوچکتری نسبت به بردار اولیه داشته باشد جایگزین آن میشود، در غیر این صورت الگوریتم با همان بردار اولیه به کار خود ادامه میدهد.
۳-۵- معیارهای مقایسهی الگوریتمهای بهینهسازی
در مقایسه الگوریتمهای بهینهسازی دو معیار همگرایی و عملکرد مطرح میشود . بعضی از الگوریتمها دارای همگرایی بوده ولی ممکن است عملکرد ضعیفی داشته باشند ، یعنی فرایند بهبود آنها از کارایی و سرعت لازم برخوردار نباشد ؛ برعکس بعضی دیگر از الگوریتمها همگرایی نداشته ولی عملکرد آنها خیلی خوب است . در فاز عملکرد چندین معیار مطرح است که در ادامه بررسی می شود.
۳-۵-۱-کارآیی[۵۴]
این معیار میزان موفقیت الگوریتم را در تولید جوابهای بهینه نشان میدهد. هرچه بهترین جواب، بدترین جواب و میانگین جوابها به یکدیگر نزدیکتر باشند، نشاندهندهی کارایی بالای الگوریتم میباشند.
۳-۵-۲- انحراف استاندارد[۵۵]
معیار انحراف استاندارد دومین معیار مورد استفاده برای مقایسهی عملکرد الگوریتمهای متفاوت در زمینهی حل مسألهی بهینهسازی مورد نظر میباشد. این معیار به طور گسترده توسط محققین در مقالات زیادی مورد استفاده قرار میگیرد. Std نشاندهندهی میزان انحراف جوابهای خروجی نسبت به میانگین جوابها میباشد. هر چه Std یک الگوریتم کمتر باشد، نشان میدهد که آن الگوریتم دارای عملکرد بهتر و مطمئنتری در به دست آوردن جواب است.
۳-۵-۳- قابلیت اعتماد[۵۶]
فرم در حال بارگذاری ...
[سه شنبه 1401-04-14] [ 12:24:00 ق.ظ ]
|