این دو بعد را جداسازی نماید. در چنین سیستم‌هایی می‌توان از علوم هوش مصنوعی برای رسیدن به این اهداف بهره جست. در این روش‌ها اساس کار تعریف و ساماندهی داده‌های پایگاه است[۱۰]. که ازجمله آنها می‌توان به نرمالایز‌کردن و تبدیل آنها به بردار اشاره کرد. و یا شبکه را تحت آموزشقرارداد یعنی از روش‌های مختلفی مجموعه‌های در دسترس را بصورت تصادفی برای آموزش و مجموعه دیگری را برای تست انتخاب نمود .ضمن اینکه در شرایط نویزی شبکه خود را مورد ارزیابی قرار می‌دهد. تا با دیتایی که تا بحال دیده نشده هم عکس العمل مناسبی داشته باشد. از آنجایی که در بیشتر صنایع داده‌ها بصورت رشته‌های ادامه‌دار ومتغیر با زمان به مرکز کنترل ارسال می‌شوند. استراتژیی شناسایی خطا انجام پردازش‌هایی بر روی این رشته‌ها یا بعبارت دیگر روندهاست (سری‌های زمانی). که با انتخاب شبکه مناسب و آموزش آن سعی در تفکیک دو کمیت مطرح شده‌ی امن و ناامن خواهد بود. که در ادامه به آن خواهیم پرداخت .

( اینجا فقط تکه ای از متن فایل پایان نامه درج شده است. برای خرید متن کامل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. )

۱-۳-۱ روش سه گوشه‌سازی یا مثلث‌بندی
در سیستم‌های‌‌ هوشمند، برتری اصلی در حل مساله تشخیص و شناسایی، ‌‌می‌توان به سهولت در تعمیم، برهان شفاف و گویای آن اشاره نمود. یکی از این روش‌‌ها‌ که اخیرا در بیشتر موارد تحقیقاتی مورد توجه قرار گرفته است روشCheung می‌باشد. که در غالب یک چهارچوب اصلی و پایه‌ای بعنوان اساس کار برروی روندهایی از فرایند[۱۱] در سال ۱۹۹۲ایجاد و ارائه گردید. که به روش مثلث‌بندی ضمنی[۱۲] فرموله شده، برای بررسی روندها مطرح گردید. و اساس کار این روش مبتنی بر اصول هندسی مدل شده می‌باشد.
Triangulation یا سه گوشه‌سازی روشی است؛ که در آن بخش‌هایی از روند توسط شیب ابتدا و انتهای منحنی با یک خطی بر روی قطعه‌ای از روند[۱۳]، مابین دو نقطه متصل می‌گردد، تعریف می‌شود. الگوهایی در شکل(۱-۳) منطبق بر این روش نشان داده شده است.
شکل(۱-۳): روش سه گوشه‌سازی یا مثلث‌بندی
یکی از مزایای استفاده از این تکنیک کاربردهای فراگیر آن در هر نوع سیگنالی‌ است. به نحوی که می‌توان آنرا بر روی هر سیگنالی پیاده‌سازی نمود. و الگوریتم سه گوشه‌سازی را در اجزا مختلف سیگنال اجرا و طبقه بندی نمود؛ بعبارتی می‌توان در هر نوع از سیگنال با بهره گرفتن از اشکال هدسی بدست آمده؛ به هر واقعه‌ای از فرایند تعمیم داد (شکل (۱-۴)).
شکل(۱-۴): الگوهای تعمیم یافته برای هر نوع روند از روش سه گوشه‌سازی
این روش مشابه با روش‌های‌‌ دیگر کار بر روی روند‌‌‌ها بوده و نقطه اشتراک‌ها با سایر روش‌ها دقیقا در جایی متمایز می‌شود که علامت مشتقات اول و دوم به عنوان عوامل تعیین کننده برای جداسازی و طبقه‌بندی قطعات کاربرد عینی داشته باشند (شکل(۱-۲)).
در روش‌های‌‌ مشابه دیگر که هدف این مقاله حول این موضوع قرار دارد؛ بصورت اجزاء پایه‌ای و اصلی از روند و به عنوان الگوهای اولیه محسوب شده و به شکل‌های زیر نشان داده می‌شوند.
A(0,0), B(+,+), C(+,0), D(+,-), E(-,+), F(-,0), G(-,-)
۱-۳-۲ روش موجک‌‌[۱۴]
تئوری موجک[۱۵]، که بر مبنای سیستم تطبیقی غیرخطی بود در سال ۱۹۹۷برای شناسایی روند‌ها از اطلاعات استخراج شده از سنسورها با نام W-ASTRA ارائه گردید. و بعدها به B-Splines پایه‌گذاری و برای کاربردهای روندها پیشنهاد گردید. در این تکنیک از مفهوم آنالیز multiresolution در ورودی شبکه عصبی استفاده شد. و پیش از هر کاری اطلاعات سنسورها بر روی توابع سنجشی[۱۶] در سطوح مختلف طرح‌ریزی می‌شدند؛ صورت پذیرفت. و ضرایب از سطوح بالاتر برای شناسایی الگوهای اولیه استفاده می‌گردید. و زمانی‌که یک الگو یکتا و منحصربفرد شناسایی می‌شد. آنرا در مجموعه از نمونه‌‌ها،‌ جمع‌ آوری می‌کرد. و در غیر اینصورت ضرایب از سطوح پایین مورد استفاده قرار می‌گرفت. و در نهایت W-ASTRA رویداد یا داده سنسور را با اثر خطایی[۱۷]، که قطعه‌ای از خود روند بود و از قبل بهمین روش در پایگاه داده‌ای ذخیره شده بود مقایسه می‌شد. و بدین ترتیب الگوریتم شناسایی خطا انجام می‌پذیرفت.
۱-۳-۳ روش جداسازی دو بعدی
در روش جداسازی یک بعدی برای آشکارسازی خطا، با تعیین مرزهایی از هدف، زمانی که داده‌، توزیع غیر محدبی داشت. صراحتا در جداسازی داده‌ی نامعلوم و ناشناخته، با اطمینان خاطر صورت نمی‌پذیرفت. ولی با فرض استفاده از روش جداسازی به شیوه دوبعدی می‌توان برای تعیین محدوده نرمال و خطا، دو فضای متفاوتی تعریف کرد. که براحتی قابل تفکیک باشند مطابق شکل(۱-۵) به نحوه ساخت مرزهای تصمیم‌گیری بین دو بعد از دیتاها، دیتای نرمال و دیتای فالتی با این فرض که دیتای فالتی در دسترس و قابل اندازه‌گیری باشد. انجام پذیرفت.
شکل(۱-۵): مرزهای تصمیم‌گیری بین دو بعد
تابع جداکننده دو بعدی را که خروجی آن با +۱ و -۱ علامت گذاری شده را در نطر بگیرید:
(۱-۱)
اگر جداکننده از هر روش شناخته شده‌ای نتواند روش جداسازی را انجام بدهد. آزمونی را برای پی‌بردن به قانونی که از مجموعه نمونه‌های‌‌ آموزشی محدود، بدست می‌آورد؛ بکار می‌برد. البته در این مورد ریسک‌های‌‌ ذاتی نیز وجود دارند. مثل زمانی که نمونه‌های‌‌ آموزشی ممکن است خیلی نهادینه و مشخص نباشند. واریانس ذاتی، نویز در اندازه‌گیری می‌تواند قانون جداسازی بدست آمده را خیلی بزرگ نماید. همچنین نمونه‌های‌‌ آموزشی کوچکتر، بیشترین قطعیت را برای مساله بوجود می‌آورند [۱۳].
زمانی که یک نمونه آموزشی خوب در دسترس قرار می‌گیرد. تعداد توابعی که برای تخمین دقیق و fit آن انجام می‌شود؛ خیلی زیاد است. بهمین دلیل در اکثر موارد نوع تابع f و تعدادی از پارامترهای w قبلا انتخاب می‌شوند.
برای فهم مطلب مجموعه داده‌های آموزشی را بفرم زیر تعریف می‌کنیم:
X := {x , x ,…, xm}⊆با m=Nو Y:={,}
این داده‌های بهم attach شده‌ را در نظر بگیرید. تابع f باید بردار x را برای تخمین y= اجرا نماید. پارامترهای بهینه w برای تابع f روی مجموعه داده‌های آموزشی بصورت زیر تعریف می‌شوند:
(۱-۲) w= argmin( f,w, X )
( f,w, X ) این عبارت امید خطا‌ی آزمون برای تابع در محاسبه به تابع چگالی احتمال برای همه xها و yها است .
رابطه تخمین خطای صحیح:P(x,y)dxdy در بیشتر مساله‌های‌‌ جدا‌سازی عبارت P(x,y) نامعلوم است که فرض براین است نمونه‌های‌‌ آموزشی توزیع مستقل و غیروابسته‌ای از هم دارند. بنابراین فرمول تابع خطا برروی تابع f بفرم زیر تعریف می‌شود.
(۱-۳)
که عدد ثابت برای انتخاب خاصی از w روی مجموعه خاص آموزشی است. کمیت بین صفر و یک متغیر می‌باشد. بهترین جداسازی‌‌ها‌ زمانی رخ خواهد داد. که در بین داده
های دیده نشده و جدید، بتوان جداسازی را بخوبی انجام داد. البته با این شرط که آموزش از حد معینی فراتر نرود.
در شکل (۱-۶) که یک مثال مفهومی است. در این شکل آموزش بیش از حد[۱۸] به الگوریتم رخ داده است. اگر چه خوشه‌‌ها‌ بدرستی جداسازی شده‌اند. ولی در عوض هزینه و زمان زیادی
شکل(۱-۶): یک نمونه از آموزش بیش از حد به الگوریتم
برای آموزش و اجرای الگوریتم لازم بوده است. که این مساله با تعمیم شبکه و الگوریتم دچار مشکل خواهد شد. در الگوریتم تفکیک سازی سیگنال‌های غیرنرمال از نرمال هدف اصلی یافتن جداکننده‌ای است که ضمن داشتن تعمیم خوب بتواند موارد دیده نشده و ناشناخته را هم به خوبی جدا نماید[۱۳].
۱-۳-۴ روش ماشین بردار پشتیبان[۱۹]
ماشین بردار پشتیبان‌ها‌‌‌‌ (SVM)‌ از الگوریتم آموزشی نظارتی استفاده می‌کنند. که برای اولین بار توسط vapink در سال ۱۹۶۳ برای تشخیص الگو استفاده گردید. مجموعه بردارهای آموزشی معین (مثالهای ورودی مثبت و منفی) به ازای هر با برچسب که علامت‌گذاری شده را شامل می‌شد. ماشین بردار پشتیبان‌‌ با تشکیل یک مرز تصمیم‌گیری خطی بین دو بعد، آنها را ازهم متمایز می‌کند. اخیرا از ماشین بردار پشتیبان‌‌ها در بیشتر مقالات و تحقیقات برای توسعه تکنیکها و تئوری‌های مرتبط با رگرسیون و تخمین چگالی استفاده می‌شود. در دسته‌بندی و جداسازی دودویی (تفکیک) از مجموعه بردارهایی که بصورت زیر نشاندار میشوند؛ از قالب زیر استفاده می‌شود:
:={,
در اینجا کاری که باید انجام داد. آموزش یک ماشین بردار پشتیبان‌‌ جداکننده برای یادگیری ارتباط بین داده‌ و نشانه‌های‌‌ مربوطه می‌باشد.
اساسا خود ماشین بردار پشتیبان‌‌ یک جداکننده ‌‌غیرخطی است. که با تکنیک‌های‌‌ خطی که منتج به تابع نگاشت غیرخطی می‌شود؛ تعریف می‌گردد. تفسیر هندسی ماشین بردار پشتیبان‌‌ الگوریتم جستجو برای دو سطح (یا سطوح جداکننده) بصورت بهینه است و این سطوح یا‌‌ ابر صفحه‌ها[۲۰] بیشترین فاصله از دو بعد را دارند. در ادامه قابلیت تفکیک‌پذیری خطی ماشین بردار پشتیبان‌‌ و قابلیت جداسازی غیر‌خطی مطرح می‌شود [۱۳].

    • قابلیت تفکیک پذیری:

درماشین بردار پشتیبان‌‌ ،‌‌ابر صفحه‌های خطی یاد می‌گیرند چگونه بین دو بعد را تمییز دهند (شکل(۱-۷)).
شکل(۱-۷): قابلیت تفکیک پذیری در SVM
فاصله ‌‌ابر صفحه‌ با نزدیکترین نمونه مثبت (یا منفی) را حد یا حاشیه[۲۱]‌ ‌ابر‌ صفحه‌ می‌نامند. ماکزیمم حاشیه ‌‌ابر صفحه‌ برابر بافاصله بین مرزهای بعدهاست.
یک ‌‌ابر صفحه‌ خطی بصورت f (x) = [w, x] + b تعریف می‌شود.b بایاس وw بردار نرمال وزن برای ‌‌ابر صفحه است. بدست آوردن f (x) = (x + b) با بیشترین حاشیه (حد) که عبارت است‌از :
f() = [w, x ]+ b ≥ ۱ , for =1
f() = [w, x ]+ b ≤ −۱, for = −۱
معادله فوق را می‌توان بصورت نامعادله زیر نشان داد:
(۱-۴) (.w+ b) -1≥ ۰,
در ماشین بردار پشتیبان‌‌ وظیفه اصلی آموزش دو پارامتر w و b در f (x) = (x + b) و به دنبال آن حل بهینه معادله است. یعنی یافتن w و b کمینه داریم:
(۱-۵)
(.w+ b) -1≥ ۰,i
برای این منطور تابع لاگراژین را بصورت زیر تعریف می‌نماییم:
L(w,b,α)=w-[+b)-1] ≥ ۰,
شرط لازم در نقطه زینی عبارت است‌از:

موضوعات: بدون موضوع  لینک ثابت


فرم در حال بارگذاری ...