مینیمم

۱۷۲

۱۴۳

۹۵

۵۷

۳۲

۸۵٫۵

ماکزیمم

۱۹۶

۱۶۰

۱۱۲

۷۵

۴۶

۸۷٫۴

۴-۷٫ نرمالیزه کردن اطلاعات ورودی
در مرحله­ بعدی باید داده ­ها را برای ورود به شبکه و انجام فرایند آموزش آماده نمود. در واقع باید ورودی و خروجی شبکه را نرمال نمود تا همگی دارای اندازه ­گیری یکسانی گردند. به عبارت دیگر می­توان گفت که نرمال­سازی از مراحل موثر در انجام مدلسازی با شبکه عصبی می­باشد. اگر اطلاعات ورودی و خروجی دارای یک اندازه بزرگی نباشند برخی متغیرها ممکن است اهمیت بسیار بیشتری از آنچه که دارند از خود نشان دهند. بنابراین الگوریتم آموزش مجبور می­گردد تا تفاوت اندازه بزرگی را با بهره گرفتن از تنظیم وزن­های شبکه جبران نماید که در اکثر الگوریتم­های آموزش چندان مؤثر نیست.

(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))

به عنوان مثال اگر متغیر ورودی اول دارای مقدار ۱ و متغیر ورودی دوم مقدار ۱۰۰۰ داشته باشد وزن مربوط به متغیر اول هنگام ورود به نرون لایه اول باید بزرگتر از وزن مربوط به متغیر دوم باشد. همچنین برخی از تابع تبدیل­ها مانند توابع سیگموئیدی، تانژانت هیپربولیک نمی ­توانند تفاوت بین دو مقدار را در صورتی­که هر دو دارای مقدار زیاد باشند تشخیص دهند. زیرا حد بالای خروجی این توابع ۱ می­باشد. برای اجتناب از این گونه مسائل بهتر است متغیرهای ورودی و خروجی نرمال گردند.
روش اول: نرمال­سازی به­صورتی­که هر متغیر بین ۰ و ۱ قرار گیرد. متغیرهای نرمال شده از طریق رابطه­ زیر محاسبه می­گردند. در رابطه زیر xi,max بیشترین مقدار هر متغیر و xi,norm مقدار نرمال شده می­باشد.
(۴-۲)
به عنوان مثال فرض نماییم یک متغیر xi دارای توزیع نرمال بین ۵۰۰ تا ۹۰۰ و ضریب نرمال­سازی ۱۰۰۰ باشد. با بهره گرفتن از رابطه­ بالا یک توزیع نرمال بین ۵/۰ تا ۹/۰ ایجاد می­گردد. این روش تنها برای شبکه ­های ساده پیشنهاد می­گردد و با پیچیده­تر شدن ساختار شبکه این روش دچار مشکل می­گردد.
روش دوم: در این روش متغیر نرمال شده با بهره گرفتن از ماکزیمم و مینیمم داده ­های اصلی بین ۰ و ۱ قرار می­گیرد. برای تعیین متغیر نرمال شده رابطه زیر مورد استفاده می­گیرد.Xi,min کمترین مقدار متغیر مورد نظر می­باشد. در این روش با بهره گرفتن از کل محدوده­ تابع انتقال نسبت به روش اول اصلاحاتی انجام گرفته است.
در نتیجه:
(۴-۲)
در این روش تمام متغیرهای ورودی در مجموعه داده ­ها، محدوده توزیع یکسانی خواهد داشت که این امر باعث بهبود بازده آموزش می­گردد.
روش سوم :در این روش مجموعه اطلاعات در محدوده ۱ – تا ۱ و با مقدار میانگین صفر نرمال می­گردند. این روش، روش نرمال سازی متوسط – صفر[۸۴] نامیده می شود. رابطه مورد نظر برای نرمال­سازی داده ها با بهره گرفتن از این روش به صورت زیر می باشد. Xi avg میانگین هر متغیر را بیان می نماید.
(۴-۳)
که :

(۴-۴)

همانند روش دوم این روش نیز از تمامی محدوده­ تابع انتقال استفاده می­نماید و هر متغیر ورودی هم دارای محدوده­ توزیع یکسانی است. این روش باعث می­گردد فاکتورهای وزنی توزیع استانداردی داشته باشند. همچنین این روش به مقادیر نرمال شده معنی و مفهوم می­بخشد. صفر بیان کننده­ حالت نرمال متوسط ، ۱- مقادیر بسیار کوچک متغیرها و ۱ مربوط به بزرگترین مقادیر مجموعه می­باشد. علاوه بر این با تنظیم کردن تمام حالت­های نرمال متغیرها به صفر ، شبکه یک ساختار استاندارد خواهد داشت که فرایند آموزش را بسیار مؤثرتر می­ کند. با این روش تمام شبکه­ ها باید به­ طور معمول برای یک­سری از مقادیر متغیرهای نرمال، خروجی صفر را پیش ­بینی نمایند. بنابراین شبکه در واقع تنها انحراف­های متغیرهای خروجی را به دلیل انحرافات مختلف متغیرهای ورودی پیش بینی می­نماید. در این مطالعه از این روش نرمال سازی استفاده شده است [۳۰].
۴-۸٫ مدل­سازی به روش شبکه ­های عصبی مصنوعی
در محاسبات شبکه­ عصبی پارامترهای مختلفی وجود دارند که تعیین بهینه­ آن ها در کارایی شبکه تأثیر­گذار می­باشد. این پارامترها باید با دقت زیادی تنظیم گردند.
۴-۸-۱٫ انتخاب الگوریتم آموزشی مناسب
الگوریتم­های متفاوتی در فصل سوم برای آموزش شبکه­ عصبی ارائه شدند که هرکدام از آن­ها دارای نکات ضعف و قوت هستند. در کل می­توان گفت برای شبکه ­های متوسط که تا چند صد وزن و بایاس دارند الگوریتم لونبرگ- مارکوارت همگرایی سریع­تری را ایجاد می­نماید. این مزیت زمانی قابل توجه می­گردد که آموزش خیلی دقیق نیاز می­باشد. در بسیاری از حالت­ها الگوریتم لونبرگ- مارکوارت قادر است به کمترین مربع میانگین خطا در میان سایر الگوریتم­ها دست یابد. اگر چه با افزایش تعداد نرون­ها در شبکه مزیت الگوریتم مذکور کاهش می­یابد. در مجموع عملکرد الگوریتم لونبرک- مارکوارت در مسائل تشخیص الگو بسیار ضعیف می­باشد. الگوریتم تطبیقی پس انتشار سریع­ترین الگوریتم در مسائل تشخیص الگو می­باشد؛ اگرچه در مسائل تقریب تابع به خوبی عمل نمی­نماید. عملکرد این الگوریتم در مقایسه با الگوریتم تطبیقی پس انتشار با کاهش خطار کاهش می­یابد. الگوریتم گرادیان مرکب نسبت به سایر الگوریتم­ها به حافظه کمتری نیاز دارد. الگوریتم شبه­نیوتنی نیز مشابه الگوریتم لونبرک- مارکوارت بوده، اما نسبت به آن حافظه بیشتری دارد. روش الگوریتم یادگیری متغیر نسبت به دیگر روش­ها کندتر، اما حافظه مورد نظر در آن مشابه الگوریتم تطبیقی پس­انتشار بوده، اما برای برخی مسائل مناسب می­باشد. در واقع موقعیت­هایی وجود دارد که بهتر است بسیار آرام هم­گرا گردند [۲۷]. با توجه به توضیحات ارائه شده، الگوریتم لونبرگ- مارکوات جهت استفاده در این مطالعه مناسب به نظر می­رسد.
۴-۸-۲٫ انتخاب تعداد لایه­ های پنهان
تعیین تعداد لایه­ های پنهان و تعداد گره­های هر لایه یکی از مهم­ترین مراحل طراحی یک شبکه­ عصبی می­باشد که بی­شک به پیچیدگی شبکه و کاربرد آن بستگی دارد. برای تعیین بهینه­ تعداد لایه ­ها و گره­ها، انتخاب ساختارهای مختلف و آموزش آن­ها مبنا می­باشد. سپس بهترین ساختاری که با تعداد لایه ­ها و گره­های کمتر زودتر به مینیمم مقدار خطای مورد نظر رسیده باشد انتخاب می­گردد.Baugham و Liu در سال ۱۹۹۵ بیان کردند که افزودن دومین لایه­ی پنهان بدون این­که تأثیر زیان­آوری در کاهش عمومیت بخشی داده ­ها مربوط به آزمایش داشته باشد توانایی پیش ­بینی شبکه را در پیش ­بینی نسبت به شبکه با دولایه چندان تغییر نمی­دهد فقط به دلیل ایجاد ساختار پیچیده، زمان لازم برای همگرایی افزایش می­یابد[۳۰].

موضوعات: بدون موضوع  لینک ثابت


فرم در حال بارگذاری ...