(۲-۳۳)
تابع طبقه بندی کننده نهایی از رابطه زیر به دست می آید .
(۲-۳۴)
شکل ۲-۹) فرایند ماشین بردار پشتیبان
۲-۱۷)ماشین بردار پشتیبان (SVM)با حاشیه منعطف [۱۳۵]
در این گونه از مساله­های­طبقه بندی ،داده ها توسط­یک مرز تصمیم خطی همراه با مقداری خطا از یکدیگرمتمایز می شوند،در این گونه مسائل که به svm با حاشیه نرم شناخته می شوند، هدف یافتن مرز تصمیمی است که علاوه بر داشتن بیشترین حاشیه ، کمترین میزان خطا را نیز دارا باشند . نقاط خطا ، داده هایی هستندکه یا به اشتباه دسته بندی شده ­اند یا درون حاشیه مرز تصمیم قرار دارند. چنانچه فاصله این نقاط تا محل صحیح را به عنوان خطا (ɛ) در نظر بگیریم، می توان با حل مساله بهینه سازی زیر مرز تصمیم بهینه را یافت.[۵۷]
(۲-۳۵)
Minimize
Subject to :
پارامتر c بین ماکزیمم سازی حاشیه مرز تصمیم و مینیمم سازی خطای آموزش ، توازن ایجاد می کند. برای داده هایی که درست طبقه بندی شده اند ، صفر است.در این قسمت نیز با تشکیل معادله لاگرانژ و ثانویه­آن، مساله فوق به رابطه(۲-۳۳) تبدیل می شود با این تفاوت که شرط برقرار است . پس از حل مساله ویافتن ضرایب لاگرانژ خواهیم دیدکه این ضرایب برای نقاط بردار پشتیبان در محدوده () و برای نقاط خطا برابر cو برای بقیه نقاط صفر است .

(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))

شکل ۲(۱۰-ماشین بردار پشتیبان با حاشیه نرم
۲-۱۸) ماشین بردار پشتیبان چند کلاسه
ماشین بردار پشتیبان اصولاً یک طبقه بندی کننده باینری است، در صورتی که بیشتر مسائل مربوط به طبقه بندی کننده ها چند کلاسه است.به همین علت روش های زیادی مبتنی بر ماشین های بردار پشتیبان، برای اینگونه مسائل مطرح شده است که از پرکاربردترین آن ها می توان به یکی در مقابل همه، یکی در مقابل یکی ، همه با هم اشاره نمود.[۵۷]

۲-۱۸-۱) روش یکی در مقابل همه[۱۳۶]:

در این روش که یکی در مقابل بقیه ویاwinner take all هم نامیده می شود، یک مجموعه از طبقه بندی کننده های باینری برای تفکیک یک کلاس از بقیه کلاس ها استفاده می شود.به عنوان مثال اگر تعدا کلاس ها Nباشد،Nطبقه بندی کننده ایجاد می شود، که هر طبقه بندی کننده یک کلاس را از بقیه N-1 کلاس متمایز می کند.اندازه ناموزون یک کلاس، اختصاص حافظه­ زیاد­ به محاسبات وصحت پایین طبقه بندی را به عنوان برخی از مشکلات این روش می توان نام برد.

۲-۱۸-۲) روش یکی در مقابل یکی[۱۳۷]:

در این روش برای N کلاس داده ، N(N-1)/2 طبقه بندی کننده ایجاد می شود، وهر طبقه بندی کننده به کلاس برنده یک رای اختصاص می دهد، سپس یک پیکسل مجهول بر اساس کلاسی با اکثریت رای ، برچسب می خورد.در مقایسه با روش یکی در مقابل همه ، در این روش اندازه گیری­کلاس ها متقارن بوده، تعداد داده های آموزش مورد نیاز برای هر طبقه بندی کننده وهمچنین نسبت اندازه­ بردار داده آموزشی کمتر است.محدودیت این روش ، افزایش تعدادطبقه بندی­کننده ها با افزایش تعداد کلاس ها است.

۲-۱۸-۳) روش همه با هم [۱۳۸]:

این روش که به نام توسعه دهندگان آن یعنی crammer and singer هم نامیده می شود، مسئله­ طبقه بندی چند کلاسه را مستقیم حل می­ کند.در این روش، در مسئله­ بهینه سازی تمام بردارهای پشتیبان با هم در یک زمان در نظر گرفته می شوند، به همین خاطر با داده های­حجیم به راحتی کار می­ کند، اما اختصاص بسیار بالای حافظه وزمان زیاد محاسبات از معایب آن است .­
۲-۱۹) رویکردطبقه بندی غیر خطی در ماشین بردار پشتیبان
علاوه بر طبقه بندی خطی ، svm برای مسائل طبقه بندی غیر خطی نیز به کار می رود.شکل زیرحالتی را نشان می دهد که داده های دو کلاس ، توسط هیچ مرز خطی، قابل تفکیک نیستند.
شکل ۲۱۱-)طبقه بندی غیر خطی ماشین بردار پشتیبان
برای حل این مشکل، ابتدا داده ها از فضای ورودی ، با بهره گرفتن از یک تبدیل غیر خطی به تابع ϕ، به فضای ویژگی با ابعاد بالاتر منتقل می شود..
(۲-۳۶)
در فضای جدید کلاس ها تداخل کمتری با یکدیگر دارند ومی توان داده ها را به صورت خطی از یکدیگر جدا نمود. در نتیجه عملیات غیر خطی در فضای ورودی به عملیات خطی در فضای ویژگی تبدیل خواهد شد. یافتن مرز تصمیم بهینه در فضای ویژگی مانند مباحث قبلی است وبا قرار دادن (x)ϕ به جای x در رابطه بالا حاصل می شود.
در عمل چون ابعاد فضای ویژگی بسیار بزرگتر از ابعاد فضای ورودی است، محاسبات در این فضا بسیار سخت خواهد بود.به همین دلیل ، معمولاً به جای استفاده ازϕ، از یک تابع کرنل استفاده می شود .[۳۶]
(۲-۳۷)
تابع کرنل در واقع یک تابع در فضای ورودی است که برابر با ضرب داخلی دوبردار در فضای ویژگی است ،تابع می تواند به میزان زیادی پیچیدگی محاسباتی را کاهش دهد وماتریس حاصل از آن باید متقارن،معین وثابت باشد . برخی از مهمترین توابع هسته عبارتند از : تابع کرنل چند جمله ای با درجه p، تابع کرنل گاوسی یا RBFوتابع کرنل سیگموید که به ترتیب در روابط زیر نشان داده شده است.
(۲-۳۸)
تابع کرنل چند جمله ای
تابع کرنل گاوسی
تابع کرنل سیگموید
در یک طبقه بندی غیر خطی ، ابتدا تابع کرنل را مشخص نموده وسپس با حل مساله بهینه سازی زیر ، مرز تصمیم بهینه به دست می آید.
(۲-۳۹)

پس از محاسبه ضرایب لاگرانژ ، تابع طبقه بندی کننده نهایی از معادله زیر حاصل می شود.
(۲-۴۰)
SVM یک طبقه بندی کننده باینری است. بنابراین ، در حالتی که بیش از دو کلاس وجود داشته باشد، نمی توان مستقیماً از آن استفاده کرد.یکی از روش های موثر برای استفاده از ماشین بردار پشتیبان در حالت چند کلاسه ، روش یکی در مقابل یکی است .در این روش ها هر بار دو کلاس را در نظر گرفته ومرز تصمیم بین آنها مشخص می شود.پس برایkکلاس مختلف داده باید به تعداد طبقه بندی کننده مجزا طراحی شود. برای طبقه بندی داده مجهولx، آن را در همه طبقه بندی­کننده های به دست آمده قرار داده ، توسط هر طبقه بندی کننده، x به یک­کلاس­خاص­تعلق می­گیرد ودر نهایت x متعلق به کلاسی خواهد بود که حداکثر آراء را بیاورد.

۲-۲۰) رگرسیون بردار پشتیبان

به طور خلاصه ساز وکار اصلی SVM در حل مساله رگرسیون به صورت زیر بیان می شود :
۱٫ماشین بردار پشتیبان، تابع رگرسیون را با به کارگیری یک دسته تابع خطی تخمین می زند ۲٫ ماشین بردار پشتیبان عملیات رگرسیون را با تابعی که انحراف از مقدار واقعی در آن به میزان کمتر از ɛ مجاز است انجام می دهد(تابع ضرر)[۱۳۹]

    1. ماشین بردار پشتیبان با کمینه کردن ریسک ساختاری ، بهترین جواب را ارائه می دهد .[۵۷]

۲-۲۰-۱) رگرسیون خطی بردار پشتیبان

در ماشین بردار پشتیبان برای حل مساله رگرسیون یک تابع خطی به شکل ، که برروی یک مجموعه شامل k نمونه مانند است، سعی در تخمین مقادیر خروجی بر مبنای مقادیر ورودی دارد.در رابطه فوق x بردار مقادیر ورودی وپارامترهای کنترل کننده تابعƒ هستند . نشانگر ضرب داخلی می­باشد . برای حل مساله رگرسیون، تابع ضرر Vapnik که در­آن حداقل خطایی به میزان ɛ قابل صرف نظر کردن است ، مورد استفاده قرار می­گیرد. این تابع ضرر را می توان به صورت ذیل نمایش داد.

۰ Other wise

موضوعات: بدون موضوع  لینک ثابت


فرم در حال بارگذاری ...