طرح های پژوهشی دانشگاه ها با موضوع انتخاب متغیر در … – منابع مورد نیاز برای مقاله و پایان نامه : دانلود پژوهش های پیشین |
Koenker, R. and Hallock, K. (2001). Quantile regression. Journal of Economic Perspectives 15, 143-156.
Koenker, R., Ng, P. and Portnoy, S. (1994). Quantile smoothing splines. Biometrika 81, 673-680.
Li, Y., Liu, Y. and Zhu, J. (2007). Quantile regression in reproducing kernel Hilbert spaces. J.
Amer. Statist. Assoc., 102, 255-268.
Li, Y. and Zhu, J. (2005). l1-norm quantile regressions. J. Comput. Graph. Statist. To appear.
Liu, S., Shen, X. and Wong, W. (2005a). Computational development of -learning. In The SIAM 2005 International Data Mining Conf., 1-12.
Liu, Y., Shen, X. and Doss, H. (2005b). Multicategory -learning and support vector machine: computational tools. J. Comput. Graph. Statist., 14, 219-236.
Liu, Y. and Wu, Y. (2007). Variable selection via a combination of the L0 and L1 penalties. J. Comput. Graph. Statist., 16, 782-798.
Pollard, D. (1991). Asymptotics for least absolute deviation regression estimators. Econometric Theory 7, 186-199
Tibshirani, R. J. (1996). Regression shrinkage and selection via the lasso. J. Roy. Statist. Soc. Ser. B 58, 267-288.
Wang, H. and He, X. (2007). Detecting differential expressions in genechip microarray studies: A quantile approach. J. Amer. Statist. Assoc. 102, 104-112.
Wang, H., Li, G. and Jiang, G. (2007). Robust regression shrinkage and consistent variable selection through the lad-lasso. J. Business & Economic Statistics 25, 347-355.
Wei, Y. and He, X. (2006). Conditional growth charts (with discussions). Ann. Statist. 34, 2069-2031.
Wei, Y., Pere, A., Koenker, R. and He, X. (2006). Quantile regression methods for reference growth curves. Statist. Medicine 25, 1369-1382.
Wu, Y. and Liu, Y. (2007). Robust truncated-hinge-loss support vector machines. J. Amer. Statist. Assoc. 102, 974-983.
Yang, S. (1999). Censored median regression using weighted empirical survival and hazard functions. J. Amer. Statist. Assoc. 94, 137–۱۴۵٫
Yichao Wu and Yufeng Liu (2009). Variable selection in quantile regression. Statistica Sinica 19, 801-817
Yuan, M. and Lin, Y. (2007). On the nonnegative garrote estimator. J. Roy. Statist. Soc. Ser. B 69, 143–۱۶۱٫
Zhang, H. H., Ahn, J., Lin, X. and Park, C. (2006). Gene selection using support vector machines with nonconvex penalty. Bioinformatics 22, 88–۹۵٫
Zhang, H. H. and Lu, W. (2007). Adaptive-lasso for Cox’s proportional hazard model. Biometrika. 94, 691–۷۰۳٫
Zhao, P. and Yu, B. (2006). On model selection consistency of lasso. J. Machince Learning Research 7, 2541-2563.
Zou, H. (2006). The adaptive lasso and its oracle properties. J. Amer. Statist. Assoc., 101, 1418-1429.
Zou, H. and Li, R. (2007). One-step Sparse Estimates in Nonconcave Penalized Likelihood Models. Ann. Statist. To appear.
پیوست
پیوست۱
اثبات قضایا و لمها
برای اثبات قضایای پایان نامه از یک قضیه و لم معروف به نام لم تحدب (convexity lemma) استفاده میکنیم.
( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. )
لم ۲ (لم تحدب): فرض کنید یک دنباله از توابع تصادفی محدب تعریف شده روی یک زیرمجموعه محدب و باز از باشد. همچنین فرض کنید یک تابع حقیقی مقدار روی باشد به طوری که برای هر داشته باشیم . آنگاه برای هر زیرمجموعه فشرده k از داریم:
تابع ضرورتاً روی ، محدب است.
چندین اثبات برای لم تحدب وجود دارد. خوانندگان علاقهمند میتوانند به (۱۹۹۱)Pollard مراجعه کنند.
تقریب خطی را با مشخص میکنیم. یک تعبییر از این است که به عنوان مشتق اول در t=0 می تواند در نظر گرفته شود. به علاوه، این شرط که دارای چندک ام، صفر است این مطلب را بیان می کند که است. تعریف میکنیم:
در این صورت داریم:
لم ۳: برای مدل (۱-۴) با پارامتر حقیقی ، را به صورت
مشخص میکنیم، جائی که است. تحت شرایط (i) و (ii) برای هر ثابت داریم:
(۱)
اثبات لم ۳: شرط (i)، این مطلب را بیان می کند که تابع دارای مینیمم یکتا در صفر است. بسط تیلور آن در مبدأ فرم را دارد. بنابراین برای nهای بزرگ داریم:
تحت شرط (ii) داریم
بنابراین داریم:
با محسبات معمولی داریم
برای ثابت، با توجه به حذف جمله ضرب داخلی داریم:
(۲)
همانطور که در (۱۹۹۱) Pollard داریم، جائی که ، عملگر نرم اقلیدسی را مشخص می کند.
از طرفی در مرحله آخر داریم:
به این دلیل که ، داریم . رابطه (۲) دلالت بر این موضوع دارد که
و این اثبات را کامل می کند
قبل از شروع اثبات قضیهی ۱، این نکته را بیان میکنیم که
و
فرم در حال بارگذاری ...
[چهارشنبه 1401-04-15] [ 05:31:00 ق.ظ ]
|