طبقهبند تککلاسه گرانشگرای مبتنی بر ماشین بردار پشتیبان
محورهای موضوعی : مهندسی برق و کامپیوترسیدحسین غفاریان 1 * , هادی صدوقی یزدی 2 , یونس اللهیاری 3
1 - دانشگاه فردوسی مشهد
2 - دانشگاه فردوسی مشهد
3 - دانشگاه فردوسی مشهد
کلید واژه: طبقهبند تککلاسه نمونههای پرت طبقهبند تککلاسه گرانشگرا طبقهبند مبتنی بر چگالی,
چکیده مقاله :
در این مقاله یک طبقهبند تککلاسه مبتنی بر مرز با الهام از طبقهبند توصیفگر داده مبتنی بر بردار پشتیبان (SVDD) ارائه شده است. در طبقهبند SVDD حتی زمانی که نمونههای پرت به بیرون از مرز رانده میشوند، باز هم این نمونهها بر مرز طبقهبند اثر میگذارند و این مسئله باعث افزایش خطای طبقهبند میشود. در طبقهبند پیشنهادی به گرانش نمونههای آموزش اهمیت داده میشود و همچنین همه نمونهها در تعیین مرز طبقهبند دخالت دارند. بر این مبنا دو طبقهبند که در یکی دانش در مورد نمونههای پرت نیز در نظر گرفته میشود، پیشنهاد شده است. مسئله بهینهسازی مطرح در طبقهبند پیشنهادی علاوه بر این که تحدب را حفظ می کند، در حوزه کرنل نیز به سهولت قابل استفاده است. پس از معرفی طبقهبند پیشنهادی و حل مسئله بهینهسازی آن، چگونگی تغییرات مرز طبقهبند پیشنهادی در مقابل تغییرات پارامترهای مدل بررسی میشود. نتایج آزمایشها در مقایسه با دو طبقهبند SVDD و Density Induced SVDD نشان میدهد که روش پیشنهادی در کاهش اثر نمونههای پرت موفق بوده است.
In this paper, a one-class classifier based on the Support Vector Data Descriptor (SVDD) is proposed. In SVDD, even outlier samples which are out of the decision boundary, are affecting the boundary. This increases the error of the classifier. In the proposed classifier, decision boundary is determined by all of the samples through a gravity oriented approach. In this way, two classifier is proposed which in one of them knowledge about outliers are also considered. The optimization problem of the proposed method is convex and can be used with the kernel methods. Experiments on the behavior of the proposed classifier regarding changes of the parameters were done. Comparing results of experiments with results of SVDD and Density Induced SVDD shows that the proposed method can decrease the effects of outliers.
[1] B. Scholkopf, R. C. Williamson, A. J Smola, J. Shawe-Taylor, "SV estimation of a distribution's support," in Proc. Neural Information Processing Systems, 1999.
[2] D. M. J. Tax and R. P. W. Duin, "Support vector domain description," Pattern Recognition Letters, vol. 20, no. 11-13, pp. 1191-1199, Dec. 1999.
[3] K. Y. Lee, et al., "Improving support vector data description using local density degree," Pattern Recognition, vol. 38, no. 10, pp. 1768-1771, Oct. 2005.
[4] D. M. J. Tax and R. P. W. Duin, "Support vector data description," Machine Learning, vol. 54, no. 1, pp. 45-66, 2004.
[5] H. W. Cho, "Data description and noise filtering based detection with its application and performance comparison," Expert Systems with Applications, vol. 36, no. 1, pp. 434-441, Jan. 2009.
[6] S. M. Guo et al., "A boundary method for outlier detection based on support vector domain description," Pattern Recognition, vol. 42, no. 1, pp. 77-83, Jan. 2009.
[7] J. A. Zachman, "A framework for information systems architecture," IBM Systems J., vol. 26, no. 3, pp. 276-292, 1987.
[8] K. Y. Lee et al., "Density - induced support vector data description," IEEE Trans. on Neural Networks, vol. 18, no. 1, pp. 284-289, Jun. 2007.
[9] K. Y. Lee et al., "PLPD: reliable protein localization prediction from imbalanced and overlapped dataset," Nucleic Acids Research, vol. 34, no. 17, pp 4655-4666, 2006.
[10] X. Geng et al., "Supervised nonlinear dimensionality reduction for visualization and classification," IEEE Trans. Sys. Man Cybernet, vol. 35, no. 6, pp. 1098-1107, 2005.