Support Vector Machine y uso del método perceptrón para problemas linealmente separables: aplicación en métodos de clasificación, usando validación cruzada

En la Estadística del siglo XXI se ha vuelto más común la exploración y el análisis de datos masivos, los cuales requieren métodos computacionales de aprendizaje supervisado y no- supervisado. En los investigadores que desconocen conceptos computacionales y de algoritmos, una de sus preocupaciones con respecto a todos estos métodos es el asunto de la caja negra (blackbox) en términos de que no hay claridad estadística o matemática en el funcionamiento ó en lo resultados de estos métodos computacionales. Tres de los objetivos de este trabajo son: i) profundizar en aspectos matemáticos internos del método supervisado Support Vector Machine (SVM), método cuya idea inicial es definir una frontera entre dos clases mediante la separación máxima de los puntos más cercanos; ii) explorar la red neuronal perceptron en dos dimensiones para decidir si un problema es linealmente separable (PLS) ó no lo es; y iii) comparar el desempeño de SVM frente a otros 4 métodos de clasificación en datos reales, usando validación cruzada. Estudiamos cuatro problemas ó bases de datos; dos de ellos linealmente separabes y los otros dos no, de acuerdo con perceptrón. Utilizando validación cruzada, comparamos cinco métodos de Clasificación: SVM, Regresión logística, árboles de decisión, K-Nearest Neighbors (KNN) y Gaussian Naive Bayes (GNB). Su comparación se basó teniendo en cuenta el equilibrio entre la sensibilidad y la especificidad de cada método. Algunos resultados indican que los métodos SVM y Regresión logística tuvieron mejor desempeño. También, el uso de la herramienta perceptron dejó resultados promisorios.

Saved in:
Bibliographic Details
Main Authors: Borda-Casallas, Ximena A., Grajales, Luis F.
Format: video biblioteca
Language:spa
Published: 2020-10
Subjects:Support vector machine, Machine learning, Perceptrón,
Online Access:http://hdl.handle.net/11086/16942
Tags: Add Tag
No Tags, Be the first to tag this record!
Description
Summary:En la Estadística del siglo XXI se ha vuelto más común la exploración y el análisis de datos masivos, los cuales requieren métodos computacionales de aprendizaje supervisado y no- supervisado. En los investigadores que desconocen conceptos computacionales y de algoritmos, una de sus preocupaciones con respecto a todos estos métodos es el asunto de la caja negra (blackbox) en términos de que no hay claridad estadística o matemática en el funcionamiento ó en lo resultados de estos métodos computacionales. Tres de los objetivos de este trabajo son: i) profundizar en aspectos matemáticos internos del método supervisado Support Vector Machine (SVM), método cuya idea inicial es definir una frontera entre dos clases mediante la separación máxima de los puntos más cercanos; ii) explorar la red neuronal perceptron en dos dimensiones para decidir si un problema es linealmente separable (PLS) ó no lo es; y iii) comparar el desempeño de SVM frente a otros 4 métodos de clasificación en datos reales, usando validación cruzada. Estudiamos cuatro problemas ó bases de datos; dos de ellos linealmente separabes y los otros dos no, de acuerdo con perceptrón. Utilizando validación cruzada, comparamos cinco métodos de Clasificación: SVM, Regresión logística, árboles de decisión, K-Nearest Neighbors (KNN) y Gaussian Naive Bayes (GNB). Su comparación se basó teniendo en cuenta el equilibrio entre la sensibilidad y la especificidad de cada método. Algunos resultados indican que los métodos SVM y Regresión logística tuvieron mejor desempeño. También, el uso de la herramienta perceptron dejó resultados promisorios.