Minimally overfitted learners: A general framework for ensemble learning
dc.contributor.author | Aceña, Víctor | |
dc.contributor.author | Martín de Diego, Isaac | |
dc.contributor.author | R. Fernández, Rubén | |
dc.contributor.author | M. Moguerza, Javier | |
dc.date.accessioned | 2024-07-23T07:22:02Z | |
dc.date.available | 2024-07-23T07:22:02Z | |
dc.date.issued | 2022 | |
dc.identifier.citation | Víctor Aceña, Isaac Martín de Diego, Rubén R. Fernández, Javier M. Moguerza, Minimally overfitted learners: A general framework for ensemble learning, Knowledge-Based Systems, Volume 254, 2022, 109669, ISSN 0950-7051, https://doi.org/10.1016/j.knosys.2022.109669 | es |
dc.identifier.issn | 0950-7051 (print) | |
dc.identifier.issn | 1872-7409 (online) | |
dc.identifier.uri | https://hdl.handle.net/10115/38604 | |
dc.description.abstract | La combinación de algoritmos de Machine Learning (ML) es una solución para construir predictores más fuertes que los obtenidos con un solo algoritmo. Sin embargo, algunas aproximaciones sugieren que la combinación de algoritmos inestables proporciona mejores resultados que la combinación de algoritmos estables. Por ejemplo, los ensamblajes generativos, basados en técnicas de remuestreo, han demostrado un alto rendimiento al fusionar la información de aprendices base inestables. Random Forest (RF) y Gradient Boosting (GB) son dos ejemplos bien conocidos, ambos combinan árboles de decisión (Decision Tree, DT) y proporcionan mejores predicciones que las obtenidas usando un solo árbol. Sin embargo, no se han logrado resultados tan exitosos ensamblando algoritmos estables. Este artículo introduce la noción de aprendiz limitado y un nuevo marco general de ensamblaje llamado Minimally Overfitted Ensemble (MOE), un enfoque de ensamblaje basado en remuestreo que construye aprendices ligeramente sobreajustados. El marco propuesto funciona bien con algoritmos base estables e inestables, gracias a un muestreo Weighted Random Bootstrap (WRAB) que proporciona la diversidad necesaria para los algoritmos base estables. Se lleva a cabo un análisis de hiperparámetros de la propuesta en datos artificiales. Además, se evalúa su rendimiento en conjuntos de datos reales frente a métodos de ML bien conocidos. Los resultados confirman que el marco MOE funciona con éxito utilizando algoritmos base estables e inestables, mejorando en la mayoría de los casos la capacidad predictiva de modelos de ML individuales y otros métodos de ensamblaje. | es |
dc.language.iso | eng | es |
dc.publisher | Elsevier | es |
dc.rights | Attribution-NonCommercial-NoDerivs 4.0 International | |
dc.rights.uri | https://creativecommons.org/licenses/by-nc-nd/4.0/ | |
dc.subject | Ensemble | es |
dc.subject | Generative Ensembles | es |
dc.subject | Re-sampling | es |
dc.subject | Bagging | es |
dc.subject | Random Forest | es |
dc.title | Minimally overfitted learners: A general framework for ensemble learning | es |
dc.type | info:eu-repo/semantics/article | es |
dc.identifier.doi | 10.1016/j.knosys.2022.109669 | es |
dc.rights.accessRights | info:eu-repo/semantics/openAccess | es |
Files in this item
This item appears in the following Collection(s)
-
Artículos de Revista [4552]
Except where otherwise noted, this item's license is described as Attribution-NonCommercial-NoDerivs 4.0 International