Show simple item record

Minimally overfitted learners: A general framework for ensemble learning

dc.contributor.authorAceña, Víctor
dc.contributor.authorMartín de Diego, Isaac
dc.contributor.authorR. Fernández, Rubén
dc.contributor.authorM. Moguerza, Javier
dc.date.accessioned2024-07-23T07:22:02Z
dc.date.available2024-07-23T07:22:02Z
dc.date.issued2022
dc.identifier.citationVíctor Aceña, Isaac Martín de Diego, Rubén R. Fernández, Javier M. Moguerza, Minimally overfitted learners: A general framework for ensemble learning, Knowledge-Based Systems, Volume 254, 2022, 109669, ISSN 0950-7051, https://doi.org/10.1016/j.knosys.2022.109669es
dc.identifier.issn0950-7051 (print)
dc.identifier.issn1872-7409 (online)
dc.identifier.urihttps://hdl.handle.net/10115/38604
dc.description.abstractLa combinación de algoritmos de Machine Learning (ML) es una solución para construir predictores más fuertes que los obtenidos con un solo algoritmo. Sin embargo, algunas aproximaciones sugieren que la combinación de algoritmos inestables proporciona mejores resultados que la combinación de algoritmos estables. Por ejemplo, los ensamblajes generativos, basados en técnicas de remuestreo, han demostrado un alto rendimiento al fusionar la información de aprendices base inestables. Random Forest (RF) y Gradient Boosting (GB) son dos ejemplos bien conocidos, ambos combinan árboles de decisión (Decision Tree, DT) y proporcionan mejores predicciones que las obtenidas usando un solo árbol. Sin embargo, no se han logrado resultados tan exitosos ensamblando algoritmos estables. Este artículo introduce la noción de aprendiz limitado y un nuevo marco general de ensamblaje llamado Minimally Overfitted Ensemble (MOE), un enfoque de ensamblaje basado en remuestreo que construye aprendices ligeramente sobreajustados. El marco propuesto funciona bien con algoritmos base estables e inestables, gracias a un muestreo Weighted Random Bootstrap (WRAB) que proporciona la diversidad necesaria para los algoritmos base estables. Se lleva a cabo un análisis de hiperparámetros de la propuesta en datos artificiales. Además, se evalúa su rendimiento en conjuntos de datos reales frente a métodos de ML bien conocidos. Los resultados confirman que el marco MOE funciona con éxito utilizando algoritmos base estables e inestables, mejorando en la mayoría de los casos la capacidad predictiva de modelos de ML individuales y otros métodos de ensamblaje.es
dc.language.isoenges
dc.publisherElsevieres
dc.rightsAttribution-NonCommercial-NoDerivs 4.0 International
dc.rights.urihttps://creativecommons.org/licenses/by-nc-nd/4.0/
dc.subjectEnsemblees
dc.subjectGenerative Ensembleses
dc.subjectRe-samplinges
dc.subjectBagginges
dc.subjectRandom Forestes
dc.titleMinimally overfitted learners: A general framework for ensemble learninges
dc.typeinfo:eu-repo/semantics/articlees
dc.identifier.doi10.1016/j.knosys.2022.109669es
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses


Files in this item

This item appears in the following Collection(s)

Show simple item record

Attribution-NonCommercial-NoDerivs 4.0 InternationalExcept where otherwise noted, this item's license is described as Attribution-NonCommercial-NoDerivs 4.0 International