Tesis Doctorales
Examinar
Examinando Tesis Doctorales por Título
Mostrando 1 - 20 de 1553
- Resultados por página
- Opciones de ordenación
Ítem A framework for the User-Centered Design of personalized hybrid wearable robots for gait rehabilitation(Universidad Rey Juan Carlos, 2024) Herrera Valenzuela, Diana SofíaANTECEDENTES Se espera que los dispositivos robóticos portátiles (WRD) para la rehabilitación de la marcha, solos o combinados con estimulación eléctrica muscular, proporcionen mejores resultados clínicos que la terapia de rehabilitación tradicional, sin embargo, la evidencia clínica muestra resultados modestos. Una de las causas de este fenómeno es la diferencia entre las necesidades del usuario y las características del sistema (diseño mecatrónico, configuración, y tipo de asistencia). El estado del arte destaca la limitada evaluación de la satisfacción del usuario con WRD, la necesidad de mejorar la usabilidad de los dispositivos y la falta de instrumentos confiables y válidos para evaluar los dispositivos desde la perspectiva del usuario. En consecuencia, insta a involucrar a personas con lesiones neurológicas en el diseño de WRD para crear dispositivos que respondan a sus necesidades, porque los usuarios aceptan una tecnología solo si es útil para satisfacer sus necesidades. El diseño centrado en el usuario (UCD) es un enfoque que considera a los usuarios de un dispositivo como el centro de un proceso de diseño iterativo. El UCD no sólo considera las etapas de diseño sino también las etapas involucradas a de desarrollo y evaluación de tecnologías. En el caso de los dispositivos robóticos para la rehabilitación de la marcha, estas etapas involucran a diferentes tipos de usuarios y actores, que incluyen personas con afectación de la marcha, sus cuidadores, médicos a cargo de su rehabilitación, desarrolladores de tecnologías, proveedores de atención médica y compañías de seguros. Por lo tanto, la implementación de UCD para estas tecnologías debe considerarles en las etapas en las que cada uno esté involucrado. Para lograrlo se necesita un enfoque interdisciplinario que permita comunicarse con ellos, involucrarles y, en última instancia, proporcionar herramientas útiles para cada uno de estos actores. Algunos esfuerzos se han realizado en años recientes en este sentido, pero han estado centrados principalmente en los requisitos técnicos y el rendimiento de los dispositivos en lugar de considerar todas las dimensiones que son importantes para los usuarios. OBJETIVOS Esta tesis comprende la investigación realizada para proporcionar herramientas a varios de los actores antes mencionados en todas las etapas relacionadas con el desarrollo y uso de WRD para rehabilitación de la marcha. En este sentido, el objetivo de esta tesis es proporcionar un marco integral para la implementación del UCD para robots vestibles híbridos y personalizables para la rehabilitación de la marcha. METODOLOGÍA El marco propuesto comprende las etapas de: diseño del dispositivo (capítulo 3), métricas novedosas para evaluar de manera integral la función de la marcha en lesiones neurológicas que se pueden aplicar tanto durante el entrenamiento de la marcha asistido por robots (RAGT) como para evaluar la mejora de la marcha como consecuencia de la rehabilitación (capítulo 5), propuestas en base a estudios que exploran patrones cinemáticos de la marcha de personas con lesión medular (SCI) (capítulo 4), creación e implementación de protocolos experimentales para personalizar y evaluar los robots híbridos (capítulo 6) y, por último, una herramienta para facilitar y promover la evaluación de usabilidad de estos dispositivos (capítulo 7). La metodología específica seguida para realizar las contribuciones en cada uno de estos campos tiene diferentes aproximaciones y aborda diferentes herramientas. Para el capítulo 3, se realizó un estudio cualitativo usando la metodología de análisis de contenido dirigido para definir los requisitos de los usuarios para el diseño de WRD para la rehabilitación de la marcha. Se recabaron los requisitos publicados en literatura previa con los que se crearon entrevistas semiestructuradas que fueron realizadas a personas con SCI con (6 personas) y sin experiencia (9 personas) en el uso de estas tecnologías y personal clínico a cargo de su rehabilitación (10 personas), con el objetivo de contrastar los requisitos expresados por esa población respecto a los disponibles en la literatura e indagar posibles códigos adicionales no reportados previamente. En el capítulo 4 se emplearon algoritmos de aprendizaje de máquina de agrupamiento y clasificación para indagar patrones de marcha dentro de la población con SCI e identificar los parámetros que permiten discriminar de forma óptima la cinemática de esta población respecto a la de sujetos sin afectación de la marcha. El capítulo 5 presenta el desarrollo de una métrica de marcha clínicamente relevante que resume la cinemática de la población con SCI, que es computada a partir de datos de fotogrametría. Esta métrica, llamada gait deviation index for spinal cord injury (SCI-GDI), se obtiene a partir de la descomposición en valores singulares y la identificación de la cantidad mínima de componentes para formar una base ortonormal que permita reconstruir con fidelidad las curvas cinemáticas de una base de datos extensa de cinemática de personas con SCI. La base metodología matemática para la derivación de la métrica está inspirada en el gait deviation index, un índice que fue desarrollado originalmente con datos de población pediátrica con parálisis cerebral pero que ha sido ampliamente usada para valorar la marcha de diferentes poblaciones con afectaciones neurológicas. Una versión adaptada de esa misma métrica es desarrollada para ampliar su uso a sistemas de captura de movimiento más simples que la fotogrametría. Para ello, se suma el conocimiento clínico de la relevancia de los movimientos articulares contemplados para el cálculo de la métrica en la población específica de SCI, con la exploración matemática de los efectos de reducir las articulaciones requeridas para computar la métrica. Finalmente, para tener una valoración integral de la marcha, que contemple dimensiones relevantes y complementarias como son la cinemática, los parámetros espaciotemporales y las valoraciones funcionales, el último apartado del capítulo presenta la propuesta de una métrica integral para valoración de la marcha en el lesionado medular que comprende información clínicamente relevante y es intuitiva de interpretar. Para los estudios de los capítulos 4 y 5 se recabaron bases de datos retrospectivas de estudios de marcha realizados en el Hospital Nacional de Parapléjicos, en Toledo, España. El capítulo 6 contiene el trabajo experimental de la tesis, en el que se presenta una estrategia de personalización para un exoesqueleto híbrido de rehabilitación de la marcha que se evalúa en un estudio piloto con 10 sujetos con SCI o ictus. La metodología de personalización fue definida para ser implementada rápidamente en el contexto clínico a partir del conocimiento de los profesionales de la salud involucrados en el proceso de rehabilitación de estos pacientes. Los resultados de la asistencia inmediata brindada por la tecnología personalizada se valoran a través de la cinemática y parámetros espaciotemporales de la marcha. El protocolo experimental también aborda la evaluación de usabilidad del sistema a través de escalas estandarizadas, dada la relevancia que tiene la usabilidad para los usuarios de estas tecnologías, como se evidenció en el capítulo 3. Finalmente, en línea con este último aspecto, el capítulo 7 presenta el proceso para definir un conjunto de atributos que abarcan la evaluación de usabilidad en WRD y la validación global de las definiciones construidas, de la relevancia de los atributos en el campo y de su aplicación en los desarrollos realizados por los desarrolladores que participaron en el estudio. Para ello, se realizó una encuesta online en la que participaron 70 desarrolladores de 17 países del mundo....Ítem A Gabor Wavelet Based Multichannel Approach to a Multimodal Face Verification System(2014-07-12) Serrano Sánchez de León, ÁngelGabor filters have received a special attention in the face biometrics community due to their resemblance to the simple cells in the mammalian visual cortex. They can extract information corresponding to the intrinsic spatial frequencies and orientations in a visual scene. Since Lades el al. (1993) and Wiskott el al. (1997), a now "classical" bank of 40 filters (5 frequencies times 8 orientations) has become a standard. Their Elastic Bunch Graph Matching method constitutes an example of the "analytical" paradigm, where Gabor features are extracted only on a reduced set of facial features. On the other hand, Liu and Wechsler (2002) suggested a "holistic" approach, where Gabor channels are computed globally, concatenated in a mosaic style and then reduced to a manageable size ("downsampling trick"). As several authors have decided not to rely on the classical bank, we have performed a statistical study of the influence of the 7 parameters that specify the filters contained in a bank, including the number of frequencies and orientations and the Gaussian width. We present the results of an analysis of variance of the success rate as a function of these parameters for a face recognition experiment with 5 face databases (FERET, FRAV2D, FRAV3D, FRGC, and XM2VTS). In particular, we show that the classical bank is located at the top 8% end of a ranking of 486 banks. However, the best bank was found to make use of 6 spatial frequencies (instead of 5) and a narrower Gaussian envelope. Spurred by Liu and Wechsler's downsampling trick, we have also presented a brand-new holistic multichannel strategy for a face verification system, where each Gabor channel is processed separately, including a non-downsampling-based dimensionality reduction with Principal Component Analysis (PCA) or its 2D bilateral version (B2SPCA), as well as a classification stage. The scores of the different classiffers are then fused to provide a final decision. Our experiments with FRAV2D and XM2VTS databases have shown that our Multichannel Gabor Principal Component Analysis (MCGPCA) outperformed other algorithms from the literature, including a feature-fusion-. Based Downsampled Gabor PCA (DGPCA), a voting-based fusion of one-channel Gabor decisions, and an analytical Feature-bases Gabor PCA (FGPCA). Finally, oru multichannel methods have been tested with two multimodal databases: FRAV3D (2D,2.5D, and curvature images) and FRGC (2D, 2.5D, curvature, and infrared images). Both MCGPCA and MCGB2DPCA outperformed DGPCA and the voting strategy where each modality casts a vote. As far as we know, this has been the first fusion of four facial modalities.Ítem A importância relativa da emoção e da razão no processo de tomada de decisão do consumidor(Universidad Rey Juan Carlos, 2012) Alves Cardoso, AdelinoThe consumer decision-making models evolved essentially from a perspective rationally based to emotions integration in the decision process. The Homo Economicus, that makes objective choices and that finds the necessary information about each alternative, has given up the place to the thinking man that is able to process cognitively the collected environment informations. Finally this thinking man has given up the place to the feeling man that is able to integrate the emotions in the decision process. Nevertheless, the emotions integration in the consumer decision-making process has not been pacific topic for the researchers. The followers of the traditional paradigm defend that the cognition precedes the emotion, being the latter consequence of the former. The defenders of the emotion¿s primacy claim that the first decision of the consumer is emotional, justifying subsequently his decision rationally. Other researchers advocate the existence of two independent decision processes: a rational and an emotional. This thesis argues for the complementarity of emotion and reason in consumer decision process. It is further demonstrated that the rational or emotional preponderance of the consumer purchase decision is related to the interaction between the relative importance of emotion and reason at the level of environmental stimuli (products/services), the degree of involvement (emotional and reasoning intensity) of the products and services and the consumer purchase trend (rational or emotional preponderance). The presented studies have shown that the independent variables: relative importance of emotions and reason in terms of products and services, measured by the ratio E/R and the degree of involvement of the same products and services, measured by the ratio (E+R)/2, have a major effect on the rational or emotional preponderance and intensity of the purchase decision. The independent variable: consumer purchasing trend, although contributing to the strengthening of the rational or emotional component in the purchasing decision, is not sufficient to determine the rational or emotional preponderance of buying decision, in both high and low involvement products. Disponibles en el texto completo de la Tesis resúmenes en español y portugués.Ítem A influência das marcas no comportamento de consumo dos estudantes do ensino superior. Estudo exploratório de neuromarketing(Universidad Rey Juan Carlos, 2014) Ribeiro da Costa, Maria ManuelaAl entrar en este proyecto de investigación, consideramos que es una oportunidad para realizar un estudio que nos permita comprender mejor el comportamiento del consumidor y la influencia de las marcas en el proceso de toma de decisión. En el seguimiento de otros trabajos ya realizados, los colocamos metódicamente en el área de lo que aún se considera emergente " el NeuroMarketing. En esta perspectiva, pretendemos realizar un test de producto con las dos principales cervezas portuguesas y con mayor cuota de mercado: la Super Bock y la Sagres. En este trabajo pretendemos comprender si el fenómeno de la regionalización y de la marca tiene o no influencia en el consumo de cerveza en Portugal. Las dos principales marcas implicadas son la Sagres y la Super Bock. Los estudios de mercados existentes nos dicen que la cerveza Sagres tiene una mayor cuota de mercado en el Centro y Sur del país, mientras, la Super Bock está más fuertemente implantada en el Norte y parte del Centro del país. Presentamos una extensa investigación bibliográfica sobre el comportamiento del consumidor y sus variables, fundamentalmente la percepción, la atención, la memoria, las emociones, el proceso de toma de decisión, la cultura y las marcas. También aprovechamos para efectuar un pequeño viaje por la historia de la cerveza tanto en Portugal como en el mundo. De la misma forma pudimos realizar un "viaje" por los conceptos y análisis críticos, así como por los modelos más importantes que hoy se afirman en esta área, a saber, el Modelo de Zaltman " fMRI, el Modelo de Richard Silberstein - SST y el Modelo de Ferrão Filipe y David Lewis " QEEG. También hicimos un pequeño viaje al mundo de las Neurociencias y de su asociación a diferentes disciplinas como son la Economía y Finanzas, la Política, la Teología, el Derecho, el Cine y la Estética y la Ética. Para que nuestra investigación tenga éxito, preparamos un plan de acción, constituido por dos estudios esenciales. Nuestra muestra estuvo constituida por estudiantes de la enseñanza superior, más concretamente por alumnos de dos Instituciones de Enseñanza Superior: una de Oporto y otra de Lisboa. En el primer estudio (Blind Test) se realizaron test de producto a dos grupos de voluntarios de ambos sexos y apreciadores de cerveza, separados geográficamente. El Grupo de Oporto estaba constituido por 136 voluntarios y el grupo de Lisboa por 122 voluntarios. Los resultados se trabajaron en SPSS, versión 20. Al contrario de lo que expresan los resultados existentes en relación a la implantación geográfica de las marcas Sagres y Super Bock, los voluntarios que colaboraron en este trabajo no lograron distinguir las dos marcas en estudio y muy frecuentemente confundían los dos productos. Los resultados obtenidos en este primero estudio se complementaron con un segundo estudio, en el que también se realizará test de producto y donde se utilizará un software de lectura y análisis de expresiones faciales, CERT - Computer Expression Recognition Toolbox, versión 5.1. para MAC. Para esta segunda fase del plan de investigación, efectuamos una revisión de la literatura existente sobre las expresiones faciales, sus principales autores y trabajos realizados. La muestra extraída también es de los dos grupos de estudiantes de la enseñanza superior tanto de Oporto como de Lisboa, y está constituida por 40 voluntarios de ambos sexos con edades comprendidas entre los 18 y los 30 años de edad. En este segundo estudio se realizó de igual forma un nuevo test de producto que fue objeto de filmación, la cual fue analizada por el CERT. La presentación de las cervezas fue exactamente igual a la ocurrida en la primera fase del estudio, es decir, para el grupo de Oporto, en las dos primeras pruebas se presentó la cerveza Super Bock, en la tercera prueba, la Sagres y finalmente la Carlsberg. En el caso del grupo de Lisboa, en las dos primeras pruebas se presentó la cerveza Sagres, en la tercera prueba, la Super Bock y finalmente la Carlsberg. Los resultados obtenidos en este segundo estudio demuestran que los voluntarios que participaron no logran identificar correctamente las cervezas probadas ni pueden distinguir las diferencias y semejanzas en las cervezas presentadas. De igual forma podemos concluir que a pesar de que nuestros voluntarios afirman que son apreciadores de cerveza y de haber afirmado durante los tests que la cerveza probada era de su agrado, el análisis neuro de las expresiones faciales demuestra claramente lo contrario, siendo el desagrado la expresión dominante. Por lo tanto y a modo de desafío para próximos estudios, nos cuestionamos cuál es el motivo que lleva a que las personas beban cerveza.Ítem A influência das técnicas de marketing de luxo sobre o comportamento de compra do consumidor português de automóveis Porsche. estudo de caso na Porsche no norte de Portugal(Universidad Rey Juan Carlos, 2014) Vaz Ribeiro da Silva, Hugo ManuelEl lujo es una aspiración de la humanidad, siendo parte de sus deseos en prácticamente todas las épocas históricas identificables de nuestra sociedad. La búsqueda de la diferenciación, demostración de raridad y el deseo de pertenecer a un grupo superior son inherentes al ser humano. Desde el punto de vista académico, tal vez pocas categorías de consumo sean tan interesantes como la de los productos de lujo, siendo esos los objetos que mejor ejemplifican la subjetividad y la influencia de la cultura sobre el ser humano (Berry, 1994; Twitchell, 2002), prestándose así a abordajes multidisciplinarios de investigación. Sumergido en conceptos oriundos de la Antropología, Sociología y Psicología, el estudio de los significados sociales y psicológicos del consumo ha merecido la atención de los académicos de Marketing...Ítem A Meta-Framework for Creating Coordinated and Multiple-View Applications(Universidad Rey Juan Carlos, 2023) Cosmin Toader, NicusorThe visualization field has been part of the advancement of science throughout history. In the 1970s, a movement emerged that advocated for graphical representations as one of the necessary pillars of data analysis. Since then, numerous scientific fields and businesses have adopted visualization as a pillar to facilitate understanding information and disseminating results. Currently, part of the research in this field focuses on new approaches aimed at increasing the accessibility of visualization in order to promote its adoption. These works maintain a balance between visualization expressiveness and ease of use in order to address the needs of the broadest audience possible. However, they remain primarily limited to developing single views, a highly limiting factor to their adoption. Complete data analysis requires a mix of different visualizations and data processing algorithms. Furthermore, to reduce the complexity problem inherent to visualizations and to maximize the analysis capabilities, it is necessary to use highly interactive visualizations and multiple views. Some state-of-the-art works define visualization dashboards that implement this multi-view paradigm, allowing their coordination through graphical user interfaces. To further facilitate this perspective, other methods use data flow diagrams tailored for visualization to assemble the functionality that drives these visualization dashboards. These diagrams have the advantage of being a visual programming approach, which makes them very accessible to users without programming skills, further increasing the accessibility of these tools. However, the field of visualization, and science in general, is a rapidly changing field where researchers are constantly proposing new advances. Therefore, the previous tools must be able to adapt to new developments in order to maintain pace with this constant evolution. Despite this, state-of-the-art visualization solutions are usually highly limited to a fixed functionality. This thesis addresses the previous problems by defining a meta-framework for building data analysis applications based on coordinated and multiple views through data flow diagrams, VMetaFlow. Unlike other works that follow this approach, we use diagram connections to model coordination. Therefore, our approach allows us to extend the range of supported interactions between views, effectively supporting a more comprehensive range of multiple views techniques. Furthermore, we define our meta-framework as an abstraction layer over concrete visualizations and data processing algorithms implementations. This way, our work can adapt and benefit from new advances in these fields by integrating the latest developments. Finally, to evaluate our work, we define three use cases and a critical inspection with expert users. The first use case allows us to compare VMetaFlow with the most recent work based on data flow diagrams for building visualization applications. In the second use case, we address an exploratory analysis where combining and coordinating information visualization, scientific visualization, and data processing modules is necessary. In the third use case, we address the study of the behavior of large-scale optimization algorithms using visualization and dimensionality reduction, research that we will publish shortly. Finally, the visualization experts interviewed for the critical inspection confirm the advantages of our meta-framework over other state-of-the-art works.Ítem A multifaceted approach to plant rarity: distribution, dynamics and interactions in a global change scenario(Universidad Rey Juan Carlos, 2024) Miranda Cebrián, HéctorAntecedentes En el actual contexto de Cambio Global y crisis de la biodiversidad, uno de los mayores retos que afrontamos es el de estimar de forma precisa la vulnerabilidad de especies y ecosistemas a los cambios en su ambiente. Esto se hace especialmente patente cuando hablamos de especies vegetales, ya que estas se encuentran seriamente infrarrepresentadas en las diferentes valoraciones sobre el estado de conservaci´on de la biodiversidad a nivel global a pesar de tratarse de uno de los pilares fundamentales del funcionamiento de los ecosistemas. Adem´as, las plantas suelen mostrar respuestas complejas al cambio global que difieren de las de otros grupos de organismos m´as estudiados como puede ser la fauna. Por tanto, es necesario que ahondemos en los patrones de distribuci´on de las especies vegetales, sus din´amicas, vulnerabilidad y amenazas, as´ı como en las posibles consecuencias de su desaparici´on para la diversidad y el funcionamiento de los ecosistemas. Aunque existen multitud de aproximaciones para estimar la vulnerabilidad de las especies a los cambios en su medio, estas suelen ser de dif´ıcil evaluaci´on y aplicaci´on. Sin embargo, hay ciertos aspectos de la ecolog´ıa y la biolog´ıa de las especies que pueden servir como aproximaciones indirectas a dicha vulnerabilidad. Una de ellas es la rareza, ya que las especies raras suelen estar consideradas como m´as vulnerables o propensas a la extinci´on. Objetivos En esta tesis exploramos la idea de rareza aplicada a diversas especies vegetales en diferentes escalas ecol´ogicas, desde h´abitats completos hasta poblaciones individuales, con el objetivo de entender mejor la relaci´on existente entre rareza y vulnerabilidad. M´as espec´ıficamente, estudiamos los patrones de distribuci´on de las especies raras en el Pirineo y su contribuci´on a la diversidad taxon´omica y filogen´etica de los diferentes h´abitats de la cordillera, as´ı como los patrones filogen´eticos de la rareza en la flora pirenaica. Adem´as, analizamos las din´amicas poblacionales de la flora de Arag´on y la diversidad de interacciones y visitantes en seis plantas raras del Pirineo. M´etodos En el cap´ıtulo 1 caracterizamos los diferentes tipos de rareza en la flora del Pirineo y su distribuci´on en los diferentes h´abitats de la cordillera empleando m´as de 18,000 inventarios flor´ısticos provenientes del Sistema de Informaci´on de la Vegetaci´on Ib´erica y Macaron´esica. A su vez, se analiz´o la contribuci´on de las especies raras a la diversidad taxon´omica y filogen´etica de dichos h´abitats, empleando para esto ´ultimo una filogenia a nivel de g´enero de toda la flora de la regi´on. En el cap´ıtulo 2 se utilizaron esa misma base de datos y filogenia para estimar la se˜nal filogen´etica de los diferentes tipos de rareza de la flora pirenaica a diferentes escalas filogen´eticas, analizando patrones tanto a nivel de toda la filogenia como dentro de clados concretos. Adem´as, exploramos la relaci´on entre la rareza de cada especie y su estado de conservaci´on, as´ı como la potencial p´erdida de diversidad filogen´etica asociada a la desaparici´on a nivel regional de los diferentes grupos de especies raras. En el tercer cap´ıtulo se analizaron las tendencias poblacionales de m´as de 157 poblaciones de plantas en todo Arag´on monitorizadas gracias al programa de ciencia ciudadana “Adopta una Planta”. Para ello desarrollamos un modelo Bayesiano que permite incluir el error de observaci´on durante el muestreo para mejorar nuestras estimaciones de tendencias de estas poblaciones. Finalmente, en el cap´ıtulo 4 caracterizamos las comunidades de insectos y bacterias que visitan seis especies de plantas raras en el Pirineo, haciendo especial hincapi´e en la diferencias entre parches de una misma especie de planta localizados en poblaciones de diferente tama˜no...Ítem A neuroimaging study on how experience shapes the investor’s brain(Universidad Rey Juan Carlos, 2021) Ortiz Terán, ElenaEconomics have failed to create theories of choice that allow us to accurately predict human behavior under all circumstances. To answer the question on how investors decide, we need to go beyond abstract models based on what is rational given that our rationality is computationally bounded. For this reason, studies in Neuroeconomics have begun to gain knowledge into what are the underlying neurobiological processes of decision-making that guide a person to make some economic decisions and not others. In most cases, these researches have been based on regions of interest, ruling out all the information that whole-brain analyses can bring. This thesis tries to approach the understanding of investment decision-making from a slightly different perspective. As our brain is plastic and it can change according to our experiences, we are going to analyze the investor’s brain to find differences in their decision-making process and if there are any, determine which brain areas are responsible for their investment behaviors.Ítem A new holistic and integrated tool for the eco-design of industrial processes(Universidad Rey Juan Carlos, 2023) García Casas, MiguelThe motivation for this research stems from the increasing concern within companies, governments, and consumers regarding sustainable production and consumption. In this behalf, the concept of life cycle thinking (LCT) has become central to promoting sustainability and integrating it into all aspects of product development and consumption. Furthermore, several policies have emerged to promote sustainability. The EU has been a leader in applying LCT to policy development, and its policies have served as examples for other regions. The industry sector is crucial to achieving sustainability, as it accounts for a significant proportion of greenhouse gas emissions, biodiversity loss, and water stress. The challenge lies in incorporating and standardizing the concept of sustainability across different sectors, especially in the industrial sector, which plays a critical role in promoting progress and prosperity. Therefore, this thesis aims to develop a unique methodology, integrated in a tool, that combines process simulation, life cycle analysis (LCA), and life cycle costing (LCC) methodologies for their holistic application in the economic and environmental optimization of any industrial process under research and/or development...Ítem A new methodology for the automated generation of reproducible metaheuristic configurations: a practical application to combinatorial optimization problems(Universidad Rey Juan Carlos, 2023) Martín Santamaría, RaúlEvery day, we are bombarded with decisions: how to travel to a specific destination; which foods will make our meal; how to best organize our closets. Optimization problems are everywhere: engineering, logistics, biology, economy ... and of course, in our day-to-day lives. All optimization problems have something in common: we want to reach a certain set of objectives, according to a set of restrictions. Optimization problems can be commonly solved using two distinct techniques: exact methods, and approximate methods. Exact methods are able to find the best existing solutions, but when applied to most real-life optimization problems, they scale poorly, and require enormous computing resources and large execution time with modest problem sizes. On the other hand, approximate methods, such as heuristic and metaheuristic algorithms, can find good quality solutions using few resources, but they cannot know if there are better solutions to the solutions they find, or if on the contrary any generated solution is optimal. While metaheuristic algorithms have become one of the most popular methods for solving optimization problems, some issues have been highlighted in the literature. Specifically, two of the most common issues are lack of both reproducibility and reusability of the approaches; and adhoc decisions, based on the researcher’s experience, that may be difficult to justify from a purely scientific point of view. To this end, in this doctoral thesis a new methodology for the automated generation of reproducible metaheuristic configurations is presented. The proposal will not only be theoretical, a reference implementation, called Mork (Metaheuristic Optimization framewoRK) will be provided and tested. The benefits of the methodology and its corresponding implementation will be demonstrated against three completely different optimization problems, belonging to unrelated problem families: a facility layout problem, a vehicle routing problem and a clustering problem.Ítem A reputação da escola, segundo a perspetiva dos pais, e a sua relação com a satisfação e lealdade dos mesmos.(Universidad Rey Juan Carlos, 2015) Matos Loureiro, José ManuelEste estudio visa investigar la dirección y la fuerza de la relación que existe entre la reputación de la escuela, según la perspectiva de los padres, y la satisfacción y la lealtad de los mismos. En este contexto, se pretende saber si el modelo utilizado de medida de la reputación de la escuela se aplica a la realidad de la Enseñanza Básica en Portugal, cuál es el impacto de la satisfacción de los padres en la reputación de la escuela, cuál es el impacto de la reputación de la escuela en la intención de lealtad de los padres y hasta qué punto la reputación tiene en todo este proceso un efecto mediador. Se realizaron entrevistas a los directores de tres colegios privados y una investigación con 325 padres de las mismas instituciones. Se utilizaron modelos de ecuaciones estructurales para validar la medida de la reputación y testar las relaciones propuestas. Finalmente, también se comprobaron los vínculos entre la reputación de la escuela, la satisfacción de los padres y la lealtad de los mismos. A través de las entrevistas, se concluyó que el modelo para medir la reputación de la escuela, según la opinión de los padres, se aplicaba a la enseñanza en Portugal. Del análisis a los encuestados se verificó que la reputación de la escuela se mide a través de las siguientes cuatro dimensiones: "Asesoramiento a los padres", "Calidad del Aprendizaje", "Buen Ambiente" y "Buenos Profesores". También se concluyó que la Satisfacción de los Padres afectó significativamente todas las dimensiones de la reputación. Finalmente, se concluyó que las dimensiones "Asesoramiento a los padres" y "Calidad del Aprendizaje" afectaron la lealtad de los padres, siendo que el "Asesoramiento a los padres" es negativa y la "Calidad" del Aprendizaje tiene un impacto positivo y fuerte.Ítem A Social Network Approach to Jihadist Mobilization: Analyzing Radicalization and Recruitment among Underage Youth in Spain(Universidad Rey Juan Carlos, 2023) Vicente, ÁlvaroResearch in the field of terrorism studies has consistently shown that most militants of terrorist organizations were previously connected to people active in the extremist movement before their recruitment. While this finding evinces a strong correlation between social networks and terrorism, specific analytical gaps still prevent us from understanding how the relationship works. This thesis aims to address this research gap by exploring the role of social ties in the cycle of jihadist mobilization of underage youth that unfolded in Spain during the years of the Syrian civil war and the emergence and fall of IS (2012-2019). It pursues two goals: first, to develop a comprehensive conceptualization of the role of interpersonal connections in the process of jihadist radicalization and recruitment; and second, to explain variations in the impact of social ties on youth participation in jihadist activities (i.e., participation may not take place even when some ties support it; participation may take place even when some ties reject it). Building on theoretical and empirical approaches from social movement studies, political psychology studies, and terrorism studies, this dissertation develops an analysis based on original, extensive data on youth mobilized by the jihadist movement in Spain, as well as on agents of radicalization and recruitment who attempted to mobilize minors for global jihad. The dissertation offers three key insights: [1] social connections are integral to the various phases of the jihadist mobilization of youth, as they trigger multiple mechanisms that promote ideological and attitudinal alignment with global jihad, shape motivations to engage in jihadist activities, and facilitate recruitment by terrorist organizations; [2] differences in the characteristics of social networks can account for why only a fraction of those who support global jihad ultimately participate in it, insofar as participants possess stronger and more numerous connections to jihadist militants than non-participants; [3] countervailing ties that oppose participation in jihadist activities may unintendedly contribute to mobilization by unleashing a reactive reaffirmation of ideological alignments and collective identities, as well as a reinforcement of ties with like-minded individuals. These findings lead to two key conclusions: first, social ties are decisive in increasing a young person's chances of participating in jihadist action, although they do not guarantee it as an ultimate consequence of the mobilization process; and second, the overall mobilization process among young jihadist sympathizers is the result of the interplay between social ties with conflicting orientations (facilitating and opposing).Ítem A statistical examination of the evolution and properties of libre software(2012-10-15) Herraiz Tabernero, IsraelHow and why does software evolve? This question has been under study since almost 40 years ago, and it is still a subject of controversy. After many years of empirical research, Meir M. Lehman formulated the laws of software evolution, which were a first attempt to characterize the dynamics of the evolution of software systems. With the raising of the libre (free / open source) software development phenomenon, some cases that do not fulfill those laws have appeared. Are Lehman's laws valid in the case of libre software development? Is it possible to desing an universal theory for software evolution? And if it is, how? This thesis is a large-scale empirical study that uses a statistical approach to analyze the properties and evolution of libre software. The studied properties are size and complexity. For that study, we have used a set of thousands of software systems, extracted using the packages system of FreeBSD. The evolution study was done using another set of thousands of software projects hosted in SourceForge.net. With the first set, we measured different size and complexity metrics of the source code of the packages in FreeBSD, and calculated the correlations among the different metrics. We also estimated the distribution function of those properties. Regarding the second set, we obtained the daily series of number of changes. We applied Time Series Analysis to estimate the kind of process that drives software evolution. We used ARIMA (Auto Regressive Integrated Moving Average) models to forecast evolution. The results show that a small subset of basic size metrics are enough to characterize a software system. Furthermore, the shape of the distribution of those metrics suggests that the Random Forest File Model could be used to simulate the evolution of a software product. Using Time Series Analysis (TSA), we have found that software evolution is a short memory process. That implies that statistical models of evolution based on TSA are a better option than regression models for forecasting purposes. Finally, the shape of the distribution of size is the same, regardless of the level of aggregation used to measure it (file, module, software project, etc). That is an evidence of self-similarity in software, and could be an explanation of the fast growth patterns observed in some libre software projects. Another remarkable contribution of this thesis is that it shows how to perform an empirical study at a large scale, using publicly available data sources. Thanks to this, all the results are repeatable and verifiable by third parties. Therefore, the conclusions of this thesis can be the beginning of a theory of software evolution that is based on empirical findings verified in thousands of software systems.Ítem A Stochastic Switched Optimal Control Approach to Formation Mission Design for Commercial Aircraft(Universidad Rey Juan Carlos, 2022) Cerezo Magaña, MaríaCurrently, the main challenge for global aviation is to ensure that the predicted growth in air traffic for the coming decades remains sustainable from an environmental point of view, and that the air traffic management system meets the expected demand for increased capacity. Formation flight offers great promise in terms of improving both the environmental impact of aviation and the capacity of the air traffic management system. This thesis addresses the formation mission design problem for commercial aircraft in the presence of uncertainties. Specifically, it considers uncertainties in the departure times of the aircraft and in the fuel burn savings for the trailing aircraft. Given several commercial flights, the problem consists in arranging them in formation or solo flights and finding the trajectories that minimize the expected value of the direct operating cost of the flights. Since each aircraft can fly solo or in different positions inside a formation, the mission is modeled as a stochastic switched dynamical system, in which flight modes of the aircraft are described by sets of stochastic ordinary differential equations, the discrete states of the system describe the combination of flight modes of the individual aircraft, and the switching logic among the discrete states is defined by logical constraints. The formation mission design problem is formulated as an optimal control problem of a stochastic switched dynamical system and solved using nonintrusive generalized polynomial chaos based stochastic collocation. The stochastic collocation method converts the stochastic switched optimal control problem into an augmented deterministic switched optimal control problem. With this approach, a small number of sample points of the random parameters are used to jointly solve particular instances of the switched optimal control problem. The obtained solutions are then expressed as orthogonal polynomial expansions in terms of the random parameters using these sample points. Depending on the distributions of the random parameters, different types of orthogonal polynomials can be chosen to achieve better precision. This technique allows statistical and global sensitivity analysis of the stochastic solutions to be conducted at a low computational cost. The augmented deterministic switched optimal control problem has been then solved using an embedding approach, which allows switching decision among discrete states to be modeled without relying on binary variables. The resulting problem is a classical optimal control problem which has been solved using a knotting pseudospectral method. The aim of this study is to establish if, in the presence of uncertainties, a formation mission is beneficial with respect to solo flight in terms of the expected value of the direct operating costs. Several numerical experiments have been conducted in which uncertainties regarding the departure times and on the fuel saving during formation flight have been considered. The obtained results demonstrate that benefits can be achieved even in the presence of these uncertainties and that formation flight has great potential to reduce fuel consumption and emissions in commercial aviation.Ítem A triple perspective on complexity measures for supervised classification problems(Universidad Rey Juan Carlos, 2023) Lancho Martín, María del CarmenAntecedentes. En cualquier proyecto de Ciencia de Datos y, de hecho, en cualquier tipo de estudio que incluya datos, la exploración de los mismos resulta un paso esencial para entender tanto los datos en sí, como la información que contienen y el problema al que nos enfrentamos. Sin embargo, en esta exploración inicial normalmente se omite el estudio de la complejidad de los datos, es decir, el estudio de aquellas características, como el solapamiento o la falta de densidad, que afectan negativamente al rendimiento de los modelos de Machine Learning (ML). El objetivo de las medidas de complejidad es caracterizar estos factores que reflejan la problemática subyacente de los datos. En el caso de los problemas de clasificación supervisada, objeto de estudio de la presente tesis, existen distintos aspectos como la distribución de las clases, la forma de la frontera de decisión o la cantidad de ruido que impactan negativamente en el proceso de aprendizaje de los modelos. Las medidas de complejidad pretenden capturar y cuantificar dichos factores. La información que aportan las medidas de complejidad no sólo sirve para entender la dificultad de un conjunto de datos y el origen de dicha dificultad, si no que dicha información se ha utilizado con éxito para diversas tareas como: selección de instancias, selección de variables, estudio del rango de competencia de un clasificador, recomendación de clasificadores, meta-learning, etc. Las medidas de complejidad fueron inicialmente concebidas a nivel del conjunto de datos, es decir, para ofrecer un valor global de complejidad para todo el conjunto de datos. Más tarde, también se consideró el nivel instancia. Este nivel ofrece información sobre qué instancias son más difíciles de clasificar, contribuyendo por tanto más a la complejidad global, y sobre por qué son más difíciles de clasificar. Aunque menos estudiado, el nivel clase también ha sido contemplado. En particular, adaptando algunas de las medidas de complejidad originales (definidas a nivel del conjunto de datos) para abordar problemas específicos (e.g., los datos desbalanceados). No obstante, a pesar de que los tres niveles de definición han sido abordados en el estado del arte, ninguna medida de complejidad se ha diseñado específicamente para cubrir los tres y, además, ningún estudio ha analizado conjuntamente los tres niveles. Objetivos. Dado los antecedentes de las medidas de complejidad, el principal propósito de la tesis es ofrecer una perspectiva multi-nivel en el estudio de las mismas definiendo la primera medida específicamente diseñada para cubrir los tres niveles: instancia, clase y conjunto de datos. Este propósito se llevará a cabo a través de los siguientes objetivos: • Remarcar la importancia de la fase exploratoria de los datos para la correcta comprensión de los mismos y los beneficios de incluir la complejidad en ella. • Revisar el estado del arte de las medidas de complejidad desde la perspectiva multinivel. • Establecer una definición formal de la dificultad de clasificación contemplando los tres niveles que sirva como referencia teórica para las medidas de complejidad. A partir de dicha definición, proponer la primera medida de complejidad que cubra los tres niveles de definición. • Evaluar y validar la medida propuesta mediante experimentos realizados en los tres niveles. En todo momento se buscará que la medida sea fácil de comprender y de usar y que los resultados sean transparentes e interpretables. • Utilizar la medida de complejidad propuesta para dos objetivos particulares como ejemplos del potencial de la perspectiva multi-nivel de las medidas de complejidad: – Para aliviar el problema de los datos desbalanceados preprocesando el conjunto de entrenamiento con el objetivo de equilibrar la complejidad de las clases en lugar de su tamaño muestral. – En métodos de ensamblados para guiar, buscando la diversidad en complejidad, la selección de instancias que se usan para entrenar los distintos modelos que componen el ensamblado final...Ítem Aaron Sorkin y la dramatización del idealismo y el liderazgo político en la serie de televisión El ala oeste de la Casa Blanca(Universidad Rey Juan Carlos, 2017) Lorenzo López, José GabrielÍtem Abordaje de los daños derivados de la asistencia sanitaria desde la perspectiva de pacientes y segundas víctimas(Universidad Rey Juan Carlos, 2019) Díaz Pérez, CristinaIntroducción: Los errores derivados de la asistencia sanitaria son experiencias traumáticas y dolorosas para pacientes, quienes son sin duda las primeras víctimas, pero también para los profesionales implicados, considerados segundas víctimas por la afectación emocional posterior que pueden llegar a sufrir, e incluso para la propia institución sanitaria, que también puede ver afectada su reputación. Pacientes y profesionales reclaman el desarrollo de protocolos de intervención frente a los Eventos Adversos, implementados a nivel institucional para abordar las consecuencias físicas, emocionales y laborales sobrevenidas posteriormente. Objetivos: 1. Analizar las preferencias, opiniones y expectativas de los profesionales de Enfermería de Madrid sobre cómo abordar los errores derivados de la asistencia sanitaria. 2. Explorar las experiencias, opiniones y expectativas de pacientes y usuarios de los servicios sanitarios sobre los errores derivados de la asistencia sanitaria. Material y método: Se realizaron dos estudios: 1. Estudio exploratorio de carácter descriptivo y de sondeo entre 248 enfermeros colegiados en la Comunidad de Madrid. 2. Estudio cualitativo fenomenológico con socios de Asociaciones de Pacientes y de Consumidores y Usuarios de la Comunidad de Madrid, mediante entrevistas en profundidad y un grupo focal. Resultados: El 94,4% de los encuestados reconocen el derecho de los pacientes a ser informados de un error, aunque más de la mitad solo revelarían los incidentes de seguridad que provoquen daño o lesión. El 86,3% de los sujetos prefieren revelar verbalmente el error al paciente, siendo acompañados por el médico. Desde la perspectiva de los enfermeros, un protocolo de intervención para las segundas víctimas debería incluir asesoramiento legal, psicológico y sobre las garantías de la revelación y registro del Evento Adverso en la historia clínica. Los pacientes perciben un cambio de actitud de los profesionales tras interponer una reclamación. Pierden la confianza en los profesionales que ocultan el error y son corporativistas. También perciben que existen tanto estigmas y prejuicios hacia determinados pacientes, como malas prácticas y opiniones contradictorias entre profesionales. Cuando no reciben información correctamente o se les ocultan datos, se sienten molestos y buscan información en otras fuentes. Valoran positivamente la disculpa del profesional tras un error, pero confieren mayor importancia a conocer la verdad de manera precoz y sin excusas, ante cualquier incidente de seguridad. Consideran necesario un protocolo de respuesta institucional ante los Eventos Adversos. Conclusiones: Los pacientes y usuarios recibirían con una actitud más comprensiva un fallo ocurrido, si se reconoce el error inmediatamente y se facilita información precoz. Los profesionales son proclives a revelar los Eventos Adversos pero no los incidentes que no causen daño. Un protocolo de respuesta institucional ante los Eventos Adversos es un respaldo para profesionales y pacientes porque facilita el proceso de revelación y el abordaje de las consecuencias del error para todas las víctimas.Ítem El absentismo laboral en España. Del ordenamiento jurídico a la realidad empresarial(Universidad Rey Juan Carlos, 2013) Sánchez Gallo, DanielEn consecuencia con los tiempos que estamos viviendo de crisis con difícil control en la que todas las fuerzas se orientan a reducir costes, el absentismo laboral se ha situado como uno de los temas cruciales a la hora de examinar la competitividad de las empresas españolas. Las consecuencias no sólo son de orden económico, sino que repercuten directamente en el ambiente laboral, deterioran la imagen de la empresa y afecta al compromiso de los empleados con la organización. Las plantillas tan ajustadas hacen que el sistema productivo sea más vulnerable a las ausencias de los trabajadores, lo que pone en cuestión el funcionamiento de las unidades de producción ante la imposibilidad de sustituciones adecuadas en tiempo y calidad. Gobierno, sindicatos, empresarios, mutuas y otros organismos tratan de abordar el tema para conseguir reducir costes y recursos para conseguir mayor productividad y competitividad. Con las limitaciones que el Derecho establece a base de regulaciones de los agentes que intervienen se va a exponer todo un proceso de análisis, valoraciones y recomendaciones en una selección de empresas reales con datos reales, de un tamaño representativo y de diferentes sectores productivos. En virtud de dicho estudio a nivel individual, se tratará de establecer unas causas que pudieran ser comunes para abordar unas líneas de actuación incluso a nivel de modificación de las disposiciones reglamentarias. La fuente principal de información de cada empresa serán los datos que oficialmente aportan cuando se inicia un proceso de contingencia, bien sea profesional como común. Con esos datos se va a dar forma a un soporte informático que va a reagrupar esa información y la va a tratar para ofrecer un aspecto visual más clarificador. Consistirá en aglomerar conjuntos de datos en grupos que coincidan con factores que nos indiquen aspectos diferenciadores o que pudieran llegara serlo. Ese conjunto de datos conformarán un informe de la situación del absentismo y la siniestralidad (pudiendo incluir ratios e indicadores parametrizados en función de las necesidades de la empresa). Las empresas disponen de mucha información procedente de diferentes departamentos, por lo que en la mayoría de las ocasiones está dispersa, es compleja de investigar la fuente de cada una de ellas y puede parecer en ocasiones contradictoria. De ahí la necesidad de definir unos datos de partida a partir de los cuales se construirán los informes.Ítem Accelerated Computational Methods in Image Processing using GPU Computing: Variational Saliency Detection and MRI-CT Synthesis(Universidad Rey Juan Carlos, 2021) Alcaín Ballesteros, EduardoThe parallel computing paradigm has made a significant impact on many scientific areas whose algorithms have experienced a substantial improvement. In Computer Vision, there has been an explosion of real-time applications ranging from medical science to telecommunications, defense, aerospace, etc. However, designing and implementing algorithms that make use of this paradigm introduce some challenges. The main goal of this Thesis is to provide efficient algorithms for two relevant computer vision problems capable of real-time resolution based on multicore on CPU and manycore on GPU. The first problem is Saliency detection and the second one is Computed Tomography synthesis. Nowadays, there is a large amount of visual content (videos and images). As humans, our visual attention can discriminate the relevant information of each scene in a fast way that allows our limited resources to interact with the environment naturally. Computer Vision has recently started proposing algorithms to mimic the human visual attention system. In particular, saliency detection belongs to a binary segmentation problem. These algorithms extract the relevant part of the scene automatically. Saliency detection models are of much interest to the research community. These saliency models aim to understand how visual attention works in humans and to be able to discriminate important information automatically and process it adequately. The first contribution of this Thesis is the development of a variational model for the resolution of the saliency detection problem in natural images. Variational methods have a long history in Mathematics and Engineering. Its application to low-level image processing such as optical flow, denoising, inpainting, deblurring, etc. has provided state-of-the-art results for unsupervised methods in the computer vision community. One common drawback of these methods, based on local differential operators, is their inability to handle textures. Non-local variational methods, based on non-local differential operators, have been introduced successfully in image processing to overcome this problem. They model not only proximity but also similarity features. Few algorithms solve the saliency detection problem using the variational setting in the literature. In a non-local framework, given by a 5-dimensional feature space, we propose a new general model based on the non-local Total Variation (NLTV) operator. Different scenarios are explored in the modelling exercise introducing a new explicit term for saliency detection. The resulting models are validated and the related optimization problems are solved on CPU and GPU platforms for comparison. A primal-dual algorithm dictated by the mathematical formulation of the problem is implemented. A comparison with previous variational approaches is presented. The Quantitative results, under typical metrics used in saliency in complex public datasets, indicate that our method obtains almost the best score in all metrics. Furthermore, the implementation of the algorithm either on CPU or GPU achieves up to 33 fps and 62 fps respectively for 300 400 image resolution, making the method eligible for real-time applications such as surveillance video, temporal video classification, background subtraction, object detection, and general unmanned aerial vehicle (UAV) scene image recognition. On the other hand, computer vision and image processing techniques have had a tremendous impact on Medical Imaging during the last few decades. For example, these applications have made it possible to diagnose diseases at an early stage. The research community has focused on multimodal imaging using two or more acquisition techniques to facilitate the diagnostic. It has several advantages because every modality aids the diagnosis process by providing specific information about the anatomy of the body. The combination of data from different modalities can be used for accurate construction of patient-specific tissue models for dosimetry applications in electromagnetics or the use of tissue information for attenuation correction in Positron Emission Tomography and Magnetic Resonance Imaging (PET/MR) among other applications. Methods that allow generating a new modality image from a given data set through image processing are interesting because they reduce acquisition time and sometimes some harmful modality. The second contribution of this Thesis is a novel patch-based approach to generate Computed Tomography volumes (CT) from Magnetic Resonance (MR) data. The proposed method can be useful for several applications such as electromagnetic simulations, cranial morphometry, and attenuation correction in PET/MR. The proposed algorithm implemented using GPU computing techniques improves 15.9 against a multicore CPU solution and up to about 75 against a single core CPU solution. The proposed solution produces high-quality pseudo-CT images when a neighbourhood of 9 9 9 and 10 atlases are used because the patientspecific CT and pseudo-CT images are similar according to the metric normalized cross-correlation (NCC = 0.93). Furthermore, the algorithm has been revisited with new hardware (NVIDIA DGX Station with NVIDIA V100 GPUs) in the last part of this Thesis. The new results have achieved almost 6 speedup in comparison with the best previous configuration. These results have confirmed the scalability of the method in new architectures.Ítem Accelerated Proximity Queries for Collision Detection and Brittle Fracture(Universidad Rey Juan Carlos, 2013) Schvartzman, Sara C.Interactive applications that aim for user immersion, such as computer games and training programs, require a high degree of realism of the virtual world. This goal is usually achieved by modeling the objects of the scene in great detail and generating physically realistic animations. However, the combination of both aspects makes it hard to maintain interactive rates. Previous work tackled these problems by either performing costly computations to obtain physically correct solutions, or by sacrificing accuracy to perform faster animations. In this dissertation we present techniques that use accelerated proximity queries to generate fractures, detect collisions between fragments, and detect self-collisions, in a physically plausible way, while achieving fast simulations, even when dealing with complex models. Detecting collisions and generating fracture surfaces are both geometric problems that deal with surface meshes. To generate a fracture, we calculate the crack surfaces by creating a Centroidal Voronoi Diagram of the body solving proximity queries between interior points of the object. Also, a novel algorithm to update collision detection structures after fracture is presented. These structures are used to efficiently compute contacts between newly created crack surfaces. We also introduce a Self-Collision Test Tree which precomputes the tests needed to perform a self-collision query on a bounding volume hierarchy. To test for self-collision of a node, we follow shape regularity methods which test for orientation and self-intersection of the projected contour of a patch. We present a novel algorithm to update normal cones with sublinear cost for the orientation test, and a novel method to test for self-intersection of the projected contour called the star-contour test, which is independent of the resolution of the mesh.