Tesis Doctorales
Examinar
Examinando Tesis Doctorales por Materia "1203.17 Informática"
Mostrando 1 - 20 de 33
- Resultados por página
- Opciones de ordenación
Ítem A Gabor Wavelet Based Multichannel Approach to a Multimodal Face Verification System(2014-07-12) Serrano Sánchez de León, ÁngelGabor filters have received a special attention in the face biometrics community due to their resemblance to the simple cells in the mammalian visual cortex. They can extract information corresponding to the intrinsic spatial frequencies and orientations in a visual scene. Since Lades el al. (1993) and Wiskott el al. (1997), a now "classical" bank of 40 filters (5 frequencies times 8 orientations) has become a standard. Their Elastic Bunch Graph Matching method constitutes an example of the "analytical" paradigm, where Gabor features are extracted only on a reduced set of facial features. On the other hand, Liu and Wechsler (2002) suggested a "holistic" approach, where Gabor channels are computed globally, concatenated in a mosaic style and then reduced to a manageable size ("downsampling trick"). As several authors have decided not to rely on the classical bank, we have performed a statistical study of the influence of the 7 parameters that specify the filters contained in a bank, including the number of frequencies and orientations and the Gaussian width. We present the results of an analysis of variance of the success rate as a function of these parameters for a face recognition experiment with 5 face databases (FERET, FRAV2D, FRAV3D, FRGC, and XM2VTS). In particular, we show that the classical bank is located at the top 8% end of a ranking of 486 banks. However, the best bank was found to make use of 6 spatial frequencies (instead of 5) and a narrower Gaussian envelope. Spurred by Liu and Wechsler's downsampling trick, we have also presented a brand-new holistic multichannel strategy for a face verification system, where each Gabor channel is processed separately, including a non-downsampling-based dimensionality reduction with Principal Component Analysis (PCA) or its 2D bilateral version (B2SPCA), as well as a classification stage. The scores of the different classiffers are then fused to provide a final decision. Our experiments with FRAV2D and XM2VTS databases have shown that our Multichannel Gabor Principal Component Analysis (MCGPCA) outperformed other algorithms from the literature, including a feature-fusion-. Based Downsampled Gabor PCA (DGPCA), a voting-based fusion of one-channel Gabor decisions, and an analytical Feature-bases Gabor PCA (FGPCA). Finally, oru multichannel methods have been tested with two multimodal databases: FRAV3D (2D,2.5D, and curvature images) and FRGC (2D, 2.5D, curvature, and infrared images). Both MCGPCA and MCGB2DPCA outperformed DGPCA and the voting strategy where each modality casts a vote. As far as we know, this has been the first fusion of four facial modalities.Ítem Accelerated Computational Methods in Image Processing using GPU Computing: Variational Saliency Detection and MRI-CT Synthesis(Universidad Rey Juan Carlos, 2021) Alcaín Ballesteros, EduardoThe parallel computing paradigm has made a significant impact on many scientific areas whose algorithms have experienced a substantial improvement. In Computer Vision, there has been an explosion of real-time applications ranging from medical science to telecommunications, defense, aerospace, etc. However, designing and implementing algorithms that make use of this paradigm introduce some challenges. The main goal of this Thesis is to provide efficient algorithms for two relevant computer vision problems capable of real-time resolution based on multicore on CPU and manycore on GPU. The first problem is Saliency detection and the second one is Computed Tomography synthesis. Nowadays, there is a large amount of visual content (videos and images). As humans, our visual attention can discriminate the relevant information of each scene in a fast way that allows our limited resources to interact with the environment naturally. Computer Vision has recently started proposing algorithms to mimic the human visual attention system. In particular, saliency detection belongs to a binary segmentation problem. These algorithms extract the relevant part of the scene automatically. Saliency detection models are of much interest to the research community. These saliency models aim to understand how visual attention works in humans and to be able to discriminate important information automatically and process it adequately. The first contribution of this Thesis is the development of a variational model for the resolution of the saliency detection problem in natural images. Variational methods have a long history in Mathematics and Engineering. Its application to low-level image processing such as optical flow, denoising, inpainting, deblurring, etc. has provided state-of-the-art results for unsupervised methods in the computer vision community. One common drawback of these methods, based on local differential operators, is their inability to handle textures. Non-local variational methods, based on non-local differential operators, have been introduced successfully in image processing to overcome this problem. They model not only proximity but also similarity features. Few algorithms solve the saliency detection problem using the variational setting in the literature. In a non-local framework, given by a 5-dimensional feature space, we propose a new general model based on the non-local Total Variation (NLTV) operator. Different scenarios are explored in the modelling exercise introducing a new explicit term for saliency detection. The resulting models are validated and the related optimization problems are solved on CPU and GPU platforms for comparison. A primal-dual algorithm dictated by the mathematical formulation of the problem is implemented. A comparison with previous variational approaches is presented. The Quantitative results, under typical metrics used in saliency in complex public datasets, indicate that our method obtains almost the best score in all metrics. Furthermore, the implementation of the algorithm either on CPU or GPU achieves up to 33 fps and 62 fps respectively for 300 400 image resolution, making the method eligible for real-time applications such as surveillance video, temporal video classification, background subtraction, object detection, and general unmanned aerial vehicle (UAV) scene image recognition. On the other hand, computer vision and image processing techniques have had a tremendous impact on Medical Imaging during the last few decades. For example, these applications have made it possible to diagnose diseases at an early stage. The research community has focused on multimodal imaging using two or more acquisition techniques to facilitate the diagnostic. It has several advantages because every modality aids the diagnosis process by providing specific information about the anatomy of the body. The combination of data from different modalities can be used for accurate construction of patient-specific tissue models for dosimetry applications in electromagnetics or the use of tissue information for attenuation correction in Positron Emission Tomography and Magnetic Resonance Imaging (PET/MR) among other applications. Methods that allow generating a new modality image from a given data set through image processing are interesting because they reduce acquisition time and sometimes some harmful modality. The second contribution of this Thesis is a novel patch-based approach to generate Computed Tomography volumes (CT) from Magnetic Resonance (MR) data. The proposed method can be useful for several applications such as electromagnetic simulations, cranial morphometry, and attenuation correction in PET/MR. The proposed algorithm implemented using GPU computing techniques improves 15.9 against a multicore CPU solution and up to about 75 against a single core CPU solution. The proposed solution produces high-quality pseudo-CT images when a neighbourhood of 9 9 9 and 10 atlases are used because the patientspecific CT and pseudo-CT images are similar according to the metric normalized cross-correlation (NCC = 0.93). Furthermore, the algorithm has been revisited with new hardware (NVIDIA DGX Station with NVIDIA V100 GPUs) in the last part of this Thesis. The new results have achieved almost 6 speedup in comparison with the best previous configuration. These results have confirmed the scalability of the method in new architectures.Ítem An ADM-Based Method for Migrating CMS-Based Web Applications(Universidad Rey Juan Carlos, 2014-07) Trias Nicolau, FeliuIn the last decade, the volume of digital content managed by Web applications has grown dramatically as well as the processes supported by these Web applications have become more complex. Thus, organizations have experienced the necessity of relying on powerful platforms to maintain their large-scale Web applications and to manage all their content in a robust and reliable manner. One of the most adopted solutions has been to base Web applications on Content Management Systems (CMS). CMS-based Web applications provide organizations with some additional features such as, dynamic creation of content, separation between content and design, definition of different levels of access authority and flexible extension of their functionality. Currently, a considerable number of different CMS platforms can be found on the market. This fact, along with the changes in the objectives of organizations, can cause organizations to see the necessity of migrating their CMS-based Web applications to other CMS platforms meeting better their needs. This migration process entails a complex, time-consuming and error-prone reengineering process. The Architecture-Driven Modernization (ADM) is considered one of the most effective approaches to systemize the migration process and to mitigate the drawbacks mentioned. ADM advocates for the application of Model-Driven Architecture (MDA) techniques and tools (models as key artefacts and automated transformations) for the migration process. Furthermore, ADM proposes a set of standard metamodels to represent the information involved in this process. Two of these metamodels are: the Abstract Syntax Tree Metamodel (ASTM) represents at platform-specific level the syntax of the code implementing a legacy system, and the Knowledge Discovery Metamodel (KDM) represents at platform-independent level the semantics of this code. We have carried out a literature review whose results demonstrate that there is not any model-driven reengineering method to shift from one CMS platform to another while maintaining the same features of the Web application. To solve this gap, we propose the ADMigraCMS method, an ADM-based method that defines standard guidelines to migrate CMS-based Web applications to other CMS platforms. This method is supported by a toolkit that allows systemizing the migration process. The ADMigraCMS method is composed of three reengineering stages defining a ¿horseshoe¿ process: reverse engineering stage, restructuring stage and forward engineering stage. During the reverse engineering stage, the knowledge from the code that implements the legacy CMS-based Web application is extracted and represented in a set of models at different abstraction levels. One of these models (CMS model) represents that knowledge within the CMS domain. The CMS model conforms to the CMS Common Metamodel that we have specifically defined for the ADMigraCMS method. In the restructuring stage, the CMS model is restructured to adapt the extracted knowledge to the features of the target CMS platform; finally, in the forward engineering stage, a set of models are generated from the CMS model. From one of these models defined at specific abstraction level, the code that implements the target CMS-based Web application is generated. The ADMigraCMS method is structured in four different modelling levels: Level 0 represents the code that implements the CMS-based Web application (PHP code); Level 1 represents the code at platform-specific level using a model conforming to the ASTM metamodel (ASTM_PHP model); Level 2 specifies the code at platform-independent level with a model conforming to the KDM metamodel (Code model) and Level 3 represents the code in the CMS domain with a the CMS model. For each modelling level, we have defined a modelling language in the form of Domain Specific Languages (DSL) such as, the PHP DSL (Level 0), the ASTM_PHP DSL (Level 1), the KDM_CODE DSL (Level 2) and the CMS DSL (Level 3). We have defined an abstract syntax with a metamodel and a concrete syntax with a customized graphical notation for each DSL. Furthermore, the ADMigraCMS method systemizes the migration process with a set of automated transformations which allow the transition between the different modelling levels. The ADMigraCMS method defines three different types of automated transformations: text-to-model (T2M) transformation that extracts the knowledge from the code of a legacy CMS-based Web application, model-to-model (M2M) transformation that allows the transition from one model to another and model-to-text (M2T) transformation that generates the code that implements a target CMS-based Web application. Up to now, the ADMigraCMS method is focused on the migration of Web applications based on open-source CMS platforms such as Drupal, Joomla! or Wordpress because of the their widespread use and relevant acceptance in the global market.This method is supported by a toolkit called ADMigraCMS toolkit that provides it with graphical editors for each DSL (tree-like and UML-like graphical editors) and the implementation of the whole set of automated transformations. The ADMigraCMS method has been validated and refined by means of its application to the migration of two case studies: a Web application for the management of a coaching centre (Coaching Web) and a Web application for a wellness and nutrition centre (Websana). This validation allowed us to assess the correct specification of the metamodels, the proper performance of the graphical editors and the correct execution of the automated transformations. Furthermore, the research presented in this PhD Thesis has been validated by the scientific community with the presentation of partial results in renowned international and national conferences.Ítem Aplicaciones de la técnica DEA en la gestión de Bibliotecas Universitarias(Universidad Rey Juan Carlos, 2017) Salazar Escobar, Fabián RodrigoThe present thesis studies the efficiency of the Ecuadorian university libraries and proposes a new methodology of evaluation in the management of the same ones under the analysis of scenarios. Currently, libraries of public universities in Ecuador have to justify through evidence and indicators the investment that the state makes through a process called accreditation. Prior to accreditation, Ecuadorian libraries have carried only physical evidence, with slow and incomplete manual processes. From the digitization of data and processes, it has been possible to have agility in obtaining information. The following methodologies were applied based on Data Envelopment Analysis (DEA): single-stage DEA, two-stage DEA, three-stage DEA, scenarios approach and DEA with inaccurate data (IDEA). Additionally, the Malmquist Index was calculated for the periods 2013-2014 and 2014-2015. A comprehensive analysis of twenty-one libraries of the thirty-three public university libraries in Ecuador has been carried out without being able to analyze the remaining twelve for lack of data. The following results were obtained: one, two and three-stage DEA models between eleven and fourteen libraries are efficient, while applying the scenarios between seven and nine libraries are efficient considering pessimistic, optimistic and average It is concluded that four libraries have marked differences (between 20% and 70 %) when comparing the IDEA, DEA three-stage and one-step method. The DEA of one-step is the one with the most variation. The library that achieved the best efficiency changes in the two periods analyzed is the University of Guayaquil, while the Universidad Cat¿olica Santiago de Guayaquil is the one with the lowest efficiency change in the period 2014-2015.Ítem Aproximación MDA para el desarrollo orientado a servicios de sistemas de información web: del modelo de negocio al modelo de composición de servicios web(Universidad Rey Juan Carlos, 2007-03) Valeria de Castro, MaríaÍtem Decision Models for Cybersecurity Risk Analysis(Universidad Rey Juan Carlos, 2019) Couce Vieira, AitorMotivaci´on Nuestra sociedad est´a profundamente digitalizada. En algunas ´areas, esto es un hecho desde hace d´ecadas; e.g., los sistemas inform´aticos en empresas y administraciones p´ ublicas. En otros ´ambitos la digitalizaci ´on ´esta emergiendo, como en el caso de los procesos industriales, que se ha acelerado en la ´ ultima d´ecada. Esto ha tra´ıdo nuevas amenazas de ciberseguridad que podr´ıan poner en riesgo procesos industriales, la seguridad de los trabajadores o el entorno medioambiental. De hecho las infraestructuras industriales ya han sido objetivo de sofisticados ciberataques, como Stuxnet o Shamoon, capaces de permanecer ocultos mientras realizan operaciones de sabotaje o espionaje. Otros paradigmas emergentes se enfrentan a riesgos ciber-f´ısicos similares: e.g., el Internet de las Cosas, las ciudades inteligentes o los coches aut´onomos. En definitiva, la ciberseguridad en entornos expuestos a riesgos con consecuencias f´ısicas es muy diferente a la ciberseguridad tradicional, centrada en la confidencialidad de la informaci´on y la privacidad. Es m´as, nuestra vida moderna depende cada vez m´as de las tecnolog´ıas digitales. Actuamos y nos relacionamos en multitud de ciberespacios y, por tanto, nos exponemos a riesgos psicol´ogicos y sociales que pueden ser explotados por terceros maliciosos, como las campa˜nas de noticias falsas y trolls, el ciber-acoso o la exposici´on p´ ublica de datos personales. Por tanto, es vital estudiar estos riesgos digitales para entender qu´e son y c´omo nos afectan. Para esto existen multitud de m´etodos (e.g., matrices de riesgo, bow-ties) que, sin embargo, encontramos insuficientes a la hora de cubrir ciertos aspectos que consideramos relevantes como, por ejemplo, el estudio de amenazas adversarias o la existencia de objetivos de distinta naturaleza (e.g., monetarios, derechos personales). Objetivos Nuestro objetivo en esta Tesis es desarrollar modelos de an´alisis de riesgos en ciberseguridad que estudien aspectos no muy bien tratados por los m´etodos actuales m´as populares. Concretamente: • Modelos que analicen los riesgos durante incidentes, que difieren de un an´alisis de riesgos t´ıpico en que el analista estudia un incidente particular que est´a ocurriendo o que podr´ıa ocurrir inmediatamente. • Modelos que analicen estrat´egicamente las amenazas adversarias, ya que, en ciberseguridad, los an´alisis de riesgos t´ıpicos generalmente no tienen en cuenta el comportamiento o motivaciones de las amenazas inteligentes. • Los riesgos digitales podr´ıan causar impactos en la informaci´on, operativos, f´ısicos o psicol´ogicos. Esto requiere modelos que faciliten la toma de decisiones con objetivos m´ ultiples de distinta naturaleza, valor e importancia para las partes involucradas. • La inclusi´on de la transferencia de riesgo, en particular los ciber seguros, en los an´alisis de riesgos en ciberseguridad, como complemento a los controles de seguridad preventivos y reactivos. Resultados Despu´es de introducir los temas tratados en la tesis, los siguientes dos cap´ıtulos se centran en el an´alisis de riesgos durante incidentes. El segundo cap´ıtulo presenta nuestro modelo general de an´alisis de riesgos durante incidentes (GIRA), que formaliza el proceso de dicho an´alisis mediante un diagrama de influencia. Primero, exponemos las consideraciones que se han de tener en cuenta a la hora de analizar los riesgos durante un incidente. Seguimos con una caracterizaci´on de los componentes b´asicos que constituyen un incidente y de las relaciones entre ellos. Partiendo de esta caracterizaci ´on, introducimos GIRA y las particularidades de sus componentes: exposici´on a la amenaza, respuesta al incidente, materializaci´on del incidente, consecuencias en los sistemas, impactos en los activos, objetivos en riesgo y evaluaci´on del riesgo. Acompa˜namos GIRA con ejemplos. Tambi ´en presentamos, brevemente, la formalizaci´on matem´atica de GIRA y versiones adicionales: simplificada, para m´ ultiples partes involucradas y para sucesos inminentes y futuros. GIRA se sit ´ua al mismo nivel de generalidad que los conceptos de riesgo e incidente establecidos en las normas ISO 31000 e ISO 22300. El tercer cap´ıtulo presenta avances adicionales para GIRA y una adaptaci ´on para realizar un an´alisis r´apido de riesgos en ciberseguridad. Presentamos un m´etodo simple de obtenci´on cualitativa de probabilidades basado en la rareza del suceso (i.e., en funci´on de si los diferentes sucesos en una cadena de sucesos son ciertos, posibles, raros o imposibles). Adem´as, introducimos un mapa de categor´ıas para entender las ramificaciones potenciales de los incidentes de ciberseguridad. Luego presentamos nuestro modelo para el an´alisis de riesgos durante incidentes de ciberseguridad (CSIRA) que es, b´asicamente, GIRA combinado con los previamente introducidos m´etodos de obtenci´on y mapa de ramificaciones de incidentes de ciberseguridad. En la presentaci´on de CSIRA tambi´en exponemos que para tomar la decisi ´on s ´olo es necesario comparar los escenarios a los que conducen las distintas respuestas al incidente, sin la necesidad de obtener preferencias, t´ıpica en el uso de diagramas de influencia. El resto de modelos se centran en el marco temporal t´ıpico de los an´alisis de riesgos, i.e., la vida ´ util de un sistema o un n´umero de a˜nos espec´ıfico. As´ı, el cuarto cap´ıtulo presenta un modelo de asignaci´on de recursos en ciberseguridad en una organizaci´on, incluyendo sus preferencias y actitudes frente al riesgo, la intencionalidad de las amenazas adversarias y las decisiones respecto a la adquisici´on de ciber seguros. La primera parte introduce diagramas de influencia, y su forma matem´atica, que describen diferentes modelos de an´alisis de riesgo. Empezando por una evaluaci´on simple del rendimiento de un sistema, vamos a˜nadiendo nuevos elementos al modelo: riesgo, mitigaci´on del riesgo, transferencia del riesgo y an´alisis adversario. La segunda parte reproduce un ejemplo completo en el que detallamos todos los aspectos del estudio de riesgos: descripci´on de la estructura del problema de riesgos, estudio de las creencias de la organizaci´on sobre los elementos que afectan al riesgo, estudio de sus preferencias, modelizaci ´on del problema del atacante para predecir sus acciones y c´alculo de la mejor cartera de controles y seguro para la organizaci´on. En el cap´ıtulo cinco describimos un arbol de objetivos para ciberseguridad. El prop´osito es facilitar una identificaci ´on exhaustiva de los objetivos de una organizaci´on que pueden ser afectados por ciber riesgos. En este contexto, es importante distinguir entre aquellos objetivos que pueden medirse en t´erminos monetarios y aquellos que no pueden [o no deben] medirse en tales t´erminos - por ejemplo da˜nos a personas. Tambi´en exploramos como medir esos objetivos no monetarios (e.g., reputaci´on, derechos personales, da˜nos medioambientales). Finalizamos detallando c´omo usar este arbol de objetivos para construir una funci´on de utilidad multi-atributo. el contexto de los ciber seguros. Tambi´en presentamos modelos para aseguradoras. En el primero, se decide qu´e reaseguro adquiere teniendo en cuenta los diferentes segmentos de compa˜n´ıas a las que est´a asegurando (e.g., PYMES, grandes empresas). En el segundo, la aseguradora decide si otorga o no un seguro a un cliente potencial.Ítem Desarrollo de Algoritmia para Dispositivos de Monitorización Cardíaca de Nueva Generación(Universidad Rey Juan Carlos, 2019) Melgarejo Meseguer, Francisco ManuelBackground In recent years, the progress experimented by the electrocardiographic and electrophysiologic devices has provided doctors with several tools for diseases diagnosis. Currently, thanks to the progression in the equipment computing capacity and the development of recent modern telemonitoring systems, such as wearables devices, a new world of possibilities has been opened, which has led to interest resurgence in this field. This work is divided into three main areas related to cardiac digital signal processing techniques, namely, development of algorithm for long-term monitoring (LTM) devices, creation of new diagnostic and prognostic risk indexes, and industry collaboration to develop analysis algorithm for a commercial telemedicine device. Traditionally, the way to treat the quality of an electrocardiogram (ECG) record has been the use of filtering stages that improve classical signal quality metrics, such as the signal-to-noise ratio (SNR). The problem of this paradigm is the lack of a medical criterion that allows knowing parts of the registry are valid from a clinical point of view. This problem becomes relevant in LTM records, since the effort required to analyze them, in temporary terms, is high. The knowledge of the signal sections that are clinically analyzable will save time and effort to responsible clinicians of analyzing these records. On the other hand, although the literature is extensive in beat detection algorithms applied to ECG and Holter, in order to process LTM records, an update in all signals analysis phases must be carried out, since they need special treatment due to the huge volume of data. Therefore, within this new scenario it is necessary to update old methods and develop new ones that perform these calculations. Aditionally, Recent researches have proven the relationship between the appearance of fragmented QRS and various diseases such as cardiac sarcoidosis, acute coronary syndrome, arrhythmogenic heart disease, Brugada syndrome, and hypertrophic cardiomyopathy (HCM). In this Thesis, we have focused on HCM because it can present both fibrosis and fragmentation. Both of them are associated with the risk of developing different life-threatening arrhythmias, moreover, they are also related to the aforementioned diseases.Ítem Detección de ataques de presentación en sistemas ABC(Universidad Rey Juan Carlos, 2021) Ortega del Campo, DavidEsta Tesis realiza un análisis en profundidad de los sistemas de control de acceso, Automatic Border Control (ABC), en los cruces de fronteras. Además, propone una serie de mejoras relevantes para este tipo de sistemas. En particular, se presta especial atención al subsistema biométrico, por ser uno de sus componentes más críticos, ya que se encarga de la identificación del viajero, comparando los rasgos biométricos almacenados en la documentación de viaje con los rasgos biométricos del viajero capturados en el momento del cruce.Ítem Digital Signal and Image Processing For Autonomic Nervous System Function Evaluation(Universidad Rey Juan Carlos, 2020) El Yaagoubi, MohammedThe autonomic nervous system regulates certain automatic body functions, such as smooth muscles, digestion, breathing, heart muscles, or certain glands. In this way, it allows the maintenance of the body's internal homeostasis. The autonomic nervous system is divided into the sympathetic nervous system and the parasympathetic nervous system, which sympathetically control the most frequent antagonistic actions through di erent neurotransmitters, among which we nd norepinephrine and adrenaline (catecholamines) at the sympathetic level, while at the parasympathetic level we nd acetylcholine. On the other hand, the enteric nervous system regulates the digestive system, as well as motor and secretory activities. These three systems manage the activity of many organs, such as cardiac activity and blood vessels, lungs, digestive tract, bladder, dilation or contraction of the pupil of the eye, among many others. The recent boom in biomedical engineering lies largely in the use of digital signal and medical image processing techniques with the aim of nding new tools and solutions in many areas. In this Thesis, two speci c problems of biomedical engineering related to the autonomic nervous system have been selected: (1) in cardiology, we address the eld of heart rate variability (HRV) and the prevention of sudden cardiac death (SCD); (2) in neurology, we study iris pigmentation and its relationship with cluster headaches (CH). With respect to the rst area, the identi cation of patients at greater risk of SCD has been extensively studied over the last few decades and several indices have been proposed based on the analysis of the electrocardiogram (ECG) stored in 1-day Holter records. Indices based on the non-linear dynamics of HRV variability have been shown to convey predictive information in terms of factors related to cardiac regulation by the autonomic nervous system, and among these, multiscale methods aim to provide more complete descriptions than measures based on individual scales. However, there is limited knowledge about the suitability of non-linear measurements to characterize cardiac dynamics in current monitoring scenarios over a period of several days. As for the second area, the di culty in diagnosing CH among the di erent types of pathological headaches leads to the need to investigate methods that help diagnosis and thus improve the administration of speci c treatment for them. The newborn human being has an indeterminate iris colour and the iris is coloured during the rst months of life. The nal color is inherited and determines the progressive pigmentation, which is culminated in the rst months of life by the activity of the pigmenting cells (melanophores). The sympathetic nervous system exerts a trophic action on the activity of the melanophores. When there is a congenital or acquired sympathetic defect in the neonatal period, there is a de cit of pigmentation in the iris on the side of the sympathetic hypofunction. The result is heterochromia, that is, the individual has one eye of each color, typically one blue eye and the other brown, with the light eye being the one that is defective in pigmentation. Heterochromia with clear color di erence is easily recognized with the naked eye. However, if the di erence is subtle, a sensitive method is required to recognize it.Ítem Diseño e implementación de algoritmos de navegación restringida y visualización háptica para la exploración y análisis de estructuras filiformes complejas(Universidad Rey Juan Carlos, 2014) Raya González, LauraGracias a la rápida evolución de la tecnología, científicos de distintas áreas tiene a su disposición cada vez mayor número de información, siendo ésta más detallada y completa. Un ejemplo de esta tecnología son las simulaciones in silico, cada vez más usadas en distintos ámbitos como la medicina. Este tipo de tecnología permite obtener grandes volúmenes de datos de forma rápida, rentable y segura. También cabe destacar el desarrollo que están teniendo otras técnicas de adquisición de datos como son la microscopía electrónica y confocal. Frente a las ventajas obvias de tener información más detallada y fiable, la comunidad científica debe enfrentarse al tratamiento de volúmenes de datos cada vez grandes y complejos, lo que dificulta enormemente su análisis. El ser humano se relaciona con el entorno, principalmente, mediante el sentido de la vista. Eso se debe a que dicho sentido permite analizar datos de forma rápida y global. Este hecho, junto con la necesidad de analizar grandes volúmenes de datos y el desarrollo de las tecnologías de generación de imagen 3D, está provocando un creciente interés en la comunidad científica en el desarrollo de técnicas de visualización científica. A pesar de esto, dada la complejidad y el tamaño de algunos volúmenes de datos, no siempre resulta fácil mostrar todos los datos de una forma inteligible. Por otro lado, y como es obvio, en el caso de usuarios con alguna discapacidad visual estas técnicas no proporcionan una solución. En esta tesis se propone el uso de otros canales sensoriales para representar información ya sea como refuerzo del canal visual o como sustituto del mismo. En concreto, esta tesis estudia la capacidad del canal táctil, tanto para representar información geométrica y topológica como abstracta. Una estructura filiforme es un elemento unidimensional con forma de hilo. Dichas estructuras pueden presentar ramificaciones y suelen aparecer en conjuntos densos y de gran tamaño, dificultando su visualización. El interés de las formas filiformes nace de su presencia en una amplia variedad de ámbitos científicos, como en el caso de las neuronales, donde tanto el elevado número de neuronas como sus interconexiones hace que realizar un análisis de una porción del cerebro sea extremadamente complejo. Por todo lo mencionado, la primera contribución de esta tesis es el diseño de un algoritmo de navegación háptica restringida a través de estructuras filiformes. Este algoritmo permite explorar y entender la geometría y la topología de este tipo particular de estructuras y sus interconexiones, infiriendo las intenciones del usuario y posibilitando la interacción con los datos. Además, es común que las estructuras tengan asociadas diferentes variables que indiquen características y propiedades de las mismas. Sin embargo, las oclusiones y el número elevado de estos valores dificultan el análisis. El uso de iconos hápticos puede ser una alternativa o un apoyo a la visión. Sin embargo, una de las principales limitaciones de representar el valor de variables mediante el canal háptico es la alta dependencia con la memoria a corto plazo. En esta tesis se propone una nueva señal, denominada diapasón háptico, que se utiliza como valor de referencia. Esta señal de referencia se repite antes de mostrar el valor, ayudando a interpretar los estímulos a través del canal háptico. Diversos experimentos realizados indican que el uso del diapasón háptico mejora la precisión y exactitud a la hora de discriminar el estímulo háptico percibido. Ambas propuestas pueden combinarse para ofrecer al usuario una nueva manera de analizar datos a través de los dispositivos hápticos. Con el objetivo de evaluar la viabilidad en escenarios reales de las contribuciones aquí realizadas, se han desarrollado dos aplicaciones diferentes: una orientada a neurocientíficos y otra a estudiantes con discapacidad visual. Con esta investigación se ha pretendido, no solo ofrecer nuevas alternativas que alivien los problemas de la exploración y análisis de datos complejos, sino que los avances realizados puedan abrir nuevas líneas de investigación que poco a poco permitan seguir avanzando en la utilización intuitiva de los dispositivos hápticos como una herramienta de apoyo en el mundo del análisis de datos científicos.Ítem Diseño y formalización de lenguajes de consultas inspirados en ópticas(Universidad Rey Juan Carlos, 2020) López González, JesúsLos datos son, sin duda alguna, el elemento más característico que identifica a esta sociedad de la información en la que vivimos. Tal es así que se han posicionado como el principal activo de las empresas actuales [74]. Las exigentes demandas de las aplicaciones modernas han derivado en una eclosión de tecnologías muy diversas, centradas en el dato, cuyo fin es el de facilitar el almacenamiento y el procesado de las ingentes cantidades de información que éstas consumen, alcanzando niveles de rendimiento que serían impensables hace no demasiados años atrás. Este tipo de tecnologías suelen incluir lenguajes de consultas para el acceso y la manipulación de la información con la que trabajan. Dada esta situación, resulta muy habitual que la lógica de negocio de la aplicación, implementada en un lenguaje de propósito general (o lenguaje host), tenga que interoperar con un lenguaje de consultas (o lenguaje target) para poder acceder al estado gestionado por ésta misma. Esta situación puede derivar en ciertas situaciones problemáticas, que se describen en los siguientes párrafos. En primer lugar, pueden surgir desequilibrios importantes entre el lenguaje host y el lenguaje target llegando a derivar en problemas de mantenibilidad, confiabilidad y seguridad. Uno de los ejemplos más representativos de esta situación es el del object-relational impedance mismatch [24, 63], que recoge las dificultades que surgen cuando un lenguaje host basado en el paradigma de orientación a objetos (OO) debe lidiar con un lenguaje target que trabaja sobre una base de datos relacional. Teniendo en cuenta que Java lidera la lista de lenguajes de programación más utilizados en la actualidad1 y que las tres bases de datos más extendidas a día de hoy son relacionales2, se puede deducir que es un problema que ha sido objeto de mucha investigación. Prueba de ello es el surgimiento de los object-relational mappers (ORMs), que nacían con el objetivo de abstraer al programador OO de los detalles asociados a la capa de persistencia [6]. Desafortunadamente, la abstracción propuesta por un ORM es leaky [113], es decir, no es capaz de abstraer los detalles subyacentes en su totalidad...Ítem ENTERPRISE SECURITY PATTERNS Un nuevo tipo de Patrón de Seguridad(Universidad Rey Juan Carlos, 2017) Moral García, SantiagoEn los últimos años, la mayoría de las organizaciones, sin tener en cuenta su geografía o sector, han sufrido ataques intencionales contra sus activos de información. La mayoría de estos ataques son llevados a cabo por grupos de ciber-crimen organizado, cuyo objetivo principal es obtener o modificar datos confidenciales de las organizaciones. Por esta razón, el principal objetivo de las organizaciones en términos de seguridad, es asegurar la continuidad de las operaciones de negocio y proteger sus activos de información. Con este propósito en mente, las organizaciones están buscando soporte en las arquitecturas de seguridad empresariales. El objetivo de las arquitecturas de seguridad empresariales es proporcionar un diseño conceptual de las infraestructuras de seguridad. Este diseño enlaza todos los componentes incluidos en las arquitecturas como una unidad cohesiva con el objetivo de proteger los activos de la organización. Para hacer esto, las arquitecturas de seguridad empresariales determinan qué activos de información deben ser protegidos, desde qué tipo de ataques, y quién (personas) o qué (sistemas) tiene acceso a la información. Debido al valor fundamental de los activos de información para las organizaciones, es necesario un enfoque sistemático a la hora de construir sistemas seguros. Las metodologías basadas en patrones proporcionan este enfoque. Dentro del ámbito de los patrones hay varios tipos de catálogos. En particular, los patrones de seguridad combinan un conocimiento significativo sobre seguridad con la estructura sistemática proporcionada por los patrones. Estos patrones proporcionan guías para apoyar la construcción y evaluación de mecanismos de seguridad. El uso de los patrones de seguridad ayuda a incorporar los principios de seguridad a la hora de construir sistemas seguros, sin embargo, estos patrones tienen algunas limitaciones a la hora de construir grandes arquitecturas de seguridad. Debido a estas limitaciones, en esta tesis doctoral hemos definido un nuevo tipo de patrón de seguridad, llamado Enterprise Security Patterns, para facilitar el diseño de arquitecturas de seguridad empresariales. Hemos adoptado ese nombre, porque el objetivo de estos patrones es proporcionar una estrategia basada en modelos para definir arquitecturas de seguridad en diferentes niveles de abstracción, incluyendo la implementación tecnológica. Estos patrones no intentan remplazar a los patrones de seguridad. Estos patrones utilizan e incorporan los patrones seguridad, proporcionando un patrón cohesivo que puede gestionar más riesgos o amenazas. Enterprise Security Patterns combinan un amplio rango de elementos describiendo arquitecturas de seguridad empresariales que protegen activos de información en un contexto específico. Para ello, describimos el meta-modelo del patrón, un proceso de desarrollo de arquitecturas de seguridad empresariales basado en el enfoque de arquitecturas dirigidas por modelos, un nuevo lenguaje especifico del dominio para diseñar nuevas arquitecturas, un conjunto de transformaciones para aplicar transiciones entre los modelos de la solución y un proceso para facilitar la minería de este nuevo tipo de patrones. Además, mostramos un caso de estudio real realizado con una entidad financiera internacional. A la hora de mitigar un problema de seguridad, las organizaciones podrían utilizar los Enterprise Security Patterns con el objetivo de seleccionar una estrategia de seguridad global, proporcionando a sus diseñadores un conjunto de guías de seguridad óptimas y validadas. Además, los ingenieros de seguridad podrían (i) gestionar por separado los elementos de seguridad incluidos en los distintos modelos de abstracción y (ii) realizar transformaciones entre los elementos. Este hecho facilitaría al diseñador en la selección y ajuste de las políticas de seguridad, mecanismos y tecnologías a la hora de construir nuevas arquitecturas.Ítem Fabrication, Characterization and Modelling of Organic Electroluminescent Diodes with Blue Emission. Application to the Design and Manufacturing of Organic Displays.(Universidad Rey Juan Carlos, 2008-01) Arredondo Conchillo, BelénIn the present work, electroluminescent organic diodes based on a new blue polyfluorene derivative have been fabricated, characterized and modelled. Passive matrix diodes have been fabricated adapting standard techniques such as photolithography, spin-coating and metal evaporation. Devices were fabricated for different active layer thicknesses and using different commercial organic materials for comparison. Electrical characterization was carried out in terms of current density ¿ voltage and impedance spectroscopy. A simple but efficient encapsulation method serves to significantly improve the better electrical response and achieve longer lifetimes. Optical characterization was carried out in terms of photoluminescence, electroluminescence spectra, luminance and CIE coordinates. Moreover, these measurements were taken during prolonged operation times in order to identify the origin of different degradation mechanisms. Furthermore, a new and original theoretical model has been developed for conduction in single carrier organic diodes with non-ohmic contacts, taking into account both, charge injection and bulk transport. The main contribution relies on the inclusion of a new term considering the electric field at the interface that accounts for the non-negligible injection barrier. This model has been validated by fitting it to experimental curves with different active layer thicknesses. Information of the active layer material and the device structure such as injection barrier height, mobility and other microscopic parameters have been extracted from the fits. Besides, a small signal model describing the frequency dependence of the admittance in organic diodes with non-ohmic contacts has been reformulated. Finally, a new technique to pattern the cathode of an organic display based on mechanical ablation has been developed. The experimental set up is based on a computer-assisted commercial equipment that includes a micropositioner and a spring probe. The system is customized to define the display cathode columns by removing the unwanted metal following a previously designed pattern. This technique was successfully implemented to fabricate a 7x5 pixel display prototype.Ítem From belief to knowledge(Universidad Rey Juan Carlos, 2012) Uridia, LevanLa combinación de la creencia y el conocimiento en un formalismo ha sido una problemática en epistemología. Un formalismo que cumple tal combinación una llamamos doxepi-formalismo. Existen varios doxepi-formalismos basados en lógica modal, donde la combinación razonable de operadores de creencia y conocimiento ocurren. Aunque en todos los existentes, vemos la tendencia a priorizar la lógica modal doxástica bien establecida y construir lógica epistémica de acuerdo con algunos principios que la lógica doxástica sugiere, es decir, el algoritmo es: tomar una lógica doxástica LD conocida y construir la lógica L que tiene un cierto sabor epistémico y mantiene una buena interrelación con LD. En este trabajo tomamos la dirección inversa y damos prioridad a las lógicas modales epistémicas conocidas. Así que nuestra fórmula, que también motiva el título, es: tomar una lógica conocida epistémica LE y encontrar una buena lógica doxástica L que se combina con LE de una manera suficiente. En la tesis cumplimos esta tarea para las lógicas S5 y S4 y estudiamos varios conceptos y doxepi-formalismos sobre la base de estas lógicas.Ítem Haptic Rendering Methods for Full-Hand Interaction with Complex Environments(Universidad Rey Juan Carlos, 2014) Garre del Olmo, CarlosThe hand concentrates a large number of the mechanoreceptors in the human body, and serves as the major means of bidirectional interaction with the world. Humans execute common operations such as palpation or grasping with ne dexterity thanks in part to the sensitivity of the mechanoreceptors and actuators in the hand. Since hands are our main touch sensor, the simulation of direct touch with our bare hands can be considered to be one of the ultimate goals of haptic technology. In this PhD thesis, we present a set of methods for haptic rendering of full-hand interaction with complex virtual environments. Our key ingredient is an interactive physical model of the human hand including the articulated skeleton, the deformable esh with frictional contact and the coupling between skeleton and esh. We introduce an algorithm for the e cient computation of coupled skeleton and esh dynamics and a general approach for linking the simulated hand to glove-like haptic devices for bidirectional haptic interaction. For the hand skeleton, we present an algorithm for the simulation of articulated bodies under implicit integration with joint limits and sti joint forces. We also present an approach for haptic rendering of hand interaction using 6 degrees-of-freedom devices taking into account esh deformation. This approach can be applied to the simulation of interaction with any type of deformable tool. The key ingredients are the modeling of the coupling between the handle and the deformable tool and a linear model to approximate contact and coupling forces at haptic rates. We present our examples of interaction with environments composed of static, rigid and deformable objects and we also introduce two application examples of more challenging environments. The rst is an environment for surgery training on the human shoulder. The intricate anatomy of the shoulder with continuous contact and couplings between parts of di erent physical nature requires the development of methods to simplify and accelerate the simulation up to interactive rates. We achieve this through the use of intermediate representations and e cient handling of multiple couplings and contact. The second is an environment of mixed reality for virtual prototyping, where the user can see and touch both virtual and real objects integrated in a single scene. Incorporating the haptic device to the mixed reality scenario impose several challenges from the visual point of view, but also challenges on the integration of the physical simulation and haptic rendering with the visual representation of a real environment.Ítem Leveraging natural interaction and direct manipulation as catalyzers of digital evolution in education(Universidad Rey Juan Carlos, 2017) Roldán Álvarez, DavidInformation and Communications Technology (ICT) offers multiple possibilities for creating educational activities and implementing them in classrooms. The `Survey of Schools: ICT in Education¿ sheds light on the use of ICT in education. Firstly, most students think that the use of technology during their learning process is interesting. They are motivated to learn through this approach since they can use ICT to perform tasks on several devices, not only in the classroom, but also at their homes. Secondly, the educational sector agrees on the relevance that ICT could have in carrying out different activities, in addition to the positive impact it could exert on students. However, only between 20-25% of students use ICT in the classroom. In this regard, a study conducted by the Instituto de Técnicas Educativas in Spain showed that 45% of teachers do not use ICT due to their lack of training, and that 31% do not use ICT because they feel insecure. In addition, the wide range of educational tools available makes it difficult to choose the appropriate one for each scenario. Therefore, it is necessary to provide the education sector with tools which are flexible, can be adapted to their needs, and are easy to use by users without advanced technical knowledge. In this context, this work has been carried out with the goal of evaluating which features of an application could be important when being effectively used by teachers, as well as the benefits that the inclusion of technology could offer to students in childhood education, primary education and special needs education. In general, this work is oriented towards the evaluation of three factors: i) providing appropriate tools which allow the creation of content without technology being an obstacle during the design process; ii) exploring the benefits of the new interaction paradigm provided by new devices, such as touch interaction; and iii) studying the adaptability of content so that users can generate different learning scenarios without having to change that content. To study these factors, we have implemented and used an authoring tool ¿ DEDOS-Editor ¿ to create educational activities, and two players ¿ DEDOS-Player and DEDOS-Web ¿ which enable the use of these activities on most of the devices available on the market. These players also allow several additional parameters to be configured which facilitate the reshaping of the activities in order to create different learning scenarios and adapt them to the pedagogical needs which exist in the various education levels where these tools are used. To test the benefits of ICT in the classroom, we conducted experiments with students from three educational levels to compare the effectiveness of touch technology devices versus traditional learning methods. The studies carried out aim to evaluate whether touch technology ¿ which is widely used in society ¿ could act as a bridge to integrate ICT in education. In this scenario, its use with educational goals is not widespread among young students who could benefit from the interaction offered by touch devices that require neither a mouse nor a keyboard. Reviewing the literature, not much can be found regarding empirical studies that help to understand how technological resources could be integrated in classrooms, and which benefits they could offer to students¿ learning. On the one hand, the evaluation of DEDOS-Editor shows how the ease with which users ¿ in our case future teachers ¿ learn to use an authoring tool to create their own digital content is impacted by the tool¿s interface and the creation metaphor used. The data gathered in this work shows how a direct manipulation paradigm and a consistent creation metaphor for creating activities enables users who have experience with the tool to become experts in a short amount of time. On the other hand, the learning experiments across several education levels ¿ childhood education, primary education and special needs education ¿ shed light on the possible benefits that technology could offer to these students. The flexibility of DEDOS-Editor and DEDOS-Player allowed educational activities to be carried out in different learning levels and enabled diverse learning scenarios to be created. The results show that students who used technological elements experienced better learning than those students who solved the activities in a more traditional way. Moreover, several teachers who were initially sceptical about the use of technology by young students later recognised the benefits of using technology in the classroom, causing them to consider using such technology regularly.Ítem MCTWP: Plataforma de Software Libre para gestión de Imagen Médica en Ensayos Clínicos(Universidad Rey Juan Carlos, 2014) Laguna Lobato, Miguel ÁngelÍtem Mejorando el uso de la taxonomía de Bloom en la enseñanza de la programación(Universidad Rey Juan Carlos, 2020) Masapanta Carrión, SusanaEl objetivo de esta tesis doctoral es mejorar el uso de la taxonomía revisada de Bloom en la enseñanza de asignaturas de programación, disminuyendo las dificultades de uso de este modelo en un ambiente informático. La taxonomía de Bloom es un modelo ampliamente aceptado en la educación. Sus dos versiones, el modelo original y el modelo revisado, se han convertido un referente para la elaboración de objetivos de aprendizaje y la categorización del aprendizaje que se espera alcancen los estudiantes luego de un proceso educativo. La versión original consiste en una estructura jerárquica de seis niveles que van desde el nivel más bajo de aprendizaje (conocimiento) al nivel más alto (evaluación). En la versión revisada, el modelo tiene dos dimensiones: la dimensión de los procesos cognitivos que toma como base los seis niveles de la versión original y la dimensión de los tipos de conocimiento que se divide en cuatro niveles de conocimiento. A pesar de las bondades que presenta esta taxonomía en sus dos versiones, su aplicación en asignaturas de informática puede dar lugar a problemas o interpretaciones erróneas en su uso. Para la elaboración del presente trabajo se ha seleccionado la versión revisada de Bloom y la asignatura de programación como campo de investigación. Nos hemos centrado en determinar cuáles son las principales dificultades del uso de la taxonomía de Bloom en la programación. También se ha determinado las posibles causas para la presencia de dificultades. En base a estos hallazgos se ha elaborado una guía que permita a los académicos usar la taxonomía de Bloom de una forma más segura. Para probar la validez de la solución propuesta, se han realizado algunas evaluaciones orientadas a la clasificación de ejercicios de programación usando la taxonomía revisada de Bloom y la guía propuesta. Los resultados obtenidos han permitido establecer los puntos fuertes y débiles de algunas de las innovaciones que constituyen esta guía.Ítem Modelado del comportamiento de conductores para la detección de situaciones de alto riesgo(Universidad Rey Juan Carlos, 2013) Sánchez Siordia, Oscar GerardoEn la actualidad, se estima que más de 1; 2 millones de personas mueren cada año en accidentes de tráfico en el mundo. Según la Organización Mundial de Salud, se pronostica que este tipo de fatalidades será la quinta causa de muertes en el año 2030. En España, estudios recientes han demostrado que factores humanos como la distracción son los causantes de más de la mitad de los accidentes viales. Debido a esto, el área de Sistemas Inteligentes de Transporte se ha enfocado al estudio del comportamiento del conductor desde hace algunos años. En esta tesis se presenta el desarrollo de un sistema para la detección de situaciones de alto riesgo en la conducción mediante el modelado del comportamiento del conductor. El propósito de este sistema es la generación automática de una señal de riesgo que pueda ser utilizada para generar una alerta al conductor que le permita tomar acciones preventivas y/o correctivas. Para el entrenamiento de este sistema, en esta tesis se propone la construcción de una señal de referencia basada en el conocimiento de expertos en seguridad vial. En primer lugar, se desarrollará un dispositivo de adquisición de datos que permita monitorizar diversas sesiones de conducción considerando los 3 elementos fundamentales de la seguridad vial: vehículo, carretera y conductor. Este dispositivo será utilizado para generar una base de datos de conducción mediante la monitorización de más de 50 sesiones de conducción ejecutadas por más de 15 conductores en 2 de los simuladores más avanzados de España y en un vehículo real. Después, con el objetivo de analizar la información monitorizada, se desarrollará una herramienta de adquisición de conocimiento que permita a los expertos evaluar el riesgo en algunas de las sesiones de conducción adquiridas. Esta herramienta será utilizada en diversos experimentos de adquisición de conocimiento con la participación de más de 40 expertos en seguridad vial. El conocimiento adquirido de estos expertos será utilizado para la construcción de una señal de referencia mediante un conjunto de técnicas desarrolladas en esta tesis para el tratamiento y análisis de datos subjetivos. Esta señal de referencia será utilizada para diseñar, entrenar y evaluar un sistema para la detección de situaciones de alto riesgo en la conducción. El sistema desarrollado será probado en distintos simuladores y en un vehículo real obteniendo excelentes resultados.Ítem Paralelización hardware-software de técnicas de clasi cación basadas en algoritmos de generación de conglomerados de datos(Universidad Rey Juan Carlos, 2015) Cano Montero, JavierpSVM es un nuevo algoritmo que permite por primera vez el entrenamiento en paralelo de una SVM. Para conseguirlo el conjunto de entrenamiento se divide en distintas regiones de Voronoi utilizando el algoritmo k-medias, consiguiendo así SVMs más pequeñas y rápidas de entrenar con el objetivo de reducir la carga computacional. permitiendo la futura implementaci ón de sistemas embebidos. Además, se ofrece una comparativa entre libSVM y el nuevo algoritmo pSVM, probando que el segundo es más rápido y ofrece resultados similares que libSVM.