Tesis Doctorales
Examinar
Examinando Tesis Doctorales por Materia "1203.02 Lenguajes Algorítmicos"
Mostrando 1 - 7 de 7
- Resultados por página
- Opciones de ordenación
Ítem Algoritmos de aprendizaje estadístico aplicados a la radiolocalización en interiores(Universidad Rey Juan Carlos, 2009-06) Figuera Pozuelo, CarlosEn los últimos años, los avances en la tecnología de computación ubicua han dado lugar a numerosas aplicaciones informáticas móviles, en las que la posición del usuario es una información relevante que permite ofrecer servicios dependientes del contexto. Cuando estos servicios se desarrollan en el interior de un edificio, estimar dicha posición se torna un problema complejo. Para resolverlo, los sistemas de radiolocalización en interiores (SRLI) utilizan información extraída del campo electromagnético propagado entre el terminal del usuario y una infraestructura de comunicaciones. Entre las distintas opciones, la utilización de la potencia de señal recibida (RSS) por los dispositivos de las redes WiFi existentes en multitud de edificios, proporciona una alta precisión con un coste bajo en el despliegue del sistema. El objetivo principal de esta Tesis es estudiar de forma integrada los elementos que conforman un SRLI basado en tecnología WiFi, proponiendo soluciones novedosas en tres aspectos clave. En primer lugar, la revisión de la literatura existente revela una carencia de metodología para evaluar y comparar diferentes SRLI. Por ello, se desarrolla una técnica de evaluación y comparación de sistemas basada en cuatro indicadores de calidad: la media y la desviación típica del error, y la incertidumbre y sesgo asociados a la distribución del error, propuestos estos últimos en esta Tesis. Además, se desarrolla una metodología para el cálculo de estos indicadores, basada en técnicas no paramétricas de estimación estadística de tipo bootstrap, y un test comparativo que permite distinguir dos sistemas en términos de cualquier indicador. En segundo lugar, se realiza un estudio del procedimiento de medida de la RSS. En concreto, se estudian los parámetros de dicho procedimiento, como el número de muestras por posición o la densidad de localizaciones que son necesarios para caracterizar la RSS. Por otro lado, cuando en un mismo SRLI esta magnitud es registrada por dispositivos heterogéneos, se observa que las prestaciones del sistema disminuyen drásticamente. Por ello, se proponen algoritmos de calibración de dispositivos basados en técnicas de aprendizaje estadístico para solventar el problema. En tercer lugar, se aborda el estudio del problema de localización como un problema de interpolación no uniforme. Bajo este enfoque, se estudian las máquinas de vectores soporte como herramienta eficaz para resolver el problema en cuestión, debido a su capacidad de incorporar información a priori y a sus propiedades de generalización. Específicamente, se proponen algoritmos que utilizan como núcleo la autocorrelación de la señal y además proporcionan una salida compleja para modelar las dos dimensiones de la posición, obteniéndose unas altas prestaciones en términos de todos los indicadores de calidad. El estudio de estos tres bloques proporciona resultados relevantes para afectan al diseño de los SRLI.Ítem Aprendizaje Interactivo de Algoritmos Voraces: del Enfoque Individual al Colaborativo(Universidad Rey Juan Carlos, 2014) Debdi, OuafaeÍtem Desarrollo de Algoritmia para Dispositivos de Monitorización Cardíaca de Nueva Generación(Universidad Rey Juan Carlos, 2019) Melgarejo Meseguer, Francisco ManuelBackground In recent years, the progress experimented by the electrocardiographic and electrophysiologic devices has provided doctors with several tools for diseases diagnosis. Currently, thanks to the progression in the equipment computing capacity and the development of recent modern telemonitoring systems, such as wearables devices, a new world of possibilities has been opened, which has led to interest resurgence in this field. This work is divided into three main areas related to cardiac digital signal processing techniques, namely, development of algorithm for long-term monitoring (LTM) devices, creation of new diagnostic and prognostic risk indexes, and industry collaboration to develop analysis algorithm for a commercial telemedicine device. Traditionally, the way to treat the quality of an electrocardiogram (ECG) record has been the use of filtering stages that improve classical signal quality metrics, such as the signal-to-noise ratio (SNR). The problem of this paradigm is the lack of a medical criterion that allows knowing parts of the registry are valid from a clinical point of view. This problem becomes relevant in LTM records, since the effort required to analyze them, in temporary terms, is high. The knowledge of the signal sections that are clinically analyzable will save time and effort to responsible clinicians of analyzing these records. On the other hand, although the literature is extensive in beat detection algorithms applied to ECG and Holter, in order to process LTM records, an update in all signals analysis phases must be carried out, since they need special treatment due to the huge volume of data. Therefore, within this new scenario it is necessary to update old methods and develop new ones that perform these calculations. Aditionally, Recent researches have proven the relationship between the appearance of fragmented QRS and various diseases such as cardiac sarcoidosis, acute coronary syndrome, arrhythmogenic heart disease, Brugada syndrome, and hypertrophic cardiomyopathy (HCM). In this Thesis, we have focused on HCM because it can present both fibrosis and fragmentation. Both of them are associated with the risk of developing different life-threatening arrhythmias, moreover, they are also related to the aforementioned diseases.Ítem Diseño e implementación de algoritmos de navegación restringida y visualización háptica para la exploración y análisis de estructuras filiformes complejas(Universidad Rey Juan Carlos, 2014) Raya González, LauraGracias a la rápida evolución de la tecnología, científicos de distintas áreas tiene a su disposición cada vez mayor número de información, siendo ésta más detallada y completa. Un ejemplo de esta tecnología son las simulaciones in silico, cada vez más usadas en distintos ámbitos como la medicina. Este tipo de tecnología permite obtener grandes volúmenes de datos de forma rápida, rentable y segura. También cabe destacar el desarrollo que están teniendo otras técnicas de adquisición de datos como son la microscopía electrónica y confocal. Frente a las ventajas obvias de tener información más detallada y fiable, la comunidad científica debe enfrentarse al tratamiento de volúmenes de datos cada vez grandes y complejos, lo que dificulta enormemente su análisis. El ser humano se relaciona con el entorno, principalmente, mediante el sentido de la vista. Eso se debe a que dicho sentido permite analizar datos de forma rápida y global. Este hecho, junto con la necesidad de analizar grandes volúmenes de datos y el desarrollo de las tecnologías de generación de imagen 3D, está provocando un creciente interés en la comunidad científica en el desarrollo de técnicas de visualización científica. A pesar de esto, dada la complejidad y el tamaño de algunos volúmenes de datos, no siempre resulta fácil mostrar todos los datos de una forma inteligible. Por otro lado, y como es obvio, en el caso de usuarios con alguna discapacidad visual estas técnicas no proporcionan una solución. En esta tesis se propone el uso de otros canales sensoriales para representar información ya sea como refuerzo del canal visual o como sustituto del mismo. En concreto, esta tesis estudia la capacidad del canal táctil, tanto para representar información geométrica y topológica como abstracta. Una estructura filiforme es un elemento unidimensional con forma de hilo. Dichas estructuras pueden presentar ramificaciones y suelen aparecer en conjuntos densos y de gran tamaño, dificultando su visualización. El interés de las formas filiformes nace de su presencia en una amplia variedad de ámbitos científicos, como en el caso de las neuronales, donde tanto el elevado número de neuronas como sus interconexiones hace que realizar un análisis de una porción del cerebro sea extremadamente complejo. Por todo lo mencionado, la primera contribución de esta tesis es el diseño de un algoritmo de navegación háptica restringida a través de estructuras filiformes. Este algoritmo permite explorar y entender la geometría y la topología de este tipo particular de estructuras y sus interconexiones, infiriendo las intenciones del usuario y posibilitando la interacción con los datos. Además, es común que las estructuras tengan asociadas diferentes variables que indiquen características y propiedades de las mismas. Sin embargo, las oclusiones y el número elevado de estos valores dificultan el análisis. El uso de iconos hápticos puede ser una alternativa o un apoyo a la visión. Sin embargo, una de las principales limitaciones de representar el valor de variables mediante el canal háptico es la alta dependencia con la memoria a corto plazo. En esta tesis se propone una nueva señal, denominada diapasón háptico, que se utiliza como valor de referencia. Esta señal de referencia se repite antes de mostrar el valor, ayudando a interpretar los estímulos a través del canal háptico. Diversos experimentos realizados indican que el uso del diapasón háptico mejora la precisión y exactitud a la hora de discriminar el estímulo háptico percibido. Ambas propuestas pueden combinarse para ofrecer al usuario una nueva manera de analizar datos a través de los dispositivos hápticos. Con el objetivo de evaluar la viabilidad en escenarios reales de las contribuciones aquí realizadas, se han desarrollado dos aplicaciones diferentes: una orientada a neurocientíficos y otra a estudiantes con discapacidad visual. Con esta investigación se ha pretendido, no solo ofrecer nuevas alternativas que alivien los problemas de la exploración y análisis de datos complejos, sino que los avances realizados puedan abrir nuevas líneas de investigación que poco a poco permitan seguir avanzando en la utilización intuitiva de los dispositivos hápticos como una herramienta de apoyo en el mundo del análisis de datos científicos.Ítem Graph layout problems: a metaheuristic approach(Universidad Rey Juan Carlos, 2016) Sánchez-Oro Calvo, JesúsÍtem Modelo para la expansión de la capacidad de tráfico(Universidad Rey Juan Carlos, 2015) Aldás Sánchez, Milton RodrigoEn esta tesis se estudian los problemas del flujo de tráfico y la congestión vehicular, más concretamente en el casco urbano de la ciudad de Ambato. Estos problemas se han agudizado en los últimos tiempos debido al crecimiento poblacional, el aumento de entidades educativas, bancarias y comerciales y, especialmente, el incremento excesivo de vehículos de transporte privado. Los ciudadanos necesitan una forma rápida de trasladarse dentro de una ciudad para cumplir diferentes actividades comerciales y profesionales, sin reducir su calidad de vida. Por ello, necesitan utilizar distintos medios de transporte de manera eficiente. Esto hace necesario planificar y resolver los problemas de congestión vehicular, para plantear soluciones adecuadas que permitan una movilidad fluida. En el caso de Ambato, la capacidad de las vías fue diseñada para flujos de tráfico bajos, tras el terremoto de 1949 y cuando no había un gran número de coches. Con el paso del tiempo, el incremento vehicular del parque automotor ha pasado de 25.510 en el año 2006 a 67.000 vehículos en el año 2012, lo que hace necesario una mayor infraestructura vial, o un mejor aprovechamiento de la misma. Para modelizar el problema de flujo de tráfico se han utilizado matrices origen-destino O-D. Para su estimación, se presenta un nuevo método basado en Algoritmos Genéticos (AG), donde se transforma el problema original en un problema de optimización, buscando sucesivamente la mejor solución de entre un conjunto de soluciones factibles. Después, los resultados del AG se muestran gráficamente sobre el mapa del casco urbano, lo que permite identificar rutas en las que resulta necesario actuar para mejorar el tráfico. Después, se estudia la implementación y simulación de un conjunto de políticas que ayudan a mejorar el flujo vehicular. Las contramedidas que se han ensayado incluyen cambiar el sentido de las calles, relocalizar servicios, aumentar el número de carriles, restringir la circulación vehicular, aumentar el número de autobuses de transporte público, eliminar o modificar puntos de semáforos, redistribución de horarios y desvío de rutas. La naturaleza del problema de transporte es multidimensional, por lo que es necesario actuar con varias políticas simultáneamente, obteniéndose excelentes resultados con el modelo propuesto. Finalmente, se puede resaltar que en este trabajo se ha presentado una nueva y completa propuesta que puede contribuir significativamente en la mejora de los problemas de movilidad urbana en general, y, en particular, en la ciudad de Ambato.Ítem Models and Algorithms for Deterministic and Stochastic Optimization Problems(Universidad Rey Juan Carlos, 2015) Olaso Redondo, PabloLa optimización (también llamada programación maten ática (PM)) es la rama de las matemáticas que trata sobre encontrar aquella solución que proporcione el mayor beneficio para un problema dado, dicho de otro modo, trata de buscar, de entre todas las posibles soluciones a un problema, aquella que minimice una función dada (o equivalentemente, lamaximice, n¿otese quemax{f(x)}=min{¿f(x)}), generalmente se trata de una función real (f : Rn ¿ R) y se demomina funci¿on objetivo. El conjunto de soluciones factibles vendrá definido mediante ecuaciones matemáticas, llamadas restricciones, que las soluciones deben cumplir. Así pues, dado un problema cualquiera, se debe realizar un modelo matemático consistente en una serie de restricciones y una función objetivo a minimizar, para después resolverlo mediante alguno de los algoritmos proporcionados por el estado del arte. El modelado de un problema dado es de hecho un arte en sí mismo. Se trata de abstraer aquellos aspectos innecesarios, superfluos, y al mismo tiempo representar la realidad lo más fielmente posible, y ello teniendo en cuenta que, dependiendo del enfoque elegido, la resolución del modelo puede no ser viable en la práctica con los recursos computacionales de que dispone la humanidad en su actual estadio de desarrollo. Aspectos que pueden afectar drásticamente a la facilidad de resolución del modelo son: ¿ El tipo de modelo (fundamentalmente, si es lineal o no-lineal) ¿ Las variables que entran en juego (el número de variables, si son enteras, continuas o binarias) ¿ La elección de las restricciones adecuadas. En el trabajo de modelado puede jugar un papel fundamental la búsqueda de nuevas restricciones que permitan hacer el modelo más robusto desde el punto de vista matemático, o dicho de otro modo que cumpla ciertas condiciones que permitan a los algoritmos encontrar la solución más fácilmente. Dentro de la optimización matemática, en esta tesis vamos a transitar por dos ¿áreas que ocupan un lugar destacado, la Programación Lineal y la Programación Estocástica. La Programación Lineal trata de aquellos modelos cuyas restricciones y función objetivo son lineales. En general los modelos lineales se pueden resolver en menos tiempo que los no-lineales, especialmente si no tienen variables enteras, o tienen pocas, y cumplen ciertas condiciones. En esta tesis se aplica la programación lineal a los problemas de elusión de conflictos en el tráfico aéreo, mediante un enfoque distinto al habitual. El modo de tratar estos problemas hasta ahora se basaba principalmente en modelos no-lineales, lo que debido a las limitaciones computacionales mencionadas arriba, no permitía enfrentarse a casos en los que entren en juego muchos aviones o considerar un espacio aéreo amplio (generalmente los modelos tratan 2 o 3 aviones en un espacio limitado). El nuevo enfoque aplicado en esta tesis, en cambio, permite aplicar la programación lineal, lo cual a su vez facilita considerar el plan de vuelo de todos los aviones presentes en un espacio aéreo lo suficientemente amplio, y resolver los posibles conflictos aplicando cambios de velocidad o de altura, e incluso cambiando a rutas alternativas si ello fuera posible. Por otro lado nos adentramos en el ¿área de la Programación Estocástica. En muchos problemas reales la incertidumbre juega un papel importante y que por tanto debería tenerse en cuenta en el modelo resultante. Sin embargo la incertidumbre no se deja atrapar tan fácilmente, y el como modelarla es aun un problema que dista de estar cerrado, si bien se ha avanzado mucho y existe un enfoque ampliamente aceptado y para el que se han podido desarrollar varios algoritmos que explotan eficientemente sus características particulares.