Proyectos Fin de Carrera
Examinar
Examinando Proyectos Fin de Carrera por Título
Mostrando 1 - 20 de 440
- Resultados por página
- Opciones de ordenación
Ítem Acilación de 2-metoxinaftaleno sobre catalizadores híbridos zeolíticos -mesoestructurados(Universidad Rey Juan Carlos, 2008) Arquero Jiménez, EstherEl contenido de este proyecto forma parte de una línea de investigación que se desarrolla en el Grupo de Ingeniería Química y Ambiental de la Escuela Superior de Ciencias Experimentales y Tecnología que aborda el estudio de la síntesis, caracterización y aplicación catalítica de materiales zeolíticos y mesoestructurados funcionalizados con aluminio como heteroátomo. La acilación de Friedel- Crafts de compuestos aromáticos, para su posterior uso en la industria farmacéutica, es una de las reacciones de mayor interés en el campo de la química fina. Esta reacción se ha llevado a cabo tradicionalmente utilizando catalizadores ácidos homogéneos, pero la gran toxicidad de los efluentes generados obligó a modificar los catalizadores, comenzando así el auge de los catalizadores heterogéneos. En un principio se comenzaron a utilizar zeolitas, sin embargo, su pequeño tamaño de poro ocasionó problemas al catalizar moléculas voluminosas. Para solventar el problema surgió el uso de materiales mesoestructurados, pero con ellos se perdía acidez y estabilidad térmica con respecto a las zeolitas. Como consecuencia, comenzó el estudio de materiales híbridos zeolítico-mesoporosos que conjugaran la fuerza ácida de las zeolitas y el tamaño de poro de los materiales mesoestructurados. En este trabajo se ha estudiado el comportamiento de la zeolita Beta, del material mesoporoso Al-MCM-41 y del material híbrido zeolítico-mesoporoso HBM en la reacción de acilación de Friedel ¿Crafts del 2-metoxinaftaleno para obtener 6-acetil-2-metoxinaftaleno, precursor del naproxeno y por tanto, compuesto de gran importancia en la industria farmacéutica. Además se ha realizado un estudio de diferentes variables de síntesis que afectan al catalizador híbrido zeolítico-mesoporosos HBM y así poder determinar cuáles son las condiciones más favorables para su preparación, en función de la conversión de 2- metoxinaftaleno y de la selectividad hacia el producto de interés que se obtenga. Se ha comparado el efecto del tiempo de precristalización, el contenido de aluminio, la reutilización del catalizador en varios ciclos sin regenerarlo, la regeneración del catalizador y la inhibición del catalizador como consecuencia de la presencia de producto. El seguimiento de la reacción se realiza utilizando la técnica analítica de cromatografía de gases (GC), identificando los productos a partir de las sustancias puras comerciales. Para la determinación cuantitativa se ha llevado a cabo el método de calibración con patrón interno. El catalizador híbrido HBM que mejores resultados catalíticos ofrece en función del tiempo de cristalización es el obtenido empleando cero días de precristalización (HBM(0+2)) y en función del contenido de aluminio, los mejores resultados son obtenidos empleando la relación Si/Al = 60 (HBM(0+2)60). La actividad catalítica de los materiales híbridos es, en todos los casos, superior a la obtenida al emplear el material mesoporoso de referencia, en cambio, no se consiguen los mismos valores que al emplear la zeolita Beta. Este resultado, puede ser debido a que esta zeolita engloba accesibilidad y fortaleza ácida. Los estudios de inhibición llevados a cabo muestran que existen una fuerte desactivación del material hibrido por adsorción de los productos de reacción sobre los centros ácidos del material. Se ha observado, además, que el catalizador híbrido HBM no pierde completamente la actividad tras varios ciclos de utilización y que con el proceso de regeneración térmica es posible recuperar parte de la actividad inicial del catalizador. También se ha observado que la adicción de producto al inicio de la reacción ocasiona una importante pérdida de actividad del catalizador híbrido HBM, ya que se produce el efecto de inhibición.Ítem ActiveInterface++. Framework de integración de sistemas. ESB Ligero(Universidad Rey Juan Carlos, 2011) Pernas Plaza, ÓscarEn este proyecto se ha realizado una librería de comunicaciones software libre denominada ActiveInterface, desarrollada en C++. ActiveInterface ofrece un framework de integración de sistemas, e implementa una serie de patrones denominados Enterprise Integration Patterns. Estos patrones describen formas para hacer de la integración una tarea más sencilla, tanto contra aplicaciones externas como con procesos de la misma aplicación. Todo este tipo de patrones están englobados en el ámbito de los sistemas de comunicación basados en mensajes o MOM y están orientados a permitir la distribución de mensajes de manera sencilla, flexible, optimizada y normalizada. ActiveInterface se embebe en aplicaciones desarrolladas en C++, y actúa como módulo de comunicaciones que usa JMS como protocolo de comunicaciones de alto nivel. Bajo este protocolo de alto nivel permite establecer comunicaciones usando TCP, UDP o multicast. El objetivo principal de esta librería es ofrecer una API que permita la creación y modificación de flujos de datos complejos de una forma sencilla, dando además la posibilidad de aplicar reglas de enrutamiento y de filtrado de mensajes. El flujo de datos de ActiveInterface se define a partir entidades que abstraen a los desarrolladores del concepto de conexión agrupándolas en servicios, y de entidades denominadas enlaces, que aplican determinados filtrados a los mensajes. Las asociaciones entre estas entidades producen diferentes flujos de datos, generando la topología de red por la que los mensajes viajan desde un proceso productor a un proceso consumidor. Además, ofrece mecanismos de persistencia, inicialización de topologías mediante ficheros XML, mecanismos de control de congestión, gestión de flujos de datos en tiempo real, y es un desarrollo thread safe y multiplataforma. Sencillez, abstracción, flexibilidad y rendimiento son otras de las cualidades más importantes. ActiveInterface es un software estable y usable, implantado en cerca de 10.000 máquinas, en proyectos tanto nacionales como internacionales. Esto le convierte en una opción a tener en cuenta en desarrollos C++ orientados a sistemas de mensajería.Ítem Actividad catalítica de zeolitas de porosidad jerarquizada en diferentes reacciones de Química Fina(Universidad Rey Juan Carlos, 2011-06) García Cadenas, CarlosEste proyecto forma parte de una línea de investigación, actualmente desarrollada por el Grupo de Tecnología Química y Ambiental de la Universidad Rey Juan Carlos, sobre el diseño de nuevos catalizadores heterogéneos en procesos químicos de interés industrial. En este caso, la investigación está centrada en la síntesis, caracterización y aplicación catalítica de materiales zeolíticos con propiedades texturales mejoradas en reacciones de Química Fina limitadas por impedimentos estéricos y difusionales. Por tanto, este proyecto se ha orientado al estudio del comportamiento de dichos materiales zeolíticos en tres reacciones concretas: la oxidación de Baeyer-Villiger, la reducción de Pechmann y la transposición de Beckmann. El interés de la oxidación de Baeyer-Villiger se centra en la obtención de ¿-caprolactona, que es una materia prima con múltiples aplicaciones entre las que destacan la producción de poli-caprolactona y ¿-caprolactama. En el caso de la reducción de Pechmann, el objetivo es obtener la 7-hidroxi-4-metil cumarina, que es importante por sus aplicaciones farmacéuticas, en fragancias, en agroalimentación y en insecticidas, siendo la de mayor interés la primera debido a su gran actividad biológica. En cuanto a la transposición de Beckmann, su gran interés está relacionado con la producción de ¿-caprolactama, cuya aplicación más relevante es la fabricación del nylon 6. El presente trabajo estudia el comportamiento de cuatro materiales zeolíticos: dos con estructura MFI y otros dos con estructura BEA. De cada estructura, uno de los materiales es una zeolita de porosidad jerarquizada (h-ZSM-5 y h-BETA), cuyo método de síntesis, desarrollado por el grupo de Tecnología Química y Ambiental, se basa en la perturbación del crecimiento de los cristales propios de la zeolita mediante la silanización de núcleos zeolíticos formados en una etapa de precristalización, evitando así su posterior agregación y aglomeración. Se consigue de esta forma un material que presenta un sistema de poros bimodal micro-mesoporoso. El otro material de cada estructura es una zeolita sintetizada omitiendo la etapa de silanización, el cual se utiliza como material de referencia (ZSM-5 y BETA). Se ha realizado un estudio comparativo de su actividad catalítica en las distintas reacciones anteriormente mencionadas atendiendo a los valores obtenidos de conversión, selectividad y rendimiento. El seguimiento de la reacción se ha realizado utilizando la técnica analítica de cromatografía de gases, empleando para la determinación cuantitativa el método de la calibración con patrón interno. A partir de los resultados obtenidos se puede confirmar que la zeolita de referencia de estructura BEA presenta mejores resultados que la de estructura MFI, debido a la adecuada accesibilidad y fortaleza de sus centros ácidos. Así mismo, la estructura MFI con un tamaño de poro menor provoca que los impedimentos estéricos y difusionales afecten en mayor medida a las moléculas de las reacciones estudiadas. Las zeolitas de porosidad jerarquizada, en las cuales se ha demostrado el sustancial incremento de superficie BET y externa que produce el empleo de agente silanizante en su síntesis, permiten obtener mayores rendimientos hacia los productos de interés que los materiales de referencia. Una de las causas es que los materiales modificados permiten una mayor accesibilidad a los centros ácidos, aspecto muy importante si se tienen en cuenta los impedimentos estéricos y difusionales, que en mayor o menor grado, afectan a ambas estructuras. A partir de esto, aunque los centros ácidos generados en la superficie externa poseen una menor acidez en términos de fortaleza y de concentración de sitios ácidos que los de la estructura microporosa zeolítica, la adecuada combinación de accesibilidad y fortaleza de los centros ácidos de las zeolitas modificadas permite una mejora en los resultados de las reacciones estudiadas en comparación con los de referencia. Según todo lo anterior, queda demostrado que para todas las reacciones, el material que presenta mejor actividad catalítica es la zeolita Beta de porosidad jerarquizada, h-BETA. Para la oxidación de Baeyer-Villiger los resultados obtenidos de conversión y selectividad hacia la ¿-caprolactona fueron superiores al 73 y 38% respectivamente. Por su parte, en la reducción de Pechmann los resultados de conversión y selectividad alcanzados hacia la 7-hidroxi-4-metil cumarina fueron superiores al 35 y 78% respectivamente. Y por último, para la transposición de Beckmann los resultados de conversión y selectividad alcanzados hacia la ¿-caprolactama fueron superiores al 86 y 50% respectivamente.Ítem Adaptación automática de diálogos de agentes conversacionales pedagógicos a los rasgos de la personalidad del estudiante(Universidad Rey Juan Carlos, 2011) Redondo Hernández, AlbertoEl uso de las Tecnologías de la Información se ha convertido en una herramienta indispensable en nuestra vida cotidiana. Esto es cierto en múltiples ámbitos y en los que nos hacen más fácil el trabajo del día a día. En particular, este trabajo se centra en el ámbito educativo (e-learning). Estas son herramientas informáticas que nos ayudan a aprender, de una forma sencilla e intuitiva utilizando todo el potencial de las Tecnologías de la Información. Si además se tiene en cuenta el comportamiento, personalidad y el estilo de aprendizaje de cada persona, se espera que la información que se transmita, pueda ser comprendida con una mayor facilidad. Los agentes conversacionales son aquellos con los cuales podemos mantener un diálogo directo entre el agente y el interlocutor. Sin embargo, la codificación y la adaptación de agentes conversacionales no es una tarea fácil, ya que cada persona posee una personalidad diferente, aunque en este respecto los psicólogos pueden hacer una estimación, basados en la experiencia del comportamiento durante muchos años. Con este objetivo, este Proyecto Final de Carrera está orientado a la generación de preguntas adaptadas a cada estudiante, con la ayuda de dos test psicológicos, el test de "Big Five" o de cinco grandes rasgos y el test de "Felder" o test de Estilos de Aprendizaje. Con estos tests se puede hacer una estimación de la forma de ser del estudiante y su comportamiento frente a situaciones de aprendizaje. Con esta estimación se han realizado los patrones para cada tipo de personalidad y para cada Estilo de Aprendizaje. De esta forma se puede adaptar la forma en que se presenta la información, para potenciar los rasgos obtenidos y que cuando el estudiante interactúe con la aplicación se sienta identificado con los aspectos que se le muestran. Este objetivo se ha implementado en una aplicación llamada Flayer mediante el lenguaje de programación Java, que se presenta vía web mediante tecnologías servlet y JSP. Flayer se ha probado con veinte usuarios obteniendo unos resultados de valores concretos, que nos ayudan a hacernos una idea del funcionamiento que tiene la aplicación y de poder mejorarla. Un 50% de los estudiantes considera que las preguntas generadas automáticamente se han adaptado correctamente y un 40 % de los estudiantes considera que la aplicación es interesante.Ítem Adaptación del juego LGeneral utilizando el motor gráfico Unity(Universidad Rey Juan Carlos, 2013) Ramos Fernández-Gallardo, RubénEn este trabajo se ha realizado el desarrollo de un juego multiplataforma, el cual es una adaptación del popular juego de los noventa ¿Panzer General¿. Juego de estrategia por turnos desarrollado en 1994 por la empresa Strategic Simulations Inc. y ambientado en la Segunda Guerra Mundial. Este juego tiene como objetivos conquistar una serie de ciudades utilizando el menor número de turnos posibles. Para el desarrollo de este juego, se ha cogido como base el juego LGeneral que es la versión de software libre del juego Panzer General. Este juego se encuentra disponible en The Linux Game Tome, aunque también se puede encontrar disponible en la opción juegos dentro del menú Centro de software a partir de la versión 10.04 de Ubuntu. La posibilidad de que el juego pueda ser ejecutado en plataformas o entornos como Windows, Linux y Mac, así como en los navegadores Web, se debe a que se ha utilizado el motor gráfico Unity desarrollado por Unity Technologies. También comentar que dentro de los lenguajes permitidos (Boo, JavaScript, C#) por este motor gráfico para el desarrollo de aplicaciones, se ha elegido el lenguaje de programación C# para la realización de este juego por varios motivos que se explicarán en posteriores apartados. La adaptación de este juego a la plataforma Unity junto con la utilización del lenguaje de programación C#, ha supuesto varios retos y problemas, entre los cuales se pueden encontrar cambios en la estructura y diseño de las texturas soportadas, cambio en el manejo de las hebras o hilos del juego y un cambio en el manejo del sistema de eventos. También incluso en menor medida, se puede encontrar un cambio en el formato de los ficheros de los recursos cargados a la aplicación, con el fin de cumplir que el juego pueda ser multiplataforma. Otro de los problemas surgidos es el cambio de librerías utilizadas, debido a que ahora se está utilizando el lenguaje de programación C# en vez del lenguaje de programación C++ que se utilizaba en el juego original LGeneral. Resumiendo todo lo anterior, la adaptación de este juego utilizando el motor gráfico Unity, permite obtener una versión renovada o con un toque más moderno, de este popular juego de los años noventa. Así como posibles mejoras que puedan ser ofrecidas en un futuro gracias a la utilización de este motor gráfico.Ítem Adaptación y mejora de una herramienta de gestión de SCRUM para la gestión de los proyectos fin de carrera(Universidad Rey Juan Carlos, 2013-01) Rodrigo Contreras, EduardoEste trabajo detalla la mejora de una aplicación para gestionar proyectos fin de carrera utilizando la metodología SCRUM apoyándose para ello en la Herramienta MAVEN y usando la técnica de arquitectura de software REST . Las metodologías ágiles surgieron con la idea de dinamizar la administración y gestión del desarrollo de proyectos de software Scrum. Pero si es importante el tener una correcta metodología a la hora de trabajar, también es importante, tener herramientas que permitan su correcta explotación y de una manera eficiente. Es en este sentido en el que el presente proyecto, centra sus esfuerzos. Con este objetivo, se detallará como se ha mejorado la eficiencia de la arquitectura de una aplicación ya diseñada aplicando REST e independizando la parte del lado del servidor y la parte cliente apoyándonos en la biblioteca Google Web Toolkit e implementando el sistema Maven para facilitar la gestión de librerías. En cuanto a la interfaz REST se ha implementado un servlet que conectaría con la API (encargada de las acciones sobre la Base de Datos) que haría las funciones de servidor devolviendo convenientemente los datos en formato JSON.Ítem Adsorción de compuestos orgánicos en membranas poliméricas de nanofiltración y ósmosis inversa: cinética y equilibrio(Universidad Rey Juan Carlos, 2009) Prieto Alonso, DanielEste proyecto forma parte de una línea de investigación que se desarrolla en la actualidad en el Grupo de Ingeniería Química y Ambiental de la Universidad Rey Juan Carlos sobre tratamientos Avanzados de Depuración de Aguas Residuales. Actualmente, el tratamiento de aguas con membranas se presenta como una alternativa factible al tratamiento de contaminantes orgánicos por oxidación catalítica, ya que algunos de ellos, como los ácidos carboxílicos, presentan un fuerte carácter refractario. El uso de este tipo de tecnología en el estudio de la retención de determinados solutos, reconocidos como contaminantes prioritarios, encierra una gran relevancia social y científica, debido a las posibles aplicaciones que se pueden derivar del mismo. En la presente investigación se seleccionaron para su estudio dos membranas comerciales, una para tratamientos de nanofiltración (NF-90), y otra para tratamientos de ósmosis inversa (BW-30). La elección de las mismas estuvo basada en su reconocida aplicación al tratamiento de disoluciones acuosas orgánicas. El uso de las mismas en nuestro caso se justifica por el rango pesos moleculares y otras propiedades fisicoquímicas de los compuestos orgánicos que son objeto de interés en el grupo de investigación. Por su parte, se escogieron dos solutos orgánicos fenólicos, 2-Nitrofenol y 2-Clorofenol, como representantes de este conjunto de contaminantes reales. La caracterización tanto física como química es muy importante para alcanzar el máximo rendimiento de las membranas. Por ello, se realizó un estudio detallado mediante espectroscopia ATR-FTIR y microscopía electrónica de barrido para obtener la rugosidad superficial, así como medidas del ángulo de contacto para determinar el carácter hidrofóbico de la capa activa. Se observó que la membrana más hidrófoba, BW-30, presentaba una tipología más rugosa. Otro aspecto determinante, es la velocidad de adsorción de los solutos sobre las membranas. Debido a esto, se hizo un estudio para obtener las curvas cinéticas correspondientes y compararlas con las previsiones de los modelos cinéticos de pseudo-orden 1 y 2. Sistemáticamente se encontró que los datos cinéticos experimentales se ajustaban adecuadamente a cinéticas de pseudo-orden 2, las cuales predicen valores teóricos de cantidad de soluto adsorbido en el equilibrio, bastante cercanos a los obtenidos de forma experimental. Para completar el estudio de la adsorción, se determinaron las isotermas de equilibrio lo que permitió llevar a cabo una modelización de las curvas obtenidas. Se utilizaron como isotermas modelo las ecuaciones de Freundlich y Langmuir. Por último, se evaluó el comportamiento de las membranas de NF/OI mediante ensayos con una instalación experimental basada en la tecnología de flujo cruzado en continuo, que permite obtener la evolución temporal tanto del flujo de permeado como del rechazo de soluto. Ha resultado evidente, a la vista de los resultados experimentales, una correlación directa entre el rechazo de un soluto y su capacidad de adsorción sobre las membranas. Igualmente, se determinaron experimentalmente algunos aspectos prácticos relevantes de cara al uso futuro de la membrana a escala industrial, tales como la eficiencia en la producción de permeado por medio de la caída de flujo relativa al agua pura o la reversibilidad de la membrana para su reutilización mediante el porcentaje de pérdida originado.Ítem Adsorción de Hg(II) en disolución acuosa sobre materiales basados en TIO2(Universidad Rey Juan Carlos, 2010-04) Melgar Fiz, ÁlvaroEl mercurio ha sido catalogado como uno de los metales pesados más tóxicos que se encuentran en la naturaleza, siendo las actividades humanas la principal causa del incremento gradual del contenido de este metal en el ecosistema. Tiene diversos efectos adversos sobre la salud humana y el medio ambiente a nivel mundial. Con la finalidad de reducir progresivamente el impacto de este metal pesado en los seres vivos, la normativa nacional e internacional en materia ambiental es cada vez más estricta. Inherente a esta acción, surge la necesidad de poder eliminar el mercurio del agua o al menos reducir su concentración. El tratamiento de las aguas contaminadas con mercurio cuenta actualmente con una serie de técnicas y tecnologías denominadas convencionales, tales como la precipitación la coagulación, el intercambio iónico, la separación con membranas, la reducción o la adsorción. Sin embargo, la mayor parte de estos métodos requieren alta energía o grandes cantidades de productos químicos. En la última década se han propuesto nuevas tecnologías más avanzadas, como la fotocatálisis heterogénea, así como el perfeccionamiento de algunas tradicionales, tales como la adsorción. Se ha demostrado que la fotocatálisis heterogénea puede ser una tecnología prometedora con muchas aplicaciones en el medio ambiente. La fotocatálisis se ha utilizado para eliminar tóxicos, fundamentalmente compuestos orgánicos, pero también se ha propuesto para retirar contaminantes inorgánicos y metales pesados (entre ellos el mercurio) de las aguas residuales. En las reacciones fotocatalíticas los iones metálicos son eliminados de la disolución por reducción y deposición sobre el catalizador, pudiéndose alcanzar el estado metal. Sin embargo, se ha comprobado que existen escasos estudios acerca de la etapa de adsorción que precede a la fotocatálisis y que resulta fundamental para alcanzar buenos rendimientos de eliminación de los contaminantes. Teniendo en cuenta las consideraciones anteriores, en este estudio se ha analizado el proceso de adsorción de Hg(II) en disolución sobre materiales adsorbentes basados en TiO2. Para ello, se han escogido materiales sintetizados por medio de dos procedimientos diferentes. Uno de ellos se basa en el método sol-gel. El otro consiste en la formación de nanotubos de titanato, y se lleva a cabo mediante un método químico con presión autógena. El comportamiento de estos materiales se ha comparado con el material comercial TiO2 Degussa P25. En primer lugar, se han llevado a cabo ensayos para estudiar la cinética del proceso de adsorción. Estos experimentos se realizaron con una concentración inicial de Hg(II) de 100 mg/L. A partir de estos experimentos se determinó el tiempo de equilibrio y los resultados han sido analizados en términos de modelos semiempíricos. Además, se han realizado experimentos de equilibrio con el fin de obtener las isotermas de adsorción, así como para estudiar las capacidades de adsorción en diferentes condiciones, y proponer de ese modo las más adecuadas para el proceso de adsorción. Para ello, se efectuaron experimentos de adsorción en las mismas condiciones de trabajo que las empleadas en los ensayos cinéticos, salvo la concentración de Hg(II), que se varió entre 5 y 250 ppm. En este proyecto se ha analizado la influencia del pH del medio, que ha sido modificado entre valores de 2 y 10, sobre la cinética y la capacidad de adsorción del Hg(II) de los adsorbentes basados en TiO2. Según los resultados obtenidos, se ha demostrado que un aumento del pH es favorable para el proceso de adsorción. Por ejemplo, empleando nanotubos como material adsorbente se consigue elevar la capacidad de adsorción desde 14 mg/g a pH 2 hasta 100 mg/g a pH 10, partiendo de una concentración inicial de Hg(II) de 200 mg/L. También se ha comprobado que en idénticas condiciones de pH, los nanotubos de titanato ofrecen los mayores valores de capacidad de adsorción de Hg(II), seguidos del TiO2 sintetizado por el método sol-gel y del dióxido de titanio comercial P25. El estudio cinético ha desvelado que la velocidad aumenta al incrementarse el pH. El ajuste de los datos experimentales con modelos teóricos ha determinado que el proceso de adsorción de Hg(II) sobre materiales basados en TiO2 sigue una cinética de pseudo-segundo orden. En cuanto a los distintos materiales adsorbentes empleados, se ha encontrado que el sólido sintetizado vía sol-gel presenta una cinética más lenta que los otros dos. Por otra parte, el ajuste de los resultados de los ensayos de equilibrio realizados con los modelos semiempíricos de equilibrio de adsorción definidos por Freundlich, Langmuir y Sips, ha desvelado que la isoterma de este último modelo es capaz de representar adecuadamente el comportamiento del sistema estudiado en todo el intervalo de concentración de Hg(II) analizado. La última parte de esta investigación se ha centrado en el análisis de la influencia que tiene sobre el proceso de adsorción la adición de moléculas orgánicas tales como el metanol y el ácido fórmico en función del pH, entendiendo dicha operación como paso previo a la reducción fotocatalítica del Hg(II), donde dichas especies son muy influyentes. Se ha observado que el metanol apenas repercute sobre la capacidad de adsorción y que el fórmico mejora el proceso a pH natural y pH 7 debido a la interacción entre este producto y la superficie protonada del adsorbente. Tras analizar los resultados obtenidos a lo largo de la experimentación puede concluirse que el empleo de materiales generados a partir de TiO2 comercial supone una notable mejora en la adsorción de Hg(II) en disolución acuosa. Se han estudiado productos generados mediante dos vías principales, concluyendo que las mayores capacidades pueden obtenerse utilizando un novedoso material nanoestructurado constituido por nanotubos de titanato.Ítem Agenda Comunicativa para Personas con TGD o Autismo mediante dispositivos móviles(2010) Santiago Manzano, Miguel AngelEl autismo es un trastorno del desarrollo permanente que impacta en el desarrollo normal del cerebro dentro de las áreas relacionadas con la interacción social, las habilidades comunicativas y la organización de las actividades de la vida diaria de las personas que padecen este trastorno. En concreto, aplicaciones desarrolladas que faciliten las labores de comunicación de la persona autista con su entorno y la organización de las tareas rutinarias a través de dispositivos móviles, pueden ayudar a solucionar estos problemas mejorando de esta forma la calidad de vida de la persona autista y de las personas encargadas de su cuidado. Por este motivo, sería útil disponer de una agenda en la que se puedan programar tareas semanales, consultadas posteriormente por las personas que padecen autismo o TGD. Éste es el principal objetivo de este proyecto fin de carrera titulado ¿Agenda Comunicativa para personas con TGD o autismo mediante dispositivos móviles¿, que consiste en el desarrollo de una aplicación para dispositivos móviles, en la cual se muestra una agenda semanal de tareas previamente programadas por el responsable de la persona autista. La aplicación desarrollada se encuentra dividida en dos módulos: una herramienta de autor donde el responsable puede configurar fácilmente las tareas semanales de la persona autista y la agenda de tareas adaptada a la personas con TGD. Esta agenda permite una consulta rápida, fácil e intuitiva de las tareas programadas por parte del autista. La interfaz de la agenda se ha realizado de la forma más sencilla posible para minimizar tanto las opciones mostradas como las interacciones que tiene que realizar la persona autista con el dispositivo móvil. El usuario final podrá consultar actividades que tiene que realizar cada día de la semana mostrándose en forma de imágenes descriptivas de la actividad en cuestión. Además se le facilitará una ayuda en formato audio que se reproducirá en el momento que el usuario pulse sobre la imagen. Esta ayuda será una descripción breve y concisa de la actividad a realizar. Las tareas serán previamente configuradas por el padre, tutor o responsable a través de la herramienta de autor de la aplicación. Esta herramienta provee el interfaz necesario para este cometido, diferenciado del interfaz de consulta de la tarea adaptado para personas con TGD.Ítem Air Drum con Kinect. Simulación de batería instrumental con dispositivo de infrarrojos(Universidad Rey Juan Carlos, 2012-12) Sújar Garrido, AaronEl propósito de este proyecto es la realización de una simulación de una batería instrumental mediante una aplicación orientada a gráficos 3D, inspirada en las aplicaciones más representativas de este campo como son los videojuegos y los simuladores. Tomando estos como referencia, en este proyecto se han realizado investigaciones y estudios para el desarrollo de la aplicación, tales como buscar formas de conseguir una simulación lo más parecida posible, y tomado como ejemplos aplicaciones previas que sirvan como guía y modelo para la realización del proyecto. Para ello, se estructuró los pasos a seguir con el objetivo de crear una aplicación de simulación de un entorno educativo y musical, además de utilizarlo como medio de aprendizaje hacia la orientación profesional. El primer paso para la realización del proyecto, fue elegir OpenInventor, una librería que ayudó a comprender los aspectos de los gráficos 3D. Además se ha acompañado de tecnologías conocidas y presentes en la industria de los videojuegos, como el dispositivo de infrarrojos Kinect, en cuanto al sonido se ha utilizado OpenAL, y OpenCV, como librería para operaciones de visión computacional. El segundo paso era seguir una metodología aproximada al modelo de cascada y así ser capaz de realizar un desarrollo de software de calidad, con una gestión de configuración, realizando la documentación del software con Doxygen, definiendo unas pruebas, e incorporando un log profesional con Log4cxx. Además de estos aspectos, se ha incluido una evaluación de la aplicación en un grupo de usuarios, para valorar factores claves del desarrollo, como el realismo, la diversión y la facilidad de uso, y así obtener un resultado por un procedimiento científico semejante a los utilizados en las publicaciones y artículos científicos. Se ha conseguido una simulación dónde el usuario será capaz de interactuar con la batería musical, con una respuesta realista y en tiempo real, con una curva de aprendizaje mínima, siendo además, independiente a la posición, dimensión y vestimenta del usuario.Ítem Algoritmo de encaminamiento jerárquico para WSN extensas basado en codificación de red y LDPC(Universidad Rey Juan Carlos, 2012) Vázquez Arranz, Juan CarlosEn los últimos años, ha habido un fuerte desarrollo de dispositivos que usan sensores para la monitorización y, gracias a ello, cada vez los nodos sensores son más pequeños y baratos. Esto ha propiciado la aparición de WSN (Wireless Sensor Network; Redes de Sensores Inalámbricos) extensas, que pueden englobar un alto número de sensores que recogen información y la comunican de manera inalámbrica hasta un nodo central. Uno de los problemas que surgen en este tipo de redes es que los algoritmos de encaminamiento, que permiten llevar la información desde el nodo origen al nodo destino, no pueden evitar que aumente la tasa de error a medida que aumenta el número de saltos necesarios para alcanzar el nodo destino. El propósito de este Proyecto Fin de Carrera consiste en proponer un algoritmo jerárquico que busque reducir la BER (Bit Error Rate; Probabilidad de Error de Bit) en WSN densas y extensas y estudiar sus prestaciones. Para ello, se va a emplear una estructura de red de tipo árbol utilizando dos niveles, reduciendo así el número de saltos a dos. Además, en ambos niveles se va a utilizar una técnica de codificación de canal distribuida basada en Codificación de Red con códigos LDPC (Low Density Parity Check codes; códigos de Chequeo de Paridad de Baja Densidad). Una vez propuesto el algoritmo, se analizan sus prestaciones a partir de la obtención, mediante simulaciones, de las curvas BER frente a SNR (Signal to Noise Ratio; Relación Señal a Ruido). Dichas curvas se obtienen para una serie de escenarios posibles, simulados por medio de la herramienta MATLAB, modificando los valores de una serie de parámetros y estudiando cómo afectan a dichas curvas, con el objetivo de obtener valores adecuados para los distintos escenarios. Las prestaciones del algoritmo propuesto se comparan con el caso sin codificar y con otra alternativa de Codificación de Red y códigos LDPC en escenarios multisalto que fue estudiada previamente en el Departamento de Teoría de la Señal y Comunicaciones de la Universidad Rey Juan Carlos. Los resultados de las simulaciones permiten comprobar que el algoritmo propuesto en este Proyecto ofrece una importante ganancia de codificación respecto a los citados casos, consiguiendo una reducción significativa de la BER extremo a extremo en la WSN.Ítem Algoritmo evolutivo para la autolocalización de un robot móvil con láser y visión(Universidad Rey Juan Carlos, 2010) Rodríguez de Diego, DaríoEl problema de la autolocalización es clásico en el ámbito de la robótica autónoma ya que es vital conocer la posición del robot en todo momento para que los comportamientos del robot puedan escoger las mejores acciones a realizar en cada momento. Existen muchas formas de conseguir que el robot se localice dentro de un entorno, típicamente se han usado sensores específicos (GPS, inerciales, etc) o sensores no específicos (láser, sónares, cámaras, etc) y un mapa del entorno sobre el que se trabaja para poder estimar la posición del robot. En este proyecto se usan dos tipos de sensores externos, uno de distancia (láser) y otro de visión (cámara), para obtener las mejores características de cada uno. Con el láser conseguiremos información morfológica del entorno y con la cámara información visual. Además usaremos un mapa con la información visual y morfológica del entorno. También contaremos con sensores odométricos llamados encoders para capturar los movimientos del robot. Con nuestro algoritmo devolvemos la posición y orientación del robot (x,y,_) dentro del entorno de acción. El algoritmo que hemos usado es un algoritmo con muestreo llamado algoritmo genético multimodal. Este algoritmo se divide en dos partes, en la primera se explora el entorno y en las segunda se realiza una exploración local en las zonas donde es más probable que se encuentre situado el robot. En todo el proceso de ejecución del algoritmo están muy presentes un Modelo de observación, que extrae información en forma de probabilidad de los datos sensoriales y del mapa, y un Modelo de movimiento que nos permite replicar los movimientos que realiza el robot en el algoritmo. Se han realizado experimentos para validar cada una de las decisiones que se han tomado hasta llegar a la solución final obteniendo un algoritmo robusto y ágil. Todos los experimentos han sido realizados con el simulador Gazebo simulando un mundo parecido al Departamental II de la UJRC.Ítem Algoritmo Heurístico para el Problema del Vertex Separation(Universidad Rey Juan Carlos, 2010) Álvarez Mangas, SamuelLa tem¿atica de este Proyecto Fin de Carrera se enmarca dentro del ¿area de la optimizaci ¿on. Particularmente se centra en la resoluci¿on de un problema espec¿¿fico: el problema Vertex Separation. El objetivo del proyecto es encontrar heur¿¿sticas que permitan abordar el problema de forma eficiente, generando soluciones de buena calidad. Este proyecto no esta orientado al desarrollo de una aplicaci¿on de usuario, sino que est¿a m¿as cercano a un proyecto de investigaci¿on. En ¿el, se har¿a una introducci¿on al mundo de la optimizaci¿on, donde se hablar¿a sobre los distintos tipos de problemas de optimizaci¿on, su complejidad algor¿¿tmica, las metodolog¿¿as para abordarlos y el software existente para optimizaci¿on. Se har¿a una incursi¿on en los m¿etodos exactos y se comprobar¿a, a trav¿es de la experimentaci ¿on, que este tipo de m¿etodos resultan ineficientes para la resoluci¿on de este problema, cuando el tama¿no de la entrada es grande. Tambi¿en se documentar¿an algunos de los m¿etodos aproximados m¿as relevantes. Por un lado se introducir¿an los m¿etodos heur¿¿sticos, explicando en qu¿e consisten, cu¿ales son sus ventajas y qu¿e inconvenientes presentan. Por otro lado, se introducir¿a el concepto de t¿ecnica metaheur¿¿stica, se explicar¿an las ventajas e inconvenientes de este tipo de t¿ecnicas y, a partir de los resultados experimentales, se mostrar¿a como, este tipo de m¿etodos, consiguen soluciones de muy buena calidad en un tiempo razonable. Por ¿ultimo, se analizar¿an detalladamente los resultados obtenidos para determinar cu¿al de las t¿ecnicas propuestas, es la más eficaz.Ítem Algoritmos exactos para el problema del Antibandwidth(Universidad Rey Juan Carlos, 2010) Jaramillo Cáceres, CristianLos problemas de optimización se caracterizan por la búsqueda de un valor óptimo dentro del espacio de soluciones factibles, es decir, el valor de la mejor solución de entre todas las posibles. Para resolver este tipo de problemas existen programas genéricos (solvers) que, mediante una formulación matemática, son capaces de encontrar la solución óptima. También es posible la creación de programas específicos para resolver el problema. Dentro de los métodos específicos podemos distinguir entre técnicas aproximadas y exactas. Las técnicas aproximadas están basadas en heurísticas y son capaces de obtener soluciones de buena calidad en un tiempo limitado, pero sin poder certificar que dichas soluciones sean soluciones óptimas. Las técnicas exactas son aquellas que garantizan que la solución encontrada es la mejor posible, es decir, la solución óptima, aunque tienen el inconveniente de que invierten mucho tiempo en la ejecución. Dentro de los problemas de optimización, el problema del Antibandwidth, es un problema de maximización y, en base a la estructura de sus soluciones, un problema de permutaciones. El problema consiste en etiquetar los vértices de un grafo no dirigido y no ponderado, de forma que se maximice la diferencia mínima de etiquetas entre los vértices adyacentes. Las etiquetas se corresponden con el rango de valores [1..N], siendo N el número de vértices del grafo. Un vértice sólo puede tener una etiqueta y, una etiqueta sólo puede estar asignada a un único vértice. Entre las distintas aplicaciones del problema del Antibandwidth, una de las aplicaciones más relevantes es el reparto de frecuencias de radio a distintas emisoras. Las emisoras que están cerca geográficamente no pueden tener frecuencias muy parecidas, ya que esto generaría interferencias, por lo que se busca asignar frecuencias lo más distantes posibles a emisoras cercanas y frecuencias parecidas a emisoras que estén alejadas entre sí. El objetivo de este Proyecto de Fin de Carrera consiste en desarrollar un algoritmo exacto capaz de resolver el problema del Antibandwidth en un tiempo razonable, cuando el tamaño del mismo sea pequeño y, de dar cotas inferiores y superiores lo más ajustadas posibles, para problemas de mayor tamaño. Para ello se han propuesto diversos esquemas algorítmicos cuyo rendimiento será evaluado, comparando sus resultados con software comercial capaz de resolver este tipo de problemas, en concreto el solver CPLEX.Ítem Algoritmos heurísticos y metaheurísticos para el problema de localización de regeneradores.(Universidad Rey Juan Carlos, 2010) Rodríguez Ortiz, CarlosEl objetivo de este proyecto es resolver un problema que tiene una aplicación real en el mundo de las telecomunicaciones. Es un problema de optimización en el que se pretende, mediante el uso de algoritmos, encontrar soluciones que permitan ahorrar recursos a las empresas que trabajan en el sector. Dado un grupo de ciudades, con unas distancias entre ellas se quiere comunicar a todas con todas, de manera que cada ciudad encuentre un camino para comunicarse con cualquier otra. Este problema se modela informáticamente con una estructura de grafo, donde las ciudades son los nodos y los caminos junto con las distancias entre estas son las aristas del grafo. Dada la atenuación de las señales eléctricas u ópticas de transmisión de información se deben utilizar aparatos que refuercen la calidad de estas, y permitan alcanzar nuevos y más lejanos destinos. Estos aparatos son los regeneradores o repetidores de la señal y deben colocarse en los nodos del grafo. Es en esta colocación es en la que se centrarán los algoritmos, con el objetivo de colocar el mínimo número posible de regeneradores, ya que son relativamente caros, para poder comunicar completamente todos los nodos entre sí. Se han utilizado algoritmos de construcción de soluciones basados en algoritmos heurísticos los cuales construyen soluciones relativamente buenas y en ocasiones óptimas, pero en muchas ocasiones estas soluciones no son las mejores para el problema y pueden ser optimizadas. Para ello se han utilizado también algoritmos heurísticos de optimización, como la búsqueda local o el re-encaminamiento de trayectorias. Estos algoritmos reciben soluciones factibles construidas previamente e intentan mejorarlas, es decir, partiendo de ellas intentan encontrar una solución mejor. Los algoritmos anteriormente comentados son la base para construir algoritmos metaheurísticos, como es el caso de los algoritmos GRASP (Greedy Randomized Adaptative Search Procedures) y GRASP-PR (Greedy Randomized Adaptative Search Procedures with Path Relinking). Los algoritmos metaheurísticos son más completos y complejos que los heurísticos. Utilizan a los heurísticos y consiguen explorar un rango mayor de posibles soluciones para una instancia de un problema dado.Ítem Algunos algoritmos evolutivos basados en clases de equivalencias para la inducción de redes bayesianas a partir de datos(2004-09-10) López Ponce, EnriqueÍtem Ampliación del optófono(Universidad Rey Juan Carlos, 2010) Rey Mora, GuillermoEn este proyecto se ha desarrollado una aplicación capaz de generar sonidos estructurados a partir de imágenes. Estos sonidos pueden ser interpretados de tal manera que se pueda construir, a partir de ellos, una representación básica de la imagen de entrada. La aplicación está destinada a personas invidentes con el objetivo de ayudarles en la percepción y reconocimiento de imágenes. Como referencia principal, se han utilizado los avances realizados en la sonificación de imágenes por Peter B.L. Meijer. Señalar que la aplicación realiza sonificaciones tanto con imágenes en escala de grises como en color. En escala de grises, se puede generar sonido a partir de imágenes en las que se haya detectado los bordes de los objetos, o si se trata de vídeo, en las que se haya detectado el movimiento que existe en una escena. Para las imágenes en color, se podrá realizar la búsqueda y posterior sonificación de hasta tres colores diferentes, asociando a cada uno de ellos, un timbre diferente. Después de tratar y analizar las imágenes se crean los ficheros de audio que serán reproducidos posteriormente. A partir de las imágenes en escala de grises será generado un fichero de audio con formato WAVE, mientras que en las de color el fichero será de formato MIDI. El control de la aplicación se maneja desde una interfaz desde la cual se puede configurar los datos de entrada asociados a la imagen y al sonido. Para concluir el proyecto se han realizado varias sesiones de experimentación con una persona invidente, en las que se ha intentado comprobar el nivel de funcionalidad de la aplicación. Los resultados obtenidos son satisfactorios ya que se ha conseguido interpretar imágenes con cierta complejidad y sobretodo se ha conseguido identificar ciertas características del entorno visualizado por una cámara fija o en movimiento.Ítem Análisis de actividades en un entorno deportivo: Autolocalización y Seguimiento(Universidad Rey Juan Carlos, 2010-05-18) Tapiador Resino, DiegoEl presente proyecto trata sobre el desarrollo de software para extraer determinada información de interés con ayuda de un computador a partir de imágenes reales. La rama informática que se encarga de este tipo de estudios es la de la visión artificial, también conocida como visión por computador. Por tanto, el software desarrollado conlleva el procesamiento de imágenes para obtener datos relevantes de las mismas de modo que la máquina sea capaz de entender que es lo que esta viendo en esas imágenes y pueda actuar en consecuencia. Se ha procedido al estudio en este proyecto de secuencias de vídeo de partidos de fútbol. El objetivo final es conseguir, a partir de las imágenes de esas secuencias, que el computador sea capaz de conocer que parte del campo es la que esta viendo. Se pretende que la máquina, por ejemplo la cámara que esta visualizando el partido, sea capaz de auto localizarse a través de lo que "ve" ya que será " consciente" de hacia donde esta apuntando. Además, como siguiente paso es deseable que una vez realizada esta localización se consigan seguir visualmente las referencias que se hayan descubierto y mantener la posición en todo momento. En este documento se van a mostrar los resultados obtenidos a través del análisis de secuencias de partidos reales además del proceso llevado a cabo para conseguir la auto localización y el seguimiento, explicando detalladamente las técnicas que se han utilizado para alcanzar el objetivo especificado.Ítem Análisis de Contenidos Web mediante Informes Dinámicos(Universidad Rey Juan Carlos, 2010) González Servant, EduardoEste proyecto pretende mostrarnos como se ha llevado a cabo la implantación de un sistema de procesamiento y análisis de contenido web. En concreto, este desarrollo ha sido implementado en el departamento de informática de una determinada empresa, cuya necesidad era poder analizar datos que aportasen información sobre las descargas de los diferentes vídeos que se están sirviendo desde su plataforma web. Para dicha tarea se presentó un piloto de prueba, con el objetivo de ofrecer la posibilidad de realizar análisis mediante informes dinámicos, usando para ello la herramienta QlikView, cuyas características principales comentaremos posteriormente. Tras la elección de QlikView como herramienta de Business Intelligence por parte del cliente, se definieron algunos requisitos que debería recoger el informe de Descargas de Vídeos. Dicho informe debería contener gran cantidad de información para poder analizarla con un alto nivel de detalle, disponer de algún tipo de recarga automática diaria, y mantener un histórico de datos lo más amplio posible. Los resultados mostrados en nuestro informe se están usando actualmente para comprobar la calidad y éxito del servicio, así como para estudiar los costes originados. Posteriormente se estudiarán las diferentes fases que componen el proyecto de análisis de contenido web: - Obtención, Procesamiento y Carga de datos. - Diseño de informes. - Análisis de Datos. Además se mostrarán algunas imágenes del aspecto de este tipo de informes dinámicos, y se realizarán algunos ejemplos prácticos de consultas dinámicas sobre dichos informes.Ítem Análisis de la microestructura de copolímeros basados en propileno mediante técnicas de fraccionamiento en disolución(Universidad Rey Juan Carlos, 2010-06) Carracedo Asensio, Mª TeresaLos polímeros constituyen un conjunto de materiales de gran interés comercial y con diversas aplicaciones. Entre ellos, las poliolefinas son los polímeros más importantes, destacando el polietileno y el polipropileno como los materiales plásticos de mayor producción mundial. Estos materiales son muy interesantes desde el punto de vista industrial, ya que debido a la gran variedad estructural que presentan poseen numerosas y distintas aplicaciones. El polipropileno (PP) es un polímero termoplástico que presenta bajo coste de producción, facilidad de reciclado, baja densidad y elevada rigidez. Sin embargo, su principal limitación es su sensibilidad a la presencia de entallas a bajas temperaturas, lo que conduce a una baja tenacidad de fractura debido a su relativamente elevada temperatura de transición vítrea, Tg, ~ 0 ºC. Para aumentar dicha tenacidad de fractura se incorpora una fase gomosa dispersa en la matriz. Para ello se realiza la copolimerización del PP con otras poliolefinas de menor Tg como el polietileno. El presente proyecto se centra en el estudio de la microestructura de copolímeros de etileno/ propileno en bloque, denominado también polipropileno de alto impacto, con diferente contenido de comonómero y distintos pesos moleculares. La matriz de este tipo de copolímero está formada por polipropileno isotáctico, de elevado grado de cristalinidad, en la que un copolímero etileno/propileno elástomero (fase EPR) se encuentra finamente disperso. Los copolímeros de estudio del presente trabajo, han sido sintetizados empleando catalizadores Ziegler-Natta. Las propiedades de estos copolímeros no solo dependen del contenido en comonómero incorporado, sino también de la distribución del mismo en las cadenas poliméricas así como la distribución de pesos moleculares de las mismas. Es por este motivo por lo que resulta de gran importancia conocer la microestructura de estos polímeros, ya que de estos factores dependen muchas propiedades físicas de estos materiales. Para llevar a cabo este estudio, se ha realizado un fraccionamiento basado en la cristalinidad de cada fracción que compone cada copolímero seleccionado, con el objetivo de separar la fracción soluble de la no soluble. Esta última se ha fraccionado en base a los pesos moleculares de las diferentes fracciones que forman la misma. Las fracciones de cada material han sido posteriormente caracterizadas mediante distintas técnicas. Mediante cromatografía de permeación en gel (GPC) se han estudiado las distintas contribuciones de cada fracción al peso molecular promedio del copolímero de partida. Con la finalidad de justificar cada contribución de peso molecular, se ha realizado un análisis de fraccionamiento por elución mediante aumento de temperatura (TREF) de cada fracción. Los resultados de este análisis han permitido determinar las distintas familias de polímeros que constituyen cada fracción. Además, se ha llevado a cabo un análisis por resonancia magnética nuclear de 13-C (13C-RMN) mediante el cual se ha obtenido el contenido de etileno y su distribución en cada una de las fracciones. Finalmente se ha realizado un análisis, mediante la técnica de calorimetría diferencial de barrido (DSC), para estudiar la relación entre la distribución del comonómero en las distintas familias obtenidas para cada fracción y las propiedades térmicas de las mismas. Para ello, se han tenido en cuenta parámetros tales como la temperatura de fusión y el grado de cristalinidad. Tras realizar los distintos fraccionamientos y las diversas técnicas de caracterización explicadas anteriormente se ha determinado de forma general que a mayor porcentaje de etileno en las muestras, se obtiene mayor porcentaje de fracción soluble. Mediante el análisis GPC de las fracciones se ha determinado que a mayor peso molecular del copolímero sin fraccionar, mayor peso molecular de las diferentes fracciones. Además, en la distribución de pesos moleculares de las fracciones, se han obtenido curvas unimodales y bimodales. Por otro lado se ha determinado que a medida que aumentan las fracciones, al pasar de F2 a F6, aumenta progresivamente el peso molecular de las mismas, siendo F6 la que mayor peso molecular posee, mientras que de la fracción F6 a la fracción F8 el peso molecular disminuye. Mediante el análisis TREF se han obtenido las distribuciones de las composiciones químicas de cada una de las fracciones, determinándose de forma general, que a mayor contenido de etileno en la muestra, menor peso molecular de la fracción. Finalmente y mediante el estudio DSC de las fracciones se ha observado que a mayor peso molecular del copolímero sin fraccionar, menor es la cristalinidad de las fracciones. Se ha determinado también que a medida que aumenta el número de fracciones, aumenta la isotacticidad del polipropileno y por tanto la cristalinidad del mismo. Finalmente se ha obtenido que a mayor contenido de polietileno en las fracciones, mayor cristalinidad de las mimas. Por el contrario, el contenido en fracción soluble en las fracciones implica una disminución de la cristalinidad de éstas.