1 | Título | Tutor(es) | Resumen | Asignado a alumno (Sí/No) | |
---|---|---|---|---|---|
2 | Propuestas de Trabajos de Fin de Máster, especialidad en Ciencia de Datos y Tecnologías Inteligentes | ||||
3 | 1 | Estudio e implementación de técnicas de clustering semisupervisado | Amparo Vila | Los modelos de clustering semisupervisdo intentan utilizar el conocimiento parcial que se pueda tener en proceso de agrupamiento. En estos modelos se supone que, aunque no se conoce cuales son las clases a las que pertenecen los ítems de un determinado dataset, se puede saber, bien si algunos pocos ítems pertenecen a clases determinadas, bien si algunos ítems deben estar juntos y otros deben estar separados. Existen estudios de que adaptan las técnicas de clustering, tanto crisps como difusas a este tipo de problemas. Hasta donde se conoce hay muy pocas o ninguna implementacion de estas técnicas, desarrolladas como librerías en software libre de Minería de Datos como R o Weka. Los objetivos del presente proyecto son:estudio actualizado de las técnicas de clustering semisupervisado;implementación de algunos de los modelos más conocidos como una librería de R. | |
4 | 2 | Estudio de los algoritmo de aprendizaje incremental de árboles de decisión e implementación en R de un caso concreto | Antonio González, Raúl Pérez | Los algoritmos de aprendizaje incremental de árboles de decisión aprenden árboles de decisión a partir de un árbol de decisión previo y nuevos ejemplos de entrenamiento. Esto puede ser particularmente útil cuando no se dispone en un primer momento del conjunto total de ejemplos, cuando el conjunto de datos es excesivamente grande, o el proceso sufre cambios a lo largo del tiempo. En el proyecto se analizarán brevemente algunas propuestas existentes, se elegirá una de ella y se hará una implementación en R de la misma, junto con un análisis de su funcionamiento. | |
5 | 3 | Metaheurísticas para Problemas de Optimización en un Reactor Nuclear | David A. Pelta, Juan José Ortiz | En el contexto de la operacion de un reactor nuclear de agua en ebullición surgen una serie de problemas de optimización muy complejos pero que deben ser resueltos de manera eficiente. Uno de los inconvenientes para dicha resolución, es que la función objetivo se calcula utilizando un software de simulación comercial privativo, que además requiere un alto coste computacional. A lo largo del tiempo, se han desarrollado modelos surrogados de dicho simulador orientados a obtener valores aproximados de la solución, pero utilizando un tiempo computacional asumible. En este TFM se propone estudiar y comparar metaheurísticas para la resolución de algunos problemas de optimización asociados al reactor y validar las soluciones obtenidas utilizando el simulador comentado. Este trabajo se realizará en colaboración con el Dr. Juan José Ortiz, del Instituto Nacional de Investigaciones Nucleares, de México. | |
6 | 4 | Estudio bioinformático del epigenoma de células madre | David Landeira y Manuel Gómez Olmedo | Las células madre pluripotentes mantienen el potencial para diferenciarse a cualquier tipo celular que compone el cuerpo humano y por lo tanto serán de gran utilidad en biomedicina para el tratamiento de enfermedades humanas degenerativas como Alzheimer, Parkinson o Infarto cerebral. Somos un grupo multidisciplinar interesado en el epigenoma de las células madre en el que combinamos técnicas tradicionales de biología molecular y celular con plataformas emergentes bioinformáticas. Actualmente estamos poniendo a punto, implementando y desarrollando herramientas bioinformáticas y modelos probabilísticos para el análisis individual e integrado de grandes conjuntos de datos a escala genómica generados por nuestro grupo. Más información: http://decsai.ugr.es/gte/index_gte.html; http://www.ugr.es/local/davidlandeira | |
7 | 5 | Estrategias Cooperativas para Problemas Combinatorios Dinámicos de Optimización | David Pelta | El uso de estrategias cooperativas basadas en metaheurísticas para resolver problemas de optimización ha sido creciente y relevante en los ultimos años. Por otro lado, existe un interés en los llamados problemas dinámicos de optimización donde alguno de los elementos (la función objetivo, las restricciones, el tamaño del problema) varían con el tiempo. Sirva como ejemplo el problema de localizar paradas de taxi a lo largo del día. La demanda de vigilancia en las zonas suele ser diferente a la mañana, la tarde y la noche. En este TFM se propone estudiar y aplicar estrategias cooperativas para abordar la resolución de problemas Combinatorios Dinámicos de Optimización en el ámbito de la logística, teniendo en cuenta además los costos de adaptación de la solución entre períodos distintos del mismo problema. | |
8 | 6 | Construcción de un paquete en R de visualización de anomalías. | Juan Carlos Cubero | El objetivo es construir un paquete para visualización y etiquetado de anomalías. Requisitos: Cursar las asignaturas "MINERÍA DE DATOS: APRENDIZAJE NO SUPERVISADO Y DETECCIÓN DE ANOMALÍAS " y "MINERÍA DE DATOS: PREPROCESAMIENTO Y CLASIFICACIÓN". Conocimiento de programación nivel medio/avanzado de R y uso de paquetes para extraer componentes principales y visualización de los datos en un biplot sobre el espacio generado por las componentes principales. | |
9 | 7 | Análisis de asociaciones entre polimorfismos genéticos y fenotipos relacionados con actividad física, sedentarismo, forma física y factores de riesgo cardiovascular en adolescentes Europeos mediante minería de datos | Juan Manuel Fernández Luna | A partir de una base de datos de más de 100 SNPs medidos en una muestra de unos 1000 adolescentes de toda Europa se pretende poner en práctica el proceso completo de minería de datos con objeto de descubrir nuevo conocimiento. Además, se pretende responder a cuestiones, entre otras, tales como: Asociación entre perfil genético y actividad física, asociación entre perfil genético y sedentarismo, asociación entre perfil genético y perfil de riesgo cardiovascular. Por tanto, el objetivo del TFM es realizar un análisis completo de los datos para extraer de los mismos nuevo conocimiento a partir de las técnicas estudiadas en el máster. El perfil del alumno que se requiere en este TFM será alguien con muchas ganas de trabajar, hacer un trabajo estupendo y aprender mucho, y que le atraiga el mundo de la investigación, que tenga buenas habilidades sociales, pues se va a trabajar en un equipo multidisciplinar, con conocimientos previos de Inteligencia de Negocio y con mucha iniciativa propia y capacidad de resolución de problemas. Los resultados del TFM serán susceptibles de ser publicados en una revista internacional. | Elisabeth Ilbay |
10 | 8 | Estrategias de particionado en construcción de árboles de clasificación. | Manuel Gómez, Andrés Cano | El objetivo de este trabajo consiste en considerar nuevas estrategias de selección de variables para particionado durante el proceso de construcción de árboles de clasificación. Estas nuevas estrategias considerarán la posibilidad de usar varios criterios de medida de ganancia de información en cada nodo. También se analizarán estrategias de selección de varias variables de forma conjunta, en lugar de una sola. El resultado final consistirá en la implementación de los correspondientes algoritmos en R, realizando una experimentación que permita comprobar de forma experimental el funcionamiento de las alternativas probadas. | |
11 | 9 | Aprendizaje de redes Bayesianas mediante técnicas de búsqueda heurística | Manuel Gómez, Andrés Cano | El objetivo de este trabajo consiste en estudiar algunos métodos de aprendizaje de redes Bayesianas basados en el uso de estrategias de búsqueda heurística, detectando posibles formas de mejora y ofreciendo alguna implementación básica en algún entorno de tratamiento de modelos gráficos probailísticos. | |
12 | 10 | Procesamiento, Extracción de Rasgos y Detección de Amenazas en Imágenes Milímétricas. | Rafael Molina Soriano | Los sistemas pasivos de adquisición de ondas milimétricas detectan la radiación natural que reflejan o emiten los cuerpos/objetos en una escena. Esta radiación es enfocada en un detector y transformada en una señal eléctrica. Las ondas milimétricas pueden penetrar a través de ropa, plástico y otros materiales. Esta característica las convierte en muy útiles para detectar objetos metálicos y no metálicos ocultos en personas. Los sistemas pasivos no emiten radiación, y por tanto, son 100% seguros. En el campo de las imágenes milimétricas pasivas existe un número importante de problemas abiertos cuya solución está basada en la investigación y el desarrollo de métodos de procesamiento y extracción de información de dichas imágenes. Mientras estos problemas están presenten en diferentes sistemas de captación (por ejemplo, visible, multiespectral, hiperespectral), las imágenes pasivas milimétricas tienen sus propias características inherentes que complican más la búsqueda de su solución. Las imágenes son de baja resolución, con poca textura, sin información de color y de una calidad pobre. Son necesarias técnicas de procesamiento para poder evaluar el contenido de la imagen real subyacente mediante inspección visual o clasificación/detección automática. Una vez que la imagen real subyacente ha sido obtenida mediante procesamiento, es necesario extraer de ella información semántica. Más específicamente, las amenazas han de ser identificadas. En este Trabajo Fin de Master se desarrollarán técnicas de procesamiento para obtener imágenes de mayor (alta) calidad a partir de imágenes milimétricas pasivas de baja resolución y calidad. De estas imágenes mejoradas se extraerán rasgos que serán utilizados en tareas de detección de amenazas. Dicha detección de amenazas se abordará desde diferentes puntos de vista, siedo uno de ellos la utilización de modelización e inferencia Bayesiana. | |
13 | 11 | Implementación en R de un algoritmo de aprendizaje de reglas difusas y experimentación con el algoritmo | Raúl Pérez, Antonio González | La idea del proyecto es tomar un algoritmo de aprendizaje de reglas difusas basado en un modelo iterativo, analizar dicho algoritmo, realizar una implementación del mismo en R y finalmente experimentar con el mismo sobre diversas bases de datos para conocer su capacidad de predicción, su capacidad para trabajar con bases de datos complejas y su eficiencia temporal. El algoritmo seleccionado es NSLV-AR, un algoritmo diseñado recientemente en el departamento de Ciencias de la Computación e I.A. cuya principal característica es la de obtener un conocimiento simple y comprensible. | |
14 | 12 | Predicción de sitios de unión de factores de transcripción en eucariotas | Rocio Romero Zaliz, Coral del Val | La disponibilidad de gran cantidad de secuencias de genomas eucariotas, como el genoma humano, ha llevado al actual desafío de comprender las redes de regulación subyacente a la expresión genética. Como consecuencia de ello, se ha producido un rápido aumento en el número de bases de datos disponibles, métodos y programas dedicados al análisis de promotores durante los últimos años. A pesar de la gran cantidad de datos y algoritmos disponibles, la identificación del promotor principal y la localización del sitio de inicio de transcripción en la anotación del genoma sigue siendo uno problema difícil. En los organismos metazoos, el núcleo promotor suele contener más de un patrón: el iniciador, uno o más elementos de reconocimiento de factores de transcripción, y otros elementos del núcleo promotor en la secuencia de ADN inmediatamente anterior al inicio del gen. En este contexto, el uso de secuencias promotoras ortólogas puede ayudar en el reconocimiento de patrones conservados y, por tanto, potencialmente funcionales. Este enfoque se basa en el supuesto de que las regiones y elementos reguladores de los genes suelen estar conservados durante la evolución, con el inconveniente de que el enfoque de la presión selectiva de los genes ortólogos debe ser similar en cada organismo respectivo. Hay muchas herramientas disponibles para la predicción de regiones promotoras potenciales y de factores de transcripción de sitios de unión (TFBSs). Por desgracia, estas herramientas no pueden evitar la predicción de una gran cantidad de falsos positivos, el mayor problema en el análisis de promotores. La combinación de diferentes métodos y algoritmos ha demostrado una mejora en la precisión de la predicción de varios problemas biológicos, tales como la predicción de genes. En este TFM la intención es utilizar este método para llevar a cabo un análisis exhaustivo integral de identificación y anotación de regiones promotoras potenciales, mediante el uso de un algoritmo heurístico (e.g., algoritmo evolutivo) para llevar a cabo esta combinación de métodos. De esta manera seremos capaces de integrar toda esta información e identificar entre el gran número de predicciones de TFBSs aquellos que son más propensos a ser potencialmente funcionales. | |
15 | 13 | Paquete en R para análisis de alineamientos múltiples y co-evolución de aminoácidos | Rocio Romero Zaliz, Coral del Val | El análisis estadístico de secuencias de proteínas se presenta como una alternativa para la inferencia de pares de residuos que interaccionan entre distintas proteínas. Los métodos existentes hasta el momento adolecen de un gran numero de falsos positivos. Estos algoritmos no ha tenido en cuenta la interacción entre los distintos aminoácidos, el grado de conservación entre los distintos grupos filogenéticos y los posibles cambios en la conformación de la proteína. El paquete propuesto pretende generar un proceso automatizado para la identificación de puntos críticos de interacción de proteina-proteina y, por tanto, localizar zonas funcionales de interés que puedan ser posteriormente simuladas en ordenador utilizando técnicas del dinámica molecular y mecánica cuántica. | |
16 | 14 | Seguimiento de un escalador de rocódromo usando un sistema multi kinect | Rosa Mª Rodríguez Sánchez | Cuando un escalador entrena en rocódromo partes de su cuerpo (manos, pies, brazos) son ocultas por otras, o simplemente el sistema kinect , debido a su perspectiva, no le hace el seguimiento correctamente. El objetivo es comunicar dos sistemas kinect para mejorar el seguimiento del escalador cuando entrena en rocódromo. | |
17 | 15 | Aprendizaje incremental de redes bayesianas | Silvia Acid Carrillo y Luis M. de Campos Ibáñez | Las redes bayesianas son un formalismo de representación del conocimiento con incertidumbre que gozan de un amplio reconocimiento y aceptación. En la actualidad la mayoría de los algoritmos para el aprendizaje automático de redes bayesianas emplean la metodología clásica, estática, de aprendizaje en modo "batch", en el que todos los datos están disponibles desde el principio y se trata de aprender un único modelo estático a partir de esos datos. Pero cada vez se dan más situaciones en que los datos se van generando dinámicamente con el tiempo, y el modelo de aprendizaje debe de ser capaz de incorporar nuevos datos para mejorar/refinar el modelo aprendido hasta el momento ("stream mining", "online learning"). El objetivo del trabajo es el estudio del estado del arte en el tema de aprendizaje incremental de redes bayesianas. | |
18 | 16 | Aprendizaje interactivo con secuencias de datos con cambio de concepto | Silvia Acid Carrillo y Luis M. de Campos Ibáñez | Se dispone de un clasificador online aprendido de forma incremental a partir de una secuencia de datos etiquetados pero, a la llegada de una nueva muestra, ¿hay que de aceptar la clasificación dada por el clasificador siempre? o bien, en caso de disponer de un experto, cuando el clasificador no tiene un nivel de confianza suficiente, se le consulta la clase verdadera a éste. En tal contexto, hablamos de un clasificador interactivo. El conocimiento sobre los nuevos datos solicitados se incorporan al modelo, y la intervención de éste será cada vez menor... Sin embargo, la distribución de los datos que llegan puede variar en el tiempo, de manera que el modelo aprendido ya no representa bien los nuevos datos y es necesario aprender un nuevo modelo, el clasificador online al detectar que se ha producido un CAMBIO, tendrá que solicitar al experto con mayor frecuencia la aportación de conocimiento para alcanzar un nuevo modelo con el que clasificar de forma fiable la nueva secuencia. Es importante aclarar que, en las secuencia de datos no se disponen de las etiquetas verdaderas salvo que se hayan solicitado al experto, como en una clasificación de correo. No se trata de secuencias en las que siempre se tienen las clases verdaderas, como los datos de cotización de bolsa. El objetivo del trabajo consiste en determinar un mecanismo de control de ajuste del modelo a los datos para poder detectar cambio en los datos, y una forma de combinar la interactividad con la transición de modelo. | |
19 | 17 | Identificación de armas mediante registrado evolutivo de imágenes | Oscar Ibáñez y Oscar Gómez | En este trabajo fin de master nos plantemos que el alumno se familiarice con las técnicas de registrado de imágenes, calibración de la cámara, y las técnicas de optimización (metaheurísticas y clásicas) que guiarán este proceso. En una primera fase, el alumno tendrá que llevar a cabo el modelado 3D de réplicas de armas de fuego (mediantes fotogrametría y escáneres de los que disponemos en el laboratorio), y la obtención de fotografías 2D de las mismas armas en entornos controlados. Posteriormente, implementará (o usará el código disponible en el grupo) diferentes modelados para el problema de registrado, probará diferentes algoritmos de optimización, y diferentes enfoques para el registrado de los modelos 3D y las imágenes 2D de las armas con el objetivo final de tener un sistema semi-automático de reconocimiento de armas de fuego en imágenes. | |
20 | 18 | Registrado evolutivo en superposición craneofacial: incorporación de información estadística para la mejora del registrado y toma de decisiones | Oscar Ibáñez y Andrea Valsecchi | La superposición craneofacial es una técnica de identificación forense en la que se compara un cráneo encontrado con fotografías de personas desaparecidas mediante el análisis de sus correspondencias morfológicas. Durante los últimos 10 años hemos desarrollado (en colaboración con antropólogos forense de la UGR y con investigadores del European Centre for Soft Computing) un sistema para la automatización de esta tarea basado en técnicas de visión por ordenador, algoritmos evolutivos y conjuntos difusos. Dicho sistema ha recibido premios internacionales, está patentado y dicha patente está actualmente en explotación en forma de software comercial. En este trabajo fin de master nos plantemos que el alumno se familiarice con esta técnica de identificación y con los algoritmos desarrollados para posteriormente mejorar el proceso evolutivo de registrado de imágenes (modelo 3D del cráneo y fotografía de la cara de la persona desaparecida) y/o el proceso de toma de decisiones. Para ello se tomarán como base dos estudios estadísticos realizados por los miembros del equipo de investigación, el estudio de la dispersión en el marcado de landmarks cefalométricos (2D), y el estudio de correlación de las distancias de tejido blando entre landmarks cráneométricos (3D) y cefalométricos (2D). El nuevo método desarrollado será luego validado tanto en casos reales de identificación de restos esqueléticos como en casos de pacientes vivos. | |
21 | 19 | Fusión de información de alto nivel en redes de sensores | Manuel Pegalajar Cuéllar, María del Carmen Pegalajar Jiménez | Las tecnologías de redes de sensores, y en especial las redes de sensores inalámbricas, han evolucionado notablemente en diversos aspectos: Sensores cada vez más pequeños, redes masivas de sensores autoconfigurables, mayores capacidades sensoras integradas dentro de un mismo dispositivo, etc. Este hecho conlleva que, cada vez más, seamos capaces de obtener información masiva y fiable sobre el entorno, dependiendo de dónde se haya desplegado la red y del problema de monitorización subyacente (agricultura de precisión, monitorización del medio ambiente, medicina, domótica, seguridad, etc.). En este contexto, es posible aplicar técnicas del área del aprendizaje automático y de la minería de datos que nos puedan servir para extraer nuevo conocimiento desde los datos obtenidos. El Trabajo Fin de Máster propuesto se enmarca en esta línea, y consiste en realizar una aplicación para integración de información, a nivel contextual, sobre datos recibidos desde redes de sensores inalámbricas. En particular, se estudiará un problema de monitorización ambiental para detectar relaciones entre los datos procedentes de varios nodos de la red, con el fin de extraer conocimiento sobre las relaciones entre datos y la inferencia de conocimiento de alto nivel. | |
22 | 20 | Sistemas de recomendaciones para documentación jurídica | Antonio Gabriel López Herrera | Se pretende desarrollar un sistema de recomendaciones que permita a personas (usuarios particulares, abogados, juristas, estudiantes, ...) interesadas en documentación legal/oficial, estar al día de las últimas publicaciones (boletines oficiales, sentencias jurídicas, noticias, ...) relacionadas con sus temas de interés. El sitema debe ser capaz de procesar las necesides de información explícitas e implicitas de cada usuario, a fin de recomendar los documentos más afines. El sistema será capaz de aprender de la experiencia de sus usuarios (tanto de manera individual como colectiva). El sistema aplicará un enfoque mixto, recomendando tanto en base a contenido como de manera social (en base a lo que otros usuarios con similares necesidades de información) hayan visto anteriormente. Y por último, el sistema debe ser capaz de integrar diferentes fuentes de información (BOE, BOJA, BORME, jurisprudencia, etc.). | si. Juan Carlos Bailón Elvira |
23 | 21 | Sistema inteligente para la gestión de campañas publicitarias en social media: aplicaciones de la minería de opiniones y del análisis de sentimientos | Antonio Gabriel López Herrera | Se pretende incidir sobre el universo del monitoreo de redes sociales, a través de las técnicas de Minerías de Opiniones (MO) y Análisis de Sentimientos (AS) y desarrollar/validar un método para extraer, filtrar y clasificar informaciones procedentes de redes sociales como Twitter, Facebook, Intagram, etc. Tales informaciones serán tratadas para transformar datos aparentemente irrelevantes, en conocimiento fundamentado que amplíe el valor competitivo de las empresas. El objetivo general de este TFM es desarrollar un método y un software asociado de MO para potenciar las prácticas del marketing relacional . Objetivos específicos: (A) Desarrollar procedimientos para extraer i) los temas de mayor interés y relevancia, así como ii) los mensajes y los/las usuarios/as más influyentes relacionados con campañas publicitarias;(B) Desarrollar métricas para localizar geográficamente los/las usuarios/as a través de los tweets publicados a fin de determinar su perfil socio-demográfico; (C) Estudiar los diferentes procedimientos y métodos de AS y compararlos para identificar los niveles de bondad de cada uno, (D) Constituir un método que integre todo lo anterior e implementar un software, que será utilizado como herramienta en la toma de decisiones relacionadas al diseño de productos, servicios y campañas de marketing asociadas. | |
24 | 22 | Indicadores de reputación para repositorios institucionales: diseño e implementación | Antonio Gabriel López Herrera | Para solucionar este problema, desarrollamos un módulo de revisión por pares abierta como un servicio de superposición para repositorios institucionales o de otro tipo existentes. Trabajos de investigación digitales alojados en repositorios utilizando nuestro módulo podrán ser evaluados por un número ilimitado de pares que ofrecerán no sólo una evaluación cualitativa en forma de texto, sino también las medidas cuantitativas para construir la reputación de la obra. Fundamentalmente, nuestro módulo de revisión por pares abierta también incluye un sistema de reputación de revisor basado en la evaluación de las opiniones de sí mismos, tanto por la comunidad de usuarios y por otros revisores. Esto permite un escalado sofisticado de la importancia de cada opinión sobre la evaluación global de un trabajo de investigación, basado en la reputación del revisor. El sistema podrá cuantificar la reputación de documentos, autores, revisores y de la propia evaluación/revisión. Para cuantificar esta reputación es necesario definir y validar las métricas correctas. Definir e implementar estas métricas de reputación son el objetivo de este Trabajo Fin de Grado. El módulo donde estas métricas se incluirán queda fuera de este TFG. Para más información: http://www.openscholar.org.uk/developing-the-first-open-peer-review-module-for-institutional-repositories/ | |
25 | 23 | Minería de Redes para la Detección y Análisis de Comunidades Sociales Ocultas de Co-Autoría y Co-Citación en Literatura Científica | Antonio Gabriel López Herrera | La cienciometría (o bibliometría aplicada a la ciencia), es una disciplina cuyo elemento de trabajo es la información científica (fundamentalmente contenida en artículos de revista, contribuciones a congresos, etc.), y cuyo objetivo es la extracción de conocimiento a partir de dicha información. De manera resumida, nos encontramos con dos tipos de cienciometría, cienciometría básica (de corte más estadístico) cuyo objetivo es la obtención de resúmenes (número de artículos, número de autores, números de citas, etc.) de la información científica; y la cienciometría avanzada, cuyo principal objetivo es la elaboración de resumen más sofisticados, que suelen finalizar con una representación visual, donde la estructura de red suele tener un papel destacado. En el ámbito de la cienciometría avanzada, existen numerosas, técnicas, herramientas y algoritmos para extraer y/o visualizar la estructura de red subyacente en un conjunto de documentos científicos. Cuando el conjunto de documentos no es muy grande, y la red subyacente es de pequeño tamaño, prácticamente cualquier algoritmo, técnica o herramienta es capaz de obtener buenos resultados, y la representación asociada suele ser suficientemente ilustrativa. Sin embargo, cuando la cantidad de documentos a analizar es lo suficientemente grande, los resultados pueden variar significativamente dependiendo del enfoque/método utilizado. En estas situaciones es donde la selección de la técnica, algoritmos y herramienta/as a utilizar tiene una influencia definitiva en los resultados obtenidos. La determinación de qué enfoque usar en cada situación y de qué forma, necesita del conocimiento experto del analista, que en muchos casos, se expresa en forma de “know-how”. En trabajos previos desarrollamos la herramienta SciMAT (Science Mapping Analysis Software Tool - http://sci2s.ugr.es/scimat/index.html) , cuyo objetivo principal es la extracción y visualización de diferentes tipos de redes a partir de documentos científicos. SciMAT incorpora varios tipos de algoritmos para la extracción/delimitación de subredes o grupos de interés a partir de redes más grandes. Estos subgrupos son de gran interés para la comprensión de la red global, ya que ayudan a conocer qué elementos/entidades son los que articulan la red; qué elementos son fundamentales para ésta; cómo se relacionan entre ellos, etc. SciMAT no es la única herramienta de estas características, ni la herramienta más potente y rica en algoritmos de las disponibles en la literatura, pero si se ha probado lo suficientemente potente para la extracción/visualización de conocimiento científico en diferentes ámbitos. Aunque SciMAT es capaz de trabajar con 20 tipos diferentes de redes (interviniendo diferentes actores de la ciencia: autores, palabras clave, referencias, revistas, etc.), está especializada en el análisis de palabras clave, es ahí donde la herramienta explota su máximo potencial, permitiéndonos detectar grupos de interés (temas y redes temáticas). El objetivo del presente proyecto de investigación es dar un paso más allá, con la idea de aumentar la potencialidad de SciMAT a la hora de manejar redes de autores (o comunidades de interés como se conoce en la literatura). Esta mejora/extensión de SciMAT, tiene como objetivos particulares la incorporación de nuevos algoritmos para la extracción de redes, y subredes, la mejora de la visualización de las redes/subredes obtenidas. Y fundamentalmente, el desarrollo de una nueva metodología para la detección de comunidades sociales ocultas de co-autoría y co-citación a partir de información científica. | |
26 | 24 | Establecimiento de relaciones genéticas y clínicas entre diversos desordenes mentales | Coral del Val, Igor Zwir | El objetivo de este trabajo es el estudio riguroso desde el punto de vista bioestadístico de GWAS y el establecimiento de relaciones genéticas y clínicas entre diversos desordenes mentales. El objetivo de este trabajo es el estudio riguroso desde el punto de vista bioestadístico de GWAS y el establecimiento de relaciones genéticas y clínicas entre diversos desordenes mentales. El objetivo es identificar factores de comorbididad entre dichas enfermedades. Sea analizaran diversos estudios en base a conceptos bioestadístico incluyendo diversos test de asociación. Los temas incluyen: test estadísticos, regresiones multivariantes, logísticas, estratificación de poblaciones, varianza, estudios longitudinales, entre otros. También se incluirán temas epidemiológicos. | |
27 | 25 | Evaluación de traductores griego-español | Rocío Celeste Romero Zaliz, Maila García Amoros | El objetivo de este trabajo es evaluar varios traductores griego-español en base a un conjunto de frases previamente seleccionadas. Estas frases se elegirán haciendo uso de técnicas de procesamiento de lenguaje natural. Para realizar este trabajo se deberán definir y evaluar diferentes funciones de valoración de resultados. Keywords: Análisis de datos, Clasificación automática, Procesamiento de Leng. Natural, Recuperación de información | |
28 | 26 | Algoritmos Genéticos Multiobjetivo para el Diseño de Modelos Basados en Agentes | Óscar Cordón | La simulación social basada en modelado con agentes (agent-based modeling, ABM) ha demostrado su utilidad resolviendo problemas a partir de la definición de comportamientos individuales y relaciones sociales (sistemas complejos). Los algoritmos genéticos han sido empleados con éxito en muchas tareas de definición del modelo tales como la calibración o la optimización del mismo. En este TFM pretendemos aplicar los algoritmos genéticos multiobjetivo en este campo. Para ello nos planteamos el estudio de ABMs en el campo del marketing, en concreto en problemas de caracterización del comportamiento de consumidores inmersos en una red social en mercados competitivos. Para ello usaremos un modelo clásico CONSUMAT sobre el que pretendemos diseñar e implementar un método evolutivo para la generación automática de estrategias combinadas de marketing viral basadas en el uso de distintas métricas locales de análisis de redes sociales. Posteriormente, nos planteamos extender el procedimiento empleando algoritmos genéticos multiobjetivo que optimicen conjuntamente el coste y el alcance de la campaña. Adicionalmente, podríamos plantearnos el uso de este tipo de algoritmos para la calibración de modelos de ABM de cualquier tipología a partir de datos históricos. | Juan Francisco Robles Fuentes |
29 | Implementación de un algoritmo que resuelva el problema entre diversidad y precision de los sistemas de recomendación | Coral del Val, Igor Zwir | Los sistemas de recomendación predicen los gustos e intereses de un usuario utilizando los datos de sus decisiones anteriores por ejemplo buscadores (google), webs de compra (amazon), recomendaciones multimedia (spotify, netflix), redes sociales (facebook, linkedin), etc. Se han desarrollado sistemas de recomendación que utilizan distintas técnicas ( filtrado colaborativo basado en el contenido, el análisis espectral, modelos semánticos latentes, ect..). Todas ellas tienen en común que se basan en la similitud, ya sea de los usuarios, de los objetos, o de ambos. Así muchas paginas web de comercio electrónico utilizan la superposición entre las compras previas de un cliente y la actividad de la navegación para recomendar productos. Sin embargo, el riesgo de estas estrategias es que, al basarse en la superposición en lugar de en la diferencia, los usuarios tienden a obtener una recomendación de objetos cada vez más reducida, mientras que los artículos “nicho” pueden pasarse por alto. Este enfoque que mide la similaridad se ve limitado por las métricas que se utilizan en su evaluación, dado que casi todos los algoritmos utilizan como métrica la precisión, y sin embargo, una recomendación precisa no tiene porque ser necesariamente útil. El verdadero valor del sistema de recomendación está en poder recomendar al usuario objetos que no serían fáciles de descubrir por uno mismo, es decir, en la novedad y la diversidad de la recomendación según apuntan Zhou et al., PNAS (www.pnas.org/cgi/doi/10.1073/pnas.1000488107). Este TFM pretende implementar el algoritmo propuesto por Zhou et al., así como posibles modificaciones al mismo para abordar el problema de elección entre la precisión y la diversidad en los sistemas de recomendación. Aplicacion: La implementacion del sistema de recomendacion se aplicara a problemas biomedicos, incluyendo genetica y clinica de desordenes mentales. Requisitos: C, C++, R | ||
30 | Tracking personal utilizando los datos de los sensores de un teléfono móvil | Juan Luis Castro Peña | Resumen. se trata de recoger los datos del acelerometro y GPS del movil y, aplicando las técnicas aprendidas en el máster, analizarlos para obtener algoritmos que permitan: reconocer y registrar actividades usuales: andar, subir escaleras, bajar escaleras, montar en bicicleta, etc...; reconocer y proponer (descubrir) lugares de interés habitual: puesto de trabajo, hogar, tiendas y/o lugares habituales, etc...; reconocer y proponer (descubrir) hábitos del usuario: Trayectos habituales, actividades habituales, etc..; detectar situaciones anómalas: no se están realizando hábitos que se suelen realizar. En el proyecto habrá que: 1.- Implementar recogida de datos de sensores: acelerómetro, y GPS; 2.- Recopilar ejemplos de actividades; 3.- Definir formalmente conceptos (imprecisos): lugar de interés, hábito, situación anómala; 4.- Implementar técnicas de Big Data para tratar y analizar los datos y ejemplos; 5.- Aplicar técnicas de Soft Computing y Machine Learning para reconocer y descubrir conceptos en base a los datos que se vayan registrando. | ||
31 | Análisis y modelos de tráfico con Big Data | Amparo Vila | Actualmente, la sociedad y las ciencias de la computación se hayan envueltas en la era del "Big Data", lo que revierte en todos los campos no solo de la computación, sino también de la vida de los ciudadanos. En esta línea, el tráfico no es una excepción. La gran cantidad de datos de tráfico disponibles, provenientes de radares, GPRS, sensores, etc, plantean una problemática no solo de aprovechamiento de esta ingente cantidad de datos para su transformación en información y conocimiento útil, sino también de almacenamiento y acceso. El objetivo de este documento es plantear una propuesta de trabajo de fin de máster que de respuesta a estas necesidades utilizando las nuevas tecnologías ligadas al Big Data. | Julio Alberto López Gómez | |
32 | Técnicas de clustering para la construcción de perfiles de usuario en sistemas de recomendación basados en contenido | Luis M. de Campos Ibáñez y Juan F. Huete Guadix | Se pretende construir un sistema de filtrado/recomendación basado en contenido para recomendar documentos de interés a los diputados del Parlamento de Andalucía. Las fuentes de información serán las intervenciones de los diputados en los plenos o comisiones del parlamento donde se discuten las distintas iniciativas parlamentarias que se presentan, y que están transcritas en los diarios de sesiones del Parlamento de Andalucía. Para construir el sistema de recomendación es necesario asociar a cada diputado un perfil de usuario, con el que contrastar el documento que se va a recomendar. Los perfiles de los diputados estarán compuestos de palabras o términos extraidos de sus intervenciones. Con esos perfiles de términos se puede alimentar un sistema de recuperación de información, el documento a recomendar constituye una consulta al sistema, y el resultado será una lista ordenada por relevancia de los diputados cuyos perfiles son más próximos a dicho documento. Si para cada diputado se construye un único perfil, el problema está en que si dicho diputado está interesado en diferentes temáticas, su perfil resultará muy heterogéneo, lo que puede redundar en un pobre emparejamiento con el documento a recomendar y por tanto un peor rendimiento del sistema. Por ello, la propuesta es construir diferentes subperfiles para cada diputado, más especializados en una temática concreta. Para ello se utilizarán técnicas de clustering de documentos, para dividir las distintas intervenciones de cada diputado en grupos más homogéneos. | Luis Redondo Expósito |
1 | Propuestas de Trabajos de Fin de Máster, especialidad Ingeniería de Computadores y Redes | |||||
---|---|---|---|---|---|---|
2 | Título | Tutor(es) | Resumen | Asignado a alumno (Sí/No) | ||
3 | 1 | Sistema de control bioinspirado de un modelo musculo-esqueleto humano | Eduardo Ros Vidal y Jesús Garrido Alcázar | Los mamíferos han evolucionado complejos sistemas físicos formados por huesos, tendones y músculos capaces que, cuando son precisamente controlados por el sistema nervioso, logran realizar meritorias tareas motoras. En la actualidad, y aunque algunos sistemas robóticos están intentando emular esta filosofía implementando elementos elásticos (como es el caso de los myorobotics -http://www.myorobotics.eu/-), los algoritmos de control industriales clásicos se han mostrado incapaces de obtener buenos resultados con este tipo de sistemas. Este proyecto abordará el diseño e implementación de un modelo realista de brazo humano usando el simulador OpenSim (http://opensim.stanford.edu/work/index.html), así como su interconexión con sistemas de control inspirados en la corteza cerebral y el cerebelo. Las prestaciones de esos algoritmos serán evaluados en comparación con algoritmos clásicos de control robótico. | No | |
4 | 2 | Algoritmo de control bioinspirado de un robot humanoide | Eduardo Ros Vidal y Jesús Garrido Alcázar | Los sistemas robóticos tradicionalmente han requerido de una zona de seguridad a la que las personas no debían acceder durante la operación del robot, por el peligro que sus movimientos suponían para la persona que se adentrase. Sin embargo, últimamente, los robots han evolucionado haciéndose colaborativos, como es el caso del robot Baxter (http://www.rethinkrobotics.com/baxter/). Este robot, gracias al uso de ganancias más bajas y de complejos sistemas de sensores se considera seguro para la interacción con personas. Este proyecto abordará la creación de algoritmos de control bioinspirados para su uso con un modelo de simulación del robot Baxter en el simulador V-rep (http://www.coppeliarobotics.com/) y, posteriormente, en el robot físico. Para la interconexión de los sistemas se hará uso de la librería ROS (http://www.ros.org/), uno de los referentes a nivel mundial para este tipo de sistemas. | Si | Juan Carlos Gómez López |
5 | 3 | Uso de plataforma altamente paralela (Spinnaker) para simulación de redes neuronales de impulsos | Eduardo Ros Vidal y Jesús Garrido Alcázar | El cerebro humano es a la vez un hito y una referencia en lo que respecta a capacidad de procesamiento de información. Esto es debido, principalmente a la gran cantidad de neuronas que lo componen y que son capaces de filtrar o reaccionar a la llegada de impulsos nerviosos de forma autónoma. Diversas arquitecturas de computación han surgido en los últimos años tratando de emular el funcionamiento del cerebro humano. En este proyecto proponemos el uso de una de estas arquitecturas (más concretamente SpiNNaker, http://apt.cs.manchester.ac.uk/projects/SpiNNaker/) para la simulación de un modelo de cerebelo y su posterior aplicación en una tarea relevante de control robótico o temporización. | No | |
6 | 4 | Implementación de una interfaz python para el diseño y simulación de redes neuronales de impulsos | Eduardo Ros Vidal y Jesús Garrido Alcázar | El uso de simuladores de redes neuronales de impulsos nos permite emular el comportamiento de algunas áreas del cerebro. Más concretamente, el simulador EDLUT (http://edlut.googlecode.com) permite una simulación extremadamente eficiente gracias a la precompilación del comportamiento de las neuronas en tablas de consulta y el uso de la GPU para la paralelización de los cálculos. No obstante, su uso requiere un alto grado de conocimientos técnicos debido al uso de ficheros de configuración generalmente complejos y de difícil manejo. Este proyecto propone la creación de una interfaz entre el lenguaje de programación Python (muy utilizado en ámbitos científicos e industriales) y el simulador EDLUT (programado en C++), mediante la cual se abstraen los detalles irrelevantes para un diseñador de redes neuronales y se facilita la construcción, simulación, visualización y el análisis de los resultados obtenidos. | No | |
7 | 5 | Uso de modelos de deep learning para control motor | Eduardo Ros Vidal y Jesús Garrido Alcázar | En los últimos años los modelos de deep learning han revolucionado el campo de la inteligencia artificial debido a sus buenos resultados en tareas tales como el reconocimiento de imágenes, reconocimiento de voz o los sistemas de recomendación. Sin embargo, el uso de estas redes neuronales para el control de los movimientos de robots permanece prácticamente inexplorado, obviando de este modo las enormes capacidades motoras que las redes neuronales confieren a los mamíferos especialmente. De este modo, este proyecto propone el uso de modelos de deep learning para el seguimiento y corrección de los movimientos realizados por un robot Baxter (http://www.rethinkrobotics.com/baxter/). | No | |
8 | 6 | Control avanzado de sistemas mecatrónicos | Gonzalo Olivares | Implementación física de un sistemas mecatrónico (Péndulo invertido en carrito) y test experimental de diferentes sistemas de control con realimentación en el espacio de estados (configuración servo, control con intergrador, observadores, control LQR y control LQG) | No | |
9 | 7 | Procesamiento de datos para la clasificación de registros oculares en el diagnóstico de enfermedades neurodegenerativas. | Fernando Rojas Ruiz | El estudio de los movimientos oculares ha demostrado ser una herramienta útil para diagnosticar y evaluar el estado del paciente en muchos trastornos neurológicos. En este trabajo se desarrollarán herramientas de clasificación y diagnóstico a partir de este tipo de datos. | No | |
10 | 8 | Implementación y comparativa de enfoques para la separación ciega de fuentes mediante plataformas de hardware libre | Fernando Rojas Ruiz | El problema de la separación ciega de señales (Blind Separation of Sources, BSS) consiste en la recuperación de fuentes no observadas a partir de diferentes “mezclas” o señales observadas, sin disponer, en principio de ningún conocimiento a priori sobre las señales originales o la manera en que fueron mezcladas. En este trabajo se deben estudiar e implementar diferentes algoritmos conocidos de separación de fuentes enm alguna plataforma de hardware libre como Arduino. | No | |
11 | 9 | Estudio práctico de análisis, modelado y predicción de series temporales (a elección por el estudiante: polen, producción eléctrica, bolsa, etc.) mediante técnicas de inteligencia computacional. | Héctor Pomares Cintas | Consultar con el tutor | No | |
12 | 10 | Análisis y optimización de carteras de valores bursátiles mediante técnicas de inteligencia computacional. | Héctor Pomares Cintas | Consultar con el tutor | No | |
13 | 11 | Estudio de técnicas de detrending en series temporales. | Héctor Pomares Cintas | Consultar con el tutor | No | |
14 | 12 | Procedimientos paralelos multiobjetivo de selección de características para clasificación de Electroencefalogramas | Julio Ortega Lopera | Se evalúan distintas alternativas de paralelización de un procedimiento evolutivo de optimización multiobjetivo para la selección de características en problemas de clasificación de Electroencefalogramas (utilizando una base de datos de tareas de Brain-Computer Interfaces). Las alternativas se analizarán en cuanto a sus eficiencias en tiempo de ejecución, consumo energético y calidad de las soluciones obtenidas. Se necesitan (o se adquirirán durante el desarrollo del proyecto) conocimientos de programación paralela en OpenMP, MPI, o Matlab (Parallel Toolbox). (Para más detalles se puede consultar con el profesor en la dirección jortega@ugr.es) | No | |
15 | 13 | Algoritmos de clustering de Electroencefalogramas en GPUs | Julio Ortega Lopera | Se trata de implementar alternativas paralelas en GPUs de algoritmos de clustering de Electroencefalogramas (utilizando una base de datos correspondiente a tareas de Brain-Computer Interfaces, BCI) . Los esquemas implementados se analizarán en cuanto a sus eficiencias en tiempo de ejecución, consumo energético y calidad de las soluciones obtenidas. También se compararán distintos índices de validación de clusters. Se necesitan (o se adquirirán durante el desarrollo del proyecto) conocimientos de CUDA, OpenCL o Matlab (Parallel Toolbox). (Para más detalles se puede consultar con el profesor en la dirección jortega@ugr.es) | No | |
16 | 14 | Ciencia de datos para la obtención de modelos fotoquímicos de atmósferas planetarias y en exoplanetas | Miguel Damas Hermoso | Se realizará un marco teórico para determinar qué técnicas de computación y ciencia de datos han sido aplicadas para la obtención de modelos fotoquímicos en atmosferas planetarias y en exoplanetas en el ámbito de la astrofísica. Además, se realizará una base de datos homogénea con datos de moléculas de interés en este ámbito y parámetros de distintos tipos de estrellas en las que orbitan los planetas para poder construir modelos usando técnicas de soft-computing. Como fuente, se usará la “UV/Vis+ Spectra Data Base”, que contiene la información espectral de las moléculas obtenida de artículos publicados. | Sí | |
17 | 15 | Algoritmos bioinspirados para estimación de movimiento | Eduardo Ros Vidal y Francisco Barranco | El procesamiento temprano en el sistema visual humano, se lleva a cabo dividiendo la información en dos caminos: uno muy rápido que registra los cambios temporales, y otro más lento, que recoge obtiene información detallada de la escena. Este proyecto busca el desarrollo de nuevos algoritmos para la estimación de movimiento, que fusionen la información procedente de ambos, el camino que contiene únicamente los cambios (ver sensor Dynamic Vision Sensor http://inilabs.com/ y http://siliconretina.ini.uzh.ch/wiki/index.php), y el camino que contiene la información detallada, que se puede asimilar a una cámara convencional. En este proyecto se evalúan las posibilidades de la implementación en tiempo real de algoritmos (utilizando FPGAs, GPUs – ver CUDA http://www.nvidia.es/object/cuda-parallel-computing-es.html- , o sólo código optimizado en PC) para estimación de movimiento y el desarrollo de mejoras en los actuales. | No | |
18 | 16 | Desarrollo de algoritmo de atención visual con cámaras de eventos | Eduardo Ros Vidal y Francisco Barranco | En nuestro entorno, existen estímulos que llaman nuestra atención con mucha mayor fuerza que otros. La mayor parte de ellos son visuales, y pueden no depender de la tarea que realicemos. Por ejemplo, una señal de tráfico en la carretera. Sin embargo, este concepto de atención visual, depende también del entorno. Así, la señal de tráfico en la carretera en llama mucho más nuestra atención, que en el caso de encontrarla en un almacén que contiene muchas de esta señales para ser colocadas. Los neurofisiólgos han estudiado profundamente este fenómeno, y se han desarrollado modelos basados en ciertas características como la orientación de los objectos, la textura, o incluso el movimiento de los mismos. Además, es muy estudiado en Visión por Computador, aunque también se aplica en otros casos, como en publicidad. Puesto que se trata de un proceso biológico, este proyecto busca el desarrollo de algoritmos de atención visual con una cámara que produce únicamente salida, si se producen cambios en la escena por tanto, cuando hay movimiento en la misma (ver sensor Dynamic Vision Sensor http://inilabs.com/ y http://siliconretina.ini.uzh.ch/wiki/index.php). | No | |
19 | 17 | Uso de Redes Neuronales Recurrentes para la clasificación de actividades humanas | Eduardo Ros Vidal y Francisco Barranco | Las redes neuronales recurrentes o RNN (http://deeplearning.net/tutorial/rnnslu.html) han sido utilizadas durante mucho tiempo en la inteligencia artificial. Sin embargo, dentro del campo de la visión artificial, se han vuelto protagonistas de nuevo tras su aplicación en múltiples tareas de aprendizaje y clasificación de actividades. Esto se debe a que estas redes son capaces de clasificar, no sólo con una imagen puntual como en la mayoría de los casos en Computer Vision, sino que son capaces de evolucionar para hacer la clasificación de actividades tras un periodo de tiempo. Con un ejemplo, una image en la que una mano se acerca a un destornillador nos puede indicar la acción “El sujeto atornilla un tornillo”, sin embargo, si el sujeto coge el destornillador por la parte metálica y no por el mango, quizás la respuesta de la red debería ser en ese caso “El sujeto golpea el tornillo”. Este proyecto consistiría en estudiar estas redes y aplicar este tipo de clasificación sobre información procedente de secuencias de actores realizando ciertas acciones. | No | |
20 | 18 | Algoritmos de estimación de movimiento propio para Drones | Eduardo Ros Vidal y Francisco Barranco | Las nuevas plataformas robóticas voladoras no tripuladas han abierto un campo de oporturnidades en muchas actividades económicas (http://goo.gl/b4KCts). Dentro de estas oportunidades, el desarrollo de UAVs o micro-UAVs que puedan volar en interiores está generando mucho interés. En el caso de interiores, la señal de GPS puede no ser suficiente. Por tanto, para saber dónde se encuentra el drone y cómo se mueve, necesitamos algoritmos que pueden utilizar sólo la información que proviene de cámaras. En este caso, buscamos el desarrollo en tiempo real de algoritmos que se basan en estimación de movimiento propio utilizando propiedades especiales de la estimación de movimiento de la escena. El uso, además, de la señal de GPS, integrada con la información visual, puede añadir más robustez a la estimación, haciéndola mucho más interesante. | ||
21 | 19 | Utilización de sistemas inteligentes en aplicaciones bio-médicas. | Ignacio Rojas Ruiz | Consultar con el tutor | No | |
22 | 20 | Desarrollo de sistemas expertos para la clasificación de imágenes de resonancia magnética en enfermedades neuro-degenerativas. | Ignacio Rojas Ruiz | Consultar con el tutor | No | |
23 | 21 | Computación de altas prestaciones en bioinformática, optimización y predicción. Problemas de genómica y proteómica. | Ignacio Rojas Ruiz | Consultar con el tutor | No | |
24 | 22 | Selección de genes relevantes en diagnóstico de cáncer con DNA-Microarray y técnicas de Secuenciación de Nueva Generación | Ignacio Rojas Ruiz y Fernando Rojas Ruiz | Una de los mayores retos en la investigación del diagnóstico de ciertos cáncer mediante la utilización de DNA microarray es la selección de los genes más relevantes. En la actualidad, se suelen realizar el estudio simultaneo del orden de 30K genes. Se trata de utilizar herramientas avanzadas para caracterizar la expresión diferencial de dichos genes. Como principal reto, utilizar fuentes de información heterogenea. | No | |
25 | 23 | Biología Computacional con Big Data-Omics e integración de diferentes bases de datos de DNA-Microarray. | Ignacio Rojas Ruiz | Los microarrays han resultado (y siguen resultando) de gran utilidad en los últimos años para el conocimiento de la funcionalidad de sistemas biológicos completos a nivel genómico y molecular. Dentro del desarrollo de las tecnologías de microarray, el proyecto Bioconductor ha supuesto un gran incremento en la utilización de estas tecnologías, principalmente por su apuesta por facilitar el análisis de datos de microarrays y combinar el conocimiento de diferentes áreas como la estadística, la informática o la biología molecular. El objetivo es realizar un pipeline para la integración de DNA-microarray de un determinado cáncer, utilizando diversas tecnologías simulatenamente (análisis para microarrays de Illumina y Affymetrix). | No | |
26 | 24 | Neuromarketing en redes sociales usando aprendizaje máquina | Alberto Guillén Perales | Consultar con el tutor | No | |
27 | 25 | Análisis de emociones en niños usando variables cualitativas y cuantitativas | Alberto Guillén Perales | Consultar con el tutor | No | |
28 | 27 | Predicción de etapas de sueño a partir de datos EEG mediante metodologías basados en Inteligencia Computacional | Luis Javier Herrera Maldonado y Alberto Guillén Perales | Consultar con el tutor | No | |
29 | 28 | Instalación de un sistema de ejecución oportunista (HTC high throughput computing) | Luis Javier Herrera Maldonado y Alberto Guillén Perales | Consultar con el tutor | No | |
30 | 29 | Comparativa de métodos de selección de características para problemas de clasificación y regresión | Luis Javier Herrera Maldonado y Alberto Guillén Perales | Consultar con el tutor | No | |
31 | 30 | Ingeniería inversa aplicada a un dispositivo de movimientos oculares. | Samuel Romero García y Leandro Luigi Di Stasi | El objetivo final es la eliminación del receptor del dispositivo de movimientos oculares debido a su gran tamaño, sustituyéndolo por otro elemento de reducidas dimensiones. Para ello habrá que decodificar la trama de datos enviada por el mismo. También habrá que diseñar y testear una aplicación que permita calibrar correctamente la parte de movimientos oculares, tomando varias medidas de la posición de los ojos. | Sí. David Martín Martín | |
32 | 31 | Aplicación multiplataforma para adquisición de datos de electroencefalografía y movimientos oculares. | Samuel Romero García y Leandro Luigi Di Stasi | Se pretende desarrollar un prototipo de aplicación consistente para Escritorio y Smartphone (Android), que leerá valores de distintos sensores de electroencefalografía (EEG) y movimientos oculares, cada uno de ellos con tasas de muestreo distintas. A partir de estos datos se representarán distintas gráficas y se guardarán ficheros con los datos obtenidos para su posterior análisis. Para hacer la validación de la aplicación se realizarán pruebas de usabilidad en las que participarán individuos elegidos al azar. La idea es hacer una aplicación con una interfaz amigable y fácil de usar para todos los públicos. | Sí. Miguel López Antequera | |
33 | 32 | Big Data en EEG de alta densidad en tareas dinámicas. | Samuel Romero García y Andrés Catena Martínez | El registro de señales de Electroencefalografía tiene gran interés para monitorizar estados de sujetos mientras realizan determinadas actividades (tareas dinámicas). Se dispone de un gran conjunto de registros de EEG de alta densidad (64 electrodos por sujeto) tomados durante tareas de conducción de motocicleta en un simulador. Se plantea por objetivo realizar una revisión de trabajos anteriores de Big Data en tareas simulares con EEG, proponiendo, en su caso, su aplicación para obtener información novedosa. | Sí. Abel Miguel Cano Delgado | |
34 | 33 | Desarrollo de un modelo para la mejora de estructuras de contenidos páginas web y detección automática de deficiencias de usabilidad | Jose Luis Bernier Villamor | Los estudios de usabilidad en sitios web adolecen de grandes problemas de eficiencia que provocan que estos no se lleven a cabo y que la disposición de contenidos se fundamente más en criterios subjetivos del diseñador de la web que en las preferencias de los usuarios finales. Fundamentalmente existen dos técnicas para detectar los problemas de usabilidad en una página web: - Test de usuarios: se trata de tests de navegación diseñados por un experto y realizados de forma presencial en un laboratorio. - Análisis mediante mapas de color: se utilizan dispositivos que detectan las partes de la página donde un usuario fija su atención para detectar las zonas donde éste busca la información y las zonas que se descartan. Ambas técnicas adolecen de dos problemas fundamentales: 1. Se requiere una muestra de usuarios presencial, que además está muy sesgada, ya que suele ser muy limitada frente al número de usuarios potenciales. 2. Sólo se analizan aspectos muy concretos de la web en un momento puntual. Por ejemplo, los test de usuarios consisten en un conjunto reducido de test diseñados por el experto, que no cubren ni de lejos todos los posibles contenidos que una web extensa podría ofrecer, sólo son válidos para webs que ofrecen servicios o contenidos muy acotados. En este trabajo se pretende diseñar una herramienta que permita realizar estos estudios de forma automática, a partir de la observación y análisis del historial de navegación de grandes cantidades de usuarios, de forma transparente, aplicando técnicas de programación avanzadas y de minería de datos. | Sí. Raussier Steven Cordoba Aguilar | |
35 | 34 | Implementación de sistemas de detección de movimiento y tiempos de reacción aplicados a la mejora en el rendimiento deportivo | Fernando Rojas Ruiz | Se pretende implementar un sistema basado en un microcontrolador Arduino o similar que mida los tiempos de reacción a determinados estímulos visuales en un entorno de entrenamiento para esgrima. Se trata de un proyecto colaborativo con personal investigador la Facultad de Ciencias de la Actividad Física y el Deporte de la UGR. | No | |
36 | 35 | Desarrollo de una app para la visualización y predicción del tráfico urbano en la ciudad de Granada | Jose Luis Bernier Villamor y María Isabel García Arenas | En el marco de un proyecto vigente en nuestro grupo de investigación, relacionado con la detección y predicción de tráfico en Granada, tenemos acceso a diversos detectores de wifi y bluetooth situados estratégicamente en diversos puntos del núcleo urbano. A partir de los datos recogidos por dichos sensores, aplicamos diversos métodos de inferencia para tratar de contabilizar el número de vehículos que circula por determinadas calles. El trabajo propuesto consiste en realizar una interfaz para usuarios que puedan visualizar el estado actual del tráfico, predicciones para las próximas horas e, incluso, poner a disposición de desarrolladores algunos servicios y rutinas propias que puedan utilizar para sus propias aplicaciones. | Sí. David Soto López |