Título:  "Framework para el desarrollo de Agentes Inteligentes en Prolog que controlan Robots Físicos"

Tesista: Jael Vanesa Yañez

Directores: Dra. Laura Cecchi - Lic. Rafael Zurita

Carrera: Licenciatura en Ciencias de la Computación

Día y lugar: 11 de marzo de 2019
 

Resumen

La robótica abarca una amplia gama de dispositivos con diferentes características físicas, funcionales y operativas acorde al campo de aplicación para el que son fabricados. El uso de robots en el ámbito educativo es cada vez más importante, ya que resulta ser una herramienta pedagógica poderosa, propiciando entornos de aprendizajes, que potencian la interacción entre los conocimientos teóricos y su aplicabilidad práctica.

Los kits comerciales de robótica para el ámbito educativo son normalmente costosos y a la vez presentan diseños de hardware usualmente cerrados. Por estas razones, en la Facultad de Informática (FAI) se han desarrollado robots educativos propios compatibles con Myro, de bajo costo y de licencia open source.

Myro es una interfaz de software para programar robots, y puede ser utilizado para controlar robots de forma remota a través de programas escritos en diferentes lenguajes, como por ejemplo Python, C o C++. Sin embargo, no ofrece la posibilidad de utilizar lenguajes lógicos, para el desarrollo de agentes que controlen robots físico.

En esta tesis se presenta el diseño e implementación de un Framework de Agentes Inteligentes para Robots Móviles (FAIRM), que permite crear agentes inteligentes, implementados bajo el paradigma de programación lógico, particularmente en el lenguaje de programación Ciao Prolog, con la capacidad de controlar robots físicos móviles compatibles con los construidos en FAI.

La programación de los agentes inteligentes se realiza bajo el paradigma lógico, que se considera adecuado para representar actitudes mentales, debido al soporte para representar e inferir relaciones. El lenguaje Ciao Prolog fue el elegido para la implementación del FAIRM debido a las funcionalidades que presenta, particularmente en cuanto a su modularidad, su posibilidad de interacción con otros lenguajes y su facilidad de ser expandido.

El FAIRM permite la creación y administración de sistemas monoagente y multiagentes, con agentes estacionarios. Asimismo, proporciona mecanismos de comunicación entre los agentes de forma de coordinar, cooperar o negociar al realizar una tarea en forma conjunta.

El diseño del framework consta de dos módulos principales: la interfaz y la comunicación. En este sentido, se diseñó una interfaz que permita la comunicación remota entre agente programados en Ciao Prolog y robots móviles con software Myro. Por otro lado, se desarrolló un modelo de comunicación para coordinar la interacción entre agentes utilizando módulos activos de Ciao Prolog.

El FAIRM fue validado a través de pruebas unitarias y de integración, proponiendo ejercicios que se sugieren como punto de inicio para prácticas de laboratorio en materias de grado.

Se espera que a partir del desarrollo del FAIRM se amplíe el rango de aplicaciones en las que se utilicen los robots construidos en FAI, alcanzando problemas reales que requieren de técnicas de Inteligencia Artificial en el diseño e implementación de sus soluciones.

 

Foto del día de la defensa con sus tutores y el tribunal integrado por los profesores Mg. Claudio Vaucheret y Esp. Eduardo Grosclaude

tesis jañez  

Ver otras tesis FaI ]

 

Título:  "Una Infraestructura de Big Data de Tiempo Real para un Sistema de Detección del Deterioro de Pacientes en Terapia Intensiva"

Tesista: Pablo Bruno

Director: Dr. Javier Balladini

Carrera: Licenciatura en Ciencias de la Computación

Día y lugar: 11 de marzo de 2019
 

Resumen

En las unidades de cuidados intensivos e intermedios de centros de salud, muchos sensores están conectados a los pacientes para medir datos fisiológicos de alta frecuencia. Para analizar el estado de un paciente, el personal médico requiere información presentada de manera apropiada y de fácil acceso. Como la mayoría del equipamiento médico no admite la extracción de datos digitales en formatos conocidos, el personal médico completa formularios manualmente que más tarde son analizados por médicos.
Esta metodología es propensa a errores humanos debido al gran volumen de información, con orígenes y complejidad variable. La detección automática y en tiempo real de cambios en los parámetros, basados en reglas médicas conocidas, permitirá evitar estos errores y, además, detectar el deterioro de forma temprana.
En esta tesis, se propone el diseño e implementación de una infraestructura de Big Data de tiempo real para el procesamiento de reglas médicas, para ser utilizado en un sistema de detección temprana del deterioro de los pacientes internados en terapia intensiva. En contraposición a los sistemas similares, se propone una solución completamente conformada por diferentes productos (maduros y consolidados) de Software Libre.  Los resultados experimentales, obtenidos con un prototipo, demuestran la viabilidad de las técnicas y tecnologías utilizadas, dejando sólidas bases para la construcción de un sistema confiable para uso médico, y capaz de escalar para soportar un número creciente de pacientes y datos capturados.

 

Foto del día de la defensa con su tutor y el tribunal integrado por los profesores Mg. Adair Martins y CC. Jorge Sznek

Foto del dia de la defensa de tesis de Pablo Bruno  

Ver otras tesis FaI ]

 

 

Título: Reconocimiento facial en 2 dimensiones

Autores: Javier Forquera- Martin Rozzisi

Director: Mg. Claudio Vaucheret

Carrera: Licenciatura en Ciencias de la Computación

Fecha de defensa: 6 de Septiembre de 2012

Resumen:

En este trabajo de tesis se introduce el concepto de biometría, focalizándose en el reconocimiento facial, para lo cual, se describen la mayoría de las metodologías de reconocimiento facial en 2D.

Con el objetivo de establecer un marco comparativo de los rendimientos de diferentes metodologías de reconocimiento automático de rostros, se ponen a prueba los algoritmos PCA, LDA y Bayesian Framework, bajo diferentes conjuntos de test (variación de sexo, raza, iluminación, pose, expresión y ruido en la imagen), tratando de cubrir todas las posibilidades y variantes, y de esta manera, poder determinar qué algoritmo demuestra mayor eficiencia bajo esas condiciones.
Para llevar a cabo dichas pruebas, se hace uso del sistema de evaluación CSU, el cual implementa los tres algoritmos previamente mencionados. Además de este sistema, se utilizan diversas bases de datos de rostros, herramientas de conversión de imágenes y aplicaciones de desarrollo propio para poder realizar el estudio comparativo.

Foto del día de la defensa con su director y el tribunal integrado por las profesoras Dra. Alejandra Cechich y Lic. Silvia Amaro.

Los nuevos licenciados con el Decano de la Facultad y el tribunal de Tesis

Ver otras tesis FaI ]

 

Título:  "Normalización de textos en Español provenientes de redes sociales"

Tesista: Ángel Adrán Addati

Directora: Esp. Sandra Roger

Carrera: Licenciatura en Ciencias de la Computación

Día: 23 de abril de 2019
 

Resumen

La  Minería de opinión es una rama dentro del Procesamiento de Lenguaje Natural dedicada a la extracción de sentimientos de textos escritos en lenguaje informal. En general, estos textos provienen de mensajes en redes sociales, lo que genera una baja calidad en los mismos, conteniendo múltiples errores y palabras no estándares propias del ciberlenguaje (lenguaje de internet). En consecuencia se hace necesaria una primera fase de preprocesamiento responsable de transformar este texto de entrada en una forma libre de errores y de mejor calidad, sin perder el contenido semántico. Esta tarea se denomina: Normalización. 

El propósito de la tesis es presentar un modelo de normalización que se diferencia de las propuestas existentes en abarcar de manera simultanea los siguientes tres pilares: es específico para la tarea de normalización, es un componente independiente reutilizable y está especializado en los fenómenos existentes en textos provenientes de redes sociales. Para hacer esto se hace necesario sentar las bases conceptuales del estado del arte de la normalización: definiciones, enfoques, tipologías de casos a resolver, estrategias, etc.  Con los conceptos profundizados se establece el modelo conceptual de qué es lo que debe resolver y cómo debe realizarlo. Para el qué se brinda una tipología original y exhaustiva de todos los casos a tratar incluyendo los casos comunes que debe resolver cualquier corrector ortográfico (tal es el uso incorrecto de reglas ortográficas, por ejemplo la utilización de ``v'' en lugar de ``b'') y casos particulares de la red social (por ejemplo el uso de emoticones y abreviaciones).  Para el cómo se presenta el modelo de normalización propuesto de 5 etapas progresivas: Segmentación; Clasificación de palabras dentro y fuera del lenguaje; Generación de candidatos; Selección y Mejora continua.  

Finalmente, se diseña, implementa y valida un desarrollo parcial de este modelo propuesto para mensajes en español de Twitter. La finalidad será demostrar de forma práctica la potencialidad de lo conceptualmente establecido.  Esto resultó en un prototipo funcionalmente operativo y con un rendimiento aceptable en la resolución de los casos planteados. 

 

Foto del día de la defensa con su tutora y el tribunal integrado por los profesores Dra. Gabriela Aranda y Mg. Gerardo Parra

Foto del dia de la defensa de tesis de Angel Addati  

Ver otras tesis FaI ]

 

 

Título: Análisis Sintáctico de Compatibilidad de Interfaces para Selección de Servicios Web

Autor: Martín Garriga

Directores: Dra. Alejandra Cechich y Dr. Andrés Flores

Carrera: Licenciatura en Ciencias de la Computación

Fecha de defensa: Diciembre 2010

 

 

Fotos del día de la defensa con el director de tesis y el tribunal, integrado por los profesores: Mg. Adair Martins y CC. Jorge Sznek.

Foto con su director de tesis

Foto con el tribunal

Ver otras tesis FaI ]

Página 17 de 25