Título: "Evaluación y selección de servicios heterogéneos utilizando Razonamiento Basado en Casos (CBR) y un Metamodelo SoaML

Tesista: Cristian Mora

Directores: Dr. Martín Garriga - Lic. Alan De Renzis

Carrera: Licenciatura en Ciencias de la Computación

Día: 18 de junio de 2019

 

Resumen
 
Una práctica común para el desarrollo de software es reusar funcionalidad provista por terceras partes, lo cual no sólo ayuda a reducir los costos, sino también a enfocar el proceso de desarrollo en la funcionalidad principal del sistema. En esta tesis se profundizó sobre un Método de Evaluación y Selección de Servicios Web que tiene como objetivo asistir a los ingenieros de software en la construcción de Aplicaciones Orientadas a Servicios, proponiendo una mejora substancial de los mecanismos de evaluación y selección, y de su herramienta de soporte, utilizando Razonamiento Basado en Casos (CBR). 

CBR proviene del campo de la Inteligencia Artificial y aporta algunos aspectos cruciales para resolver los problemas en la evaluación y selección de Servicios Web, principalmente en cuanto a la posibilidad de reusar la información y el conocimiento disponible de sucesivas ejecuciones para mejorar la solución de problemas futuros. Esto permitió combinar los mecanismos de evaluación de servicios existentes con la metodología CBR, dando lugar a un nuevo proceso de selección de servicios.
En trabajos previos se extendieron los mecanismos de evaluación para tratar los contratos de servicio como especificaciones independientes de la tecnología. Para ello, además de considerar las soluciones tradicionales como WSDL o WADL, se adoptó un Metamodelo basado en estándares (principalmente el perfil UML SoaML) para descripción de contratos de servicios. Sin embargo, existen aún limitaciones con respecto al tipo de descripciones de origen que se soportan (típicamente documentos WSDL). Por este motivo, en la presente tesis se implementaron herramientas automatizadas para realizar la derivación hacia el metamodelo de descripciones Swagger/OpenAPI: el lenguaje más utilizado para especificar servicios REST.
Finalmente se realizó una evaluación experimental a partir de la cual comprobamos que la utilización de CBR para evaluación y selección de Servicios Web mejora la visibilidad de los servicios relevantes – estas mejoras se expresan en términos de métricas del campo de Recuperación de Información como precision y recall. Definitivamente, contar con herramientas de evaluación y selección más precisas contribuye en gran medida a facilitar el desarrollo de Aplicaciones Orientadas a Servicios.

Foto del día de la defensa con el tribunal integrado por los profesores Mg. Gerardo Parra y Mg. Claudio Vaucheret.

Foto del dia de la defensa de tesis  

Ver otras tesis FaI ]

 

 

Título: "Una Herramienta Gráfica con Razonamiento  basado en DL para el Análisis de Modelos de Variabilidad Ortogonal

Tesista: Angela Oyarzun

Directores: Dra. Laura Cecchi - Dr. Germán Braun

Carrera: Licenciatura en Ciencias de la Computación

Día: 1 de agosto de 2019

 

Resumen

La gestión de variabilidad en el desarrollo de Líneas de Productos Software involucra a las tareas de definición, modelado, implementación y validación de las características variables de un producto y, por lo tanto, tiene una influencia considerable sobre la calidad de los productos derivados de una línea. Debido a la creciente complejidad de los Sistemas de Información actuales, gestionar esta variabilidad manualmente se ha vuelto una tarea impracticable. En consecuencia, surgió el análisis de variabilidad automático, a fin de validar estos modelos en etapas tempranas de desarrollo mediante la asistencia de razonadores lógicos externos.

Existen diversas herramientas y propuestas orientadas al análisis automatizado de los modelos de variabilidad. Sin embargo, la mayoría de ellas se enfocan en los Modelos de Características (FM). En general, las escasas herramientas centradas en Modelos de Variabilidad Ortogonal (OVM) carecen de soporte gráfico y,
al igual que los enfoques anteriores, no logran llevar a cabo un análisis de los modelos de variabilidad del todo preciso, ya que las técnicas de traducción y validación utilizadas están limitadas por lógicas restrictivas.

En esta Tesis se presenta el diseño de un modelo cliente-servidor de una herramienta gráfica Web, para modelado de variabilidad ortogonal. Con el objeto de asegurar la calidad de los diseños, la herramienta interactúa con un sistema de razonamiento subyacente, basado en Lógicas Descriptivas (DL), encargado de resolver consultas acerca de la ocurrencia de antipatrones en el modelo generado por un modelador. Asimismo, se detalla un catálogo de los antipatrones, los cuales están basados en casos de test estándar para modelos de variabilidad y extraídos de la bibliografía.
La integración de un front-end gráfico y un back-end lógico de la herramienta se obtiene a través de la utilización de una codificación que formaliza los OVMs en la DL ALCI.

Como resultado, se construyó una herramienta cliente-servidor denominada crowd-variability que permite el diseño gráfico, visualización y búsqueda de antipatrones en diagramas OVM. Esta herramienta provee soporte gráfico a los usuarios para modelar sus diagramas, gracias a la utilización de la biblioteca gráfica JointJS, y está integrada con razonadores automáticos externos basados en DL. Los razonadores se encargan de procesar la representación lógica de un modelo OVM y de proveer respuestas sobre la presencia de antipatrones. Finalmente, los resultados de este análisis son notificados al modelador de manera gráfica y textual.

 

Foto del día de la defensa con sus tutores y el tribunal integrado por los profesores Dra. Agustina Buccella, Esp. Sandra Roger y Lic. Pablo Kogan.

Foto del dia de la defensa de tesis  

Ver otras tesis FaI ]

 

 

Título: "Evaluación de herramientas de visualización para la explotación petrolera: Desarrollo de representaciones según caso de estudio

Tesista: Lucas Mattar

Directora: Mg. Lidia López

Carrera: Licenciatura en Ciencias de la Computación

Día: 15 de noviembre de 2019

 

Resumen
 

La industria petrolera genera grandes volúmenes de datos, estructurados -como temperatura y volúmenes- y no estructurados, como las grabaciones en vídeo y la cantidad de datos se incrementa constantemente. El costo de los sensores para capturar datos está disminuyendo, y su grado de sofisticación aumenta, lo que permite controlar más aspectos de las operaciones en la administración de un yacimiento. Sin embargo, analizar y obtener información de este gran volumen de datos con el que cuentan las petroleras presenta un gran desafío.

La visualización de información es un área de investigación que se centra en el uso de métodos de visualización para ayudar a los usuarios a entender, evaluar y analizar grandes volúmenes datos. La visualización de información es la presentación de datos abstractos mediante interfaces visuales interactivas. Impulsa la cognición visual humana, para permitir al usuario obtener conocimiento sobre la estructura interna de los datos, la relación causal y las dependencias en ella.

El enfoque empleado en el presente trabajo apunta a diseñar y aplicar una metodología para procesar los datos crudos con el objetivo de agregar información adicional de geolocalización y utilizar la visualización de la información para facilitar el análisis de los datos en su contexto geográfico.

En la administración integral de yacimientos existen diferentes disciplinas que se apoyan en la tecnología para optimizar sus operaciones. El trabajo se centrará en el dominio de la ingeniería de producción que busca entender el comportamiento de la producción de hidrocarburos en un yacimiento. Se plantea soportar el análisis de los datos de producción mediante una herramienta de visualización de la información que permita crear visualizaciones de los datos para un mejor entendimiento de los mismos. Para esto se evaluaron distintas herramientas de visualización con el fin de seleccionar la más adecuada para el contexto de trabajo y el tipo de dato a analizar.

Luego de seleccionada la herramienta de visualización se generarán diferentes representaciones visuales de los datos de producción de hidrocarburos teniendo en cuenta distintas situaciones o análisis necesarios en el contexto de la administración integral de yacimientos. El objetivo de dichas visualizaciones es mejorar la toma de decisiones en el marco de la administración de un yacimiento brindando a los usuarios la posibilidad de analizar los datos de manera totalmente visual e interactiva lo que les permite explorar un gran volumen de datos y encontrar patrones o relaciones en los mismos.

Foto del día de la defensa con su tutora y el tribunal integrado por los docentes Dr. Luis Reynoso, Mg. Claudio Vaucheret y Lic.Guillermo Grosso.

Foto del dia de la defensa de tesis  

Ver otras tesis FaI ]

 

 

Título: "Verbalización de un Subconjunto de UML en una Herramienta Gráfica Web

Tesista: Matías Garrido

Directores: Esp. Sandra Roger - Dr. Germán Braun

Carrera: Licenciatura en Ciencias de la Computación

Día: 18 de septiembre de 2019

 

Resumen
 

El desarrollo de software comienza con un conjunto de actividades que tienen el fin de determinar los requisitos del sistema. La experiencia indica que existen dificultades en la elicitación de los requerimientos del sistema y en su correspondiente transformación en un modelo computacional. Por un lado, los usuarios son expertos en el dominio del problema, pero por lo general carecen del conocimiento en técnicas de modelado que poseen los analistas y diseñadores. 

En conjunto con el usuario, el modelo confeccionado debe ser validado a fin de asegurar que refleja con precisión el conjunto de requerimientos. Una manera efectiva de llevar a cabo esta validación es trasladar el significado del modelo en un lenguaje comprensible por el experto del dominio. En ese sentido surge el concepto de verbalización, que tiene el objetivo de traducir la semántica de una teoría lógica en un lenguaje humano.

La verbalización de modelos conceptuales está comprendida por la disciplina de la Generación de Lenguaje Natural (GLN). En este trabajo se analiza en detalle dicho campo, considerando su recorrido histórico, describiendo las tareas básicas que comprende un sistema GLN y el estudio de sus arquitecturas de referencia. 

En base a lo expuesto, se plantea la extensión de la arquitectura de una herramienta de modelado ontológico llamada \textit{crowd}, que permita la verbalización multilingüe de un subconjunto de primitivas de los diagramas de clases UML Para alcanzar la traducción en múltiples idiomas, se opta por la definición de una representación intermedia de las primitivas UML en sentencias de Lógica de Primer Orden (FOL).

Finalmente, se diseña y se implementa un conjunto de patrones de verbalización para el lenguaje español y la incorporación de herramientas lingüísticas para favorecer el grado de coherencia y fluidez de las oraciones generadas. Esto resulta en un prototipo funcionalmente operativo, que permite visualizar por un lado, la formalización FOL de un diagrama de clases y por otro, su correspondiente verbalización en lenguaje español.

Con esta propuesta se espera reducir la brecha de comunicación existente entre los diseñadores y los expertos en el dominio, integrándolos activamente en los procesos de validación de modelos conceptuales.  

   

Foto del día de la defensa con su tutora y el tribunal integrado por los docentes Dr. Andrés Flores, Mg. Claudio Vaucheret y Lic. Christian Giménez.

Foto del dia de la defensa de tesis  

Ver otras tesis FaI ]

 

 

Título: "Linked FAI:  Una propuesta Web Semántica para la integración de repositorios científicos, digitales y públicoso

Tesista: Gaston Emiliano Michelan

Directores: Dra. Laura Cecchi - Dr. Germán Braun

Carrera: Licenciatura en Ciencias de la Computación

Día: 9 de diciembre de 2019

 

Resumen

Actualmente, se están comenzando a publicar abiertamente conjuntos de datos pertenecientes a diferentes áreas socioculturales, en particular, las correspondientes a las disciplinas científicas específicas (Geografía, Matemática, Biología, etc), con el objetivo de fomentar la visibilidad de la información y, por ende, la colaboración entre las diferentes instituciones de conocimiento como universidades, centros de investigación y empresas, entre otras. Es por ello que  surge la necesidad de crear más fuentes de información y actualizar y/o reestructurar las existentes en diversos formatos, a un formato en común, permitiendo la  integración de todas ellas con otras ya publicadas en la Web. Debido a esta necesidad, han surgido avances teóricos y prácticos para su solución.

Tim Berners-Lee, el creador de la World Wide Web, propone el concepto de Datos Enlazados (Linked Data) mediante la implementación de cuatro principios prácticos, los cuales se resumen en: (1) publicar y formatear la información utilizando estructuras de descripción de datos conocidas y no propietarias, (2) utilizar identificadores únicos para cada elemento y propiedad, para que cada uno sea unívoco y pueda ser apuntado o referido de manera directa e individualizada, (3) proporcionar información útil al desreferenciar cada recurso y (4) promover la reutilización de esa información, vinculando la misma con otra relacionada, perteneciente a otro conjunto de datos independiente. El esquema resultante, luego de aplicar estas premisas, es el de una gran nube de elementos interconectados que pueden ser navegados y, mediante la utilización de ontologías conocidas, permitir el descubrimiento de nuevas relaciones y conceptualizaciones, abriendo el paradigma a lo que se conoce como Web Semántica y permitiendo que la información pueda ser leída, inferida y enriquecida por las máquinas.

En lo que a nuestro país respecta, ya se han promulgado leyes que obligan a las instituciones científicas financiadas con bienes públicos, a compartir en forma abierta sus resultados de investigación, y en consecuencia, se han creado repositorios con tal fin.

En este contexto, se diseñó y desarrolló un framework utilizando lenguajes Web, que funciona bajo el paradigma de Datos Enlazados y Web Semántica. Éste, extrae la información científica publicada en diferentes páginas y en distintos formatos, la transforma en un formato particular, que describe los datos mediante metadatos, la almacena en bases de datos especiales que trabajan con triplas, la integra asignándoles identificadores únicos e interenlazándolos mediante ontologías, la enriquece y finalmente permite a los usuarios, de manera amigable, realizar consultas, obtener, inferir y cargar nueva información. Su funcionalidad hace al framework una herramienta potente para fomentar la colaboración entre las diferentes instituciones mundiales, sobre todo en el campo científico, siendo éste último el enfoque deseado en este trabajo.

Finalmente, a partir de la construcción de un prototipo basado en el framework presentado, se pudo integrar la información de las diversas fuentes, mostrando que no es necesario reconstruir los documentos en sí, sino transformar los existentes para luego incrementarlos y mantenerlos bajo este nuevo paradigma.

Foto del día de la defensa con sus tutores y el tribunal integrado por los docentes Dra. Gabriela Aranda, Esp. Sandra Roger y Lic.Christian Giménez.

Foto del dia de la defensa de tesis  

Ver otras tesis FaI ]

 

 

Página 4 de 25