Catálogo de publicaciones

Compartir en
redes sociales


Navegación

Tipo

Acceso

Plataformas

Temática

Mostrando 10 de 20.620 registro(s)

Filtros temática quitar todos

Energy Minimization Methods in Computer Vision and Pattern Recognition: 6th International Conference, EMMCVPR 2007, Ezhou, China, August 27-29, 2007. Proceedings

Más información

ISBNs: 978-3-540-74195-4 (impreso) 978-3-540-74198-5 (en línea)

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No detectada 2007 SpringerLink

Cobertura temática: Ciencias de la computación e información - Ingeniería eléctrica, electrónica e informática  


Energy Minimization Methods in Computer Vision and Pattern Recognition: 5th International Workshop, EMMCVPR 2005, St. Augustine, FL, USA, November 9-11, 2005, Proceedings

Más información

ISBNs: 978-3-540-30287-2 (impreso) 978-3-540-32098-2 (en línea)

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No detectada 2005 SpringerLink

Cobertura temática: Ciencias de la computación e información - Ciencias físicas  


libros Acceso Abierto
Agregar a Mi catálogo

Energy Storage and Management for Electric Vehicles

Más información

978-3-03921-863-9 (en línea)

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere Directory of Open access Books acceso abierto

Cobertura temática: Ciencias de la computación e información  


tesis Acceso Abierto
Agregar a Mi catálogo

Enfoque integrado de medición, evaluación y mejora de calidad con soporte a metas de negocio y de necesidad de información: aplicación de estrategias a partir de patrones de estrategia

Más información
Autores/as: María Belén Rivera ; Luis Antonio Olsina Santos ; Gustavo Héctor Rossi

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2018 SEDICI: Repositorio Institucional de la UNLP (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información  

En toda organización de software madura, se debe asegurar la mejora continua de la calidad de los productos, servicios, procesos y recursos. Para ello, no solo es necesario contar con actividades de medición y evaluación que permitan conocer la situación real o estimada de una entidad, analizando y detectando debilidades y vulnerabilidades; sino que también es preciso contar con actividades que permitan introducir cambios orientados a la mejora. Un modo ingenieril de organizar las actividades y recursos involucrados es mediante la gestión de proyectos de medición, evaluación y/o cambio. Estos proyectos operacionalizan metas de necesidad de información de medición y evaluación. Por ejemplo, una meta de este tipo puede ser “comprender el estado actual de una aplicación móvil respecto a la característica usabilidad”. Estas metas constituyen un tipo de meta de necesidad de información que da soporte a metas de negocio operativas, las cuales debieran estar alineadas con metas de negocio estratégicas. A su vez, una estrategia integrada ayuda a alcanzar las metas de un proyecto mediante sus actividades y métodos bien establecidos. En especial, la aplicación de dichas estrategias para llevar a cabo metas de necesidad de información de medición y evaluación, se puede realizar a partir de la instanciación de patrones de estrategia. La presente tesis doctoral se centra en definir un Enfoque Multinivel y Multipropósito de Evaluación de la Calidad que permita establecer metas de necesidad de información de medición y evaluación vinculadas con metas de negocio a distintos niveles organizacionales. Promueve además, la utilización de estrategias integradas específicas para llevar a cabo dichas metas, por medio de la instanciación de patrones de estrategia, como modo de proveer soluciones reusables a problemas recurrentes en la instanciación de estrategias integradas empleadas en proyectos de medición, evaluación y/o cambio.

tesis Acceso Abierto
Agregar a Mi catálogo

Enfoque integrado de procesamiento de flujos de datos centrado en metadatos de mediciones

Más información
Autores/as: Mario José Diván ; Luis Antonio Olsina Santos ; Silvia Ethel Gordillo

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2011 SEDICI: Repositorio Institucional de la UNLP (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información  

Cuando se trata de tomar decisiones a un nivel ingenieril, medir no es una posibilidad sino una necesidad; representa una práctica sistemática y disciplinada por la cual se puede cuantificar el estado de un ente. Si hay un aspecto que se debe tener en claro en medición, es que para comparar mediciones diferentes las mismas deben ser consistentes entre sí, esto es, deben poseer la misma escala y tipo de escala además de obtenerse bajo métodos de medición y/o reglas de cálculos equivalentes. Los marcos de medición y evaluación representan un esfuerzo, desde la óptica de cada estrategia, por formalizar el modo de definir las métricas, sus objetivos, entre otros aspectos asociados, a los efectos de garantizar la repetitividad y consistencia en el proceso de medición que sustentan. Existen aplicaciones capaces de procesar flujos de mediciones en línea, pero el inconveniente principal con el que se enfrentan, es que no contienen información con respecto al significado del dato que están procesando. Para este tipo de aplicaciones, la medición es un dato, es decir, una forma de representar un hecho captado, careciendo de información sobre el concepto al que se asocian o bien, el contexto en el cual es obtenida dicha medición. Los dispositivos de medición, están en general desarrollados para captar una medida mediante un método dado, y en la mayoría de los casos, la forma de obtener dicha medida para su posterior procesamiento en otros entornos (ordenadores de escritorio, móviles, etc.), está en función de servicios o accesorios provistos por el fabricante. Suponiendo que la totalidad de las mediciones, provenientes de diferentes dispositivos, pudieran ser incorporadas en un mismo canal de transmisión, pocos son los entornos de procesamiento de flujos de datos que incorporan comportamiento predictivo. En aquellos que se incorpora comportamiento predictivo, ninguno de los analizados se sustenta en una base conceptual, que permita contrastar una medida contra la definición formal de su métrica. Esto último, incorpora un serio riesgo de inconsistencia, que afecta directamente al proceso de medición y en consecuencia, a los posteriores análisis que en base a estos datos se realicen. Nuestra Estrategia de Procesamiento de Flujos de Datos centrado en Metadatos de Mediciones (EIPFDcMM), se focaliza en permitir la incorporación de fuentes de datos heterogéneas, cuyos flujos de mediciones estructurados y enriquecidos con metadatos embebidos basados C-INCAMI, permitan realizar análisis estadísticos de un modo consistente a los efectos de implementar un comportamiento detectivo y a su vez, permitan incorporar información contextual a las mediciones, para enriquecer la función de clasificación con el objeto de implementar el comportamiento predictivo. Tanto la implementación del comportamiento detectivo como del predictivo tendrán asociados mecanismos de alarma, que permitirán proceder a la notificación ante la eventual identificación de una zona de riesgo. De este modo, se pretende garantizar la repetitividad y consistencia en el proceso de medición que sustentan.

tesis Acceso Abierto
Agregar a Mi catálogo

Enfoque liviano para reconocimiento de gestos manuales híbridos con cámaras de profundidad

Más información
Autores/as: Diego Gabriel Alonso ; Álvaro Soria ; Luis Berdun

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2020 Repositorio Institucional de Acceso Abierto (UNICEN) (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información  

En los últimos años, en combinación con los avances tecnológicos han surgido nuevos paradigmas de interacción con el usuario. Esto ha motivado a la industria a la creación de dispositivos de Interfaz Natural de Usuario (NUI, del inglés Natural User Interface) cada vez más potentes y accesibles. En particular, las cámaras de profundidad han alcanzado grandes niveles de adopción por parte de los usuarios. Entre estos dispositivos se destacan la Microsoft Kinect, la Intel RealSense y el Leap Motion Controller. Este tipo de dispositivos facilitan la adquisición de datos en el Reconocimiento de Actividades Humanas (HAR, del inglés Human Activity Recognition). HAR es un área que tiene por objetivo la identificación automática, dentro de secuencias de imágenes, de actividades realizadas por seres humanos. Entre los diferentes tipos de actividades humanas se encuentran los gestos manuales, es decir, aquellos realizados con las manos. Los gestos manuales pueden ser estáticos o dinámicos, según si presentan movimiento en las secuencias de imágenes. El reconocimiento de gestos manuales permite a los desarrolladores de sistemas de Interacción Humano-Computadora (HCI, del inglés Human-Computer Interaction) crear experiencias e interacciones más inmersivas, naturales e intuitivas. Sin embargo, esta tarea no resulta sencilla. Es por ello que, en la academia se ha abordado esta problemática con el uso de técnicas de aprendizaje de máquina. Tras el análisis del estado del arte actual, se ha identificado que la gran mayoría de los enfoques propuestos no contemplan el reconocimiento de los gestos estáticos y los dinámicos en forma simultánea (enfoques híbridos). Es decir, los enfoques están destinados a reconocer un solo tipo de gestos. Además, dado el contexto de sistemas HCI reales debe tenerse en cuenta también el costo computacional y el consumo de recursos de estos enfoques, con lo cual los enfoques deberían ser livianos. Por otra parte, casi la totalidad de los enfoques presentes en el estado del arte abordan la problemática ubicando las cámaras frente a los usuarios (perspectiva de segunda persona) y no desde la perspectiva de primera persona (FPV, del inglés First-Person View), en la que el usuario posee un dispositivo colocado sobre sí mismo. Esto puede asociarse con que recién en los últimos años han surgido dispositivos relativamente ergonómicos (pequeños, de peso ligero) que permitan considerar una perspectiva FPV viable. En este contexto, en la presente tesis se propone un enfoque liviano para el reconocimiento de gestos híbridos con cámaras de profundidad teniendo en cuenta la perspectiva FPV. El enfoque propuesto consta de 3 grandes componentes. En primer lugar, el de Adquisición de Datos, en el cual se define el dispositivo a utilizar y se recopilan las imágenes y la información de profundidad que es normalizada al rango de valores de 0 a 255 (escala de los canales RGB). En segundo lugar, el de Preprocesamiento, el cual tiene por objetivo hacer que dos secuencias de imágenes con variaciones temporales sean comparables. Para ello, se aplican técnicas de remuestreo y reducción de resolución. Además, en este componente se computa el flujo óptico determinado por las secuencias de imágenes a color que se poseen. En particular, se utiliza el flujo óptico como un nuevo canal de información dadas sus ventajas en lo que respecta a un análisis espacio-temporal de los videos. En tercer lugar, con las secuencias muestreadas y con la información de flujo óptico, se procede al componente Modelo de Aprendizaje Profundo, donde se aplican técnicas de aprendizaje profundo que permiten abordar las etapas de extracción de características y de clasificación. Particularmente, se propone una arquitectura de red convolucional densamente conectada con soporte multi-modal. Cabe destacar que, la fusión de las modalidades no es en etapa temprana ni tardía sino dentro del mismo modelo. De esta manera, se obtiene un modelo end-to-end que obtiene beneficios de los canales de información en forma separada y también conjunta. Los experimentos realizados han mostrado resultados muy alentadores (alcanzando un 90% de exactitud) indicando que la elección de este tipo de arquitecturas permite obtener una gran eficiencia de parámetros así como también de tiempos de predicción. Cabe resaltar que, las pruebas son realizadas sobre un conjunto de datos relevante del área. En base a ello, se analiza el desempeño de la presente propuesta en relación a diferentes escenarios como con variación de iluminación o movimiento de cámara, diferentes tipos de gestos, sensibilidad o sesgo por personas, entre otros.

tesis Acceso Abierto
Agregar a Mi catálogo

Enfoque para pruebas de unidad basado en la generación aleatoria de objetos

Más información
Autores/as: Pablo Andrés Barrientos ; Claudia Pons ; Alejandra Cechich ; Alejandra Garrido ; Pablo Fillotrani

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2014 SEDICI: Repositorio Institucional de la UNLP (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información  

El testing del software es una tarea crucial y a la vez muy desafiante dentro del proceso de desarrollo de software. El testing permite encontrar errores y problemas del software contra la especificación del mismo y cumple un rol fundamental en el aseguramiento de la calidad del producto. Entre los tipos de pruebas que se pueden realizar al software están las pruebas de unidad, carga, integración y funcionales. Cada una de ellas tiene distintos objetivos y son realizadas en diferentes etapas del desarrollo del software. En el primer tipo mencionado, se desarrollan pruebas a componentes individuales de un sistema de software. Los desarrolladores especifican y codifican pruebas para cubrir todos o al menos una parte significativa de los posibles estados/configuraciones del artefacto o unidad de software, para simular el entorno del componente y descubrir la presencia de errores o “bugs”. Dado que escribir todas esas pruebas de forma manual es costoso, las pruebas de unidad son generalmente realizadas de manera ineficiente o simplemente dejadas de lado. El panorama es aún peor, más allá del esfuerzo, porque el testing no puede ser usado para probar la usencia de errores en el software sino tan solo la presencia. Por eso es necesario atacar el problema desde diferentes enfoques, cada uno teniendo sus fortalezas y ventajas. Actualmente existen muchas técnicas para hacer testing de software, y la mayoría de ellos se basan en la automatización de pasos o caminos de ejecución, con valores fijos o componentes predefinidos (hard-coded) o estáticos, y condiciones específicas. En este trabajo de maestría, se presenta un enfoque para pruebas de unidad en la programación orientada a objetos, basado en la generación de objetos de manera aleatoria. El fundamento básico de este enfoque propuesto es el testing aleatorio. También se presenta una herramienta de testing de unidad que usa el enfoque dicho, y que fue escrita en un lenguaje orientado a objetos de amplia difusión. El testing aleatorio (RT o random testing) como técnica no es nueva. Tampoco lo es la generación de valores aleatorios para pruebas. En el paradigma funcional, existe una herramienta muy conocida para probar especificaciones sobre funciones llamada QuickCheck. Ésta herramienta (escrita en Haskell) y sus ideas subyacentes son usadas como fundamento para la herramienta creada en este trabajo. La herramienta desarrollada en el presente trabajo cubre además características que existen en el paradigma orientado a objetos de manera inherente, tales como el estado de los objetos (en particular los objetos singleton con estado), clases abstractas e interfaces, que no existen en la programación funcional pura. La constribución de este trabajo de maestría es la presentación de una forma alternativa de realizar tests de unidad en la programación orientada a objetos (POO), basada en un trabajo anterior para el paradigma funcional. También se presenta una herramienta llamada YAQC4J que plasma esas ideas en un lenguaje orientado a objetos de amplia difusión. Finalmente se incluyen ejemplos que ilustran el uso de la herramienta, y se presenta una comparación con herramientas existentes que han intentado implementar el enfoque de testing. Este trabajo está dirigido a los desarrolladores de software interesados en conocer soluciones alternativas para el testing de unidad, y al mismo tiempo una forma complementaria a las ya existentes para pruebas de unidad.

revistas Acceso Abierto
Agregar a Mi catálogo

Enfoque UTE

Más información

ISSNs 1390-6542 (impreso)

Disponibilidad
Institución detectada Período Navegá Descargá Solicitá
No requiere desde ene. 2010 / hasta ene. 2025 Directory of Open Access Journals acceso abierto

Cobertura temática: Ciencias de la computación e información - Otras ingenierías y tecnologías - Ingenieria ambiental  


tesis Acceso Abierto
Agregar a Mi catálogo

Enfoques de programación entera para el Problema del Viajante de Comercio con costos en función del tiempo

Más información
Autores/as: Juan José Miranda Bront ; Isabel Méndez Díaz ; Paula Zabala

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2012 Biblioteca Digital (FCEN-UBA) (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información  

El Problema del Viajante de Comercio Dependiente del Tiempo (PVCDT) es una generalización del clásico Problema del Viajante de Comercio (PVC) en el cual se busca un circuito de costo mínimo que recorra todos los clientes, donde los tiempos (o costos) de viaje entre ellos no son constantes y pueden variar dependiendo de diversos factores. Una de las motivaciones para considerar la dependencia del tiempo es que nos permite tener una mejor aproximación a muchas aplicaciones de la vida real, dentro de la industria y en el sector de servicios. En la literatura relacionada, existen distintas versiones del PVCDT que consideran que las variaciones se producen por diversos motivos y sobre distintos parámetros. Algunas de ellas estipulan que las variaciones se producen sobre los tiempos (y/o costos) de viaje mientras que otras asumen que las variaciones se producen sobre la velocidad de viaje. Más aún, para el primer caso, una variante asume que el tiempo de viaje depende de la posición del arco en el circuito mientras que otra asume que depende del instante en el que se comienza a atravesar el arco. Al igual que el PVC, el PVCDT pertence a la clase NP-Difícil y por lo tanto no se conoce un algoritmo que encuentre una solución en tiempo polinomial. En esta tesis abordamos dos de las variantes antes mencionadas mediante la formulación de modelos de Programación Lineal Entera. Para cada formulación, realizamos un estudio teórico enfocado en derivar familias de desigualdades válidas que exploten las características particulares del problema. En particular, para una de las variantes, demostramos que varias de ellas definen facetas del poliedro. Desde el punto de vista práctico, para las variantes consideradas desarrollamos algoritmos exactos de tipo Branch and Cut que incorporan estas familias de desigualdades válidas y los evaluamos considerando instancias propuestas en la literatura, obteniendo buenos resultados que muestran que ambos enfoques son factibles para ser utilizados en la práctica.

libros Acceso Abierto
Agregar a Mi catálogo

Engaging Researchers with Data Management: The Cookbook

Más información

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere Directory of Open access Books acceso abierto

Cobertura temática: Ciencias de la computación e información - Ciencias sociales - Economía y negocios - Medios de comunicación