Catálogo de publicaciones

Compartir en
redes sociales


Navegación

Tipo

Acceso

Plataformas

Temática

Mostrando 10 de 20.620 registro(s)

Filtros temática quitar todos

tesis Acceso Abierto
Agregar a Mi catálogo

Medidas de invarianza y equivarianza a transformaciones en redes neuronales convolucionales: Aplicaciones al reconocimiento de formas de mano

Más información
Autores/as: Facundo Manuel Quiroga ; Laura Cristina Lanzarini

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2020 SEDICI: Repositorio Institucional de la UNLP (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información  

Las Redes Neuronales son los modelos de aprendizaje automático con mejor desempeño en la actualidad en una gran variedad de problemas. Son modelos generales y aproximadores universales. Con algoritmos de optimización basados en descenso de gradiente, pueden optimizar miles o millones de parámetros en base a una función de error. Se distinguen de otros modelos en que no requieren un diseño manual de características de los datos para funcionar; las características se aprenden automáticamente mediante el proceso de optimización, también llamado entrenamiento. Su diseño se organiza en capas que determinan su arquitectura. En los últimos años, se ha conseguido entrenar Redes Neuronales con múltiples capas mediante un conjunto de técnicas que suelen denominarse Aprendizaje Profundo (Deep Learning). En particular, las Redes Convolucionales, es decir, Redes Neuronales que utilizan capas convolucionales, son el estado del arte en la mayoría de los problemas de visión por computadora, incluyendo la clasificación de imágenes. Las capas convolucionales permiten aplicar convoluciones con filtros aprendidos para un mejor desempeño y eficiencia. Muchos de los problemas para los cuales las Redes Convolucionales son el estado del arte requieren que los modelos se comporten de cierta manera ante transformaciones de su entrada. Existen dos propiedades fundamentales que capturan dicho requerimiento; la invarianza y la equivarianza. La invarianza nos dice que la salida del modelo no es afectado por las transformaciones. La equivarianza permite que la salida sea afectada, pero de una manera controlada y útil. Si bien los modelos tradicionales de Redes Convolucionales son equivariantes a la traslación por diseño, no son ni invariantes a dicha transformación ni equivariantes a otras en los escenarios usuales de entrenamiento y uso. Existen dos opciones principales para otorgar invarianza o equivarianza a un modelo de red neuronal. La tradicional ha sido modificar el modelo para dotarlo de esas propiedades. La otra opción es entrenarlo con aumentación de datos utilizando como transformaciones el mismo conjunto al que se desea la invarianza o equivarianza. Dotar con invarianza o equivarianza a los modelos tiene utilidades en varios dominios, como la clasificación de imágenes de galaxias, imágenes de microscopios o formas de mano. En particular, el reconocimiento de formas de mano en imágenes es una de las etapas más importantes de los sistemas de reconocimiento de lenguas de señas o gestos mediante imágenes o video. En muchos casos, la rotación, traslación o escalado de la mano en la imagen no afectan a su forma, y por ende se requiere dotar de invarianza a la red para mejorar el desempeño del sistema. No obstante, no está claro cómo los modelos adquieren estas propiedades, tanto al usar aumentación de datos como al modificar el modelo. Tampoco está claro como las modificaciones de modelos afectan la eficiencia y el poder de representación de los mismos. Más aún, en los modelos tradicionales tampoco es conocido cómo se adquieren dichas propiedades con aumentación de datos, así como cuál es la mejor estrategia para aumentar los datos con este fin. En el primer aporte de esta tesis, analizamos diversas estrategias para obtener invarianza o equivarianza en modelos de clasificación de imágenes con redes neuronales. Comparamos los modelos tradicionales AllConvolutional y LeNet, y los modelos especializados Group CNN y Spatial Tansformer Networks para determinar su desempeño. Realizamos experimentos con varios conjuntos de datos conocidos (MNIST y CIFAR10) utilizando aumentación de datos. Los resultados arrojan evidencia en favor de la hipótesis de que aún con ingeniosas modificaciones de las redes convolucionales, la aumentación de datos sigue siendo necesaria para obtener un desempeño similar al de los modelos no invariantes. Más aún, en varios casos la aumentación de datos por si sola puede proveer un desempeño similar al de los modelos especializados, siendo al mismo tiempo más simples de entrenar y comprender. Además, analizamos cómo re-entrenar una red previamente generada para convertirla en invariante, y encontramos que el entrenamiento de las últimas capas permite convertir un modelo no invariante en uno que si lo sea con un bajo costo computacional y leve pérdida de desempeño. Si bien estos mecanismos permiten imbuir de invarianza o equivarianza una red, la forma en que la misma codifica o representa dichas propiedades no están claros. La comprensión de la invarianza o equivarianza de una red o cualquier sistema puede ayudar a mejorar su desempeño y robustez. Estas propiedades pueden estimarse midiendo los cambios en las salidas de la red en base a las transformaciones realizadas a su entrada. Las metodologías actuales de evaluación y comprensión de la invarianza y equivarianza se enfocan solamente en las capas de salida de la red. No obstante, para poder comprender como se codifican, el análisis debe realizarse en base a toda la red, es decir, considerando las representaciones intermedias. En el segundo y principal aporte de esta tesis, por ende, desarrollamos métricas para medir la invarianza y equivarianza de las redes. Dichas métricas permiten cuantificar estas propiedades de forma empírica no solo en la salida de la red sino también en sus representaciones internas. De esta forma, podemos visualizar y cuantificar que tan invariante o equivariante es una red, ya sea en su totalidad, por capas, o por activaciones individuales. Las métricas son aplicables a cualquier red neuronal, sin importar su diseño o arquitectura, así como a cualquier conjunto de transformaciones. Realizamos una implementación de las métricas en una librería de código abierto, con soporte para la librería tensorial PyTorch. Las métricas fueron validadas para verificar su correcto funcionamiento y utilidad. Además, estudiamos sus propiedades, como la variabilidad ante los conjuntos de datos, transformaciones, inicialización de los pesos, y otras. Utilizando las métricas, también se evaluamos modelos de redes neuronales convolucionales conocidos para caracterizarlos en términos de su invarianza o equivarianza. Asimismo, caracterizamos diversos tipos de capas como las de Batch Normalization, Max Pooling, diversas funciones de activación, capas convolucionales con distintos tamaños de filtro, y otros. Los resultados otorgan una primera mirada de los modelos de redes en términos de estas propiedades, y esperamos que puedan fomentar un mejora en ese área. Por último, hacemos un tercer aporte al reconocimiento automático de lengua señas basado en video. El reconocimiento de señas es un subárea del reconocimiento de gestos o acciones. Tiene como objetivo traducir al lenguaje escrito un video en donde una persona se comunica mediante lengua de señas. Desde la aparición de tecnologías de captura de video digital existen intentos de reconocer gestos y señas con diferentes fines. Es un problema multidisciplinar complejo y no resuelto aún de forma completa. Un paso fundamental en el reconocimiento de señas es la clasificación de formas de mano, ya que estas conllevan una gran parte de la información de una seña. El motivante principal de las interrogantes planteadas sobre modelos de invarianza y equivarianza surge a partir del estudio de técnicas de clasificación de formas de mano. Si bien las redes convolucionales proveen un desempeño ejemplar en varios dominios, su desempeño para la clasificación de formas de mano no ha sido evaluado rigurosamente. Por ende evaluamos diversos modelos de redes neuronales para determinar su aplicabilidad en este dominio. Utilizando los conjuntos de datos de formas de mano LSA16 y RWTH-PHOENIX-Weather, realizamos experimentos con los modelos LeNet, VGG16D, ResNet, Inception y AllConvolutional para determinar su eficacia como clasificadores en este dominio. Los resultados indican que todos los modelos tienen un desempeño razonable en ambos conjuntos de datos, con resultados iguales o mejores que otros modelos diseñados específicamente para la tarea. No obstante, el modelo VGG16D obtuvo los mejores resultados. Incluimos también evaluaciones de transferencia de aprendizaje, con y sin re-entrenamiento de las capas; en ambos casos dichas estrategias obtuvieron un desempeño peor que los modelos entrenados sin transferencia de aprendizaje. Además, realizamos un estudio de varias estrategias de pre-procesamiento de las imágenes, encontrando que la segmentación de las manos del fondo otorga un incremento de desempeño significativo. Por último, también desarrollamos una librería de código abierto para facilitar el acceso y preprocesamiento de bases de datos de formas de manos.

libros Acceso Abierto
Agregar a Mi catálogo

Medienraum Diaspora

Más información
Autores/as: Alena Strohmaier

ISBNs: 978-3-658-24605-1 (impreso) 978-3-658-24606-8 (en línea)

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2019 SpringerLink acceso abierto

Cobertura temática: Matemáticas - Ciencias de la computación e información - Ingeniería eléctrica, electrónica e informática - Medios de comunicación - Artes  


tesis Acceso Abierto
Agregar a Mi catálogo

Mejora de procesos como soporte a prácticas de gobierno electrónico

Más información
Autores/as: Juan Manuel Luzuriaga ; Alejandra Cechich ; Gustavo Héctor Rossi

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2011 SEDICI: Repositorio Institucional de la UNLP (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información  

Las expectativas que los ciudadanos, las empresas y otros grupos de interés tienen sobre el gobierno electrónico y sus aplicaciones específicas tienen un impacto en las decisiones sobre el uso de tecnologías de información y comunicación, así como en los criterios utilizados para evaluar los resultados de estas iniciativas. También las políticas existentes de e-gov revelan un entusiasmo por el potencial de las Tecnologías de la Información y las Comunicaciones (TIC) para ayudar a reformar las viejas estructuras del estado convirtiéndolas en un modelo de soporte para e-gov. Sin embargo, las relaciones y procedimientos que convierten un caso de aplicación de TICs en un ejemplo exitoso de implantación de gobierno electrónico no son muy claros. En esta tesis, abordamos la relación entre mejora de procesos software y gobierno electrónico como una forma de establecer estructuras sólidas que produzcan servicios sustentables en bien del ciudadano. A partir de casos de estudio en el dominio de una organización judicial, establecemos recomendaciones y lecciones aprendidas junto con indicadores que constituyen un abordaje sistemático y más formal en el proceso de implantación de prácticas de gobierno electrónico. En particular, exploramos el caso de mejora de procesos relacionado a la implantación de firma y notificación electrónica.

tesis Acceso Abierto
Agregar a Mi catálogo

Mejoras a la demostración interactiva de propiedades Alloy utilizando SAT-Solving

Más información
Autores/as: Mariano Miguel Moscato ; Marcelo Fabián Frias

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2013 Biblioteca Digital (FCEN-UBA) (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información  

El análisis formal de especificaciones de software suele atacarse desde dos enfoques, usualmente llamados: liviano y pesado. En el lado liviano encontramos lenguajes fáciles de aprender y utilizar junto con herramientas automáticas de análisis, pero de alcance parcial. El lado pesado nos ofrece lograr certeza absoluta, pero a costo de requerir usuarios altamente capacitados. Un buen representante de los métodos livianos es lenguaje de modelado Alloy y su analizador automático: el Alloy Analyzer. Su análisis consiste en transcribir un modelo Alloy a una fórmula proposicional que luego se procesa utilizando SAT-solvers estándar. Esta transcripción requiere que el usuario establezca cotas en los tamaños de los dominios modelados en la especificación. El análisis, entonces, es parcial, ya que está limitado por esas cotas. Por ello, puede pensarse que no es seguro utilizar el Alloy Analyzer para trabajar en el desarrollo de aplicaciones críticas donde se necesitan resultados concluyentes. En esta tesis presentamos un cálculo basado en álgebras de Fork que permite realizar demostraciones en cálculo de secuentes sobre especificaciones Alloy. También hemos desarrollado una herramienta (Dynamite) que lo implementa. Dynamite es una extensión del sistema de demostración semiatomático PVS, método pesado ampliamente utilizado por la comunidad. Así, Dynamite consigue complementar el análisis parcial que ofrece Alloy, además de potenciar el esfuerzo realizado durante una demostración usando el Alloy Analyzer para detectar errores tempranamente, refinar secuentes y proponer términos para utilizar como testigos de propiedades cuantificadas existencialmente.

tesis Acceso Abierto
Agregar a Mi catálogo

Mejoras en la usabilidad de la web a través de una estructura complementaria

Más información
Autores/as: María Daniela López De Luise ; Mela Bosch ; Juan María Ale

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2007 SEDICI: Repositorio Institucional de la UNLP (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información  

La Web ha motivado la generación de herramientas que permiten, con distintos grados de sofisticación y precisión, manipular sus contenidos. Para ello, tratan una serie de problemas, relacionados con la naturaleza imperfecta y cambiante de todas las actividades humanas. Ésta se refleja en fenómenos como las ambigüedades, contradicciones y errores de los textos almacenados. Esta tesis presenta una propuesta para complementar la administración de contenidos en la Web y de esta manera facilitar el proceso de recuperación de información. Se presenta un prototipo, denominado Web Intelligent Handler (WIH), que implementa una serie de algoritmos básicos para manipular algunas características morfosintácticas de textos en castellano y, en base a ellas, obtener una representación resumida y alternativa de su contenido. En este contexto, se define una nueva métrica de ponderación para reflejar parte de la esencia morfosintáctica de los sintagmas. Además se define un esquema de interacción entre los módulos para regular la explotación de los textos. También se explora la capacidad de los algoritmos propuestos en el tratamiento de los textos, considerándolos como una colección de sintagmas, sujeta a factores tales como contradicciones, ambigüedades y errores. Otro aporte de esta tesis es la posibilidad de evaluar matemáticamente y de manera automática tipos de estilos de texto y perfiles de escritura. Se proponen los estilos literario, técnico y mensajes. También se proponen los perfiles documento, foro de intercambio, índice Web y texto de sitio blog. Se evalúan los tres estilos y los cuatro perfiles mencionados, los que se comportan como distintos grados de una escala de estilos y perfiles, respectivamente, cuando se los evalúa con la métrica morfosintáctica aquí definida. Adicionalmente, utilizando la misma métrica, es posible realizar una valoración aproximada y automática de la calidad de cualquier tipo de texto. Esta calificación resulta ser invariante a la cantidad de palabras, temática y perfil, pero relacionada con el estilo del escrito en cuestión.

Membrane Computing: 7th International Workshop, WMC 2006, Leiden, Netherlands, July 17-21, 2006, Revised, Selected, and Invited Papers

Más información

ISBNs: 978-3-540-69088-7 (impreso) 978-3-540-69090-0 (en línea)

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No detectada 2006 SpringerLink

Cobertura temática: Ciencias de la computación e información - Lenguas y literatura  


Membrane Computing: 6th International Workshop, WMC 2005, Vienna, Austria, July 18-21, 2005, Revised Selected and Invited Papers

Más información

ISBNs: 978-3-540-30948-2 (impreso) 978-3-540-32340-2 (en línea)

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No detectada 2006 SpringerLink

Cobertura temática: Ciencias de la computación e información - Economía y negocios  


Membrane Computing: 5th International Workshop, WMC 2004, Milan, Italy, June 14-16, 2004, Revised Selected and Invited Papers

Más información

ISBNs: 978-3-540-25080-7 (impreso) 978-3-540-31837-8 (en línea)

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No detectada 2005 SpringerLink

Cobertura temática: Ciencias de la computación e información  


revistas Acceso Abierto
Agregar a Mi catálogo

Memoirs of the Scientific Sections of the Romanian Academy

Más información

ISSNs 1224-1407 (impreso) 2343-7049 (en línea)

Disponibilidad
Institución detectada Período Navegá Descargá Solicitá
No requiere desde ene. 2011 / hasta sep. 2024 Directory of Open Access Journals acceso abierto

Cobertura temática: Matemáticas - Ciencias de la computación e información  


tesis Acceso Abierto
Agregar a Mi catálogo

Memorias matriciales correlacionadas cuánticas, simples y mejoradas: una propuesta para su estudio y simulación sobre GPGPU

Más información
Autores/as: Mario Mastriani ; Marcelo Naiouf ; Emilio Luque ; Enrique Spinelli ; Carlos García Garino

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2014 SEDICI: Repositorio Institucional de la UNLP (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información - Artes  

En este trabajo se desarrollan-en orden-los fundamentos de la Física Cuántica, y de la Computación Cuántica, una noción completa de las arquitecturas multicapa tolerante a fallos para la implementación física de una computadora cuántica, para completar los primeros cuatro capítulos con las técnicas propias para la simulación de este nuevo paradigma sobre placas multicore del tipo General-Purpose Computing on Graphics Processing Units (GPGPU). La segunda parte de este trabajo consiste en los tres capítulos inmediatamente siguientes, los cuales suman 10 innovaciones en este campo, a saber: 1. el Proceso de Ortogonalización Booleano (POB) con su inversa, 2. el Proceso de Ortogonalización de Gram-Schmidt Mejorado (POGSMe) con su inversa, 3. el Proceso de Ortogonalización Cuántico (POCu) con su inversa, 4. la Red Ortogonalizadora Booleana Sistólica (ROBS), 5. la Red Ortogonalizadora Cuántica Sistólica (ROCS), y 6. una métrica que llamamos Tasa Dimensional de Entrada-Salida (TDES) la cual fue creada para monitorear el impacto del mejorador para la estabilidad del Proceso Ortogonalizador de Gram-Schmidt en el costo computacional final. 7. una versión mejorada de las ya conocidas Memorias Matriciales Correlacionadas Booleanas (MMCB), es decir, la MMCB mejorada (MMCBMe) en base al innovador Proceso de Ortonormalización Booleano (POB) del Capítulo 5, 8. la Memoria Matricial Correlacionada Cuántica (MMCCu), y 9. la MMCCu Mejorada (MMCCuMe) en base al Proceso de Ortogonalización Cuántico (POCu) implementado en forma sistólica y conocida como la Red Ortogonalizadora Cuántica Sistólica (ROCS) del Capítulo 5.10. el Capítulo 7, el cual contiene las simulaciones computacionales, las cuales verifican fehacientemente la mejora en la performance de almacenamiento como resultado de aplicar el POCu a las MMCCu, así como una serie de simulaciones relativas a arreglos uni, bi y tridimensionales, los cuales representan señales, imágenes (multimediales, documentales, satelitales, biométricas, etc.) y video o bien imágenes multi e hiper-espectrales satelitales, tomografías o resonancias magnéticas seriadas, respectivamente. Dichas simulaciones tienen por objeto verificar los atributos de ortogonalización de los algoritmos desarrollados. Dado que es la primera vez que en la literatura se realizan este tipo de simulaciones en GPGPU para esta tecnología, el Capítulo 7 representa en si mismo el décimo aporte del presente trabajo a esta área del conocimiento. Un último capítulo reservado a conclusiones parciales por capítulo y generales del trabajo como un todo.