Catálogo de publicaciones

Compartir en
redes sociales


Navegación

Tipo

Acceso

Plataformas

Temática

Mostrando 10 de 20.629 registro(s)

Filtros temática quitar todos

libros Acceso Abierto
Agregar a Mi catálogo

Essentials of computing systems

Más información

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere Directory of Open access Books acceso abierto

Cobertura temática: Ciencias de la computación e información  


libros Acceso Abierto
Agregar a Mi catálogo

Essentials of computing systems - 2ª edição: Essentials of computing systems - 2ª edição

Más información

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere Directory of Open access Books acceso abierto

Cobertura temática: Ciencias de la computación e información  


tesis Acceso Abierto
Agregar a Mi catálogo

Establecimiento del Modelo de Agregación más apropiado para Ingeniería del Software

Más información
Autores/as: Hernán Guillermo Amatriain ; Rodolfo Alfredo Bertone ; Oscar (asesor científico) Dieste ; Enrique Fernández

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2014 SEDICI: Repositorio Institucional de la UNLP (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información  

Antecedentes: la síntesis cuantitativa consiste en integrar los resultados de un conjunto de experimentos, previamente identificados, en una medida resumen. Al realizar este tipo de síntesis, se busca hallar un resultado que sea resumen representativo de los resultados de los estudios individuales, y por tanto que signifique una mejora sobre las estimaciones individuales. Este tipo de procedimientos recibe el nombre de Agregación o Meta-Análisis. Existen dos estrategias a la hora de agregar un conjunto de experimentos, la primera parte del supuesto de que las diferencias en los resultados de un experimento a otro obedecen a un error aleatorio propio de la experimentación y de que existe un único resultado o tamaño de efecto que es compartido por toda la población, la segunda estrategia parte del supuesto de que no existe un único tamaño de efecto representativo de toda la población, sino que dependiendo del origen o momento en que se realicen los experimentos los resultados van a modificarse debido a la influencia de variables no controladas, a pesar de esto puede obtenerse un promedio de los distintos resultados para una conclusión general. A la primera de las estrategias se la denominada modelo de efecto fijo y a la segunda se la denominada modelo de efectos aleatorios. Los autores que han comenzado a trabajar en Meta-Análisis, no muestran una línea de trabajo unificada. Este hecho hace que sea necesaria la unificación de criterios para la realización de este tipo de trabajos. Objetivo: establecer un conjunto de recomendaciones o guías que permitan, a los investigadores en Ingeniería del Software, determinar bajo qué condiciones es conveniente desarrollar un Meta-Análisis mediante modelo de efecto fijo y cuando es conveniente utilizar el modelo de efectos aleatorios. Métodos: la estrategia sería la de obtener los resultados de experimentos de características similares mediante el método de Monte Carlo. Todos ellos contarían con un número de sujetos bajo, ya que esa es la característica principal en el campo de la Ingeniería de Software y que genera la necesidad de tener que agregar el resultado de varios experimentos. Luego se agrega el resultado de estos experimentos con el método de Diferencia de Medias Ponderadas aplicada primero con el modelo de efecto fijo, y posteriormente con el modelo de efectos aleatorios. Con las combinaciones realizadas, se analiza y compara la fiabilidad y potencia estadística de ambos modelos de efectos.

Establishing The Foundation Of Collaborative Networks: IFIP TC 5 Working Group 5.5 Eighth IFIP Working Conference on Virtual Enterprises September 10-12, 2007, Guimarães, Portugal

Más información

ISBNs: 978-1-4757-0564-5 (impreso) 978-0-387-73798-0 (en línea)

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No detectada 2007 SpringerLink

Cobertura temática: Ciencias de la computación e información  


tesis Acceso Abierto
Agregar a Mi catálogo

Estado del arte de los entornos virtuales de enseñanza y aprendizaje

Más información
Autores/as: Ariel Ferreira Szpiniak ; Cecilia Verónica Sanz

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2007 SEDICI: Repositorio Institucional de la UNLP (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información - Educación  

Los Entornos Virtuales de Enseñanza y Aprendizaje (EVEA), o Learning Management Systems (LMS), han sufrido una rápida revolución en los últimos cinco años, fundamentalmente aquellos especializados en el sector universitario. Ello ha determinado que en muchas instituciones de Educación Superior hoy en día coexistan varios entornos virtuales, debido a que fueron adoptados por diferentes unidades académicas en diferentes momentos o etapas, o porque algunas de ellas hayan decidido migrar a otro entorno que en últimos tiempos haya dado un salto cualitativo de importancia o se adapte mejor a su realidad institucional. Tampoco hay un consenso en cuanto a determinar cuál es el mejor EVEA ya que en éste terreno intervienen diversos factores tanto institucionales, como políticos y económicos.

tesis Acceso Abierto
Agregar a Mi catálogo

Estado del arte y tendencias en Test-Driven Development

Más información
Autores/as: Moisés Carlos Fontela ; Gustavo Héctor Rossi

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2012 SEDICI: Repositorio Institucional de la UNLP (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información  

Test-Driven Development, o TDD como se lo conoce más a menudo, surgió como una práctica de diseño de software orientado a objetos, basada en derivar el código de pruebas automatizadas escritas antes del mismo. Sin embargo, con el correr de los años, se ha ido ampliando su uso. Se ha utilizado para poner el énfasis en hacer pequeñas pruebas de unidad que garanticen la cohesión de las clases, así como en pruebas de integración que aseguren la calidad del diseño y la separación de incumbencias. Otros han querido enfatizar su adecuación como herramienta de especificación de requerimientos. Y en los últimos años se ha comenzado a avanzar con los conceptos de TDD hacia las pruebas de interacción a través de interfaces de usuario. Este trabajo pretende hacer una revisión del estado del arte de TDD y evaluar futuras tendencias, que inequívocamente se están dirigiendo a una integración de las distintas clases de TDD.

tesis Acceso Abierto
Agregar a Mi catálogo

Estimación de esfuerzo en el desarrollo de software a partir de una especificación de requerimientos

Más información
Autores/as: Cristian A. Remón ; Pablo Javier Thomas

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2017 SEDICI: Repositorio Institucional de la UNLP (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información  

El desarrollo de software está sujeto a restricciones técnicas y económicas, las cuales se expresan en el plan de proyecto en forma explícita o implícita. Dicho plan se compone de actividades y tareas, definidas en función de los requerimientos definidos. Estas actividades y tareas tienen un esfuerzo requerido para su realización, estimado a priori con algún método. La estimación de esfuerzo se mide en términos del esfuerzo requerido por persona/mes, normalmente expresado en términos de Horas/Hombre (HH). Con el surgimiento del paradigma orientado a objetos y el modelado de Casos de Uso, se llevaron a cabo investigaciones sobre la factibilidad de implementar metodologías de estimación basadas en diagrama de clases de objetos y casos de uso. Una de estas investigaciones dio origen al método de Puntos de Casos de Uso (UCPs) creado por Gustav Karner [KARNER93]. El método toma ideas de los Puntos Función (PF) de [ALBRECHT79]. Los UCPs representan una estimación del esfuerzo para el desarrollo de un sistema de software. Esta tesis plantea la hipótesis de utilizar la Especificación de Requerimientos funcionales para realizar la estimación de esfuerzo en el desarrollo de software, a partir de una modificación del método de Puntos de Caso de Uso de Gustav Karner [KARNER93]. En este sentido, se pretende obtener valores de estimación similares a los obtenidos por el método original, pero en una etapa más temprana del ciclo de vida de desarrollo de software.

tesis Acceso Abierto
Agregar a Mi catálogo

Estimación de la condición corporal en vacas a partir de imágenes de profundidad utilizando Redes Neuronales Convolucionales

Más información
Autores/as: Juan Maximiliano Rodríguez Álvarez ; Cristian Mateos ; Claudio Machado ; Mauricio Arroqui

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2018 Repositorio Institucional de Acceso Abierto (UNICEN) (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información  

El Aprendizaje Profundo es un tipo particular de aprendizaje automático de gran poder y flexibilidad, que aprende a representar el mundo como una jerarquía anidada de conceptos, donde cada concepto se define en relación a conceptos más simples, y las representaciones más abstractas se calculan en base a otras menos abstractas. Las redes neuronales son la base de los modelos de aprendizaje profundo, donde el concepto de profundidad viene dado por el número de capas sucesivas que componen la red, lo que les permite lograr una mayor capacidad de aprendizaje y en general un mayor rendimiento y precisión. En la práctica es posible encontrar una diversidad de configuraciones o arquitecturas de modelos que han sido desarrolladas para tareas específicas, como las denominadas Redes Neuronales Convolucionales (CNN, por sus siglas en inglés). Las CNN son utilizadas y han demostrado ser muy efectivas en diversas aplicaciones de visión computacional, como los problemas de detección de objetos y clasificación de imágenes. A diferencia del modelo tradicional de reconocimiento de patrones en imágenes, donde se requieren diseñar a mano modelos o algoritmos particulares para extraer características que luego son utilizadas para el entrenamiento de un clasificador, en una CNN estas etapas se integran en conjunto durante el entrenamiento del modelo. Las primeras capas (bloques de capas convolucionales y pooling) se encargan de extraer características y las últimas (en general capas completamente conectadas) se encargan de combinarlas para completar la clasificación de la imagen. Bajo este esquema, la red aprende a extraer patrones o características de la imagen basándose en la precisión alcanzada por la red, y no de manera previa e independiente al resultado de la clasificación. Si bien las CNN, y otro tipo de redes dentro del área del aprendizaje profundo, han sido aplicadas recientemente en trabajos relacionados al sector agropecuario, estas técnicas no han sido utilizadas aún para resolver el problema eje de esta tesis: la medición de la condición corporal en vacas a partir del análisis de imágenes. El puntaje de condición corporal (BCS, del inglés Body Condition Score) es un indicador que estima la grasa corporal almacenada y el balance energético acumulado de las vacas. Este indicador influye en la producción de leche, reproducción y salud de vacas destinadas a la producción láctea o la producción de carne. Diferentes estudios han definido valores objetivos ideales de BCS en las distintas etapas del ciclo de lactancia, por lo que realizar un monitoreo constante de este indicador es de gran importancia para maximizar la producción de leche y la vida de los animales. En la práctica esta tarea es realizada de manera visual por evaluadores expertos, complementandose en algunos casos con palpaciones en la zona de las costillas, el lomo y la base de la cola, por lo que puede consumir mucho tiempo. Adicionalmente la naturaleza manual del indicador le suma cierto valor subjetivo, que la hace dependiente de la persona que realiza la medición. Es por ello que en la bibliografía se encuentran trabajos de distintos autores que contribuyen a la automatización de la estimación del BCS aplicando técnicas de análisis de imágenes y aprendizaje de máquina tradicionales. Los mismos, sin embargo, poseen desventajas que derivan en la necesidad de investigación y desarrollo de nuevas alternativas. Particularmente, no existe un sistema que reúna en conjunto las siguientes características, a saber: preciso, automático, en tiempo real, bajo costo, y use imágenes de vacas como única fuente de información. En este contexto, este trabajo propone el estudio y adaptación de un método basado en Redes Neuronales Convolucionales, que no han sido exploradas aún por los trabajos relacionados, y que permitirían mejorar globalmente el proceso de estimación del BCS. Se pretende que el sistema que sea capaz de detectar la presencia de vacas a la pasada en cuadros de vídeos, y predecir su condición corporal a partir de la clasificación de las imágenes recopiladas, satisfaciendo además las características mencionadas anteriormente. Los experimentos realizados sobre el sistema desarrollado permitieron validar la adopción de esta técnica, alcanzando buenos resultados predictivos en comparación con los otros trabajos del área. Por un lado es capaz de identificar con alto grado de acierto los animales al paso: 97,2 % de recuperaciones correctas de imágenes con vacas y 100 % de descartes correctos de imágenes sin vacas. Por otro lado la accuracy general de las clasificaciones/predicciones del BCS realizadas sobre las imágenes recolectadas mostraron valores superadores: 82 % y 97 % considerando como positivas predicciones dentro los rangos de error humano de 0,25 y 0,50 puntos respectivamente.

tesis Acceso Abierto
Agregar a Mi catálogo

Estimación de proyectos de software pequeños basada en el juicio de expertos

Más información
Autores/as: Silvana Santos ; Gabriela Robiolo ; Alejandro Oliveros

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2014 SEDICI: Repositorio Institucional de la UNLP (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información  

Para poder contestar la pregunta de investigación de si es posible mejorar la estimación de esfuerzo medido en horas persona de los pequeños proyectos de software, investigamos en profundidad los diferentes métodos de estimación de productos de software basados en el juicio de expertos. Estos conocimientos nos ayudaron a resolver el problema que se presentó en una empresa multinacional cuando se planteó la necesidad de disminuir el porcentaje de error de proyectos pequeños de software para evitar la revisión del alcance. Para esto se diseñamos un método llamado MEBER que se aplicó a un conjunto de ocho proyectos típicos reales de la empresa, durante aproximadamente dos años. De esta manera podemos decir que el método es aplicable.

tesis Acceso Abierto
Agregar a Mi catálogo

Estimación del tamaño de los artefactos producidos en la elicitación de requerimientos

Más información
Autores/as: María Elena Centeno ; Alejandro Oliveros

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2004 SEDICI: Repositorio Institucional de la UNLP (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información  

Esta tesis tratará de demostrar que un producto del proceso de elicitación de requerimientos como el Léxico Extendido del Lenguaje (LEL) es factible de ser medido. Para ello se proponen varias mediciones de tamaño que aplicadas al LEL, permitan mapear sus atributos y propiedades a un mundo de símbolos numéricos. Combinando estas mediciones se obtendrá un nuevo conjunto de valores que caractericen el artefacto en estudio. La idea fundamental de la determinación del tamaño no se basa simplemente en la cantidad de palabras usadas que puede, ex profeso, ser muy pequeña en el afán de sintetizar el concepto al que se hace referencia o muy grande, para salvar ambigüedades, sino en la cantidad de palabras necesarias para explicar la idea subyacente. Es por esto que se busca establecer reglas de cuantificación que permitan abstraerse tanto de las singularidades del lenguaje como del estilo propio de cada analista y poder efectuar así mediciones objetivas.