Catálogo de publicaciones

Compartir en
redes sociales


Navegación

Tipo

Acceso

Plataformas

Temática

Mostrando 10 de 166.819 registro(s)


tesis Acceso Abierto
Agregar a Mi catálogo

Enfoque integrado de procesamiento de flujos de datos centrado en metadatos de mediciones

Más información
Autores/as: Mario José Diván ; Luis Antonio Olsina Santos ; Silvia Ethel Gordillo

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2011 SEDICI: Repositorio Institucional de la UNLP (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información  

Cuando se trata de tomar decisiones a un nivel ingenieril, medir no es una posibilidad sino una necesidad; representa una práctica sistemática y disciplinada por la cual se puede cuantificar el estado de un ente. Si hay un aspecto que se debe tener en claro en medición, es que para comparar mediciones diferentes las mismas deben ser consistentes entre sí, esto es, deben poseer la misma escala y tipo de escala además de obtenerse bajo métodos de medición y/o reglas de cálculos equivalentes. Los marcos de medición y evaluación representan un esfuerzo, desde la óptica de cada estrategia, por formalizar el modo de definir las métricas, sus objetivos, entre otros aspectos asociados, a los efectos de garantizar la repetitividad y consistencia en el proceso de medición que sustentan. Existen aplicaciones capaces de procesar flujos de mediciones en línea, pero el inconveniente principal con el que se enfrentan, es que no contienen información con respecto al significado del dato que están procesando. Para este tipo de aplicaciones, la medición es un dato, es decir, una forma de representar un hecho captado, careciendo de información sobre el concepto al que se asocian o bien, el contexto en el cual es obtenida dicha medición. Los dispositivos de medición, están en general desarrollados para captar una medida mediante un método dado, y en la mayoría de los casos, la forma de obtener dicha medida para su posterior procesamiento en otros entornos (ordenadores de escritorio, móviles, etc.), está en función de servicios o accesorios provistos por el fabricante. Suponiendo que la totalidad de las mediciones, provenientes de diferentes dispositivos, pudieran ser incorporadas en un mismo canal de transmisión, pocos son los entornos de procesamiento de flujos de datos que incorporan comportamiento predictivo. En aquellos que se incorpora comportamiento predictivo, ninguno de los analizados se sustenta en una base conceptual, que permita contrastar una medida contra la definición formal de su métrica. Esto último, incorpora un serio riesgo de inconsistencia, que afecta directamente al proceso de medición y en consecuencia, a los posteriores análisis que en base a estos datos se realicen. Nuestra Estrategia de Procesamiento de Flujos de Datos centrado en Metadatos de Mediciones (EIPFDcMM), se focaliza en permitir la incorporación de fuentes de datos heterogéneas, cuyos flujos de mediciones estructurados y enriquecidos con metadatos embebidos basados C-INCAMI, permitan realizar análisis estadísticos de un modo consistente a los efectos de implementar un comportamiento detectivo y a su vez, permitan incorporar información contextual a las mediciones, para enriquecer la función de clasificación con el objeto de implementar el comportamiento predictivo. Tanto la implementación del comportamiento detectivo como del predictivo tendrán asociados mecanismos de alarma, que permitirán proceder a la notificación ante la eventual identificación de una zona de riesgo. De este modo, se pretende garantizar la repetitividad y consistencia en el proceso de medición que sustentan.

tesis Acceso Abierto
Agregar a Mi catálogo

Enfoque liviano para reconocimiento de gestos manuales híbridos con cámaras de profundidad

Más información
Autores/as: Diego Gabriel Alonso ; Álvaro Soria ; Luis Berdun

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2020 Repositorio Institucional de Acceso Abierto (UNICEN) (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información  

En los últimos años, en combinación con los avances tecnológicos han surgido nuevos paradigmas de interacción con el usuario. Esto ha motivado a la industria a la creación de dispositivos de Interfaz Natural de Usuario (NUI, del inglés Natural User Interface) cada vez más potentes y accesibles. En particular, las cámaras de profundidad han alcanzado grandes niveles de adopción por parte de los usuarios. Entre estos dispositivos se destacan la Microsoft Kinect, la Intel RealSense y el Leap Motion Controller. Este tipo de dispositivos facilitan la adquisición de datos en el Reconocimiento de Actividades Humanas (HAR, del inglés Human Activity Recognition). HAR es un área que tiene por objetivo la identificación automática, dentro de secuencias de imágenes, de actividades realizadas por seres humanos. Entre los diferentes tipos de actividades humanas se encuentran los gestos manuales, es decir, aquellos realizados con las manos. Los gestos manuales pueden ser estáticos o dinámicos, según si presentan movimiento en las secuencias de imágenes. El reconocimiento de gestos manuales permite a los desarrolladores de sistemas de Interacción Humano-Computadora (HCI, del inglés Human-Computer Interaction) crear experiencias e interacciones más inmersivas, naturales e intuitivas. Sin embargo, esta tarea no resulta sencilla. Es por ello que, en la academia se ha abordado esta problemática con el uso de técnicas de aprendizaje de máquina. Tras el análisis del estado del arte actual, se ha identificado que la gran mayoría de los enfoques propuestos no contemplan el reconocimiento de los gestos estáticos y los dinámicos en forma simultánea (enfoques híbridos). Es decir, los enfoques están destinados a reconocer un solo tipo de gestos. Además, dado el contexto de sistemas HCI reales debe tenerse en cuenta también el costo computacional y el consumo de recursos de estos enfoques, con lo cual los enfoques deberían ser livianos. Por otra parte, casi la totalidad de los enfoques presentes en el estado del arte abordan la problemática ubicando las cámaras frente a los usuarios (perspectiva de segunda persona) y no desde la perspectiva de primera persona (FPV, del inglés First-Person View), en la que el usuario posee un dispositivo colocado sobre sí mismo. Esto puede asociarse con que recién en los últimos años han surgido dispositivos relativamente ergonómicos (pequeños, de peso ligero) que permitan considerar una perspectiva FPV viable. En este contexto, en la presente tesis se propone un enfoque liviano para el reconocimiento de gestos híbridos con cámaras de profundidad teniendo en cuenta la perspectiva FPV. El enfoque propuesto consta de 3 grandes componentes. En primer lugar, el de Adquisición de Datos, en el cual se define el dispositivo a utilizar y se recopilan las imágenes y la información de profundidad que es normalizada al rango de valores de 0 a 255 (escala de los canales RGB). En segundo lugar, el de Preprocesamiento, el cual tiene por objetivo hacer que dos secuencias de imágenes con variaciones temporales sean comparables. Para ello, se aplican técnicas de remuestreo y reducción de resolución. Además, en este componente se computa el flujo óptico determinado por las secuencias de imágenes a color que se poseen. En particular, se utiliza el flujo óptico como un nuevo canal de información dadas sus ventajas en lo que respecta a un análisis espacio-temporal de los videos. En tercer lugar, con las secuencias muestreadas y con la información de flujo óptico, se procede al componente Modelo de Aprendizaje Profundo, donde se aplican técnicas de aprendizaje profundo que permiten abordar las etapas de extracción de características y de clasificación. Particularmente, se propone una arquitectura de red convolucional densamente conectada con soporte multi-modal. Cabe destacar que, la fusión de las modalidades no es en etapa temprana ni tardía sino dentro del mismo modelo. De esta manera, se obtiene un modelo end-to-end que obtiene beneficios de los canales de información en forma separada y también conjunta. Los experimentos realizados han mostrado resultados muy alentadores (alcanzando un 90% de exactitud) indicando que la elección de este tipo de arquitecturas permite obtener una gran eficiencia de parámetros así como también de tiempos de predicción. Cabe resaltar que, las pruebas son realizadas sobre un conjunto de datos relevante del área. En base a ello, se analiza el desempeño de la presente propuesta en relación a diferentes escenarios como con variación de iluminación o movimiento de cámara, diferentes tipos de gestos, sensibilidad o sesgo por personas, entre otros.

tesis Acceso Abierto
Agregar a Mi catálogo

Enfoque morfogenético para mejorar la modelación biofísica de la calidad nutritiva de pasturas

Más información
Autores/as: Juan Ramón Insua ; Germán Darío Berone ; Claudio Machado

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2018 INTA Digital (SNRD) acceso abierto

Cobertura temática: Ciencias agrícolas y veterinarias  

La morfogénesis foliar de las plantas es la principal determinante de la dinámica de la calidad nutritiva de rebrotes de pasturas vegetativas. El objetivo del trabajo fue desarrollar un modelo de simulación de calidad foliar de pasturas de gramíneas, de base morfogenética, para integrar el efecto de la edad y el largo foliar sobre la digestibilidad en relación al manejo de la defoliación. El modelo se construyó y calibró con datos detallados de morfogénesis foliar, fibra detergente neutro (FDN), digestibilidad de la FDN (DFDN) y digestibilidad in vitro de láminas de festuca alta (Festuca arundinacea Schreb.). Luego el modelo se verificó con datos observados en pasturas de festuca alta (Argentina) y raigrás perenne (Estados Unidos) manejadas a distintas alturas de biomasa remanente y en distintas épocas del año. El modelo predijo más del 85 % de las variaciones de la calidad nutritiva de las pasturas debidas al efecto de diferentes alturas de remanente. En general, los estadísticos para las variables de calidad (FDN, DFDN y DMS) mostraron cuadrados medio de error < 0,05, R2 ≥ 0,8 y coeficientes de concordancia ≥ 0,8. Una vez evaluado, el modelo fue usado i) individualmente para explorar las respuestas de calidad forrajera a una amplia gama de combinaciones entre la altura de remanente (2-15 cm) e intervalo de defoliaciones (1-5 hojas por macollo); y ii) en integración con un modelo de crecimiento de plantas previamente calibrado para la ayuda de toma de decisiones en el manejo del pastoreo rotativo de un tambo de Estados Unidos. Las variaciones en calidad durante el rebrote de pasturas vegetativas provenientes de diferente altura de corte se debieron principalmente a los cambios de DFDN con el largo y edad foliar. Los resultados indicaron que la consideración de la dinámica de DFDN en relación a la morfogénesis foliar permitió mejorar la predicción de la calidad nutritiva entre un ~80 y 13% en comparación con los modelos de pasturas seleccionados.

tesis Acceso Abierto
Agregar a Mi catálogo

Enfoque multiescalar del análisis fitoecológico integrado del piso basal del valle del río Las Cuevas, Mendoza, Argentina

Más información
Autores/as: Moira Beatriz Alessandro ; Víctor Quintanilla Pérez ; Fidel A. Roig ; Claudia Campos ; José A. Ambrossetti

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2003 Biblioteca Digital UNCuyo (SNRD) acceso abierto

Cobertura temática: Ciencias biológicas  

El trabajo constituyó un análisis integrado de la vegetación a diferentes escalas: macro, meso y microescalar y de sus relaciones con el medio natural y el antrópico. La investigación abarcó deferentes escalas de organización de la vida vegetal: a nivel meso y microescalar , en el piso basal del valle del río de las Cuevas, Mendoza, con un método integrado ( ya que se estudió al mismo tiempo las características de la vegetación, su estructura, fisonomía y flora con las características del clima, geoformas, suelo y unidades de paisaje), con el objeto de dilucidar las causas de la distribución de la vegetación en el Piso mencionado. El cuadro comparativo de relevamientos fue el punto de partida sobre el cual se analizó la vegetación y las posibles causas de su distribución. A partir del mismo se configuraron las formaciones, sus variantes y los grupos de formaciones. Las que fueron correlacionadas con los distintos factores ambientales en Ecogramas y cartografiadas a diferentes escalas. Como conclusión, se pudo establecer relaciones horizontales entre las formaciones y sus variantes con las variedades ambientales de las geoformas y, entre los grupos de formaciones, con las geofacies de umbría, solana y fondo del valle. También se vieron las interacciones verticales entre los diferentes niveles de organización de la vegetación y el clima, como se anticipara en las hipótesis planteadas.

tesis Acceso Abierto
Agregar a Mi catálogo

Enfoque para pruebas de unidad basado en la generación aleatoria de objetos

Más información
Autores/as: Pablo Andrés Barrientos ; Claudia Pons ; Alejandra Cechich ; Alejandra Garrido ; Pablo Fillotrani

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2014 SEDICI: Repositorio Institucional de la UNLP (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información  

El testing del software es una tarea crucial y a la vez muy desafiante dentro del proceso de desarrollo de software. El testing permite encontrar errores y problemas del software contra la especificación del mismo y cumple un rol fundamental en el aseguramiento de la calidad del producto. Entre los tipos de pruebas que se pueden realizar al software están las pruebas de unidad, carga, integración y funcionales. Cada una de ellas tiene distintos objetivos y son realizadas en diferentes etapas del desarrollo del software. En el primer tipo mencionado, se desarrollan pruebas a componentes individuales de un sistema de software. Los desarrolladores especifican y codifican pruebas para cubrir todos o al menos una parte significativa de los posibles estados/configuraciones del artefacto o unidad de software, para simular el entorno del componente y descubrir la presencia de errores o “bugs”. Dado que escribir todas esas pruebas de forma manual es costoso, las pruebas de unidad son generalmente realizadas de manera ineficiente o simplemente dejadas de lado. El panorama es aún peor, más allá del esfuerzo, porque el testing no puede ser usado para probar la usencia de errores en el software sino tan solo la presencia. Por eso es necesario atacar el problema desde diferentes enfoques, cada uno teniendo sus fortalezas y ventajas. Actualmente existen muchas técnicas para hacer testing de software, y la mayoría de ellos se basan en la automatización de pasos o caminos de ejecución, con valores fijos o componentes predefinidos (hard-coded) o estáticos, y condiciones específicas. En este trabajo de maestría, se presenta un enfoque para pruebas de unidad en la programación orientada a objetos, basado en la generación de objetos de manera aleatoria. El fundamento básico de este enfoque propuesto es el testing aleatorio. También se presenta una herramienta de testing de unidad que usa el enfoque dicho, y que fue escrita en un lenguaje orientado a objetos de amplia difusión. El testing aleatorio (RT o random testing) como técnica no es nueva. Tampoco lo es la generación de valores aleatorios para pruebas. En el paradigma funcional, existe una herramienta muy conocida para probar especificaciones sobre funciones llamada QuickCheck. Ésta herramienta (escrita en Haskell) y sus ideas subyacentes son usadas como fundamento para la herramienta creada en este trabajo. La herramienta desarrollada en el presente trabajo cubre además características que existen en el paradigma orientado a objetos de manera inherente, tales como el estado de los objetos (en particular los objetos singleton con estado), clases abstractas e interfaces, que no existen en la programación funcional pura. La constribución de este trabajo de maestría es la presentación de una forma alternativa de realizar tests de unidad en la programación orientada a objetos (POO), basada en un trabajo anterior para el paradigma funcional. También se presenta una herramienta llamada YAQC4J que plasma esas ideas en un lenguaje orientado a objetos de amplia difusión. Finalmente se incluyen ejemplos que ilustran el uso de la herramienta, y se presenta una comparación con herramientas existentes que han intentado implementar el enfoque de testing. Este trabajo está dirigido a los desarrolladores de software interesados en conocer soluciones alternativas para el testing de unidad, y al mismo tiempo una forma complementaria a las ya existentes para pruebas de unidad.

tesis Acceso Abierto
Agregar a Mi catálogo

Enfoque por conexiones de las ecuaciones de Einstein, Yang, Mills

Más información
Autores/as: Horacio Héctor Taboada ; Ricardo José Noriega

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 1989 Biblioteca Digital (FCEN-UBA) (SNRD) acceso abierto
En el presente trabajo se estudian tres problemas inherentes a teorias de campo. En el primero se demuestra la unicidad del tensor de momento-energía para la teoria de Einstein-Maxwell, mediante las siguientes hipótesis, naturales y mínimas: Toda vez que se anule la divergencia covariante del tensor de campo electromagnético, debe anularse la correspondiente al tensor de momento-energía. El tensor de momento-energía hallado coincide con el que usualmente se emplea en la teorías de Einstein-Maxwell. En el segundo trabajo, mediante un enfoque por conexiones simétricas, en el marco de la teoría de gauge de Einstein-Yang-Mills, se resuelve el problema equivariante inverso del cálculo de variaciones. Se demuestra, para un lagrangiano arbitrario L, que si las ecuaciones de campo son tensoriales e invariantes de gauge, y si el operador de Euler-Lagrange asociado a la conexión es adecuadamente degenerado (sus componentes sólo dependen de las de la métrica, de su derivada y de las de la conexión), entonces existe una densidad lagrangiana L~, invariante de gauge, equivalente a L. en el sentido que sendas expresiones de Euler-Lagrange coinciden. La verificación de las ecuaciones de campo en el vacio implica que la conexión simétrica arbitraria utilizada, coincide con la conexión de Levi-Civita. En el último se demuestra -en el mismo marco teórito y con el mismo enfoque que en el trabajo anterior- que dada una densidad escalar lagrangiana e invariante de gauge L~ (cuya existencia está asegurada por el trabajo anterior), y con idénticas hipótesis de degeneración, entonces L~ es única y se exhibe su forma general, para un grupo de Lie arbitrario G.

tesis Acceso Abierto
Agregar a Mi catálogo

Enfoque profesional para la comunicación y marketing político en Argentina en el periodo 2000-2014

Más información
Autores/as: Catalino Nuñez

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2014 Biblioteca Digital (FCE-UBA) (SNRD) acceso abierto

Cobertura temática: Economía y negocios - Ciencia política  


revistas Acceso Abierto
Agregar a Mi catálogo

Enfoque UTE

Más información

ISSNs 1390-6542 (impreso)

Disponibilidad
Institución detectada Período Navegá Descargá Solicitá
No requiere desde ene. 2010 / hasta dic. 2025 Directory of Open Access Journals acceso abierto

Cobertura temática: Ciencias de la computación e información - Otras ingenierías y tecnologías - Ingenieria ambiental  


revistas Acceso Abierto
Agregar a Mi catálogo

Enfoques: Revista de la Universidad Adventista del Plata

Más información

ISSNs 1514-6006 (impreso) 1669-2721 (en línea)

Disponibilidad
Institución detectada Período Navegá Descargá Solicitá
No requiere desde ene. 2002 / hasta dic. 2025 Redalyc acceso abierto
No requiere desde ene. 2008 / hasta dic. 2025 SciELO.org acceso abierto

Cobertura temática: Ciencia política - Filosofía, ética y religión  


tesis Acceso Abierto
Agregar a Mi catálogo

Enfoques alternativos para el análisis de los cambios distributivos en América Latina

Más información
Autores/as: Javier Alejo ; Walter Sosa Escudero

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2012 SEDICI: Repositorio Institucional de la UNLP (SNRD) acceso abierto

Cobertura temática: Educación  

La distribución del ingreso fue una de las primeras motivaciones en el origen del análisis económico. Más allá de las preocupaciones obvias de la política por la desigualdad económica, la academia ha estudiado este problema desde distintas ópticas. Desde entonces, numerosas teorías e investigaciones han tratado (y tratan) de vislumbrar las fuerzas sociales y económicas que mueven y determinan la distribución de la renta. Ese es el objetivo general de ésta tesis, mostrar evidencia y proponer metodologías empíricas que ayuden a responder algunos de los interrogantes de la literatura. La vía propuesta es explorando nuevos horizontes en la investigación empírica de la distribución del ingreso. América Latina es la región con mayor desigualdad en el mundo. El gran movimiento distributivo experimentado por los países de la región, la convierten en un escenario propicio para ésta investigación. La caracterización de este fenómeno ofrece una ayuda para comprender mejor las fuerzas motoras detrás del reciente cambio en la desigualdad. El estudio de la desigualdad es una tarea compleja que abarca la observación tanto de fenómenos económicos de carácter micro como macro. Por lo general, la distribución del ingreso es analizada con la mirada puesta en el largo plazo, aunque las consecuencias coyunturales de corto plazo cobran relevancia en el caso de economías vulnerables como las latinoamericanas. Es por eso que la diversidad de enfoques así como la utilización de las mejores metodologías empíricas de investigación han tratado de ser uno de los pilares de este trabajo. La tesis está constituida por tres capítulos que si bien son autocontenidos guardan algún tipo de relación entre ellos. En particular, los dos últimos tienen un mismo eje temático: el efecto de la educación sobre la desigualdad. A lo largo del trabajo, se analiza a la distribución el ingreso de América Latina con distintas estrategias empíricas. Como primer paso se investiga el problema a nivel macroeconómico, analizando la relación entre desigualdad y crecimiento con varios países de América Latina. Luego, para complementar este análisis se indaga sobre los determinantes de la distribución del ingreso con un enfoque netamente microeconómico. En particular, este análisis está basado en el ingreso laboral, dado que constituye el principal componente del ingreso personal. El caso de Argentina ofrece distintas etapas con escenarios marcadamente diferentes que lo vuelven atractivo como caso de estudio. Sin embargo, el método puede ser extendido a varios países de la región. En la misma línea de análisis, se propone una metodología empírica que permita interpretar los resultados encontrados previamente, a la luz de las explicaciones esbozadas previamente en la literatura. El eje troncal de la tesis se presenta en el Capitulo 1, analizando el cambio en la tendencia de la desigualdad en varios países de América Latina. Se inicia la investigación estudiando la clásica relación entre inequidad y desarrollo planteada originalmente por Simon Kuznets. Luego de una breve reseña teórica sobre el vínculo entre la distribución del ingreso y el desarrollo, el trabajo se ofrece una investigación empírica con métodos empíricos avanzados. Por un lado, el trabajo contribuye a la literatura analizando la posibilidad de relaciones de Kuznets heterogéneas, determinadas por factores regionales que son inobservables. Este aporte es implementado mediante una interpretación económica de los cuantiles de la desigualdad condicional en el desarrollo. Además, un aspecto no menor es que el trabajo mejora a sus antecesores al contar datos agregados por regiones que son altamente comparables entre si. Por lo tanto, la información es de una calidad muy superior a los utilizados anteriormente por los principales referentes de la literatura empírica sobre desigualdad y desarrollo. Los resultados muestran un patrón coherente con una relación de Kuznets, pero pierde relevancia cuando las etapas del desarrollo que el mismo define son sometidas a un análisis empírico realista. El Capitulo 2 continúa la investigación sobre desigualdad salarial cambiando el enfoque hacia un análisis de simulaciones econométricas con microdatos (encuestas de hogares). El grueso de esa literatura se ha enfocado en el estudio de los efectos distributivos de la educación recurriendo a modelos que usan la esperanza condicional como herramienta de análisis de la relación entre salarios y educación. Otros trabajos han intentado salir de esa lógica utilizando el método de cuantiles condicionales, es decir estudiando la distribución del ingreso dado un conjunto de características observables de los individuos. Sin embargo, el objeto de interés del análisis distributivo es la distribución total de salarios. En otras palabras: ¿cuál es el efecto de la educación sobre la distribución no condicional de salarios? Un recurso usualmente empleado para tratar de contestar esa pregunta son las simulaciones numéricas. Esta tesis utiliza la técnica de regresión por cuantiles condicionales con el mismo fin. A lo largo del capítulo se argumenta por qué las estrategias anteriores son intentos parciales y/o están desventaja frente a la metodología utilizada. La aplicación de la metodología al caso de Argentina muestra evidencias de un efecto desigualador de la educación, fenómeno que la literatura ha denominado como La Paradoja del Progreso. Un resultado interesante es que el mismo no es homogéneo, ya que depende del nivel educativo en donde se produce la mejora. El Capitulo 3 sigue en la misma línea de análisis con microdatos proponiendo una metodología de descomposición econométrica que permita interpretar los resultados del capitulo anterior. El objetivo es sopesar dos fuerzas distributivas que se corresponden con explicaciones teóricas esbozadas previamente en la literatura. Por un lado, una línea argumenta que la observación de este efecto paradójico de la educación está vinculada con la convexidad en la relación entre el salario y el nivel educativo (conocida como ecuación de Mincer). Por otro lado, la literatura que analiza el mismo fenómeno pero con un enfoque de cuantiles condicionales dice que el mismo fenómeno es explicado por la heretogeneidad de los retornos a la educación. Ambos lineamientos surgieron en forma separada en la literatura e incluso se han ignorado uno al otro. El aporte del capítulo es proponer una metodología empírica que sopese la relevancia de cada una de estas argumentaciones teóricas, con el fin de caracterizar a la Paradoja del Progreso. El hilo conductor de la tesis es el estudio de la distribución del ingreso en América Latina. Sus principales conclusiones son volcadas en los comentarios finales, en la última sección.