Catálogo de publicaciones

Compartir en
redes sociales


Navegación

Tipo

Acceso

Plataformas

Temática

Mostrando 10 de 166.819 registro(s)


tesis Acceso Abierto
Agregar a Mi catálogo

Métodos numéricos para problemas no locales de evolución

Más información
Autores/as: Francisco Vicente Mastroberti Bersetche ; Gabriel Acosta Rodríguez

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2019 CONICET Digital (SNRD) acceso abierto
No requiere 2019 Biblioteca Digital (FCEN-UBA) (SNRD) acceso abierto
El objetivo de este trabajo es estudiar aproximaciones numéricas para problemas de evolución de la forma C∂αtu + (-Δ)su = f in Ω *(0,T), donde (-Δ)s representa el operador Laplaciano fraccionario en su forma integral y C∂αtu(x,t) denota la derivada de Caputo. Para ser más precisos, (-Δ)su(x)= C(n,s) p.v. ∫ℝn [(u(x)-u(y))/(|x-y|^n+2s)] dy, y C∂αtu(x,T)= { [1/r(k-α)]∫t0[1/(t-r)^α-k+1]∂ku/∂tk(x,r) dr if k-1<α

tesis Acceso Abierto
Agregar a Mi catálogo

Métodos numéricos para resolver problemas de control óptimo

Más información
Autores/as: Justina Gianatti ; Lisandro Armando Parente ; Pablo Andres Lotito

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2017 CONICET Digital (SNRD) acceso abierto

Cobertura temática: Matemáticas  

El objetivo principal de esta tesis es proponer métodos numéricos para resolver ciertos problemas de control óptimo. En una primera etapa se analizan problemas de control óptimo determinista de tipo minimax y se presentan condiciones de optimalidad tanto necesarias como suficientes. Se plantea una discretización en tiempo de dicho problema y, a partir de las condiciones de optimalidad halladas, se propone un algoritmo de descenso convergente. Siguiendo con esta misma línea, se estudia un problema de control óptimo minimax con incertezas. Se plantean aproximaciones por promedios muestrales (sample average approximations) y se demuestra la epiconvergencia de las funciones de costo de estos nuevos problemas cuando el tamaño de la muestra tiende a infinito. Estos últimos se aproximan mediante problemas discretos en tiempo con controles seccionalmente constantes, para los cuales se estudian condiciones de optimalidad y se generaliza el algoritmo propuesto para el caso determinista. Además, se estudia la convergencia de minimizadores de los problemas discretos a minimizadores del problema continuo.En una segunda etapa se estudia un problema de control óptimo estocástico con costo integral. Se generaliza el algoritmo de Sakawa-Shindo que había sido propuesto para el caso determinista, el cual está basado en el Principio del Máximo de Pontryagin (PMP). El estudio del algoritmo está hecho en tiempo continuo, y esto es lo que motiva la última parte de la tesis en la que se estudia un problema de control óptimo estocástico en tiempo discreto. Se demuestra el Principio de la Programación Dinámica (PPD) para este problema, se estudia la convergencia de las funciones valor cuando el paso de tiempo tiende a cero y también se analiza la convergencia de controles óptimos. Finalmente se dan condiciones de optimalidad necesarias para el problema en tiempo discreto y se demuestra que el algoritmo de Sakawa-Shindo estocástico puede adaptarse a este caso.

tesis Acceso Abierto
Agregar a Mi catálogo

Métodos ópticos no destructivos para monitoreo de salud vegetal

Más información
Autores/as: Gabriela Beatriz Cordon ; María Gabriela Lagorio

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2009 Biblioteca Digital (FCEN-UBA) (SNRD) acceso abierto
El desarrollo de métodos ópticos analíticos para monitoreo de salud vegetal ha crecido notablemente debido a que estas técnicas permiten ahorrar mucho tiempo y trabajo en el laboratorio. Actualmente, es relevante la posible aplicación de estas metodologías en el monitoreo a distancia de la vegetación. Esta tesis propone un acercamiento al monitoreo de la salud vegetal desde la óptica química-física. El objetivo principal del presente trabajo es la interpretación de la interacción de la luz con el material vegetal en forma rigurosa desde el punto de vista físico y matemático para desarrollar procedimientos de diagnóstico. En particular, se exploraron en profundidad los métodos ópticos basados en determinaciones de reflectancia y en la espectroscopía de fluorescencia. Se encontraron correlaciones entre los espectros de reflectancia con el contenido de pigmentos presentes en las hojas y con el contenido de agua de las mismas. Además, se demostró la aplicabilidad de la teoría de Kubelka-Munk y del modelo de Pila de Placas en hojas. Se efectuó un estudio exhaustivo de la emisión de fluorescencia de clorofila-a presente en el tejido foliar, prestando especial atención al desarrollo y aplicación de modelos adecuados para efectuar correcciones por procesos de reabsorción de luz. Las características morfológicas y fisiológicas de las hojas se ven reflejadas en sus propiedades ópticas; por lo tanto se evaluaron los parámetros fotofísicos de hojas expuestas a diversas condiciones naturales a fin de ahondar los conocimientos existentes al respecto. Adicionalmente, se estudió la variación de los parámetros fotofísicos de las hojas frente a situaciones de tensión tales como: senescencia, carencia de nutrientes y presencia de herbicidas. Finalmente, se desarrolló un método para obtener la distribución espacial de los pigmentos foliares dentro de las hojas. Las imágenes utilizadas se obtuvieron a partir de un escáner comercial lo que facilita la implementación de esta metodología con un bajo costo de operación.

tesis Acceso Abierto
Agregar a Mi catálogo

Métodos para la detección de residuos de antibióticos en leche para ser utilizado en el tambo

Más información
Autores/as: Humberto Luis José Occhi ; Rafael Lisandro Althaus ; Miguel Taverna ; Luis Calvinho ; Eduardo Elizalde ; Orlando Guillermo Nagel

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2013 Biblioteca Virtual de la Universidad Nacional del Litoral (SNRD) acceso abierto
Los residuos de antibióticos y sulfamidas en la leche destinada al consumo, pueden ocasionar diversos problemas, ya que estas sustancias no llegan a destruirse totalmente en la industria láctea, a través de la pasteurización y esterilización. Pudiendo ocasionar riesgos toxicológicos que afecten la salud de los consumidores como el desencadenamiento de alergias , anafilaxia, alteraciones en la flora intestinal y antibio-resistencias . También se debe considerar los inconvenientes que origina la presencia de estos la industria láctea. El trabajo consistió en la evaluación del bioensayo de inhibición microbiológica sistema Resscreen®, sin predifusión, para la detección de residuos de antibióticos en leche de tambo, a fin de evitar que la leche de los animales tratados por distintas patologías (mastitis, enfermedades podales y retención de placenta) con agentes antimicrobianos pertenecientes a diferentes grupos (betalactámicos, tetraciclinas, sulfamidas y macrólidos) llegue al consumidor y se introduzcan en la cadena alimentaria. Se detectó que el sistema Resscreen® posee muy buena sensibilidad cuando se emplea con muestras de leche libres de antibióticos, con valores de 99,0 % para el bioensayo BT y de 98,4 % para el bioensayo BS, similares al método Delvotest MCS utilizado como control, que presentó una sensibilidad del 99,5 %, y detectó en animales tratados residuos de antibióticos betalactámicos, tetraciclinas, sulfamidas y tilosina en niveles cercanos a sus respectivos LMRs.

tesis Acceso Abierto
Agregar a Mi catálogo

Métodos para la exploraciòn eficiente de paisajes de energìa: Desarrollo y aplicaciones a sistemas nanométricos

Más información
Autores/as: Lucas Martin Farigliano ; Marcos Ariel Villarreal ; Eduardo Martín Patrito ; Ezequiel Pedro Marcos Leiva ; Marcelo Puiatti ; Gustavo Adrian Appignanesi

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2019 Repositorio Digital Universitario (SNRD) acceso abierto

Cobertura temática: Ciencias químicas - Nanotecnología  

Tesis (Doctor en Ciencias Químicas) - - Universidad Nacional de Córdoba. Facultad de Ciencias Químicas, 2019.

tesis Acceso Abierto
Agregar a Mi catálogo

Métodos para la integración de TICs: Aplicativo a instituciones educativas de Nivel Básico y Medio

Más información
Autores/as: José Luis Filippi ; Rodolfo Alfredo Bertone ; Zulma Cataldi

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2009 SEDICI: Repositorio Institucional de la UNLP (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información - Educación  

Las nuevas tecnologías de la información y la comunicación han contribuido enormemente a mejorar las condiciones de vida de toda sociedad. Podemos decir que están totalmente integradas, ya sea como herramienta para el trabajo, para el estudio, con fines lúdicos o simplemente como medio de comunicación. La escuela como institución educadora debe incorporarla a su currículo. En esta tesis de magíster nos proponemos configurar un método para la incorporación de las TICs en el sistema educativo de nivel básico y medio. En primer lugar realizamos un estudio y análisis de las tecnologías de la información y la comunicación relacionadas con el objetivo de ésta tesis. Esto implica incursionar por distintos trabajos de investigación, analizar los distintos instrumentos que nos ofrece la tecnología, como recopilar información de los programas implementados por el gobierno nacional en la incorporación de las TICs. Se realiza una contribución en la confección de un instrumento de autodiagnóstico que indique el nivel de utilización de las TICs en la escuela. Se complementa con un sistema de indicadores que destaca las principales debilidades y fortalezas de la institución en la utilización de las TICs. A continuación y realizado el diagnóstico correspondiente, se diseña un método para la incorporación de las TICs en las áreas de la institución. Se definen los distintos espacios de integración donde es factible incorporar las TICs, se estipulan las prioridades y líneas de acción para su implementación.

tesis Acceso Abierto
Agregar a Mi catálogo

Métodos probabilísticos de pronóstico de la mortalidad y su aplicación a tres departamentos de la provincia de Córdoba

Más información
Autores/as: Lucía Andreozzi ; Eduardo Ramón Torres ; Maria Teresa Blacona

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2018 Repositorio Digital Universitario (SNRD) acceso abierto
No requiere 2018 CONICET Digital (SNRD) acceso abierto

Cobertura temática: Geografía social y económica  

Cuando en el año 1996 las Naciones Unidas proyectaron la población mundial para el año 2050 en base a la variante media, la cifra obtenida resultó menor en 466 millones de personas respecto a la proyección realizada para el mismo año en 1994. Este cambio en las cifras fue tomado como una evidencia de que el crecimiento en la población no era un “problema” tan grave como se pensaba. Lo más importante es que ambas proyecciones tenían intervalos de incertidumbre que se superponían, lo que significa que en algún caso ambas proyecciones son iguales o muy próximas, y si bien los productores de las proyecciones comprendían este punto, la mayoría de los consumidores de los datos, no.

tesis Acceso Abierto
Agregar a Mi catálogo

Métodos Prospectivos para el Desarrollo de un Modelo que Contribuya a Optimizar la Eficacia y Eficiencia del Proceso Formativo en Carreras de Ingeniería

Más información
Autores/as: Juan Santiago Pavlicevic ; Oscar Manuel Pascal ; Marta Comoglio

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2017 CIC Digital (SNRD) acceso abierto

Cobertura temática: Ingeniería y tecnología - Educación  

La Facultad de Ingeniería de la Universidad Nacional de Lomas de Zamora (en adelante la FIUNLZ), ha asumido un compromiso institucional con la calidad aún antes de la implementación del proceso de acreditación de carreras, previsto en la Ley de Educación Superior vigente. Ante la imposibilidad de someterse al proceso de autoevaluación por una limitación de la normativa, en cuanto a la dimensión institucional involucrada, en el año 1997 inició el camino de la certificación del proceso de enseñanza según Norma ISO 9001, que fue finalmente alcanzada en el año 1999. Superado este primer objetivo, y en el camino de la búsqueda permanente de la excelencia, durante el período 1999-2001 se aplica el Modelo del Premio Nacional a la Calidad, que define criterios de evaluación más amplios y profundos a la certificación según Norma ISO 9001, logrando en el año 2001 el Premio Nacional a la Calidad para el Sector Público. Posteriormente, en ocasión de la renovación de la certificación ISO 9001, se amplía el alcance de la misma a las actividades de capacitación y entrenamiento (extensión universitaria), para finalmente arribar en el año 2003 a los procesos de acreditación de las carreras por estándares, a través de la Comisión Nacional de Evaluación y Acreditación Universitaria (en adelante CONEAU). Si bien la implantación de los distintos modelos de evaluación, certificación y acreditación de la FIUNLZ, han contribuido en la búsqueda y logro de la excelencia académica, también es cierto que este recorrido por el camino de la calidad no ha coadyuvado a mejorar los indicadores de eficacia y eficiencia del proceso de formación de ingenieros. La Institución dispone de infraestructura, recursos y capacidades excepcionales para la formación de profesionales de excelente calidad, pero no se ha destacado por haber mejorado significativamente la tasa de graduación respecto a la media del sistema universitario nacional, ni lo ha hecho en el plazo previsto por los planes de estudio. Es decir, formamos excelentes profesionales de la ingeniería, pero el proceso aún conserva ineficacias e ineficiencias que impiden que se formen en número suficiente y necesario. En vistas a los futuros procesos de acreditación de CONEAU por competencias, a partir del año 2020, que lleva implícito una reforma de plan de estudio a partir de las actividades reservadas para cada una de las carreras de ingeniería, las competencias específicas y los saberes necesarios que debieran conformarlos, resulta particularmente interesante realizar un estudio prospectivo que ayude a interpretar correctamente el funcionamiento del sistema formativo, diseñar escenarios futuros y elegir el más factible de entre los posibles, de manera de realizar aportes significativos e innovadores en la etapa de diseño curricular.

tesis Acceso Abierto
Agregar a Mi catálogo

Métodos robustos basados en transformaciones con aplicaciones al modelo lineal generalizado

Más información
Autores/as: Marina Silvia Valdora ; Víctor Yohai

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2014 Biblioteca Digital (FCEN-UBA) (SNRD) acceso abierto
Esta tesis consta de 2 partes que corresponden a los Capítulos 1 y 2. En el Capítulo 1 proponemos una familia de estimadores robustos para modelos lineales generalizados. En el Capítulo 2 se introduce una familia de estimadores robustos para distribuciones dependientes de un parámetro. Los estimadores definidos en el Capítulo 1 son M-estimadores redescendientes basados en transformaciones (MT-estimadores) y, más generalmente, M-estimadores pesados basados en transformaciones (WMT-estimadores). La idea principal es usar un M-estimador después de aplicar una función estabilizadora de la varianza a las respuestas. Mostramos la consistencia y la normalidad asintótica de estos estimadores. También calculamos una cota inferior para su punto de ruptura asintótico. Un estudio de Monte Carlo muestra que estos estimadores se comparan favorablemente con otros estimadores robustos para modelos lineales generalizados con respuesta Poisson y log link. Por último, consideramos un ejemplo de datos reales y comparamos el ajuste dado por el MT-estimador con los ajustes correspondientes a otros estimadores existentes. Los estimadores definidos en el Capítulo 2 son estimadores para datos univariados basados en la transformación integral de probabilidad (MI-estimadores). Estos estimadores tienen una definición simple y son muy simples de calcular. Mostramos la consistencia y normalidad asintótica de los mismos y hallamos cotas para su punto de ruptura asintótico. Estudiamos en especial el caso de la distribución de Poisson, en el que probamos que el punto de ruptura es óptimo. Para el caso de la distribución de Poisson realizamos un estudio de Monte Carlo para comparar el desempeño de estos estimadores con el de otros estimadores robustos para datos univariados.

tesis Acceso Abierto
Agregar a Mi catálogo

Métodos robustos de estimación de componentes principales funcionales y el modelo de componentes principales comunes

Más información
Autores/as: Juan Lucas Bali ; Graciela Boente

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2012 Biblioteca Digital (FCEN-UBA) (SNRD) acceso abierto

Cobertura temática: Derecho  

En muchas situaciones prácticas, los datos se registran sobre un período de tiempo o corresponden a imágenes. Por esta razón, conviene considerarlos como realizaciones de un proceso estocástico en lugar de discretizarlos y estudiarlos como realizaciones de datos multivariados. Un método ampliamente usado para describir los principales modos de variación de las observaciones es el de componentes principales funcionales. Sin embargo, los procedimientos clásicos basados en el desvío estándar o el operador de covarianza muestral son muy sensibles a datos atípicos. Para resolver este problema, en esta tesis, se introducen estimadores robustos para las componentes principales mediante un enfoque basado en el método de projection–pursuit. Estimadores de projection–pursuit, para el caso finito– dimensional, fueron inicialmente propuestos en Huber (1981) como una forma de obtener estimadores robustos de la matriz de covarianza. Posteriormente, fueron considerados por Li y Chen (1985) para el problema de componentes principales como una aproximación directa al problema sin necesidad de obtener estimadores robustos de la matriz de escala (ver, también Huber, 1985). En esta tesis, se extiende dicha propuesta al caso funcional. Por otra parte, se consideran diversas variaciones de la misma que permiten obtener estimadores suaves mediante una penalización en la escala o en la norma, o bien, mediante una aproximación finito–dimensional sobre una base con elementos suaves. Bajo condiciones débiles de regularidad, se obtiene la continuidad del funcional asociado, de lo que se deduce la consistencia de los estimadores sin suavizar. Por otra parte, se prueba la consistencia de los estimadores que penalizan la norma y/o la escala así como la de una propuesta basada en aproximaciones por subespacios crecientes, bajo condiciones débiles. Mediante un estudio de simulación, se compara la performance de las propuestas clásicas y robustas bajo diferentes tipos de contaminación. Se complementa el estudio de los estimadores de proyección de las direcciones principales, obteniendo una expresión para la función de influencia del funcional asociado a la dirección principal y su tamaño. Las propuestas anteriores de estimación se extendieron al caso de k poblaciones que cumplen un modelo de componentes principales comunes funcional. Bajo dicho modelo, las diversas poblaciones presentan una estructura común en cuanto a su operador de dispersión compartiendo sus autofunciones y el orden de las mismas. Para ser más precisos, se definen estimadores robustos de projection–pursuit de las direcciones principales bajo un modelo de componentes principales comunes. Para las distintas propuestas, algunas de las cuales incluyen como antes diversos tipos de penalización, se prueba su consistencia, bajo condiciones débiles. Por otra parte, mediante un estudio de Monte Carlo, se estudia el comportamiento de los estimadores introducidos para muestras finitas, bajo diferentes modelos y tipos de contaminación. Finalmente, se proponen algoritmos que permiten calcular aproximaciones de cada una de las propuestas dadas. Se prueba la consistencia del estimador obtenido a través de dicho algoritmo. Mediante un estudio Monte Carlo, se analiza la velocidad de convergencia de dicha propuesta en el caso de procesos con trayectorias suaves e irregulares. Para estas últimas, se propone un método alternativo de cálculo.