Catálogo de publicaciones

Compartir en
redes sociales


Navegación

Tipo

Acceso

Plataformas

Temática

Mostrando 10 de 25.689 registro(s)

Filtros plataforma quitar todos

tesis Acceso Abierto
Agregar a Mi catálogo

Modelado, síntesis y optimización del proceso de reformado de bioetanol para la producción de hidrógeno grado PEM

Más información
Autores/as: Javier Andrés Francesconi ; Pio Antonio Aguirre ; Miguel Ángel Laborde ; Daniel Oscar Borio ; Carlos Alberto Marozzi ; Nicolás José Scenna

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2008 Biblioteca Virtual de la Universidad Nacional del Litoral (SNRD) acceso abierto

Cobertura temática: Ciencias químicas  

Esta Tesis presenta resultados vinculados al análisis y diseño de un procesador de etanol para la producción de hidrógeno grado PEM. El procesador considerado consiste de un reactor de reformado de etanol con vapor de agua, seguido de un tren de reactores catalíticos para la purificación de los gases; reactores water-gas-shift (WGS) y reactor de oxidación preferencial de monóxido de carbono (CO-PrOx). A partir de la implementación del proceso en el entorno de simulación HYSYS, mediante la incorporación de un modelo de celda PEMFC, se analizó la integración energética del sistema evaluando la performance del procesador. Se analizó principalmente el efecto de la relación molar Agua/Etanol (R) y de la temperatura de reformado (TRef). La máxima eficiencia determinada es del orden del 38% y se obtiene a TRef=709 ºC y R=4. Posteriormente con el objeto de obtener el diseño de los reactores catalíticos se determinaron, mediante optimización basada en modelos, las variables operativas y geométricas que minimizan el volumen de las unidades. La metodología fue desarrollada en el entorno de modelado gPROMS. El reactor de reformado se modeló en forma conjunta con la cámara de gases permitiendo evaluar los tamaños relativos de las secciones presentes (lecho reactivo, refractarios y aislantes). El modelo heterogéneo 1D permitió determinar el diámetro de catalizador, longitud y diámetro del reactor, así como también los espesores de materiales aislantes. La metodología mostró ser robusta permitiendo evaluar los diferentes reactores con distintos grados de complejidad a diversas escalas de producción.

tesis Acceso Abierto
Agregar a Mi catálogo

Modelamiento con herramientas SIG y uso de sensores remotos de la variabilidad hídrica y sus efectos desencadenantes en las amenazas naturales de la cuenca del Río Totare, Colombia

Más información
Autores/as: William Edison Valenzuela ; María Cristina Serafini

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2020 REDIUNLu (SNRD) acceso abierto

Cobertura temática: Ciencias biológicas  

En el siguiente documento se propone un análisis integrado de los fenómenos amenazantes por condiciones socio naturales comprendidos en el espacio geográfico que abarca la cuenca hidrográfica del río Totare, en correlación con la dinámica y evolución de las tendencias de variabilidad climática, presiones sobre el recurso hídrico y transformación del paisaje y ecosistema natural hacia elementos de destinación antrópica. El análisis fue realizado a través de la aplicación de técnicas y herramientas geoespaciales como la teledetección y los sistemas de información geográfica. Las variables meteorológicas de temperatura y precipitación fueron estimadas mediante el uso de sensores remotos y álgebra de mapas. Para los factores de transformación de la base ambiental se realizó una clasificación digital mediante técnicas no supervisadas y supervisadas, y el procesamiento digital de imágenes en distintas temporalidades respecto al cálculo del índice de vegetación (NDVI). La determinación de las condiciones hídricas se realizó mediante un balance hídrico espacial, así como el cálculo de la oferta hídrica neta, la valoración de la demanda de agua por usos económicos y la integración de estas condiciones a través del índice de escasez hídrica, aplicando para ello herramientas de superposición espacial y cálculos entre las bases de datos asociadas a las entidades espaciales. El capítulo final muestra los resultados encontrados en cada uno los anteriores procedimientos, y concluye con un análisis de correlación espacio temporal de las amenazas múltiples (multiamenaza) integradas con los factores climáticos, hídricos y ambientales, a partir del cual se pudo evidenciar vínculos de causa y efecto entre las alteraciones antropogénicas al ambiente, como por ejemplo la deforestación, con los resultados de escasez hídrica y fenómenos amenazantes de movimientos en masa, incendios forestales e inundaciones. Se logró establecer la diferenciación espacial de sectores al interior de la subzona hidrográfica del Totare con mayores presiones al ambiente, la calidad de vida de los pobladores y la propensión a eventos de amenaza socio natural. Estas condiciones reunidas muestran que para algunos lugares en el territorio existe una baja resiliencia frente a los retos del cambio climático, mientras otros espacios guardan aún capacidad basados en la oferta ambiental.

tesis Acceso Abierto
Agregar a Mi catálogo

Modelando y verificando diseños de sistemas de tiempo real

Más información
Autores/as: Víctor Adrián Braberman ; Miguel Felder

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2000 Biblioteca Digital (FCEN-UBA) (SNRD) acceso abierto
Real-time systems are found in an increasing variety of application fields. Usually, they are embedded systems controlling devices that may risk lives or damage properties: they are safety critical systems. Hard Real-Time requirements (late means wrong) make the development of such kind of systems a formidable and daunting task. The need to predict temporal behavior of critical real-time systems has encouraged the development of an useful collection of models, results and tools for analyzing schedulability of applications (e.g., [log]). However, there is no general analytical support for verifying other kind of high level timing requirements on complex software architectures. On the other hand, the verification of specifications and designs of real-time systems has been considered an interesting application field for automatic analysis techniques such as model-checking. Unfortunately, there is a natural trade-off between sophistication of supported features and the practicality of formal analysis. To cope with the challenges of formal analysis real-time system designs we focus on three aspects that, we believe, are fundamental to get practical tools: model-generation, modelreduction and model-checking. Then, firstly, we extend our ideas presented in [30] and develop an automatic approach to model and verify designs of real-time systems for complex timing requirements based on scheduling theory and timed automata theory [7] (a wellknown and studied formalism to model and verify timed systems). That is, to enhance practicality of formal analysis, we focus our analysis on designs adhering to Fixed-Priority scheduling. In essence, we exploit known scheduling theory to automatically derive simple and compositional formal models. To the best of our knowledge, this is the first proposal to integrate scheduling theory into the framework of automatic formal verification. To model such systems, we present I/O Timed Components, a notion and discipline to build non-blocking live timed systems. I/O Timed Components, which are build on top of Timed Automata, provide other important methodological advantages like influence detection or compositional reasoning. Secondly, we provide a battery of automatic and rather generic abstraction techniques that, given a requirement to be analyzed, reduces the model while preserving the relevant behaviors to check it. Thus, we do not feed the verification tools with the whole model as previous formal approaches. To provide arguments about the correctness of those abstractions, we present a notion of Continuous Observational Bismulation that is weaker than strong timed bisimulation yet preserving many well-known logics for timed systems like TCTL [3]. Finally, since we choose timed automata as formal kernel, we adapt and apply their deeply studied and developed analysis theory, as well as their practical tools. Moreover, we also describe from scratch an algorithm to model-check duration properties, a feature that is not addressed by available tools. That algorithm extends the one presented in [28].

tesis Acceso Abierto
Agregar a Mi catálogo

Modelización Ab-Initio de nanosistemas basados en grafeno y heteroestructuras espintrónicas

Más información
Autores/as: Sindy Julieth Rodríguez Sotelo ; Eduardo Aldo Albanesi

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2019 Biblioteca Virtual de la Universidad Nacional del Litoral (SNRD) acceso abierto
No requiere 2019 CONICET Digital (SNRD) acceso abierto

Cobertura temática: Ciencias físicas  

El grafeno es un alótropo bidimensional del carbono, con propiedades fı́sicas y quı́micas excepcionales, es un material flexible, liviano, transparente, con alta movilidad de carga y gran área superficial, entre otras. Desde su obtención experimental en el 2004 por Andre Geim y Konstantin Novoselov, hasta la fecha,ha sido un material prometedor con múltiples aplicaciones en campos como la electrónica, bioingenierı́a, biomedicina y nanotecnologı́a.Particularmente, en la construcción de biosensores, el grafeno es un material que ofrece muchas ventajas, ya que, es sensible, selectivo, de bajo ruido electrónico intrı́nseco y además, biocompatible. Trabajos experimentales y teóricos dancuenta de la facilidad del grafeno para adsorber bacterias, células e incluso moléculas, hecho que permite estudiar qué propiedades especı́ficas modifica el material luego de la adsorción, información útil para la eventual funcionalización y caracterización de un biosensor basado en grafeno. Trabajos en esta dirección, con nucleobases de ADN han sido explorados por diversos investigadores.Dependiendo del tipo de interacción generada entre el grafeno y las moléculas de interés biológico, los mecanismos o modos de sensado pueden ser: ópticos, magnéticos, mecánicos y electrónicos. De acuerdo a la literatura, en los últimosaños ha ganado gran interés el desarrollo de transistores de efecto de campo basados en grafeno (GFETs), que son dispositivos electrónicos con tres contactos metálicos (fuente ?source?, drenaje ?drain d? y compuerta ?gate?) y un canal degrafeno. Al aplicar voltajes de polarización tanto en el drenaje como en la compuerta, es posible medir la respuesta del dispositivo, obteniendo la conductancia y las curvas de corriente caracterı́sticas, antes y después de la interacción entrela superficie de grafeno con biomoléculas.

tesis Acceso Abierto
Agregar a Mi catálogo

Modelización Ab-Initio de nanosistemas basados en grafeno y heteroestructuras espintrónicas

Más información
Autores/as: Sindy Julieth Rodríguez Sotelo ; Eduardo Aldo Albanesi

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2019 Biblioteca Virtual de la Universidad Nacional del Litoral (SNRD) acceso abierto
No requiere 2019 CONICET Digital (SNRD) acceso abierto

Cobertura temática: Ciencias físicas  

El grafeno es un alótropo bidimensional del carbono, con propiedades fı́sicas y quı́micas excepcionales, es un material flexible, liviano, transparente, con alta movilidad de carga y gran área superficial, entre otras. Desde su obtención experimental en el 2004 por Andre Geim y Konstantin Novoselov, hasta la fecha,ha sido un material prometedor con múltiples aplicaciones en campos como la electrónica, bioingenierı́a, biomedicina y nanotecnologı́a.Particularmente, en la construcción de biosensores, el grafeno es un material que ofrece muchas ventajas, ya que, es sensible, selectivo, de bajo ruido electrónico intrı́nseco y además, biocompatible. Trabajos experimentales y teóricos dancuenta de la facilidad del grafeno para adsorber bacterias, células e incluso moléculas, hecho que permite estudiar qué propiedades especı́ficas modifica el material luego de la adsorción, información útil para la eventual funcionalización y caracterización de un biosensor basado en grafeno. Trabajos en esta dirección, con nucleobases de ADN han sido explorados por diversos investigadores.Dependiendo del tipo de interacción generada entre el grafeno y las moléculas de interés biológico, los mecanismos o modos de sensado pueden ser: ópticos, magnéticos, mecánicos y electrónicos. De acuerdo a la literatura, en los últimosaños ha ganado gran interés el desarrollo de transistores de efecto de campo basados en grafeno (GFETs), que son dispositivos electrónicos con tres contactos metálicos (fuente ?source?, drenaje ?drain d? y compuerta ?gate?) y un canal degrafeno. Al aplicar voltajes de polarización tanto en el drenaje como en la compuerta, es posible medir la respuesta del dispositivo, obteniendo la conductancia y las curvas de corriente caracterı́sticas, antes y después de la interacción entrela superficie de grafeno con biomoléculas.

tesis Acceso Abierto
Agregar a Mi catálogo

Modelización corporal en la escuela primaria

Más información
Autores/as: Lidia Susana Mó ; Gabriel Cachorro ; Martín Scarnatto ; Pablo Ariel Scharagrodsky ; Osvaldo Ron ; Aldo Román Césaro

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2019 Repositorio Institucional Digital de Acceso Abierto de la Universidad Nacional de Quilmes (SNRD) acceso abierto

Cobertura temática: Educación  

Mó, L. S. (2019). Modelización corporal en la escuela primaria. (Tesis de maestría). Universidad Nacional de Quilmes, Bernal, Argentina.

tesis Acceso Abierto
Agregar a Mi catálogo

Modelización de activos de renta fija emergentes: modelos de forma reducida

Más información
Autores/as: Verónica Lema Pose ; Ignacio Warnes

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2015 Repositorio Digital San Andrés (SNRD) acceso abierto

Cobertura temática: Economía y negocios  

"El presente trabajo se centra en el desarrollo de un marco de estimación de precios teóricos y de la estructura temporal de probabilidad de default asociada al soberano, bajo el ala de la literatura de Modelos de Forma Reducida. Para ello, se utilizará un proceso estadístico para modelar la curva temporal de supervivencia, una estructura de tasas libre de riesgo aplicables a cada pago correspondiente de cada bono en particular, a la vez que se definirá exógenamente una tasa de recupero (asociada a eventos de créditos pasados). El modelo se aplica a bonos de Argentina, y el periodo bajo estudio se centra en Enero 2013-Julio 2015."

tesis Acceso Abierto
Agregar a Mi catálogo

Modelización de campos continuos en sistemas de información geográfica

Más información
Autores/as: Silvia Ethel Gordillo ; Gabriel Alfredo Baum

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 1998 SEDICI: Repositorio Institucional de la UNLP (SNRD) acceso abierto

Cobertura temática: Ciencias de la computación e información  

El aporte más importante de este trabajo es la definición de una arquitectura que permite la definición y el tratamiento de un campo continuo como un objeto del sistema; esto significa: • El campo continuo se define como un conjunto finito de pares (posición, valor) conocido a través de algún método de toma de datos (la muestra origen) más un método de estimación necesario para calcular puntos intermedios que no han sido relevados. • Se pueden asociar distintos algoritmos de estimación a una muestra y, en el caso necesario, cambiar dicho algoritmo dinámicamente, de manera transparente a la aplicación subyacente. • Es posible definir y asociar distintos métodos de implementación para una muestra determinada. • El encapsulamiento del campo continuo permite utilizarlo como un objeto en sí mismo o asociar valores del campos a objetos (discretos) a través de atributos. En el capítulo 2 se describen las principales características de los sistemas de información geográfica. Además de considerar cúales son los principales elementos de estos sistemas, se detallan los diferentes procesos que aparecen en el desarrollo y utilización de los sistemas en particular: • la entrada de datos, la cual tiene una importancia vital en el proceso, pues ésta determinada en gran parte cúan correcta (y por lo tanto cúan confiable) es la información que se está manipulando. • La manipulación de los datos se describe a partir de las funciones de análisis que utilizan la mayoría de los productos de SIG existentes en el mercado. • La definición de las interfaces que definen la salida de información y el análisis que se puede realizar sobre los datos geográficos. En el capítulo 3 se detallan las estructuras de datos que se utilizan para soportar información geográfica y se plantean discusiones sobre el uso de cada una. En el capítulo 4 se describen los conceptos básicos del modelo de objetos que se utiliza como base para la definición de la arquitectura para manipular campos continuos. Este modelo está basado en la tecnología de “Patrones de Diseño” [Gamma et al.95] la cual se describe sucintamente incluyendo un ejemplo. En el capítulo 5 se introducen los conceptos básicos de un campo continuo y las operaciones que habitualmente se requieren sobre este tipo de datos. Se discuten los problemas que existen actualmente para la representación y manipulación de los mismos y se describen algunas investigaciones referentes al tema. En el capítulo 6, se describe la arquitectura definida para campos continuos sobre la base del modelo descripto en el capítulo 4. Se detalla la arquitectura y se especifican las ventajas de su definición. Para mayor claridad se define un ejemplo en el que se muestra su uso. En el capítulo 7 se presenta una implementación posible para la arquitectura definida en el capítulo 6. En el capítulo 8 se describen algunos trabajos relacionados que utilizan técnicas de la orientación a objetos para modelizar aplicaciones SIG. También se hace una discusión sobre las ventajas de la arquitectura presentada en esta tesis. En el capítulo 9 se describen las conclusiones, así como los trabajos futuros que complementarán el proyecto.

tesis Acceso Abierto
Agregar a Mi catálogo

Modelización de la deformación vertical de la corteza en respuesta a procesos de carga

Más información
Autores/as: Romina de los Ángeles Galván ; Mauricio Gende ; Patricia Alvarado ; Andreas Jorg Richter

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2015 SEDICI: Repositorio Institucional de la UNLP (SNRD) acceso abierto

Cobertura temática: Ciencias de la tierra y ciencias ambientales relacionadas  

La medición de cualquier señal que cambia en el tiempo lleva implíci- ta la necesidad de considerar un sistema de referencia invariante. En el caso de la Geodesia, ese sistema de referencia debe materializarse sobre la superficie del planeta, que se halla en cambio permanente como consecuencia de numerosos procesos geofísicos. Para estudiar los fenómenos de cambio global es imprescindible que la Geodesia proporcione un marco de referencia de alcance global, preciso a nivel milimétrico y estable a lo largo de décadas. Para realizar ese marco de referencia es necesario modelar y reducir minuciosamente todos los cambios de las coordenadas que lo materializan, incluyendo, en- tre ellos, la deriva de las placas tectónicas, los movimientos causados por episodios sísmicos y volcánicos, los fenómenos de subsidencia y levantamiento, las mareas terrestres, las deformaciones causadas por las cargas hidrológica, atmosférica, oceánica, criosférica, etcétera. La presente Tesis de Doctorado en Geofísica tiene como objetivo principal mejorar los modelos de respuesta cortical de la Tierra a es- cala regional. La consecuencia más importante de lograr una mejor determinación del comportamiento cortical es reducir los efectos geo- físicos que motivaron esta respuesta observada. Para esto, es impera- tivo mejorar la estimación de las propiedades reológicas del material que compone la corteza terrestre, esto es, valores regionales del mó- dulo de Young E y de la relación de Poisson ν. El trabajo de esta Tesis se desarrolló utilizando datos de la red SIRGAS-CON y datos de la misión satelital GRACE para la estimación de las variaciones de las cargas superficiales en las regiones cercanas a cada estación GPS. Se analizarán los diferentes productos que brinda la red SIRGAS- CON, esto es, las soluciones semanales semilibres, las coordenadas semanales ajustadas al marco ITRF4 y las soluciones multianuales, se analizará la potencialidad de cada una y sus errores y se verá por qué conviene para la presente Tesis trabajar con coordenadas ajustadas semanalmente y la precisión que se puede lograr con ellas. En el caso de las cargas, se analizará cada nivel de dato ofrecido por la misión GRACE, se verá cómo transformar variaciones temporales de los coeficientes del desarrollo en armónicos esféricos del potencial gravitatorio en variaciones de las presiones superficiales; se analizará los errores de la señal haciendo enfásis en el más discutido y ana- lizado en la actualidad: los stripes norte-sur. Para reducir este error se aplicará primero una rutina propia para remover un patrón de co- 4 Siglas en inglés de International Terrestrial Reference Frame. rrelación sistemático de los coeficientes y luego se aplicará un filtro gaussiano para suavizar los efectos remanentes de dichos stripes. La segunda parte de la Tesis se aboca específicamente al modela- do de la respuesta cortical. Se analizan tres modelos diferentes que surgen a partir de resolver la ecuación de equilibrio elástico de un cuerpo sometido a un estado de tensión, suponiendo diferentes mo- delos de carga y del medio: (1) el modelo clásico o de Farrell que utiliza los números de Love de carga según modelos de Tierra SNREI5 , las funciones de Green y valores estimados globales de densidad superfi- cial de masa; (2) un modelo empírico en el cual se reemplaza la función de Green por otra con comportamiento similar pero dependiente del sitio en donde se evalúa la deformación; y (3) un modelo analítico o regional considerando que para deformaciones de escala regional es posible considerar a la corteza como un semiespacio elástico lo que permite encontrar una expresión de las deformaciones en función de los parámetros elásticos regionales. Los tres modelos analizados logran representan bien los principales rasgos de las deformaciones verticales como son las variaciones anua- les, variaciones semianuales y alteraciones en las amplitudes anuales por cambios en los patrones climáticos como la Oscilación del Sur El Niño (ENSO). El modelo regional modela mejor desviaciones del comportamiento armónico así como también representa mejor las va- riaciones para estaciones que se alejan de las fuentes de carga impor- tantes. A partir del modelo analítico, se estimaron por primera vez valores del Módulo de Young a partir de datos GPS en 40 estaciones GPS en América del Sur. La comparación con el único valor determi- nado para una estación (11) muestra una gran consistencia y apoya la validez del modelo presentado en la presente Tesis.

tesis Acceso Abierto
Agregar a Mi catálogo

Modelización de las perturbaciones dinámicas del vórtice polar sobre la Antártida y América del Sur

Más información
Autores/as: Walter E. Legnani ; Pablo M. Jacovkis

Disponibilidad
Institución detectada Año de publicación Navegá Descargá Solicitá
No requiere 2001 Biblioteca Digital (FCEN-UBA) (SNRD) acceso abierto

Cobertura temática: Ciencias físicas  

El objetivo de esta tesis es mostrar la influencia de perturbaciones de escala sinóptica (de longitudes o escalas menores a 5000 km. aproximadamente) sobre el vórtice polar austral y sobre el agujero de ozono antártico. Estas perturbaciones se propagan desde la tropósfera y alcanzan la estratósfera inferior. Por este motivo se realizó un estudio de la presencia de perturbaciones sinópticas y sus características a distintas alturas para comprender su estructura vertical. Para realizar este análisis se diseñaron filtros espectrales bidimensionales en el espacio cuya función fue permitir el estudio por separado de los efectos de las diferentes perturbaciones en función de sus propiedades de onda. En este sentido se trabajó con valores diarios de forma tal de retener las posibles contribuciones no lineales en el tiempo. Se evaluaron las condiciones de penetración / propagación en la estratósfera inferior de los sistemas sinópticos y se estudió su impacto sobre la dinámica del vórtice polar y el agujero de ozono. Para ello se empleó un seguimiento de la dinámica del agujero de ozono en base a la evolución dinámica de la altura geopotencial y su participación en la deformación del sistema en análisis. Para completar el estudio se implementó un modelo de aguas poco profundas cuasitrídimensional que integra en forma espectral, mediante armónicos de Hough, las ecuaciones de movimiento, escritas en coordenadas isentrópicas. Esta metodología de integración numérica proveyó al modelo de un elevado rendimiento computacional, ya que la base espectral seleccionada fue la de autofunciones del operador de aguas poco profundas, de tal forma que no se hizo necesario el mapeo de la esfera para la resolución del sistema de ecuaciones. Este modelo posee una frontera inferior dada por la posición de la tropopausa y una superior libre, es decir, que constituye un problema clásico de aguas poco profundas con fondo móvil. El modelo es de tipo mecanístico y es forzado (mediante el ingreso de condiciones de contorno) por los valores de la temperatura de tropopausa, extraídos a partir de datos del ECMWF (European Centre for Medium Range Weather Forecasting). Este proceso requirió técnicas precisas de interpolación y de procesado de bases de datos para acoplar con el debido tiempo de integración el resto del modelo. Para establecer las condiciones iniciales del modelo al momento de realizar las integraciones de estudio se diseñó una integración previa de “warm up” hasta alcanzar condiciones dinámicas y termodinámicas de la atmósfera, apropiadas con la fecha del inicio de la integración propuesta en el experimento. También fue necesario ajustar el diseño de una capa de esponja en el contorno superior del modelo para evitar que se inestabilizara. A su vez se le añadió difusividad selectiva en la horizontal y la vertical para evitar que las perturbaciones de menor escala fuesen amortiguadas numéricamente. Para validar el modelo se tomó un caso de estudio comprendido entre los meses de octubre y noviembre de 1990 comparando los resultados del mismo con datos independientes del Goddard Space Flight Center de NASA (vorticidad potencial), y del National Oceanic and Atmospheríc Administration (NOAA), E.E.U.U. (vientos y temperatura). El modelo reprodujo estas condiciones con alta fidelidad. Los resultados del modelo convalidan los resultados observacionales sobre la contribución de los procesos de escala sinóptica en la deformación y evolución del vórtice polar y del agujero de ozono. En síntesis, la confirmación del aporte de perturbaciones de escala sinóptica en la deformación del vórtice polar constituye un novedoso aporte en el conocimiento de los mecanismos que participan en la evolución dinámica de este último. Dicho resultado es consolidado por un extenso estudio observacional y un modelo teórico, que incluye importantes implementaciones en modelado fisico-computacional, que lo respaldan.