3.01 Tesis magíster
Permanent URI for this collection
Browse
Browsing 3.01 Tesis magíster by browse.metadata.fuente "SRIA"
Now showing 1 - 20 of 318
Results Per Page
Sort Options
- Item3D Modeling of site-city effects using spectral element method. Application to Viña del Mar city, Chile(2019) Soto Moncada, Valeria Paz; Sáez Robert, Esteban; Pontificia Universidad Católica de Chile. Escuela de IngenieríaIn recent years, seismic wave propagation analyses have become a powerful tool to evaluate the site effects in a given region. While many approaches are available, the Spectral Element Method (SEM) has been widely used for that purpose because of its flexibility and computational efficiency. Basin shape, material nonlinearity and heterogeneity are import ant effects; however, the multiple inter and structures, known as site-- actions between the soil city effects (SCI), can also play a crucial role in analyses of densely populated areas. There are many options to model this kind of interaction, especially if the buildings are partially embedded in the soil. This paper evaluates the importance of the proper SCI modeling against more standard uncoupled approaches, focusing on the local interaction between the soil and a group of buildings including inelastic s oil behavior. We focus our work on the case of downtown Viña del Mar, a touristic coastal city of central Chile, where the observation of a reiterated distribution of damage in reinforced concrete buildings during two major earthquakes has motivated numero us studies. For that purpose, a realistic 3D numerical model of the area was created, considering the existing buildings. The opensource code SPEED was used to perform the wave propagation simulation, which combines the spectral element method with a disc ontinuous Galerkin approach. A geophysical study was conducted to estimate the model parameters; in addition, shear modulus degradation and damping curves were extracted from laboratory tests to account for the nonre linearity of the soil. In general, the sults indicate that the inclusion of the SCI is beneficial to the structure's response in most cases, and that the SCI modeling needs to consider the level of embedment to obtain more precise results.
- ItemA compound real option approach for determining the optimal investment path for residential PV-Storage Systems(2019) Hassi, Benjamín A.; Reyes Torres, Tomás H.; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEl uso de sistemas residenciales de almacenamiento fotovoltaico puede producir beneficios económicos para los propietarios y se ha expandido rápidamente en los últimos años. Las grandes incertidumbres con respecto a la rentabilidad de estos sistemas hacen necesario incorporar flexibilidades en sus evaluaciones económicas. Este documento ofrece un nuevo método para evaluar la flexibilidad de tener la opción compuesta de retrasar y ampliar progresivamente la capacidad de módulos fotovoltaicos y baterías durante un tiempo de inversión. La flexibilidad se modela como una opción real compuesta, cuyo valor se calcula utilizando un nuevo método que denominamos Compound Least Square Monte Carlo (CLSM). Aplicamos el modelo a un sistema residencial de almacenamiento fotovoltaico en Chile. Nuestros resultados muestran que un hogar debe invertir en sistemas de almacenamiento fotovoltaico en el 60% de los posibles escenarios futuros. Además, en el 36% de los escenarios futuros, se recomienda dividir la inversión en dos o más etapas. El valor de la flexibilidad compuesta sugiere que los inversionistas deben usar el método CLSM propuesto en la valoración económica de proyectos de múltiples etapas, ya que considerar únicamente la flexibilidad de posponer la inversión podría promover decisiones subóptimas.
- ItemA family of centrality measures based on subgraph(2019) Salas Cornejo, Jorge; Riveros Jaeger, Cristian; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEsta tesis introduce las bases teóricas de un nuevo enfoque para las medidas de centralidad sobre bases de datos de grafos. El principio fundamental de este enfoque es simple: mientras más subgrafos relevantes envuelvan a un vértice, más central será dentro de la red. La idea de ”subgrafos relevantes” se formaliza eligiendo una familia de subgrafos que, dado un grafo G y un vértice v en G, esta asigna un conjunto de subgrafos conexos de G que contienen a v. Cualquiera de estas familias define una medida de centralidad al contar la cantidad de subgrafos asignados a cada vértice, i.e, un vértice será más importante para la red si pertenece a más subgrafos dentro de la familia. Se muestran ejemplo de este enfoque, en particular, se propone all-subgraphs centrality, una medida de centralidad que toma en cuenta todos los posibles subgrafos. Se analizan las propiedades fundamentales sobre familias de subgrafos que garantizan propiedades deseables sobre la medida de centralidad. Interesantemente, all-subgraphs centrality satisface todas estas propiedades, mostrando su robustes como noción de centralidad. Finalmente, se prueba la complejidad computacional del conteo de ciertas familias de subgrafos y se muestra un algoritmo de tiempo polinomial para computar all-subgraphs centrality cuando el grafo posee tree width acotado.
- ItemA global data warehouse for astronomy(2018) Machin Matos, Javier Ismael; Pichara Baksai, Karim Elías; Pontificia Universidad Católica de Chile. Escuela de IngenieríaThere have been many attempts to gather and integrate numerous astronomical data sources to create a centralized, organized and consolidated database with visualization and analysis add-on tools. Unfortunately, most of those attempts have been inefficient, mainly, because they lack a holistic scheme that allows for heterogeneous data integration, highlevel pre-processing and visualization capabilities within the same structure. In industry, the same problem was tackled back in 1960, where the concept of the Data Warehouse was introduced as the most promising solution for the majority of the organizations. In this paper, we bring Data Warehousing to astronomy in theory and practice. We develop and implement an integrated astronomical Data Warehouse that allows users to visually process and analyze astronomical data in real time, narrowing down exploratory analyses, and providing an active interaction with data. In the current version, we implement a twolayer- based architecture that provides an interactive and user-friendly environment, with advanced visualization capabilities for data manipulation and data mining applied to time domain astronomy.
- ItemA machine learning-based analysis of actual evaporation drivers across different land covers in the chilean andean plateau(2024) Boada Campos, Javiera Ignacia; Suárez Poch, Francisco Ignacio; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa estimación precisa de la evaporación (E) es crucial para la gestión del agua en regiones áridas como el Altiplano chileno. Aquí, E es el principal flujo de salida de agua en cuencas endorreicas, predominando en salares, superficies vegetadas, suelos desnudos con aguas subterráneas poco profundas y lagunas salinas someras. Estimar E es desafiante debido a su naturaleza altamente dinámica, influenciada por procesos atmosféricos y por el tipo de cobertura terrestre. Aunque los algoritmos de aprendizaje automático (ML) han mostrado ser prometedores para entender E, aún no se ha profundizado en cómo la cobertura terrestre afecta las principales variables que predicen E. Este estudio emplea técnicas de ML para determinar los impulsores de E en distintas coberturas evaporíticas del Altiplano. Tres algoritmos de ML fueron evaluados utilizando flujos de E y datos ambientales de campañas de terreno. Random Forest (RF) emergió como el algoritmo más efectivo debido a su mejor rendimiento y menor tiempo de ejecución. Las variables ambientales clave fueron identificadas utilizando el método explicativo SHAP. Los resultados revelaron que E en salares y vegetación están principalmente limitadas por la disponibilidad de energía. El suelo desnudo se ve influenciado tanto por la energía como por la disponibilidad de agua, mientras que la turbulencia mecánica domina sobre las superficies de agua. Al definir umbrales de impacto para los principales impulsores, se demostró la interdependencia entre procesos físicos y estados ambientales en la promoción de E. Finalmente, la sensibilidad del modelo indicó que es posible predecir E con cuatro variables para salares, vegetación y suelo desnudo, y tres para superficies de agua, sin pérdida significativa de precisión. Este enfoque permite establecer una red de estaciones meteorológicas de bajo costo para estimar E en toda la región. Esta investigación mejora la comprensión de cómo las características de la superficie y las condiciones ambientales influyen en E, ofreciendo información valiosa para la gestión efectiva de los recursos hídricos en regiones áridas.
- ItemA multiresolution stability analysis for quantitative magnetic resonance imaging(2022) Guerra Pérez, Martín A.; Sing-Long C., Carlos A.; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLas imágenes cuantitativas por resonancia magnética (QMRI) son una forma de obtencion de imágenes por resonancia magnética (MRI) que, a diferencia de lo que los métodos estándar de MRI buscan, estos métodos apuntan a recuperar parámetros cuantitativos que describan propiedades físicas del tejido involucrado en el proceso de obtención de imágenes médicas. Los métodos que siguen el enfoque de QMRI típicamente buscan aproximar los parámetros de relajación de los materiales magnetizados (mapeos T1 y T2). La principal dificultad en la reconstrucción de estos parámetros está en que con métodos de optimización estándar el problema resultante tiene una alta dimensionalidad y es no convexo. Existen diferentes formas de buscar una aproximación de los parámetros que evitan esta complicación como magnetic resonance fingerprinting (MRF). Aun así, el alto costo computacional de este hacen difícil que sea una solución en el largo plazo. Creemos que se puede modelar el método de reconstrucción tal que la no convexidad no sea mucho problema. Para lograrlo demostramos propiedades fundamentales del mapeo de Bloch y desarrollamos un análisis multirresolución para el enfoque de QMRI, el cual al resolver el problema a diferentes escalas podría evitar el problema de estancarse en un mínimo local. Mas precisamente desarrollamos una aproximación multirresolución de la ecuación de Bloch. Aún así, el problema a resolver sigue estando muy mal condicionado para asegurar una reconstrucción satisfactoria. Nuestros resultados numéricos muestran que incluso la reconstrucción de la variable lineal del problema causa suficientes problemas.
- ItemA Numerical framework to address the inverse problem of estimating Lamé parameters using HDG Runge-Kutta methods(2024) Cortés Castillo, Pablo; Sánchez Uribe, Manuel; Pontificia Universidad Católica de Chile. Escuela de IngenieríaIn engineering, the problem of characterizing the immediate subsoil of the earth’s crust is a subject of extensive research. A common approach for solving this problem is to induce elastic waves from the surface to the underground. So, when the propagating media is not homogeneous, we expect collisions of these waves with inclusions, represented by changes in the Lame parameters ´ (λ, µ) that uniquely determine the composition of the isotropic solid. An inverse problem arises from measuring the elastic waves that propagate back to the surface and compare with some direct model predictions. To address this problem, we rst deliver an accurate numerical characterization of the time-dependent elastic waves by solving the elastodynamics PDE using an HDG nite elements spatial discretization with weak symmetry. We also present several time-marching schemes with different orders of convergence and properties and prove optimal error estimates for every scheme, generating a wide variety of fully-discrete direct solvers. Furthermore, we provide suitable treatment for numerical artifacts, such as the locking phenomenon, and review relevant techniques to perform computational domain truncation, such as PMLs, including a damping term. Finally, we consider the inverse problem of minimizing a mis-t L2 loss between boundary measurements of the ground truth and the forward model numerical solution. We propose a rst-order algorithm that iteratively delivers descent directions by characterizing Frechet derivatives of the loss function in a discrete fashion. ´Moreover, we present a full adjoint analysis of the continuous PDE-restricted optimization problem; this provides a continuous characterization of the second-order information of the Loss function when L2 regularization is included.
- ItemA radiation-tolerant, 1 GSPS switched capacitor array for a particle physics experiment(2022) Campeny, Agustín; Abusleme Hoffman, Ángel Christian; Kuleshov, Sergey; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEn la medida que los experimentos de física de partículas se han vuelto más complejos y ambiciosos durante los últimos años, con ejemplos como el Large Hadron Collider (LHC) or the Jiangmen Underground Neutrino Observatory (JUNO), estos han involucrado un mayor número de canales de detectores de partículas a ser adquiridos. Mientras que los circuitos Conversores Análogo-a-Digital (ADC) han sido la elección obvia cuando se trata de adquisición de datos, con un gran número de arquitecturas y alternativas comerciales disponibles, estos no son siempre la mejor solución en aplicaciones de señales pulsadas rápidas con un gran número de canales. Los circuitos de memoria analógica tienen la función de “estiramiento temporal” de pulsos individuales, que pueden luego ser adquiridas por un ADC más lento, ofreciendo un mejor desempeño, eficiencia de potencia y costo reducido comparado con una adquisición en tiempo real con un ADC rápido individual. El proyecto Charge Monitoring Board (CMB) para el espectrómetro de muones del experimento ATLAS en CERN tiene la función de monitorear alrededor de 40.000 canales de detectores Thin Gap Chamber contra variaciones en su nivel base, que se espera que ocurran en la actualización de alta luminosidad del LHC. Esta tesis presenta el diseño e implementación de una nueva topología de un circuito integrado de memoria analógica de arreglo de capacitores conmutados (SCA) como un dispositivo de adquisición para las CMBs, propuesta con una alternativa de baja potencia a soluciones comerciales como el chip DRS4. Simulaciones de la implementación muestran resultados prometedores con respecto a la tasa de muestreo y el consumo de potencia, y entregan una buena intuición sobre posibles optimizaciones sobre excursión de voltaje y resolución para un diseño futuro.
- ItemA realistic in silico abdominal phantom for quantitative susceptibility mapping(2022) Silva, Javier I.; Tejos Núñez, Cristián Andrés; Uribe Arancibia, Sergio A.; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa aplicación de mapas cuantitativos de susceptibilidad (QSM) ha cobrado un reciente interés en regiones fuera del cerebro, debido a su potencial como biomarcador de sobrecarga de hierro hepático y enfermedad crónica de riñón. No obstante, a diferencia del cerebro, la aplicación de QSM en el abdomen requiere modificar el proceso de reconstrucción para lidiar con las contribuciones adicionales en la señal de fase, provenientes de los gases y el tejido graso. Los trabajos más recientes abordan el problema de las contribuciones de grasa mediante distintas estrategias, pero no evalúan el desempeño de estas ni cómo los errores propagados desde las etapas de pre-procesamiento afectan a los mapas reconstruidos. En este trabajo presentamos un fantoma abdominal de QSM con texturas realistas, el cual puede ser empleado para evaluar y comparar el desempeño de diferentes estrategias de QSM abdominal. Hemos elaborado este fantoma empleando un modelo flexible, que permite emular distintos escenarios de susceptibilidad y contribuciones a la señal de resonancia magnética. A modo de validar su potencial como ground truth, hemos empleado el fantoma para evaluar cómo la estrategia de adquisiciones en fase y la estrategia basada en separación de agua y grasa por Iterative Graph Cuts (ICG) afectan el desempeño de los algoritmos de QSM. Las simulaciones realizadas muestran que el fantoma efectivamente simula valores de susceptibilidad con texturas de apariencia realista, a la vez que presenta una correcta evolución de la señal de fase. Por otro lado, los experimentos de reconstrucción dejan en evidencia el potencial de nuestro fantoma para identificar las fortalezas y debilidades de las distintas estrategias estudiadas, como la tendencia de IGC a propagar errores residuales en regiones con cambios abruptos de susceptibilidad, o la robustez de los métodos de reconstrucción basados en regularización por variación total (TV).
- ItemA stochastic model for bus injection in a public transport service(2018) Morales Lazen, Diego; Gazmuri S., Pedro; Pontificia Universidad Católica de Chile. Escuela de IngenieríaRandomness affecting the operation of public transport systems generates significant increments in waiting times. A strategy to deal with this randomness is bus injection, in which buses are kept in specific points along the route ready to be dispatched when an event such as an extremely long headway occurs. In this work, a stochastic model based on the second moment of the headways distribution is developed to determine if one or more buses are worth reserving for injection in a public transport service. A single stop approach is initially used to determine an expression for the optimal headway threshold triggering the injection. Then, a model for the complete service is developed and used to determine when the empty bus should be injected within the headway once the decision to inject it has been taken. We show that the bus should be injected approximately when 57% of the headway has passed. Simulations with real data are used to test the proposed model, proving its accuracy in terms of measuring the impact on waiting times. The results show that reserving a bus to be injected can be better than operating the entire fleet continuously.
- ItemA theoretical framework for the design of high-fidelity test lungs for mechanical ventilators based on a thermodynamic approach(2022) Calderón Espinoza, Ignacio Alonso; Chiang Sánchez, Luciano Eduardo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa pandemia de COVID-19 que aún persiste en la actualidad provocó una sobredemanda de ventiladores mecánicos alrededor del mundo. Muchos equipos de investigación han intentado desarrollar ventiladores. Sin embargo, asegurar su correcto funcionamiento y fiabilidad es un reto. Un enfoque eficiente para probar y validar ventiladores es usar pulmones de prueba. En esta tesis se presenta un nuevo modelo matemático teórico. Se presenta un sistema de ventilador mecánico-paciente basado en un enfoque termodinámico. El pulmón se modela en base a la dinámica de una masa-amortiguadorresorte (no lineal), sistema con caracterización de los pulmones del paciente a través de funciones de segmentos lineales de presión-volumen por partes en lugar de considerar conformidades lineales o constantes. El flujo de aire y la presión se modelan según ecuaciones de flujo de aire compresible en lugar de aproximaciones lineales. Se realizaron simulaciones computacionales de curvas de presión y volumen versus tiempo y se compararon con datos de ocho pacientes reales bajo ventilación mecánica invasiva (IMV). Este modelo propuesto permite reproducir con un alto grado de fidelidad las curvas de presión, caudal y volumen de la vida real. Lo más notable es que la forma de las curvas de presión, flujo y volumen simuladas se parecen mucho a la pacientes de la vida real. Los gráficos de dispersión dan pendientes cercanas a 1,0 y un valor de R2 superior al 93%. Los parámetros del modelo matemático se obtienen de las curvas reales del paciente cuyo comportamiento quiere ser reproducido. Por lo tanto, el modelo matemático presentado aquí se puede utilizar como una herramienta de diseño para una configuración de pulmón de prueba tal como se describe en esta tesis
- ItemA water balance approach to estimate fog water contribution to a relict forest in the coastal semi-arid region in Central Chile(2024) Pacheco Canales, Valentina J.; Vicuña Díaz, Sebastián; Suárez Poch, Francisco Ignacio; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa niebla marina a lo largo de la costa occidental de Chile, en la región semiárida y mediterránea, ejerce influencia en los patrones de vegetación costera y representa una fuente de agua significativa, aunque subestimada, para el balance hídrico de la cuenca. Aunque se ha sugerido que los vientos del sudoeste transportan la niebla marina tierra adentro, la comprensión de esta dinámica es limitada. Por ello, este estudio tiene como objetivo analizar la niebla costera en la costa de la región central de Chile, examinando su distribución temporal, contenido de agua y recolección, en relación con la presencia de bosques relicto. Se enfoca en un bosque relicto ubicado en la costa semiárida de Chile, a 3.5 km tierra adentro, con una altitud de 650 metros. Este bosque, dominado por Aextoxicon punctatum, sobrevive con menos de 200 mm de precipitación anual, lo que destaca la importancia crítica del agua de niebla. El enfoque metodológico implica un análisis del balance hídrico adaptado a las contribuciones de agua relacionadas con la niebla, considerando la precipitación, evapotranspiración, acumulación de suelo y entrada de niebla a diferentes escalas. Los hallazgos revelan que la niebla se presenta el 17% del tiempo y contribuye hasta el 75% a la evapotranspiración del bosque, con una capacidad de captura de niebla de hasta el 10.5%. Sin embargo, según los datos de sensores de humedad del suelo, la niebla capturada parece no penetrar profundamente en el suelo ni generar escorrentía. Se exploró la variabilidad de la eficiencia de captura de niebla del bosque con respecto a la elevación, el área de recolección y la evapotranspiración. Estos resultados resaltan la importancia del agua de niebla como fuente vital para la vegetación y enfatizan la necesidad de integrarla en evaluaciones más amplias para predecir mejor los recursos hídricos y conservar los ecosistemas.
- ItemAchieving a proactive policy for patient flow management in a complex hospital network through reinforcement learning(2024) De Geyter Messina, Matías; Vera Andreo, Jorge; Larraín Izquierdo, Homero; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa toma de decisiones en el cuidado de la salud es un problema complejo debido a la incertidumbre y la realidad dinámica. Un tema muy importante está relacionado con las decisiones sobre admisiones de pacientes. En una red de atención médica compuesta por varios hospitales, debería ser conveniente considerar la capacidad combinada de todo el sistema. Por lo tanto, además de las admisiones a un hospital, también es posible transferir pacientes a otros. Estas decisiones dependen no solo de la condición médica del paciente, sino también de la capacidad actual de las diferentes áreas de los hospitales. En este trabajo, hemos formulado el problema como un Proceso de Decisión de Markov, y lo abordamos utilizando un enfoque de Aprendizaje por Refuerzo donde se estima el costo futuro esperado utilizando un modelo XGBoost, combinado con simulación, basado en la metodología de Q-learning. Basándonos en la política obtenida a traves del aprendizaje por refuerzo y en nociones de la literatura, se proponen pautas generales de gestión hospitalaria, que resultan en una política simplificada y fácil de implementar con resultados prometedores, incluída una reducción en el tiempo de servicio promedio en un 13.38% y una reducción del tamaño de la lista de espera del 65.86%. En comparación con el escenario base, hay una reducción en los costos totales del 71.44%, donde los costos sociales (debidos a los tiempos de espera y los costos de oportunidad de las camas para pacientes) se reducen en un 87.30%.
- ItemAge of information in IOT-based wireless networked control systems(2021) Mena Ríos, Juan Pablo; Núñez Retamal, Felipe Eduardo; Pontificia Universidad Católica de Chile. Escuela de IngenieríaUna correcta ocurrencia en el tiempo de transmisión de la información es fundamental para garantizar el rendimiento de los sistemas de control sobre redes (NCS). A pesar de que esta ocurrencia está intrínsecamente vinculada a la red de comunicación, hoy en día el diseño de los sistemas de control en red considera las capas de control y comunicación de forma separada. Como un paso hacia el cambio de esta perspectiva, este trabajo analiza la interacción entre ambas capas utilizando los conceptos de la edad de la información (AoI) y la edad pico en sistemas de control en red basados en el internet de las cosas (IoT), donde un conjunto de lazos de control independientes operan a través de una red compartida. En particular, el análisis se centra en cómo se comportan las métricas basadas en el concepto de la edad del estado en los esquemas inalámbricos de control de acceso al medio (MAC) típicamente utilizados en las implementaciones de IoT, y cómo este comportamiento se puede utilizar para explicar la calidad de control (QoC) de los lazos insertados en una red específica, la cual esta vinculada con dos indicadores clásicos de NCS: el intervalo de transmisión máximo permitido (MATI) y máximo retardo permitido (MAD). Se revisan diferentes conceptos relevantes para el estudio de sistemas de control en redes. Luego, sobre la base de modelos NCS comúnmente utilizados en la literatura, se derivan expresiones para AoI, la edad pico y la probabilidad de que la edad pico supere un cierto umbral relacionado con la estabilidad del lazo para NCS inalámbricos que utilizan dos tipos distintos de protocolos CSMA/CA y un tipo de TDMA. Además, se establecen algunas ideas sobre la utilidad de ciertos protocolos MAC dependiendo de los requisitos de diseño específicos, y se realizan comparaciones efectivas en el contexto de ejemplos de problemas de diseño. Las principales conclusiones involucran la obtención de diferentes tasas de muestreo óptimas para la edad de la información en los diferentes protocolos analizados para diferentes largos de paquetes. Además, la relación entre la edad pico y la estabilidad de los lazos se logra a través de la determinación de tasas de muestreo óptimas para evitar el exceder un cierto umbral relacionado a la estabilidad del lazo.
- ItemAgendamiento de pacientes de quimioterapia: Optimización de reglas de Decisión(2023) Barriga Vuylsteke, Sebastián Andrés; Lorca Gálvez, Álvaro Hugo; Cataldo Cornejo, Alejandro; Pontificia Universidad Católica de Chile. Escuela de IngenieríaEl cáncer es una enfermedad que anualmente mata a millones de personas. El número de pacientes que la padecen se encuentra en crecimiento sostenido, con particular riesgo en los países más desarrollados (Fondo de Investigación Mundial de Cáncer, 2021). Para su tratamiento, una de las técnicas médicas tradicionales es la quimioterapia, la que consta de infusiones de drogas específicas durante distintos ciclos, los cuales definen los protocolos de atención del tratamiento. El agendamiento de pacientes de quimioterapia presenta una alta dificultad matemática y computacional, además de la necesidad de poder ser implementable de forma sencilla. El problema se puede separar en dos: planificación inter-día y agendamiento intra-día. En esta investigación se aborda el último mediante análisis de reglas básicas de decisión, y se pone a prueba su rendimiento con técnicas de optimización y simulación conjuntas. Se utilizaron datos agregados de un centro de cáncer de Chile, y mediante ellos se generaron casos de estudio representativos para validar las distintas reglas y técnicas utilizadas. En particular, se comprobó el buen rendimiento que presenta la regla de asignar a todos los pacientes en base a su tiempo esperado de atención, por sobre asumir casos pesimistas u optimistas según sus distintos tipos de cáncer. Además, sumando técnicas de penalización, prohibición y el uso de ciertos resguardos conservadores, se logró generar mejores reglas de decisión. Estas, si bien en su naturaleza continúan siendo simples y por ende fáciles de implementar, presentan mejoras por sobre la regla básica de agendar utilizando los tiempos esperados de atención de cada cáncer. El principal aporte de esta investigación radica en una propuesta metodológica de optimización y simulación, la que es aplicable tanto en problemas de agendamiento, en particular de quimioterapia, pero también potencialmente en otras áreas o industrias.
- ItemAircraft maintenance scheduling under uncertain task processing time(2024) Villafranca Schwarzenberg, Matías Alberto; Delgado Breinbauer, Felipe Alberto; Klapp Belmar, Mathias; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLos atrasos inesperados en la ejecución de tareas de mantenimiento de aeronaves pueden producir costosas disrupciones operativas para las aerolíneas, incluyendo atraso en vuelos, impactando significativamente sus operaciones y gastos. En este estudio, abordamos la incertidumbre en los tiempos de procesamiento de las tareas de mantenimiento y diseñamos horarios de mantenimiento de aeronaves costo-eficientes mediante programación estocástica de dos etapas. En la primera etapa, determinamos las tareas diarias a ejecutar en cada aeronave, especificando su tiempo de inicio, base de mantenimiento y técnico asignado. En la segunda etapa, ajustamos el tiempo de inicio de cada tarea y el horario de despegue de cada vuelo según los tiempos de procesamiento de tareas realizados. Nuestro objetivo es minimizar los costos esperados incurridos por tareas de mantenimiento tercerizadas, horas extras de los técnicos y atrasos en los vuelos. Para resolver nuestro modelo, diseñamos una heurística de Búsqueda Local Iterativa Adaptativa que explora soluciones de primera etapa con una evaluación eficiente del costo de la segunda etapa. Probamos nuestro enfoque en un conjunto de instancias simuladas computacionalmente. Nuestro modelo y solución propuestos generan ahorros promedios del 77% y 45%, respectivamente, en comparación con un enfoque determinístico que asume tiempos esperados de procesamiento de tareas y con una solución conservadora que asume los máximos tiempos de procesamiento posibles. Además, obtenemos un ahorro promedio del 12% en comparación con una solución benchmark que planea las tareas de mantenimiento con un buffer de tiempo optimizado. También, estudiamos el impacto en el costo de variar los parámetros estructurales, como la granularidad de las tareas, la variabilidad de los tiempos de procesamiento, la carga de trabajo y la estructura de costos.
- ItemAlteración del período circadiano del reloj proteico KaiABC mediante diseño racional del estado de transición de replegamiento de la proteína metamórfica KaiB(2023) Retamal Farfán, Ignacio Andrés; Ramírez Sarmiento, César Antonio; Rivera Valdés, Maira; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa proteína metamórfica KaiB regula el reloj biológico de cianobacterias KaiABC mediante la interconversión de su estructura. Este tipo de proteínas pueden adoptar más de un estado termodinámicamente estable y responsable de su función biológica, lo que desafía a la clásica noción de “una secuencia - una estructura - una función”. Durante el día, KaiB forma un homotetrámero (gsKaiB), mientras que por la noche se transforma a un monómero (fsKaiB). Este cambio en el estado oligomérico va acompañado con cambios en su estructura secundaria y terciaria en su mitad C-terminal. Previo a este trabajo, el mecanismo de metamorfosis y los residuos relevantes para la formación de la transición metamórfica eran desconocidos. En la presente tesis, mediante simulaciones de dinámica molecular con modelos basados en estructura (SBMs) de doble cuenca, se dilucidan los estados de transición y el mecanismo de metamorfosis de KaiB, el cual sigue como ruta gs2⇄2gs⇄2fs, con la disociación del dímero de gs como el paso limitante del proceso. Utilizando criterios de probabilidad de formación de contactos nativos y cambios en frustración energética local, se identificaron 5 residuos relevantes para la formación del estado de transición de la interconversión monomérica gs⇄fs (R5, T18, R23, K37 y K58). A partir de los análisis de frustración energética, se propusieron mutantes que estabilizaran a estos residuos en el estado de transición, las que se evaluaron en fsKaiB, gsKaiB y el complejo fsKaiB-KaiC. Apuntando al objetivo de alterar el período del reloj mediante la modulación cinética de la transformación de KaiB, se consideraron aquellas mutantes que minimizaran la frustración energética en las estructuras del estado de transición y estados finales, las cuales fueron T18C, K37I y K37V. Adicionalmente, se ha reportado que al mutar el residuo arginina 23 por cisteína (R23C) cambia el periodo del reloj a 26 h, lo que probablemente se deba a su interacción con KaiC. Esta observación se condice con nuestros análisis de frustración, en donde se observa que la mutante R23C disminuye la frustración local del residuo en su estado fsKaiB-KaiC. Es por esto que se realizaron experimentos preliminares reconstituyendo el reloj KaiABC silvestre in vitro, que se complementaron con el diseño de un sistema de tomas de muestra automatizado, logrando observar la oscilación del estado de fosforilación de KaiC con un período de 24 h. En base a los resultados obtenidos se proyecta que el uso de herramientas bioinformáticas, como SBMs duales y análisis de frustración energética, son relevantes para comprender el mecanismo de transformación de proteínas metamórficas oligoméricas e incluso podrían ser usadas en el diseño de relojes biológicos sintéticos.
- ItemAn algorithm for block diagram processing and the DiaBloS tool for systems simulation(2024) Rojas Sepúlveda, Matías Nicolás Alejandro; Torres Torriti, Miguel Attilio; Pontificia Universidad Católica de Chile. Escuela de IngenieríaVisual diagrammatic programming and block diagrams have been a valuable tool for systems modeling and simulation for several decades in research, development, and educational purposes. Despite the existing mature commercial and free software tools, there is no such kind of tool for the Python programming environment. Little information concerning algorithms to process block diagrams that represent dynamical systems and simulate the corresponding models can be found in the public domain. This is likely because simulation systems based on block diagram descriptions that have become de facto industry standards use proprietary solutions, even if their origins can be traced back to work done in research centers and universities more than seven decades ago. Therefore, the main contributions of this work can be summarized in: i) the development of an algorithm and its detailed description for processing block diagrams (multigraphs), ii) the development of DiaBloS, an open source software tool for Python that implements a diagrammatic visual programming interface and the associated block diagram processing algorithms. The latter contribution aims at code design simplicity, modularity, portability, extensibility of its functionality, and providing an open source tool for Python that could satisfy educational purposes while contributing to the understanding of algorithms for processing block diagrams. Other goals like performance, interface responsiveness aesthetics and code optimization were intentionally treated as secondary goals. We expect this contribution will not only serve as a basis for new developments in visual programming systems, but also provide a free open tool accessible to educators in many areas involving systems modeling and simulation. The numerical accuracy of DiaBloS has been validated to be the same as that achieved by commercial and open code-based existing integration routines implementing the fixed-step RK45 method. Application examples are also provided to demonstrate its capabilities and simplicity. This work also provides an overview of the evolution of existing graph-based modeling paradigms. This overview could also have a reference value, as it brings together many ideas that are connected, but spread in such a way that it becomes difficult to have a general articulated picture of the developments in the field of graphical programming tools and algorithms for processing multigraphs.
- ItemAn autocorrelation-based bayesian estimator for acoustic-radiation-force-induced displacements(2023) Klemmer Chandía, Stefan Werner; Cuadra, Patricio de la; Mura Mardones, Joaquín Alejandro; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLos algoritmos de estimación de desplazamiento juegan un rol crítico en los métodos de elastografía por ultrasonido. Los estimadores bayesianos han mostrado resultados prometedores en la última década, pero su costo computacional impide su implementación en tiempo real. En esta tesis, una nueva función de verosimilitud llamada autocorrelation kernel” (ACK) es incorporada a la estimación bayesiana. Al contrario de funciones anteriores, ACK permite evaluar directamente la probabilidad de desplazamientos sub-muestra sin necesitar sobremuestreo ni interpolación. Se generaron imágenes de modo B representativas de shear wave elasticity imaging (SWEI). Primero, la fuerza de radiación acústica fue simulada. Segundo, el método de elementos finitos fue utilizado para simular desplazamientos de ondas cortantes. Por último, un programa de simulación de ultrasonido fue utilizado para producir imágenes de tejido en movimiento con textura apropiada. La función de verosimilitud propuesta fue comparada contra la clásica correlación cruzada normalizada (NCC). Ambas fueron combinadas con un prior de norma L1 para calcular la probabilidad a posteriori. Adicionalmente, un prior de norma L2 fue probado con ACK. El desplazamiento fue estimado a partir de las imágenes de modo B simuladas y los resultados fueron comparados en términos de su sesgo, variabilidad y la raíz del error cuadrático medio (RMSE). NCC tuvo un mejor desempeño que ACK. Esta mejoró la estimación inicial no bayesiana entre 24.2% y 42.5% en términos de su RMSE. ACK mejoró esta estimación en tan solo 16.6% a 36.7% con norma L1 y entre 19.3% y 33.8% con norma L2. Respecto al tiempo de cómputo, cada evaluación de ACK fue en promedio ´ 28.6% más rápida que las de NCC. No obstante, la convergencia del algoritmo de optimización no-lineal no fue acelerada.
- ItemAn information theory approach on deciding spectroscopic folIow ups(2019) Astudillo Bessi, Javiera; Pichara Baksai, Karim Elías; Pontificia Universidad Católica de Chile. Escuela de IngenieríaLa clasificación y caracterización de estrellas variables y fenómenos transientes son críticos para la astrofísica y cosmología. Estos objetos son estudiados principalmente a través de series de tiempo fotométricas o información espectroscópica. Las series de tiempo son generalmente usadas para el descubrimiento y clasificación de objetos, mientras que la espectroscopía provee un mayor entendimiento, tales como las propiedades físicas. Ambos tipos de datos son valiosos, sin embargo los espectros son mucho más costosos en términos de tiempo de observación. Es por esto último que la mayoría de los proyectos de recolección de datos astronómicos, actuales y futuros, están enfocados en series de tiempos. En este contexto, sería valioso saber cuáles objetos priorizaría para la observación de sus espectros, dado que ya disponemos de sus series de tiempo. Para ello, proponemos una metodología que determina cuales objetos priorizar para la observación de su espectro, por medio de la ganancia de información en un marco probabilístico. En primer lugar, entrenamos dos clasificadores: uno que utiliza solo información fotométrica y otro que usa esta última en conjunto con información espectroscópica. Luego, para cada objeto estimamos los espectros más probables a partir de su serie de tiempo. Combinamos ambos componentes para la elaboración de varias estrategias que guían la selección de objetos a los cuales observar su espectro. La mejor estrategia depende del uso que se le quiera dar. Si seleccionamos un 5% (127) de los objetos a observar, corregimos las clasificaciones de un 37% (47) de los objetos seleccionados, en comparación a un 20% (25) si se seleccionan de acuerdo a una estrategia base. Mejoramos la probabilidad asignada a la clase real de cada objeto en un 0.13, en comparación al 0.11 obtenido por la estrategia base. Por otra parte, detectamos 46% de los objetos cuya clasificación es corregible si se observa el espectro, con la selección de un 4% de los objetos disponibles. Nuestra propuesta provee un marco general para estrategias de seguimiento y puede ser extendida más allá de la clasificación e incluir otras formas de seguimientos distintas de la espectroscopía.