Academic literature on the topic 'Optimización robusta'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Optimización robusta.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Optimización robusta"

1

Cruz, Rafael, and Pablo Cortés. "Composición de carteras de inversión en títulos de rente fija utilizando modelos de optimización robusta por escenarios." Dirección y Organización, no. 41 (July 1, 2010): 68–85. http://dx.doi.org/10.37610/dyo.v0i41.339.

Full text
Abstract:
En el presente trabajo se estudian y analizan los Modelos de Optimización Robusta como herramientas eficientes para la Gestión del Riesgo de Títulos de Renta Fija. La parte teórica del trabajo se complementa con el estudio del Modelo de Optimización por Escenarios (aplicado al problema de selección de cartera y partiendo de una dotación inicial indeterminada), poniéndose de manifiesto la eficiencia de los resultados obtenidos por su aplicación. Se presenta un problema consistente en la composición de carteras de inversión de renta fija el cual se resuelve mediante la utilización de Modelos de Optimización Robusta por escenarios de los tipos MM y MAD. Por último, se acomete un análisis de sensibilidad ante las distintas posibilidades de ocurrencia de los diferentes escenarios para cada uno de los modelos.
APA, Harvard, Vancouver, ISO, and other styles
2

Barea del Cerro, Rafael, Simon Jose Novoa, Francisco Herrera, Beatriz Achiaga, and Nuria Candela. "A geometrical robust design using the Taguchi method: application to a fatigue analysis of a right angle bracket." DYNA 85, no. 205 (April 1, 2018): 37–46. http://dx.doi.org/10.15446/dyna.v85n205.67547.

Full text
Abstract:
La gran parte de los componentes usados en la industria aeronáutica, automovilista o del transporte están sometidos a cargas de fatiga. Esos componentes deberían ser diseñados considerando la vida a fatiga. En este artículo el diseño de una escuadra ha sido simulad por MEF teniendo en cuenta el tipo de material, cargas aplicadas y la geometría. La geometría de la escuadra se ha optimizado usando el método de optimización robusta de Taguchi. Hasta donde los autores han comprobado no hay ninguna publicación que emplee el método de optimización robusta de Taguchi aplicándolo al diseño geométrico de elementos industriales tomando como variable de salida el coeficiente de fatiga de Findley. Este artículo presenta un método para determinar los parámetros críticos en el diseño que afectan a la vida a fatiga del componente. Esta idea es pionera y aplicable a otros diseños o aplicaciones mecánicas que pueden emplear esta metodología para el diseño robusto a la fatiga de partes y componentes mecánicos.
APA, Harvard, Vancouver, ISO, and other styles
3

Pons-Prats, J., G. Bugeda, F. Zárate, and E. Oñate. "Optimización robusta en aplicaciones aeronáuticas con la combinación de cálculo estocástico y algoritmos evolutivos." Revista Internacional de Métodos Numéricos para Cálculo y Diseño en Ingeniería 28, no. 1 (January 2012): 18–32. http://dx.doi.org/10.1016/j.rimni.2011.11.001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Bautista-Valhondo, Joaquín. "Modelos y métricas para la versión robusta del Car Sequencing Problem con Flotas de vehículos especiales." Dirección y Organización, no. 60 (December 1, 2016): 57–65. http://dx.doi.org/10.37610/dyo.v0i60.499.

Full text
Abstract:
Partiendo del Car Sequencing Problem (CSP), introducimos el concepto de demanda parcial incierta, incorporando Flotas de vehículos especiales en un plan de demanda. Tras establecer las hipótesis de trabajo con Flotas, proponemos un modelo de programación lineal entera mixta (r-CSP) para satisfacer el máximo número de restricciones del CSP. Posteriormente, definimos multi-secuencia de producción y algunas métricas para evaluar su robustez. El r-CSP considera diversos escenarios de demanda y funciones para medir el requerimiento excesivo de opciones en programas de producción. Dichas funciones son válidas como objetivo en problemas de optimización y como métricas de robustez de multi-secuencias de producción.
APA, Harvard, Vancouver, ISO, and other styles
5

Moreno, Ronald. "Diseno e Implementación de un Sistema Automatizado para Control Remoto de Iluminación en Conformidad de la Tecnología INSTEON y Optimización del Sistema de Seguridad CCTV en el Edificio GIMPROMED." MASKAY 2, no. 1 (November 1, 2012): 18. http://dx.doi.org/10.24133/maskay.v2i1.143.

Full text
Abstract:
El presente documento describe la implementación de un sistema automatizado y la optimización del sistema de seguridad CCTV (circuito cerrado de televisión) para el edificio GIMPROMED. El sistema estará basado en la tecnología INSTEON y se orientara principalmente al control remoto de iluminación, y del equipo de climatización (aire acondicionado). La monitorización, supervisión y control del sistema se realizará a través de un software propietario desarrollado en lenguaje de programación de alto nivel JAVA, con un diseño personalizado y en base a los requerimientos del usuario. Los dispositivos del sistema automatizado serán seleccionados tomando en cuenta los tipos de cargas a controlar, el espacio físico disponible y la distribución de circuitos eléctricos. La optimización del circuito cerrado de televisión traerá consigo la implementación de un sistema flexible que permite integrar los dispositivos analógicos con las nuevas tecnologías existentes a fin de ofrecer una solución eficiente, robusta y flexible. En suma, este sistema, coadyuvará al desarrollo integral de la empresa, y proporcionara un ambiente productivo y eficiente a través de la automatización con el fin de brindar seguridad y respaldo a las personas que trabajan en ella.
APA, Harvard, Vancouver, ISO, and other styles
6

Cruz, Joseph, and Daniel Lévano. "Nivel de madurez de los procesos de la gestión de servicios en base a BPM - Maturity level in Management Services Processes’ based on BPM." Apuntes Universitarios, no. 1 (November 1, 2011): 143–54. http://dx.doi.org/10.17162/au.v1i1.314.

Full text
Abstract:
Las empresas, a nivel global, tienden a una mayor dependencia de las Tecnologías de la Información (TI), no solo para el mantenimiento operativo de las instancias de la organización, sino también para el aumento de valor a la empresa por medio de la explotación de datos y sobre todo bajo el análisis y optimización de sus procesos. La metodología Business Process Management (BPM), al combinarlas con las buenas prácticas propuestas por Information Technology Infrastructure Library (ITIL), permite la posibilidad de aumentar el valor de la entidad por medio de la mejora y adaptación de los procesos desde una perspectiva más ágil, automatizada y robusta con la capacidad de adaptación al cambio, permitiendo a las organizaciones orientar sus procesos al cliente.
APA, Harvard, Vancouver, ISO, and other styles
7

Molina, Daniel Antonio, Daniel Raul Pandolfi, and Norma Andrea Villagra. "Aplicación y evaluación de diferentes algoritmos genéticos canónicos en el diseño eficiente de redes de radio frecuencia en comunicaciones inalámbricas." Informes Científicos Técnicos - UNPA 5, no. 3 (June 16, 2014): 135–61. http://dx.doi.org/10.22305/ict-unpa.v5i3.88.

Full text
Abstract:
La difusión de servicios inalámbricos de comunicación (telefonía, internet, etc) es cada vez mayor en la actualidad. El costo de los equipamientos necesarios para brindar el servicio con calidad adecuada es elevado. La selección de un conjunto de puntos geográficos que permitan una cobertura óptima de una señal de radio frecuencia minimizando uso de recursos es fundamental. A esta tarea se la denomina diseño de la red de radio y es un problema NP – duro de optimización, por lo tanto, es factible de ser tratado con metaheurísiticas. Las metaheurísiticas son métodos que integran procedimientos de mejora local y estrategias de alto nivel para realizar una búsqueda robusta en el espacio del problema.El presente trabajo propone analizar y evaluar la capacidad de tres algoritmos genéticos canónicos de encontrar una solución aceptable mediante una función objetivo que combina el grado de cobertura del terreno y el uso eficiente de recursos en diferentes escenarios poblacionales. Los resultados obtenidos son promisorios.
APA, Harvard, Vancouver, ISO, and other styles
8

Miño, Renzo Ramon, and Norma Andrea Villagra. "Algoritmos multirecombinativos aplicados al problema de ruteo de vehículos." Informes Científicos Técnicos - UNPA 5, no. 1 (June 11, 2014): 30–48. http://dx.doi.org/10.22305/ict-unpa.v5i1.67.

Full text
Abstract:
El diseño de algoritmos eficientes para resolver problemas complejos ha sido tradicionalmente uno de los aspectos más importantes en la investigación en el campo de la informática. El objetivo perseguido en este campo es fundamentalmente el desarrollo de nuevos métodos capaces de resolver problemas complejos con el menor esfuerzo computacional posible, mejorando así a los algoritmos existentes. En consecuencia, esto no sólo permite afrontar los problemas de forma más eficiente, sino afrontar tareas vedadas en el pasado debido a su alto costo computacional. Las metaheurísticas son métodos que integran procedimientos de mejora local y estrategias de alto nivel para realizar una búsqueda robusta en el espacio-problema. El problema de ruteo de vehículos es un problema de optimización combinatoria de gran importancia en diferentes entornos logísticos debido a su dificultad (NP-duros) y a sus múltiples aplicaciones industriales. Se han propuestos varias soluciones a este problema haciendo uso de heurísticas y metaheurísticas. En este trabajo proponemos dos algoritmos para resolver el problema de ruteo de vehículos con capacidad limitada, utilizando como base un Algoritmo Evolutivo conocido como MCMP-SRI (Stud and Random Inmigrants) combinados con Hill- Climbing. Detalles de los algoritmos y los resultados de los experimentos muestran un promisorio comportamiento para resolver el problema.
APA, Harvard, Vancouver, ISO, and other styles
9

Sepulveda Suescun, Juan Pablo, Norbey Yovany Alzate Zuluaga, Juan Pablo Murillo Escobar, Diana Alexandra Orrego Metaute, and Mauricio Andres Correa Ochoa. "Análisis de características tiempo-frecuencia para la predicción de series temporales de Material Particulado usando Regresión por Vectores de Soporte y Optimización por Enjambre de Partículas." Revista EIA 17, no. 34 (October 25, 2020): 1–15. http://dx.doi.org/10.24050/reia.v17i34.1347.

Full text
Abstract:
La contaminación atmosférica por Material Particulado (PM) es un problema claramente reconocido a nivel mundial como uno de los factores de riesgo más importantes para la salud humana, en los últimos años han surgido diferentes modelos basados en inteligencia artificial para predecir la concentración de PM, con el fin de generar sistemas de alerta temprana que eviten la exposición de las personas. En este trabajo, se analizó un esquema de caracterización en el dominio tiempo-frecuencia usando la transformada Wavelet para la predicción de series temporales de PM10 y PM2.5 usando un algoritmo de Regresión por Vectores de Soporte optimizado por Enjambre de Partículas (SVR-PSO), además, se evaluó el efecto de la imputación de datos sobre las estimaciones. Los resultados obtenidos mostraron que, empleando características temporales, más las características tiempo-frecuencia propuestas, se obtiene el mejor desempeño de la SVR-PSO, además se encontró que el uso de la imputación de datos no afecta el desempeño de la SVR-PSO. El sistema propuesto en este trabajo permite disminuir el error de las estimaciones de concentración de PM10 y PM2.5 haciendo uso de características tiempo-frecuencia y es capaz de operar de forma robusta contra datos perdidos, aumentando su viabilidad de ser implementado en escenarios reales.
APA, Harvard, Vancouver, ISO, and other styles
10

Raffo Lecca, Eduardo, and Edgar Ruiz Lizama. "OPTIMIZACIÓN POR COMPUTACIÓN EVOLUCIONARIA." Industrial Data 8, no. 2 (March 22, 2014): 061. http://dx.doi.org/10.15381/idata.v8i2.6190.

Full text
Abstract:
El artículo presenta la implementación de algoritmos de evolución diferencial en el software MATLAB®. El precio que se paga por una optimización numérica eficiente, significa hacer uso de matemáticas complejas. La evolución diferencial, es una excepción porque es fácil de aplicar y robusto en la optimización numérica. La evolución diferencial es una herramienta de diseño de gran utilidad en las aplicaciones prácticas. El programa que se presenta en este artículo, es una implementación mejorada y eficiente al programa que presentan Price y Storm.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Optimización robusta"

1

López, Insinilla Rodrigo Andrés. "Estimación débil de la sensibilidad del objetivo en problemas lineales." Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/112063.

Full text
Abstract:
Magíster en Gestión de Operaciones
Ingeniero Civil Matemático
En general, un problema de decisión min f(x) s.a. x en F0 está sometido a una gran cantidad de factores que pueden provocar incertidumbre respecto a la delidad de los valores de los datos que de finen F0, causando que la respuesta de este no sea del todo con fiable. Existen diversos métodos para hacerse cargo de la incerteza en los datos, como el Análisis de Escenarios, la Optimización Estocástica y la Simulación, entre otras. Si el decidor es adverso al riesgo, por ejemplo en situaciones donde las decisiones son poco frecuentes o bien las consecuencias de una mala decisión ponen en riesgo la vida de personas, la Optimización Robusta, es la estrategia que le permite ser en extremo conservador, buscando soluciones óptimas que sean factibles bajo cualquier escenario posible de datos. Lamentablemente un algoritmo robusto puede consumir vastos recursos computacionales. Resulta interesante ser capaz de predecir cuánto se arriesga (en términos de la función objetivo), al utilizar una solución económica que ignora la incertidumbre en vez de una costosa solución robusta, o dicho de otra forma, cuánto cuesta una solución conservadora en relación al problema con datos estimados (fácil de resolver). Es posible acotar este valor , en términos de la sensibilidad estructural del problema, una característica intrínseca de la modelación, y el nivel de incertiza que al que estan sometidos los datos, de la siguiente forma: D <= (2/k+1) (max f(x) - min f(x)) Donde k es una medida llamada Margen de Factibilidad propuesta por Ben-Tal y Nemirovski, en situaciones donde la variabilidad de los datos puede ser modelada a través de un conjunto de incerteza U poliedral. Ellos presentan una cota superior para D y en este trabajo se construye un modelo linearizado para computar una estimación simpli cada de esta cota para problemas lineales con incertidumbre en la matriz de restricciones de desigualdad, descrita a través de un conjunto poliedral. Se aplicó este modelo a 16 problemas de la librería NETLib, asumiendo perturbaciones independientes de los parámetros considerados como inciertos. La estimación implementada consiguió buenas cotas ajustadas: Para un nivel de incerteza del 1% las cotas fueron, salvo por dos ocasiones, a lo más 6 veces el valor a estimar y en general el error de la estimación no supero el 8% del valor óptimo nominal. En estos problemas se pudo observar que el error en la cota estimada es proporcional al nivel de incerteza, de comprobarse esta idea, se presentaría una ventaja signi cativa al momento de estudiar el impacto sobre problemas con nivel de incerteza desconocido.
APA, Harvard, Vancouver, ISO, and other styles
2

Granier, Torres Juan José. "Optimización de forma bajo incertidumbre." Tesis, Universidad de Chile, 2019. http://repositorio.uchile.cl/handle/2250/171815.

Full text
Abstract:
Memoria para optar al título de Ingeniero Civil Matemático
El objetivo principal de este trabajo es estudiar un problema inverso geométrico con ruido estocástico, que consiste en una EDP lineal asociada a un funcional no lineal de mínimos. cuadrados. Posteriormente se quiere realizar un proceso de reconstrucción numérica con el objetivo de comparar la solución obtenida de forma determinista con la solución obtenida con ruido estocástico. Para la primera parte de este trabajo nos basamos en el estudio de Allaire y Dapogny [21]. Para la otra parte nos basamos en el método level set introducido por Osher y Sethian [18]. Dentro del enfoque estándar de resolución de problemas inversos geométricos está el parametrizar la forma geométrica y aplicar métodos de regularización a la parametrización. Este enfoque sufre de la limitación que para obtener aproximaciones convergentes se tiene que tener un conocimiento a priori de la estructura y topología de la forma geométrica buscada. Por la no linealidad del funcional, las derivadas de forma de segundo orden son complicadas de trabajar en su forma explícita, motivo por el cual es complicado aplicar un método de level set desde el punto de vista clásico, nos basaremos en la idea de level set para aplicar un método que solo use las derivadas de forma de primer orden.
PIA/Concurso de Apoyo a Centros Científicos y Tecnológicos de Excelencia con Financiamiento Basal AFB170001 CMM UMI 2807 CNRS y Fondecyt 1171854
APA, Harvard, Vancouver, ISO, and other styles
3

Millar, Correa Mauricio Benjamín. "Optimización del proceso de pronóstico de demanda de vuelos para la gestión de venta en Lan Airlines." Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/113547.

Full text
Abstract:
Magíster en Ingeniería con Tecnología de Información
En industrias altamente competitivas como las líneas aéreas, la estrategia de relación estrecha con el cliente y el modelo de negocio, asociado a determinar demanda y segmentarla de modo de poder determinar la oferta (cuándo y cómo vender) de aviones por asientos para una determinada ruta, hace la diferencia en el negocio aéreo. Para esto existe una técnica llamada Revenue Management, que permite a las empresas generar rentabilidad en el corto y largo plazo. El rediseño de procesos se basa en la metodología de diseño, a partir de patrones de procesos, que es detallada desde la arquitectura de procesos hasta el diseño del apoyo computacional y lógicas de negocio requeridos para implementarlo. Además, se realizó una prueba de concepto para el proceso de Pronóstico y Optimización de vuelos, donde se corroboró la desactualización del modelo y se redujo el porcentaje de falla, llegando a un 7%, mediante una calibración de los datos históricos y cargando near real time , los cambios en reservas sobre el modelo. Finalmente, la experiencia de esta prueba de concepto es generalizada en la construcción de un Framework, desarrollado para cualquier empresa que utilice modelos predictivos y desee actualizarlos en el tiempo. En términos de la justificación económica del proyecto, se podrá ver que es alta, ya que los beneficios que otorga a la compañía por cada unidad del porcentaje de error que se disminuyan y las nuevas oportunidad que genera a las áreas de ventas, se espera que sean del orden de los 2 millones de usd. Haciendo muy rentable el proyecto, pagándose en el mes 8 de proyecto.
APA, Harvard, Vancouver, ISO, and other styles
4

Núñez, Mata Óscar Fernando. "Sistema de protección adaptativo para micro-redes basado en optimización robusta." Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/164012.

Full text
Abstract:
Doctor en Ingeniería Eléctrica
Las micro-redes están convirtiéndose en un componente clave de la red eléctrica futura, las cuales representan la combinación de tecnologías de información y comunicación, junto con fuentes de energía y cargas, en un sistema unificado y activo. Los beneficios de las micro-redes han promovido esfuerzos globales para expandir su penetración en los sistemas eléctricos. Sin embargo, todavía hay algunos desafíos relacionados con su diseño, control y operación. Uno de los problemas más importantes por resolver es el desarrollo de nuevos sistemas de protección, considerando que los esquemas convencionales, diseñados para flujos de potencia radiales, y con altas magnitudes de corrientes de falla, no funcionarán correctamente en este nuevo entorno. El uso de un adecuado sistema de protección es esencial para el funcionamiento seguro y confiable de la micro-red. La adopción de un sistema de protección adquiere mayor relevancia dada la presencia de fuentes de energía altamente variables, con cambios continuos en las condiciones de operación y topológicos. En este sentido, los enfoques de protección adaptativos están siendo considerados como una solución viable, ya que su función protectora cambia en función del comportamiento de la micro-red, satisfaciendo los requisitos de confiabilidad, selectividad, rapidez y sensibilidad. En esta tesis, se presenta un novedoso sistema de protección adaptativo para micro-redes. El esquema de protección se basa en funciones protectoras que incluyen diferentes elementos, operando de manera coordinada. Entre las principales contribuciones de la tesis se encuentra la conceptualización del problema de las fallas y anomalías en las micro-redes. Además, se destaca la forma en que se adaptan los parámetros de los dispositivos de protección, utilizando un enfoque de optimización robusta, resolviendo un conjunto finito de escenarios de falla. Los escenarios se generan en función de las predicciones sobre la energía disponible y demanda. Para cada paso de decisión, un problema de optimización robusta se resuelve en línea, basado en el pronóstico con una banda de confianza para representar la incertidumbre. Asimismo, el sistema de protección realiza un diagnóstico de las plantas fotovoltaicas, para detectar fallas y definir sus condiciones de operación. El sistema de protección fue probado y comparado utilizando datos reales de una micro-red existente en Chile. Los resultados obtenidos muestran que el dispositivo de protección propuesto fue capaz de despejar las fallas. Por ejemplo, en la configuración radial, la metodología propuesta eliminó el 100% de las fallas; mientras que una metodología alternativa lo hizo en el 92%. En la configuración de malla, la metodología propuesta despejó el 96% de las fallas; mientras que la alternativa lo hizo en un 75%. Asimismo, la metodología de detección de fallas de las plantas fotovoltaicas fue sensible a los cambios en las condiciones de operación. El modelo de celda fotovoltaica obtuvo un coeficiente de determinación de 0,992 para el voltaje, y 0,999 para la potencia, lo que significa que se logró un buen ajuste del modelo. Como trabajo futuro, se deberán abordar sistemáticamente los problemas de confiabilidad relacionados con fallas en el sistema de comunicación. Finalmente, se deberán considerar dentro de la metodología las acciones correctivas realizadas por los sistemas de gestión de carga, con el fin de mejorar el rendimiento del sistema de protección.
Este trabajo de tesis ha sido financiado por: Comisión Nacional de Investigación Científica y Tecnológica de Chile Universidad de Costa Rica
APA, Harvard, Vancouver, ISO, and other styles
5

Muñoz, Martínez Gonzalo Ignacio. "Modelos de optimización lineal entera y aplicaciones a la minería." Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/111132.

Full text
Abstract:
El tema principal de esta memoria es el estudio del problema de planificación minera, junto con el análisis detallado de un nuevo algoritmo propuesto en la literatura para resolverlo. El problema de planificación minera consiste en determinar la secuencia de extracción de una mina a tajo abierto. Para esto, típicamente se modela la mina como un conjunto de bloques y se diseña un calendario tentativo de su extracción. En la industria minera se resuelve este problema siguiendo una serie de pasos consecutivos que terminan por entregar una planificación. Por otro lado, existen distintos modelos de optimización que han sido propuestos para resolver este problema, pero debido a que las instancias son de gran tamaño, obtener soluciones requiere de técnicas y algoritmos más elaborados. Una instancia típica posee millones de variables y millones de restricciones. Por estas razones resulta ser un problema desafiante y con una aplicación muy importante, para el cual distintos tipos de descomposiciones han sido propuestas para resolverlo, junto con pre-procesos, heurísticas o versiones simplificadas de manera de hacer el problema más manejable. Todas estas técnicas pueden resolver problemas del orden de 200.000 bloques, lo cual es bueno, pero está lejos de poder resolver problemas reales. Recientemente, Chicoisne et. al. (Operations Research, 2012) desarrollaron un algoritmo eficiente capaz de resolver instancias con millones de bloques, pero en una versión simplificada del problema. Y por otro lado, Bienstock y Zuckerberg (Optimization Online, 2009) propusieron otro algoritmo, el cual es capaz de resolver eficientemente instancias de millones de bloques y bajo ningún supuesto importante. Este último resulta ser un algoritmo muy ingenioso y será el foco principal de este trabajo estudiarlo. En el desarrollo de este trabajo se estudió principalmente el problema de planificación minera, junto con la implementación del algoritmo de Bienstock y Zuckerberg. Además, usando algunas técnicas originales y otras técnicas clásicas, se diseñaron una serie de mejoras al algoritmo que lo hacen más eficiente, aprovechando la estructura del problema de planificación minera. Se verá que estas modificaciones producen mejoras significativas en el tiempo necesario para resolver las instancias disponibles. Y por último, y como un inicio para trabajo futuro, se propone una generalización del algoritmo a un contexto más amplio. Esta generalización se implementó para un nuevo modelo de Optimización Robusta propuesto en este trabajo para el mismo problema de minería, de esta forma dando un primer paso a una nueva manera de considerar incertidumbre en este problema.
APA, Harvard, Vancouver, ISO, and other styles
6

Jaramillo, Quijada Marcelo Javier. "Network revenue management en aerolíneas resuelto a través de programación dinámica robusta." Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/112043.

Full text
Abstract:
Magíster en Gestión de Operaciones
Ingeniero Civil Industrial
En el presente trabajo se considera el problema de asignación de asientos para diversas clases de clientes en una red de Aerolíneas, más conocido en inglés como Network Revenue Management. Usando la metodología de programación dinámica, se busca maximizar el beneficio esperado sujeto a restricciones de tiempo y capacidad de los aviones en la red. Uno de los problemas que enfrentan las aerolíneas al momento de vender vuelos interconectados en una red es qué precio fijar para cada clase de cliente de tal forma de no dejar potenciales compradores fuera al fijar precios altos, ni perder potenciales ingresos con precios bajos. Para gestionar la demanda a través del tiempo, las aerolíneas utilizan políticas de control de asientos como Booking Limits, Protection Levels o Bid Prices, cuya solución se obtiene de resolver problemas de optimización dinámicos o estáticos. Esta tesis aborda este problema cuando la demanda está sujeta a incertidumbre. Bajo este escenario el problema es altamente riesgoso, pues los costos de operación son elevados y el producto que se ofrece es perecible, es decir, los asientos libres no se pueden inventariar lo que genera pérdidas. Para enfrentar esto se propone resolver usando optimización aversa al riesgo más conocida como optimización robusta. El enfoque de optimización robusta es optimizar contra el peor de los casos que pudiera surgir debido a la incertidumbre en la demanda, encontrando políticas de control en la capacidad de los aviones relativamente insensibles a variaciones en la estimación de demanda. La formulación robusta intenta mitigar el impacto de los errores en la estimación de probabilidades de transición mediante la elección de una política óptima maximin, donde la minimización es sobre un conjunto de probabilidades de transición y el objetivo es escoger una política que maximice los beneficios esperados sobre este conjunto. Los experimentos que se realizaron muestran que cuando el riesgo supera cierto umbral, el modelo robusto captura de forma más eficiente el riesgo y obtiene resultados esperados mejores que los modelos tradicionales.
APA, Harvard, Vancouver, ISO, and other styles
7

Angulo, Olivares Gustavo Iván. "Optimización del Movimiento de Contenedores Vacios Bajo Incertidumbre." Tesis, Universidad de Chile, 2009. http://www.repositorio.uchile.cl/handle/2250/102154.

Full text
Abstract:
Magíster en Gestión de Operaciones
Ingeniero Civil Matemático
En la actualidad, el flete marítimo es una actividad fuertemente ligada al desarrollo comercial entre distintos agentes alrededor del mundo. Permite, entre otras cosas, la expansión hacia nichos y mercados que de otra forma serían imposibles de alcanzar y con costos menores en relación a otros medios de transporte. El uso de contenedores, y por ende la logística de ellos, es clave en este aspecto, pues son el elemento básico de esta industria. Consideramos el caso de Compañía Sudamericana de Vapores (CSAV), empresa de transporte marítimo que posee puntos de operación en diversas zonas geográficas del planeta. En cada uno de éstos, la compañía mantiene un stock de contenedores vacíos de distinto tipo con la finalidad de suplir la demanda por ellos. Cuando un cliente solicita un contenedor, este es llenado con la carga y transportado en una nave hacia otra localidad, donde se desembarca y es devuelto vacío a la compañía. Si bien casi siempre los contenedores son retornados a manos de la empresa, esto no siempre ocurre en el lugar o momento indicado, creando situaciones de exceso de ellos en algunas zonas y falta en otras, efecto denominado desbalance comercial. Por esto, la compañía realiza movimientos de reposición de manera de distribuir eficientemente los contenedores entre sus puntos de operación. Dado que la demanda tiene un elemento de incertidumbre importante, es necesario el desarrollo de una planificación de inventario y resposicionamiento que considere este factor. En este trabajo extendemos algunos aspectos del sistema de apoyo a las decisiones que CSAV ha implementado recientemente. Como primer paso, proponemos una formulación alternativa para el problema básico de movimiento de contenedores, el cual reduce en forma sustancial los tiempos de ejecución en relación a la formulación usual. Luego derivamos modelos robustos ante demanda, retorno y tiempos de viaje inciertos. Finalmente proponemos un modelo robusto ajustable para la relajación lineal del problema con demanda y retorno inciertos. Los experimentos numéricos indican que esta última metodología disminuye el costo nominal de las soluciones robustas, lo que es apoyado mediante simulaciones en distintas instancias.
APA, Harvard, Vancouver, ISO, and other styles
8

Backhoff, Veraguas Julio Daniel. "Optimización Robusta de Portafolio en un Mercado Financiero a Tiempo Continuo: Caso de Incertidumbre No Compacta o Lineal." Tesis, Universidad de Chile, 2010. http://repositorio.uchile.cl/handle/2250/103769.

Full text
Abstract:
El problema clásico de optimización de portafolio, en el que un agente escoge sus estrategias de modo de maximizar su utilidad esperada ha sido estudiado en profundidad por mucho tiempo. Sin embargo sólo hace poco ha surgido el interés por plasmar el hecho de que la selección de un modelo particular al momento de hacer la toma de decisiones es en sí riesgosa. Se conoce como optimización robusta de portafolio al problema de maximización de utilidades que un agente considera cuando toma en cuenta la incerteza sobre los modelos. El tema principal de esta memoria es estudiar el problema anterior cuando el conjunto de incerteza sobre los modelos no es compacto o cuando este se manifiesta a partir de restricciones lineales. Ninguno de estos escenarios para el problema de optimización robusta ha sido afrontado en generalidad en la literatura. Cuando el conjunto de modelos está delimitado mediante restricciones lineales, en este trabajo se resuelve inicialmente el problema tanto para mercados completos como incompletos mediante la técnica de minimización de funcionales de entropía desarrollada entre otros por C. Léonard, suponiendo la condición de compacidad débil sobre el conjunto de modelos usual en la literatura. Seguidamente, se resuelve el problema robusto en un mercado completo sólo bajo una cierta suposición de cerradura débil en un espacio de Orlicz conveniente, para lo cual se requieren además algunas condiciones sobre los ingredientes económicos del problema. En este punto se rescatan los resultados en presencia de compacidad débil entre otros por A.Schied y H. Föllmer. Con esto, se vuelven a aplicar los métodos de C. Léonard para el caso lineal pero sin compacidad, obteniéndose entre otros nuevos resultados una igualdad primal-dual para el problema de optimización robusta y una caracterización para la medida (o modelo) menos favorable. Se presenta además un ejemplo simple que escapa a la teoría desarrollada con anterioridad, pero que es abordable mediante los resultados obtenidos en esta memoria. Finalmente, se explora la relación entre la optimización robusta y el concepto de información débil introducido por F. Baudoin así como el de flujos de información. Con respecto a la información débil, se establece cómo la maximización de utilidades en presencia de esta más el cálculo de variaciones permiten resolver ciertos problemas robustos. En cuanto a los flujos de información, se propone y discute una manera de emplear la teoría desarrollada por C. Léonard respecto al problema de minimización de la entropía bajo restricciones sobre el flujo de marginales, para resolver el problema robusto asociado.
APA, Harvard, Vancouver, ISO, and other styles
9

Lagos, Barrios Guido Renato. "Estudio de Métodos de Optimización Robusta para el Problema de Planificación de Producción en Minería a Cielo Abierto." Tesis, Universidad de Chile, 2011. http://www.repositorio.uchile.cl/handle/2250/102681.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Soudre, Donoso Michel Gabriel. "Optimización probabilística de portafolios de tecnología convencional e inteligente para el diseño robusto de una subestación primaria de distribución." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/141021.

Full text
Abstract:
Ingeniero Civil Eléctrico
El diseño de las subestaciones primarias de distribución se realiza actualmente de acuerdo al criterio determinístico de seguridad denominado N-1, el cual se basa en la salida intempestiva de uno de los transformadores de la subestación debido a un evento de falla. Sin embargo, este criterio no contempla eventos más graves de carácter catastrófico y producido, por ejemplo, por algún desastre natural (tormentas, inundaciones, terremotos, etc.). Además, este criterio actualmente utilizado no contempla la contribución de capacidad de tecnologías inteligentes, en específico, la que dota a la demanda la capacidad de participación activa (Demand Side Response o DSR) en los sistemas eléctricos. En esta memoria se propone un modelo probabilístico para el diseño robusto y eficiente de una subestación primaria de distribución que contempla el uso de transformadores y cables a subestaciones vecinas, como también el uso de DSR y generación distribuida de respaldo. El modelo determina la proporción óptima entre la capacidad de los transformadores, el número de cables a subestaciones vecinas, el monto DSR a contratar y la capacidad de la generación de respaldo. La optimización se realiza en base a una enumeración completa de los estados de la subestación, según la disponibilidad o indisponibilidad de cada elemento, y utilizando la demanda de un año según datos de una subestación real ubicada en el Reino Unido. La función objetivo incluye el valor de inversión y utilización de cada equipo como también el costo esperado de la energía no suministrada. Además, se incorpora a la optimización una restricción de la medida de riesgo CVaR(Conditional Value at Risk), la cual restringe la exposición al riesgo frente a eventos catastróficos, de baja probabilidad y alto impacto (HILP, High Impact Low Probability Events). Con el modelo probabilístico se estudian las distintas soluciones de diseño determinadas frente a distintos tipos de eventos catastróficos que pueden llegar a afectar a transformadores y equipos DSR, como falla de causa común debido a inundaciones y condiciones climáticas extremas. Del análisis se puede concluir que los equipos DSR son capaces de desplazar capacidad de transformación con respecto a la capacidad de diseño según el criterio N-1, y también, disminuyen la exposición al riesgo de eventos catastróficos como también los costos de capital de la subestación. Además, se deduce que la diversificación en la inversión de varios activos y tecnologías de red (transformadores, cables de transferencia y equipos DSR) producen una reducción de la exposición a altos niveles de energía no suministrada y también una disminución en los costos totales (capex, opex y energía no suministrada). Este trabajo busca determinar el aporte de la demanda en términos de su capacidad para desplazar potencia firme de unidades de transformación y representa un avance hacia la incorporación de equipos DSR en las futuras normas de distribución.
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Optimización robusta"

1

López, Javier. Optimización multi-objetivo. Editorial de la Universidad Nacional de La Plata (EDULP), 2015. http://dx.doi.org/10.35537/10915/45214.

Full text
Abstract:
Cuando hablamos de optimización en el ámbito de las ciencias de la computación hacemos referencia al mismo concepto coloquial asociado a esa palabra, la concreción de un objetivo utilizando la menor cantidad de recursos disponibles, o en una visión similar, la obtención del mejor objetivo posible utilizando todos los recursos con lo que se cuenta. Los métodos para encontrar la mejor solución (óptima) varían de acuerdo a la complejidad del problema enfrentado. Para problemas triviales, el cerebro humano posee la capacidad de resolverlos (encontrar la mejor solución) directamente, pero a medida que aumenta la complejidad del problema, se hace necesario contar con herramientas adicionales. En esta dirección, existe una amplia variedad de técnicas para resolver problemas complejos. Dentro de estas técnicas, podemos mencionar las técnicas exactas. Este tipo de algoritmos son capaces de encontrar las soluciones óptimas a un problema dado en una cantidad finita de tiempo. Como contrapartida, requiere que el problema a resolver cumpla con condiciones bastante restrictivas. Existen además un conjunto muy amplio de técnica aproximadas, conocidas como metaheurísticas. Estas técnicas se caracterizan por integrar de diversas maneras procedimientos de mejora local y estrategias de alto nivel para crear un proceso capaz de escapar de óptimos locales y realizar una búsqueda robusta en el espacio de búsqueda del problema. En su evolución, estos métodos han incorporado diferentes estrategias para evitar la convergencia a óptimos locales, especialmente en espacios de búsqueda complejos. Este tipo de procedimientos tienen como principal característica que son aplicables a cualquier tipo de problemas, sin requerir ninguna condición particular a cumplir por los mismos. Estas técnicas no garantizan en ningún caso la obtención de los valores óptimos de los problemas en cuestión, pero se ha demostrado que son capaces de alcanzar muy buenos valores de soluciones en períodos de tiempo cortos. Además, es posible aplicarlas a problemas de diferentes tipos sin mayores modificaciones, mostrando su robustez y su amplio espectro de uso. La mayoría de estas técnicas están inspiradas en procesos biológicos y/o físicos, y tratan de simular el comportamiento propio de estos procesos que favorecen la búsqueda y detección de soluciones mejores en forma iterativa. La más difundida de estas técnicas son los algoritmos genéticos, basados en el mecanismo de evolución natural de las especies. Existen diferentes tipos de problemas, y multitud de taxonomías para clasificar los mismos. En el alcance de este trabajo nos interesa diferenciar los problemas en cuanto a la cantidad de objetivos a optimizar. Con esta consideración en mente, surge una primera clasificación evidente, los problemas mono-objetivo, donde existe solo una función objetivo a optimizar, y los problemas multi-objetivo donde existe más de una función objetivo. En el presente trabajo se estudia la utilización de metaheurísticas evolutivas para la resolución de problemas complejos, con uno y con más de un objetivo. Se efectúa un análisis del estado de situación en la materia, y se proponen nuevas variantes de algoritmos existentes, validando que las mismas mejoran resultados reportados en la literatura. En una primera instancia, se propone una mejora a la versión canónica y mono-objetivo del algoritmo PSO, luego de un estudio detallado del patrón de movimientos de las partículas en el espacio de soluciones. Estas mejoras se proponen en las versiones de PSO para espacios continuos y para espacios binarios. Asimismo, se analiza la implementación de una versión paralela de esta técnica evolutiva. Como segunda contribución, se plantea una nueva versión de un algoritmo PSO multiobjetivo (MOPSO Multi Objective Particle Swarm Optimization) incorporando la posibilidad de variar dinámicamente el tamaño de la población, lo que constituye una contribución innovadora en problemas con mas de una función objetivo. Por último, se utilizan las técnicas representativas del estado del arte en optimización multi-objetivo aplicando estos métodos a la problemática de una empresa de emergencias médicas y atención de consultas domiciliarias. Se logró poner en marcha un proceso de asignación de móviles a prestaciones médicas basado en metaheurísticas, logrando optimizar el proceso de asignación de móviles médicos a prestaciones médicas en la principal compañía de esta industria a nivel nacional.
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Optimización robusta"

1

Cabrera, Juan José, Sergio Cebollada, Mónica Ballesta, Luis M. Jiménez, Luis Payá, and Óscar Reinoso. "Entrenamiento, optimización y validación de una CNN para localización jerárquica mediante imágenes omnidireccionales." In XLII JORNADAS DE AUTOMÁTICA : LIBRO DE ACTAS, 640–47. Servizo de Publicacións da UDC, 2021. http://dx.doi.org/10.17979/spudc.9788497498043.640.

Full text
Abstract:
El objetivo del presente trabajo es abordar la localización de un robot móvil mediante el entrenamiento de una Red Neuronal Convolucional (CNN) de manera que se obtengan unos resultados óptimos. El problema de localización se aborda de forma jerárquica empleando un sistema catadióptrico omnidireccional y se trabaja directamente con las imágenes capturadas sin pasar a panorámicas, ahorrando así el tiempo de cálculo asociado a este proceso. La localización se lleva a cabo en dos pasos y en ambos se emplea la arquitectura de la CNN con diferentes objetivos. Primero se lleva a cabo una localización gruesa que consiste en identificar la estancia en la que se encuentra el robot por medio de la CNN. Después se realiza una localización fina en dicha estancia, en la cual la CNN es empleada para la obtención de descriptores holísticos a partir de las capas intermedias de la red. Estos descriptores globales permiten encontrar la posición donde se encuentra el robot de manera más precisa por medio de una búsqueda del vecino más cercano, comparando el descriptor correspondiente de la imagen test con los descriptores de las imágenes capturadas en la estancia seleccionada en el primer paso. Con el fin de mejorar el desempeño de la red se recurre a un aumento de datos y a una optimización bayesiana de hiperparámetros. Estas técnicas demuestran ser una solución eficiente y robusta para afrontar el problema de localización tal y como se muestra en la sección de experimentos.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Optimización robusta"

1

Garcia-Taengua, Emilio, and Benjamin Linden. "Un nuevo enfoque para optimizar dosificaciones de hormigón autocompactante." In HAC2018 - V Congreso Iberoamericano de Hormigón Autocompactable y Hormigones Especiales. Valencia: Universitat Politècnica València, 2018. http://dx.doi.org/10.4995/hac2018.2018.5958.

Full text
Abstract:
Todo procedimiento para diseñar hormigones autocompactantes comprende dos etapas: la aplicación de un método de dosificación, y el ajuste de la mezcla mediante amasadas de prueba. Ambas se centran en el comportamiento del hormigón en estado fresco, buscándose maximizar tres propiedades fundamentales: fluidez, capacidad de llenado, y estabilidad. Para su evaluación y control se pueden monitorizar multitud de parámetros obtenidos mediante distintos ensayos, pero raramente se recurre a más de dos o tres ensayos, que además varían de un caso a otro. Además, estos muestran un importante grado de correlación entre sí, y por tanto existe siempre cierto solape entre la información obtenida mediante cualesquiera dos ensayos. Este estudio propone formular matemáticamente el comportamiento en fresco del hormigón autocompactante como un fenómeno multivariado. Aunque sus tres propiedades fundamentales no son directamente medibles de forma independiente, se pueden obtener mediante transformación lineal a partir de las métricas que ofrece cada tipología de ensayo. Este nuevo enfoque posibilita una optimización más robusta de los hormigones autocompactantes. Con esta finalidad, se ha llevado a cabo un metanálisis de cerca de trescientas dosificaciones recogidas de distintas fuentes, abarcando: las propiedades de los materiales utilizados y sus cantidades relativas; los resultados de los ensayos de escurrimiento, embudo en V, anillo en J, caja en L, e índice visual de segregación; y la resistencia media a compresión simple. Se han estudiado las relaciones de codependencia entre los distintos parámetros medibles, y cómo estas relaciones se ven afectadas por cambios en la dosificación. Para ello se han aplicado las técnicas de reducción de información utilizadas en minería de datos y se han desarrollado modelos semiempíricos mediante regresión lineal múltiple. Las ecuaciones obtenidas se han utilizado para formular explícitamente el problema de optimización multiobjetivo para obtener altos niveles de autocompactabilidad a la vez que se minimiza el riesgo de segregación. Dicho problema se ha resuelto de forma gráfica en una serie de escenarios hipotéticos para ilustrar la aplicación de la nueva metodología desarrollada, que permite reducir el número de amasadas de prueba necesarias y por tanto conlleva un ahorro significativo en tiempo y recursos.DOI: http://dx.doi.org/10.4995/HAC2018.2018.5958
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography