Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Molienda - Métodos de simulación.

Thèses sur le sujet « Molienda - Métodos de simulación »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Molienda - Métodos de simulación ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Orellana, Araya Roberto Patricio. "Modelo, Control y Simulador de Planta de Molienda Semiautógena y Molienda Secundaria." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103779.

Texte intégral
Résumé :
Esta memoria describe el desarrollo de un modelo y del correspondiente simulador de una planta de molienda, constituida por un circuito de molienda semiautógena (SAG) y un circuito inverso de molienda con bolas. El simulador incluye un sistema de control y una interfaz gráfica similar a la de las plantas reales. En la memoria se explica primero los marcos teóricos de cada unidad de la planta de molienda y se desarrolla la integración de estos modelos individuales y su representación en tiempo discreto. En segundo lugar se describe el desarrollo e implementación del simulador en Matlab. Finalmente se describe cómo se ajustaron los parámetros de los modelos utilizados en el simulador. El modelo con sus parámetros ajustados, y por lo tanto el simulador, representan una planta genérica cualitativamente similar al comportamiento de una planta real y no necesariamente al de una planta particular existente. El simulador ha sido utilizado en un curso teórico para operadores de plantas reales y en cursos regulares dictados por el Departamento de Ingeniería de Minas de la Universidad de Chile. El modelo de la planta SAG ha sido también utilizado en varios cursos de postítulo que han usado el sistema Factory-Link de adquisición y manejo de datos en el que se ha incluido este modelo.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Torres, Rubilar Magín Eduardo. "Modelación y Simulación de Molienda con Rodillos a Alta Presión – HPGR." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/102308.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Navarrete, Carreño Carlos Alfredo. "Molino de jaula : su resistencia y modelación del proceso." Tesis, Universidad de Chile, 2014. http://www.repositorio.uchile.cl/handle/2250/116168.

Texte intégral
Résumé :
Ingeniero Civil Mecánico<br>Los molinos de jaula son considerados de la clase de molinos de chancado de impacto, pues realizan la molienda del material que ingresa a través de choques con las barras de las jaulas que giran en sentidos opuestos. Las aplicaciones más comunes son para molienda de material seco como carbón, caliza, minerales de hierro, mineral de potasio, entre varios otros materiales. Su principal ventaja sobre otras tecnologías para molienda es la precisión en la obtención de distribuciones granulométricas deseadas con baja generación de finos. Con el fin de poder hacer mejoras a un diseño de molino del cual se tienen antecedentes y que en operación ha fallado por el fenómeno de corrosión bajo tensión (SCC) por procesar sales húmedas de cloruro de potasio; es que en este trabajo se busca dar respuestas a la interrogante sobre qué distribución granulométrica del material a la salida se esperaría para distintas formas geométricas de las jaulas y variadas condiciones de operación. Se ha guardado reserva respecto de qué empresa es la que opera dicho molino. Las mejoras que se buscan hacer al molino del cual se tienen antecedentes, son basadas en cambios geométricos de las jaulas, a fin de disminuir los esfuerzos sobre éstas, y así, disminuir el efecto del fenómeno de SCC. Dichas mejoras repercutirían en el desempeño de la molienda. Por lo que en este trabajo se genera un modelo que describe la circulación del material dentro del molino mientras es fraccionado, con el fin de describir la distribución granulométrica del material a la salida y así evaluar el desempeño de la proposición de mejora de geometría. El modelo desarrollado es capaz de analizar distintas geometrías de jaulas, así como también distintas condiciones de operación y de distribuciones granulométricas del material ingresado. Se han elegido tres casos de estudio que varían la geometría de las jaulas respecto del molino del cual se disponen antecedentes. El modelo de circulación y fracturación generado indica que los casos de estudio seleccionados producen una distribución granulométrica similar a la del molino de los antecedentes. Los casos de estudio han sido analizados respecto a su resistencia mecánica mediante software de elementos finitos, resultando tener mejor desempeño que el caso de estudio original (CE1). Se disminuyen drásticamente los esfuerzos hasta un 38% respecto a CE1 en la zona crítica donde presentan fractura los especímenes reales debido al fenómeno de SCC. Este resultado significa además un aumento de la vida del equipo. Por otro lado, se obtiene del análisis de vibraciones que el desempeño de los casos de estudio seleccionados no presentan problemas respecto a efectos dinámicos asociados a resonancia. En conclusión, se ha generado un modelo físico con el cual se ha podido describir el desempeño en molienda de tres variaciones al modelo original de las jaulas. Las cuales mantienen la distribución granulométrica original y se espera que tengan un mejor desempeño ante SCC, sin problemas de resonancia.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Pizarro, Arias Camila Antonieta. "Análisis comparativo de modelos fenomenológicos de HPGR." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/134948.

Texte intégral
Résumé :
Ingeniero Civil de Minas<br>La tecnología de molienda con rodillos a alta presión (HPGR: High Pressure Grinding Rolls) surge como una alternativa atractiva en las operaciones de conminución, debido al uso eficiente de la energía en el mecanismo de ruptura. En la actualidad existen modelos para la simulación de la operación del HPGR lo suficientemente desarrollados para predecir la distribución de tamaños del producto, la capacidad de tratamiento y el consumo de energía. El objetivo de esta memoria es evaluar las fortalezas y debilidades de dos (2) modelos fenomenológicos para este equipo, el desarrollado por Morrell (1998) y el desarrollado por Torres y Casali (2009). Estos modelos se han implementado en diversos software de simulación de procesamiento de minerales, tales como JkSimMet y MolyCop Tools respectivamente. Para lograr lo anterior se utilizará al software Microsoft Excel. Al programar ambos modelos bajo la misma plataforma de ejecución se procede a realizar el ajuste de los parámetros y a validar la capacidad de predicción de cada uno. En el desarrollo de este trabajo se utiliza una base de datos construida con pruebas piloto, escala de laboratorio e industrial, que fueron recopiladas de revistas científicas y tesis. Al trabajar con los datos obtenidos, se realiza una validación cruzada, con el fin de lograr una buena comparación entre los modelos, en donde un 68% del total del set de datos se utiliza para realizar el ajuste de los modelos y el 32% para calcular la capacidad predictiva de los mismos. Para el modelo de Morrell es posible afirmar que presenta una buena capacidad de ajuste y de predicción para la granulometría del producto obtenido en el borde de los rodillos, esto debido al supuesto que utiliza en la formulación del modelo de granulometría, en que asume que la ruptura es como la de un chancador. A diferencia del modelo de Torres y Casali, en que se modela como una serie de molinos de bolas que trabajan a distintas potencias. En el caso del modelo de Torres y Casali se destaca los bajos errores, tanto de ajuste como de validación, en la estimación del consumo específico de energía, presentando errores menores a un 7%. La principal razón de esta diferencia es que el modelo mencionado incorpora la presión en el cálculo de la potencia, en cambio el modelo formulado por Morrell no la considera en sus cálculos, siendo necesario utilizar el torque del motor del equipo. En resumen, ambos modelos presentan ventajas por sobre el otro, por lo que se debe tener claro el para qué se necesita la simulación. De esta manera, se podrá seleccionar un adecuado modelo a utilizar. En conclusión, considerando el punto de vista energético, conviene utilizar el modelo de Torres y Casali, dado que predice de mejor manera el CEE y con una buena estimación de la granulometría del producto total. Si se le quiere dar prioridad a la distribución de los tamaños de los productos del equipo, es conveniente considerar el modelo de Morrell, debido a que ajusta y predice con un bajo error la granulometría del producto global, y con mayor precisión la del producto de los bordes de los rodillos. Se espera que con este trabajo sea posible entregar una herramienta de evaluación para posteriores mejoras en los diferentes simuladores, y de esta manera continuar optimizando e impulsando el uso del equipo HPGR.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Mendoza, Corrales Arturo Julio. "Simulación de solitones usando métodos numéricos." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2012. https://hdl.handle.net/20.500.12672/15261.

Texte intégral
Résumé :
Publicación a texto completo no autorizada por el autor<br>Los sistemas ópticos son sometidos a señales de alta intensidad con el fin de contrarrestar las altas atenuaciones en la transmisión y aumentar la distancia entre los amplificadores. Pero, esto causa que la fibra óptica presenté una respuesta no lineal generándose así, efectos no lineales como la Auto Modulación de Fase (SPM), la cual se agrega al problema ya existente de dispersión cromática. Por otro lado, la tendencia del intensivo uso de aplicaciones web simultaneas, tales como los sistemas de videoconferencias, producen altas tasas de transmisión, lo cual requiere que los canales de comunicación sean cada vez de mayor velocidad. Por último, desde el punto de vista de la investigación, se requieren métodos numéricos capaces de modelar dichos efectos y con ello, solitones de órdenes superiores, puesto que los usualmente usados como las diferencias finitas no se muestran eficientes por su alta carga computacional. La hipótesis planteada para dar solución a los problemas mencionados es que los solitones son capaces de superar el problema de las altas intensidades en las señales de fibras ópticas, puesto que surgen de una compensación entre la dispersión cromática y el efecto de auto modulación de fase. Por otro lado, los solitones fundamentales logran alcanzar grandes velocidades, puesto que pueden coexistir a una diferencia de tiempo muy corta. Finalmente, el Split Step Fourier Method (SSFM) se presenta como un método capaz de modelar solitones de altos ordenes en particular el de cuarto orden. Los resultado obtenidos, muestran la forma sostenida de los solitones fundamentales considerando los fenómenos de dispersión y auto modulación en la fibra óptica. Además, muestran la mínima distancia temporal de uno respecto al otro, para obtener la velocidad de transmisión. Finalmente se propone, la forma de propagación del solitón de cuarto orden utilizando el método de Split Step Fourier.<br>Tesis
Styles APA, Harvard, Vancouver, ISO, etc.
6

Pernigotti, Saavedra Giovanni Franco. "Simulación plurigaussiana usando proporciones locales." Tesis, Universidad de Chile, 2014. http://repositorio.uchile.cl/handle/2250/116800.

Texte intégral
Résumé :
Memoria para optar al título de Ingeniero Civil de Minas<br>En la explotación de los yacimientos minerales en la actualidad, a menudo, se carece de una cuantificación de la incertidumbre en las unidades geológicas (UG), en donde principalmente están presentes modelos manuales típicamente determinísticos. Existen métodos para generar un mayor conocimiento de la distribución de las unidades geológicas en el espacio, que involucran una colección de técnicas geoestadísticas, con la finalidad de realizar un apropiado diseño minero con la información obtenida. El objetivo de esta memoria es modelar la incertidumbre geológica en un yacimiento minero mediante la utilización y comparación de siete modelos propuestos. Estos modelos se basan en estimar las proporciones de unidades geológicas con estadísticas geográficamente ponderadas mediante vecindades móviles y k datos más cercanos, para luego aplicar una simulación plurigaussiana, obteniendo de esta forma realizaciones de las unidades geológicas en el espacio. Para validar los modelos de simulación, se utiliza el método "jack knife", ocultando información de sondajes con datos conocidos de UG, para luego simular en dichos puntos del espacio, comparando los valores reales en los sitios de muestreo, contra los valores obtenidos en las realizaciones. Los resultados obtenidos muestran que la simulación plurigaussiana con los modelos propuestos es una buena herramienta para calcular la ocurrencia de las unidades geológicas (UG) en el espacio. La incorporación de modelos no estacionarios en la estimación de proporciones muestra una capacidad de adaptación a los posibles escenarios, ya que si bien, por una parte la simulación plurigaussiana permite un manejo de los contactos entre UG a través de una regla de truncación, los modelos de proporciones no estacionarios permiten un manejo de las transiciones más preciso, logrando contactos más abruptos o suaves en el caso de estadísticas geográficamente ponderadas, siendo éste un modelo más versátil que el de vecindad móvil y k datos más cercanos. Para los modelos de simulación, el conjunto de realizaciones muestran coincidencia visual en comparación a la estimación de probabilidades de UG, a pesar de haber conseguido una baja cantidad de realizaciones debido al costo computacional del método. Los resultados para la validación fueron positivos para los siete modelos de simulación utilizados, aunque los valores estuvieron por debajo de lo esperado, mostrando en muchos casos que para un cierto rango de probabilidad de ocurrencia de UG, el porcentaje de acierto estaba por debajo del rango, pero no muy lejano. Aun así se observan mejores resultados en cuanto a calidad y realismo de la simulación en comparación al modelo estacionario (que considera proporciones de UG constantes en el espacio) destacando por sobre el resto el modelo de proporciones calculadas con estadísticas geográficamente ponderadas. Finalmente, los modelos de simulación mostrados presentan una forma versátil para modelar la probabilidad de ocurrencia de UG, pudiendo extender estos modelos a la simulación conjunta con leyes.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Gutiérrez, Espinoza Rodrigo Jesús. "Diseño de simulación de categorías con direcciones variables." Tesis, Universidad de Chile, 2013. http://repositorio.uchile.cl/handle/2250/113806.

Texte intégral
Résumé :
Memoria para optar al título de Ingeniero Civil de Minas<br>Una correcta evaluación de las unidades geológicas de un yacimiento es una etapa de gran importancia, pues a partir de esta evaluación se llevará a cabo la estimación de las especies de interés económico, lo cual será un aspecto fundamental a la hora de analizar factibilidad de un proyecto minero. Para el caso de yacimientos que presentan localmente cambios de continuidad de variables regionalizadas, la estimación de éstas será un problema importante pues las técnicas geoestadísticas convencionales consideran solo una dirección de continuidad global como parámetro de entrada no reproduciendo satisfactoriamente la geología de la zona a estimar. El objetivo general del presente trabajo de título es diseñar un método de simulación de variables categóricas que incorpore la realidad geológica medida en terreno por medio de un campo de direcciones de anisotropías variables. El diseño creado se compara en un estudio de caso con un método convencional que no considera las direcciones variables. Se comienza exponiendo el diseño computacional del método, el cual está basado en el método existente de GSLIB SISIM y al cual se incluirán subrutinas del método SGS_LVA que incorpora las direcciones variables a simulaciones geoestadísticas. El cambio fundamental incluido a GSLIB SISIM es la modificación del dominio de estimación, el cual es basado en distancias euclidianas por un dominio basado en distancias obtenidas desde el campo de direcciones variables, el cual será un parámetro de entrada del método creado. El método diseñado es puesto a prueba en un estudio de caso de un yacimiento de oro en mantos plegados de muy baja potencia. Éste estudio permite una comparación entre los resultados de simulación de categorías considerando una anisotropía global y los que entrega el método que considera la realidad geológica por medio de direcciones de anisotropía variables. La conclusión del estudio de caso descrito es que el método con direcciones variables reproduce correctamente la geología en términos visuales y en mediciones de manteos locales de estratos mineralizados lo cual es validado por datos de muestras iniciales, además de dar una acertada proporción de categorías y eliminar la variabilidad en sectores que entrega el método convencional.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Pérez, Strutz Cristian Marcelo. "Modelamiento Geológico Estocástico con Simulación Geoestadística." Tesis, Universidad de Chile, 2011. http://repositorio.uchile.cl/handle/2250/104332.

Texte intégral
Résumé :
El modelamiento geológico es esencial para la evaluación de recursos, el diseño, la planificación minera y la definición del proceso metalúrgico a utilizar, dado que determina la extensión volumétrica y distribución espacial de unidades geológicas o geotécnicas que influyen de forma determinante sobre los procesos mencionados. Tradicionalmente, los modelos geológicos se elaboran de forma determinística, es decir, su construcción se basa en el conocimiento y experiencia de un especialista que asigna el valor de un atributo geológico a un determinado volumen, lo cual impide la cuantificación de la incertidumbre asociada al modelo generado. Por otra parte, si bien los algoritmos convencionales de simulación permiten la cuantificación de incertidumbre, las relaciones espaciales complejas y curvilíneas de las variables geológicas no pueden ser inferidas mediante estadísticas basadas en pares de puntos. Este trabajo se centra en la aplicación del algoritmo Single Normal Equation Simulation (SNESIM) de simulación de patrones con el fin de generar modelos estocásticos de litologías del depósito Escondida Norte. Se pretende estudiar la aplicabilidad del método a un depósito de tamaño real y mejorar la caracterización de la incertidumbre respecto a la extensión volumétrica y ubicación espacial de unidades geológicas. Adicionalmente se estudia la influencia de la representatividad de la imagen de entrenamiento y de la cantidad de datos disponibles para condicionar las realizaciones sobre la calidad de los modelos obtenidos. Se consideran cuatro casos de estudio resultantes de la combinación del uso de dos imágenes de entrenamiento distintas y de la incorporación de proporciones locales de litologías como dato de entrada a las simulaciones, con el fin de incorporar el concepto de no estacionaridad. En cada caso se utilizan 5 selecciones con número creciente de sondajes para condicionar los modelos. Los sondajes restantes son utilizados para la validación de los modelos generados. Para cada caso, se calcula el acierto de las realizaciones sobre los datos reservados para tal efecto. Como regla general se demuestra la aplicabilidad del método a escala mina y la ventaja del uso de una imagen de entrenamiento representativa, de la cual sea posible la inferencia de las relaciones espaciales de la variable. Además es posible apreciar la influencia positiva que tiene sobre la calidad de los modelos la disponibilidad de un número significativo de datos condicionantes. Cabe destacar, que al usar el algoritmo estudiado, el impacto relativo del aumento de datos condicionantes es mayor cuando se dispone de un número reducido de ellos, por lo que la decisión de perforar nuevos sondajes debe evaluarse detenidamente considerando el costo que las campañas de exploración conllevan, especialmente si se cuenta con un modelo geológico conceptual de calidad del cual sea posible inferir estadísticas de patrones representativas.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Leyton, Aravena Pía Francisca. "Simulación Gaussiana truncada utilizando información de proporciones locales." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/133530.

Texte intégral
Résumé :
Magíster en Minería<br>Ingeniera Civil de Minas<br>La geoestadística considera usualmente una suposición de estacionaridad para poder aplicar los distintos métodos de estimación o simulación. Sin embargo, esta situación comúnmente no ocurre, ya que suelen presentarse tendencias sistemáticas o cambios en la continuidad espacial de los datos. Considerando esto, la principal motivación de este trabajo, es poder reproducir el comportamiento no estacionario de variables categóricas como lo son los tipos de roca, mediante simulación geoestadística incorporando información de un modelo geológico interpretado ( datos blandos ) en conjunto con información de sondajes ( datos duros ). De esta forma, se utilizó el método de simulación Gaussiana truncada, combinándolo con el modelo Gaussiano discreto para incorporar información de las proporciones locales de tipos de roca. En primer lugar se desarrolló la metodología propuesta en un caso sintético. A partir de este caso, se logró determinar que efectivamente existe una mejora significativa en la simulación de unidades geológicas, en comparación al método convencional que no toma en cuenta los datos blandos. Luego, se aplicó a datos de la División Ministro Hales (DMH) de Codelco, en donde se consideraron dos unidades geológicas, una de alta ley y otra de baja ley. Este caso corrobora las conclusiones del caso sintético y muestra que la inclusión de datos blandos tiene un fuerte impacto en los resultados, no pudiendo reproducir las proporciones locales al no tomar en cuenta estos datos. En concurrencia la calidad de los resultados de la metodología propuesta es altamente dependiente de la calidad de los datos blandos que se consideran.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Martínez, Fernández Yerko. "Simulación secuencial gaussiana no estacionaria de leyes." Tesis, Universidad de Chile, 2014. http://www.repositorio.uchile.cl/handle/2250/129843.

Texte intégral
Résumé :
Magíster en Minería<br>Ingeniero Civil de Minas<br>El presente trabajo corresponde al desarrollo de una herramienta que permite simular valores de una variable regionalizada considerando que tales valores tienen una variación sistemática en el espacio. En este contexto, se desarrolla una nueva herramienta de simulación consistente en un algoritmo de simulación Gaussiana secuencial con rechazo considerando una deriva de referencia como input, bajo la hipótesis que esta herramienta permite respetar tal deriva, obteniendo resultados representativos de la base de datos en cuanto a sus estadísticos de orden 1 (histograma) y orden 2 (variograma). La metodología del algoritmo comienza definiendo la secuencia de visitas de nodos a simular de manera aleatoria. Se acepta o rechaza el nodo simulado en base a la deriva de referencia considerando un rechazo determinístico o probabilístico y una tolerancia dinámica. Para cada nodo se considera una vecindad de búsqueda de datos condicionantes para la simulación y una vecindad de búsqueda de datos para el cálculo de una media local simulada. El algoritmo permite ajustar el número aceptable de rechazos, el tamaño de la vecindad de búsqueda de la media local, la tolerancia y el tipo de rechazo. Se presentan dos casos de estudio. El primero consiste en un ejemplo sintético de una coordenada con deriva lineal. En este primer caso se tiene que, a mayor tolerancia o mayor vecindad de búsqueda de la media local, los valores simulados se distribuyen con mayor dispersión en torno a la deriva de referencia. El segundo estudio de caso consiste en una zona de interés del yacimiento Compañía Minera Cerro Colorado donde se realiza el proceso de simulación en seis unidades de estimación considerando diecisiete sensibilizaciones de los parámetros del algoritmo más una simulación basada en Kriging Simple (SK) y otra basada en Kriging de residuos (BT). En el caso de presencia de deriva se obtiene en general mejores resultados con el algoritmo propuesto que con el SK o BT cuando la deriva se ve reflejada de manera clara en el variograma como en la unidad de estimación cuatro. Las estadísticas de validación en términos de desempeño de las simulaciones como estimación (coeficiente de determinación R2, pendiente de la regresión de datos reales versus simulados y error medio) y en términos de cuantificación de la incertidumbre de los datos originales (accuracy plot) mejoran en relación al SK y BT. De esta manera, la herramienta desarrollada ofrece una alternativa flexible que mejora los estadísticos de validación en comparación al enfoque tradicional frente a un escenario de simulación con presencia de deriva clara en el variograma.
Styles APA, Harvard, Vancouver, ISO, etc.
11

Alarcón, Solís Héctor Ignacio. "Simulación del uso de stockpiles diferenciados para la implementación de gestión de demanda energética en molienda SAG." Tesis, Universidad de Chile, 2019. http://repositorio.uchile.cl/handle/2250/171013.

Texte intégral
Résumé :
Memoria para optar al título de Ingeniero Civil de Minas<br>A lo largo de los años la minería ha incrementado sus costos en energía eléctrica, por lo que ha sido necesario trabajar con energías renovables para amenizar este impacto, por esta razón la implementación de paneles fotovoltaicos a la molienda SAG es un proyecto atractivo y proyectado a la futura minería. A partir del párrafo anterior, este estudio busca evaluar la implementación de la gestión de demanda en el molino SAG considerando aplicar el mismo sistema en el transporte de mineral desde la mina hasta la zona de stockpiles, el que será diferenciado en dos stockpiles por la dureza diferenciada de mineral y así comprobar si el proceso de DSM es factible, disminuyendo los costos asociados a la operación. Con los resultados se tiene que al aplicar la gestión de demanda que diferencia el mineral por su característica de dureza, genera una disminución en los costos operacionales para la simulación. A medida que aumenta el plan de producción de la mina, esta entrega un valor de hasta un 13% menor que el caso base (un funcionamiento sin gestión de demanda) para un procesamiento de 9000 tph. Además, el costo operacional es menor en las simulaciones de los casos DSM que presentan una cantidad de mineral diferenciado (alta o baja dureza) que es un 20% de la cantidad total de mineral, generando una diferencia en el costo operacional de hasta un 5%. Por último, el costo capital del Caso DSM es mayor que para el Caso Base, esto se debe a la incorporación de todo el circuito complementario para la instalación del segundo stockpile que alimenta el mineral diferenciado por la gestión de demanda al molino SAG. Por la información recopilada va a corresponder al 2% aproximadamente. El costo operacional de la mina es un 90% mayor que el costo del Molino SAG, por lo tanto, al aplicar la gestión de demanda es recomendable ajustar un plan minero que cumpla con la extracción de mineral e incorpore la nueva condición. De esta manera se logre utilizar la gestión de demanda energética y hacer una minería más sustentable con el medio ambiente.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Rivera, Ramos Patrick Davis. "Comparación de Métodos para Co-Simulación de Leyes Minerales." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103920.

Texte intégral
Résumé :
El presente trabajo tiene como objetivos comparar cuatro métodos de simulación geoestadística de leyes minerales en depósitos polimetálicos, de modo de reproducir su variabilidad espacial y sus relaciones de dependencias, y determinar las ventajas e inconvenientes que presenta cada método. Estos métodos son la simulación de cada ley por separado, la co-simulación bajo un modelo lineal de coregionalización (MLC), la simulación de factores obtenidos por análisis en componentes principales (ACP), y la simulación condicional paso a paso. Los métodos se han aplicado a dos bases de datos, una de las cuales es heterotópica (es decir, no todas las leyes son conocidas en todos los sitios muestreados), mientras que la otra es homotópica. La primera base de datos corresponde a un deposito de pórfido cuprífero y posee ocho variables medidas (relativas a leyes de Cu, Fe, Mn, Mo, Cl), mientras que la segunda base de datos corresponde a un deposito de lateritas que contiene seis variables de interés (leyes de Al2O3, Cr, Fe, Mgo, Ni, SiO2). De los resultados obtenidos se desprende las siguientes conclusiones. Primero, la simulación por separado no permite reproducir las dependencias entre variables y, por lo tanto, no es recomendada. Segundo, la co-simulación bajo un modelo lineal de corregionalización considera las correlaciones entre variables y proporciona mejores resultados para ambos casos de estudio. Sin embargo el método es complejo, en particular para ajustar el MLC cuando el número de variables a trabajar es grande. Tercero, la simulación por la factorización de ACP es difícil de aplicar en el caso heterotópico, ya que el método sólo permite trabajar con bases de datos homotópicas, por lo que se debe eliminar aquellas variables que presentan menor información. A pesar de ello, este método proporciona la mejor reproducción de las dependencias entre variables y es recomendable para casos homotópicos ya que no se pierde variables para el análisis. Cuarto, la simulación paso a paso reproduce de buena manera las correlaciones entre variables; sin embargo está restringida a un número limitado de variables (4) por el programa utilizado. Quinto, ninguno de los métodos es capaz de reproducir relaciones de desigualdad, como la que existe entre las leyes de cobre total y sus solubles.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Ferreyra, Santiago Dardo. "Simulación energética en edificios." Bachelor's thesis, Universidad Nacional de Córdoba. Facultad de Ciencias Exactas, Físicas y Naturales, 2013. http://hdl.handle.net/11086/817.

Texte intégral
Résumé :
Práctica Supervisada (IC)--FCEFN-UNC, 2013<br>Hace hincapié al estudio de intervenir en el funcionamiento energético del edificio por medio de alguna alternativa tecnológica factible de implementar para que por medio de la optimización de variables como el rendimiento de los equipos, la sectorización funcional, el tipo de combustible, entre otras, sus sistemas alcancen una mayor eficiencia energética ya que al tratarse de un edificio público el consumo de energía es masivo, y de ésta forma, el edificio tienda a alcanzar un cierto grado de compatibilidad con las exigencias que plantea actualmente la normativa existente en la materia
Styles APA, Harvard, Vancouver, ISO, etc.
14

Tommasini, Fabián Carlos. "Sistema de simulación acústica virtual en tiempo real." Doctoral thesis, Universidad Nacional de Córdoba. Facultad de Ciencias Exactas, Físicas y Naturales, 2012. http://hdl.handle.net/11086/782.

Texte intégral
Résumé :
Tesis Doctoral (DCI)--FCEFN-UNC, 2012<br>Esta tesis se pudo realizar gracias al programa de becas doctorales internas del Consejo Nacional de Investigaciones Científicas y Tecnológicas (CONICET).<br>Desarrolla un sistema experimental dinámico e interactivo de realidad acústica virtual, basado en arquitectura de computadoras de propósito general y que fuera flexible, escalable, fácil de mantener y modular. Para alcanzar este objetivo se modelaron tres subsistemas: la fuente sonora, el recinto y el medio de propagación, y el oyente
Styles APA, Harvard, Vancouver, ISO, etc.
15

Sepúlveda, de la Fuente Manuel Alejandro. "Simulación Secuencial Gaussiana de Leyes con Cambio de Soporte." Tesis, Universidad de Chile, 2009. http://repositorio.uchile.cl/handle/2250/103544.

Texte intégral
Résumé :
La evaluación de recursos minerales es un factor crítico en un proyecto minero y se lleva a cabo mediante técnicas geoestadísticas de kriging o de simulación. La simulación permite modelar la distribución de leyes u otras variables de interés, con lo cual se pueden realizar análisis de riesgo. Un factor importante al realizar la evaluación de recursos es el efecto de soporte volumétrico, ya que un cambio de soporte (de las muestras a los bloques de selección minera) genera cambios en las distribuciones de leyes. El tamaño del bloque a evaluar varía según el método de explotación y su selectividad. La forma convencional de tomar en cuenta el efecto de soporte es simular leyes a soporte puntual y después regularizar las simulaciones a soporte de bloque. La principal desventaja de esta metodología es la gran cantidad de recursos computacionales que utiliza (tiempo de cálculo, memoria en disco duro, uso de procesador y memoria RAM). El objetivo de la presente memoria es proponer una metodología para la simulación directa a soporte de bloque en el contexto de la simulación secuencial Gaussiana, buscando reducir los requerimientos computacionales, así como cuantificar el efecto en los resultados y su capacidad de generar simulaciones válidas. Se estudia distintas opciones de simulación directa a soporte de bloque y se selecciona seis metodologías posibles. Posteriormente se compara y analiza la sensibilidad de estas metodologías. Se aplica las metodologías propuestas a un caso de estudio y se compara con la simulación convencional a soporte puntual con posterior regularización a soporte de bloques. El resultado final es la recomendación de la metodología de simulación por descomposición matricial y condicionamiento al promedio de los valores simulados en cada bloque. Esta metodología disminuye los tiempos de cálculo en un 84% y reproduce adecuadamente el efecto de soporte.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Donoso, Droguett Gustavo Andrés. "Simulación Multipunto de Indicadores para la Caracterización de Variables Continuas." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103641.

Texte intégral
Résumé :
La incorporación de técnicas que ayuden a modelar la incertidumbre de fenómenos espaciales en Geoestadística, ha impulsado en la última década la implementación de algoritmos que permitan realizar simulaciones generalmente basadas en funciones de probabilidad construidas a partir de las correlaciones espaciales entre dos puntos, sin embargo se han encontrado algunas con limitaciones con las reproducción de estructuras complejas. Algunas técnicas han implementado la utilización de múltiples punto para el modelamiento de variables categóricas. El objetivo de esta memoria de título es investigar la aplicabilidad de un método de simulación de variables continuas que considere estadísticas de multipunto, el desafío consiste proponer una metodología e implementarla en un programa computacional. En esta memoria de título se implementa computacionalmente un algoritmo de simulación basado en estadísticas multipunto aplicado a variables continuas. El programa propuesto se denomina MPISIM está construido con siete programas distintos, tres clases de objetos y veinte seis rutinas de ejecución en el lenguaje de programación Python. El trabajo desarrollado fue validado con dos experimento denominados caso controlado y caso aleatorio, ambos muestras que la media de las realizaciones tiende al resultado esperado. Posteriormente se desarrollan trabajos para su aplicación a un deposito de cobre, caso que hemos denominado ejemplo sintético que consiste en reconstruir una imagen de entrenamiento a partir de muestras tomadas de esta imagen. Se realizan numerosos análisis de sensibilidad para interpretar el funcionamiento de la metodología propuesta. El algoritmo es capaz de reproducir la imagen de entrenamiento, sin embargo presenta algunas deficiencias en los resultados entre las que destaca sesgo en las reproducciones y ausencia de estructura. Finalmente se realizan pruebas a un caso estudio real con datos de una operación minera, utilizando datos de sondajes y datos de pozos de tronadura, este experimento concluye con malos resultados, justificados por la metodología implementada para la construcción de la imagen de entrenamiento.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Serrano, Cortez Luis Alberto. "Modelo de sustitución para la simulación condicional de leyes." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/137856.

Texte intégral
Résumé :
Ingeniero Civil de Minas<br>El siguiente trabajo aborda el problema de emplear un modelo alternativo al tradicional multigaussiano en la simulación geoestadística de leyes, aplicado a este caso particular de un yacimiento ferrífero y considerando solo la ley de fierro como elemento a simular. El modelo en cuestión se denomina de sustitución, el cual considera en su estructura el modelamiento variográfico de dos variables Gaussianas. El fin es obtener representaciones más realistas a partir de la base de datos, en términos de la textura y continuidad espacial esperada. Para llevar a cabo el estudio, se toma la información proveniente de una malla de sondajes semi-regulares con espaciamientos que van desde los 50 [m] a los 100 [m], de los cuales solo se considera las leyes de fierro y el tipo de roca itabirita. El trabajo se desarrolla en dos grandes etapas, asociadas a la comparación del modelo tradicional Gaussiano con el modelo de sustitución. Cada modelo tiene una secuencia lógica de aplicación, que es la misma en los dos casos esencialmente, difiriendo en cómo se lleva a cabo la modelación variográfica y la simulación propiamente tal. En ambos casos, se eligió el algoritmo de bandas rotantes para llevar a cabo la simulación. En cada modelo, se generaron cien realizaciones en una sección determinada el depósito, lo que permitió obtener las distribuciones de leyes medias, varianzas y curvas tonelaje-ley media según distintas leyes de corte, con el fin de conocer los recursos recuperables y establecer distintos escenarios; y también se obtuvieron algunas herramientas de distribución, que explican cómo se comportan las realizaciones según los datos existentes. La validación de las simulaciones se hizo mediante la técnica del Jack-knife, la cual consiste en separar la población de datos en dos grupos, y simular uno con respecto al otro. Los mismos pasos involucrados en la aplicación de ambos modelos fueron hechos en esta etapa, con lo cual se pudo determinar los errores promedio, error absoluto promedio y error cuadrático medio. En ambos modelos se reprodujeron las estadísticas de los datos condicionantes, con errores de baja magnitud. Se concluye, finalmente, que la simulación mediante el modelo de sustitución es consistente en estadísticas, continuidad y reproducción de distribuciones, además de mostrar una diferencia en cuanto a la textura observada en los mapas de ubicación de la variable en estudio con respecto a lo obtenido mediante la simulación Gaussiana. Se cumple con el objetivo de comparar dos modelos de simulación geoestadística de leyes. El modelo propuesto constituye, entonces, una alternativa viable para simular leyes y cuantificar la incertidumbre en los recursos, aunque su aplicación es más laboriosa.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Hurtado, Lagos Sebastián Octavio. "Simulación de Variables Categóricas Considerando Estadísticas de Patrones." Tesis, Universidad de Chile, 2009. http://repositorio.uchile.cl/handle/2250/103562.

Texte intégral
Résumé :
La estimación de recursos es una de las etapas iniciales dentro de los procesos de explotación de minerales. En esta etapa se define la decisión de explotar o no el yacimiento. Dentro del proceso de estimación de recursos, es importante tomar en consideración el modelo geológico que se utiliza. Un modelo geológico corresponde a una interpretación discreta o categórica de distintos parámetros que se definen en un yacimiento tales como el tipo de roca, la litología o las unidades geotécnicas. Se hace fundamental contar con un modelo geológico confiable, ya que este influye en etapas posteriores tales como el diseño de un rajo, el hundimiento o caserones en labores subterráneas, la metalurgia asociada a procesos y que dependan de la litología. Este trabajo consiste en comenzar la implementación de nuevas técnicas de simulación categórica aplicando estadísticas de múltiples puntos, en contraste con simulaciones que utilizan las estadísticas de dos puntos (covarianza o variograma). El objetivo es el dar nuevas opciones de simulación categórica que puedan representar de mejor manera las complicadas geometrías que se presentan en los contactos entre categorías. Se pretende ampliar las alternativas de simulación y a la vez dejar abierta la discusión de cómo implementar de manera útil las nuevas metodologías, las cuales necesitan ser analizadas y mejoradas para una futura aplicación a la industria minera. La primera parte de este trabajo consiste en una revisión de algunos métodos de simulación de variables categóricas basadas en la función de covarianza. Luego, se presenta el método que se utilizará para simular litologías utilizando estadísticas de múltiples puntos (SNESIM). Se trabaja en base a un caso de estudio con datos reales aplicando la metodología antes mencionada y también una metodología convencional (BlockSIS). Los resultados de las distintas metodologías son reportados por cada litología según el porcentaje de ocurrencia efectivamente bien simulado con respecto al modelo geológico. Estos porcentajes indican que los métodos SNESIM tienen un comportamiento aceptable en los contactos entre litologías. Estos resultados aportan una cuantificación de la incertidumbre tanto en los contactos como en la cantidad de tonelaje por litología. Este aporte puede ser importante dado la información que proporciona en las etapas de inversiones de capital, planificación minera, evaluación de recursos.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Nelis, Suazo Gonzalo Ignacio. "Planificación adaptativa utilizando simulación geoestadística antitética." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/139871.

Texte intégral
Résumé :
Magíster en Minería<br>Ingeniero Civil de Minas<br>La planificación minera ha evolucionado a través del tiempo para entregar soluciones a problemas de minería cada vez más complejos, que involucran cada vez más variables y a horizontes temporales mayores. En las últimas décadas, el foco ha sido la incorporación de la incertidumbre en el proceso de planificación, para hacer frente a las variables y parámetros inciertos involucrados en estos problemas a raíz de los tres tipos clásicos de incertidumbre encontrados en minería: la incertidumbre de mercado, operacional y la geológica. Con respecto a la incertidumbre geológica, es necesario considerar que la planificación de largo plazo se realiza en base a modelos con información limitada del yacimiento, pero posteriormente, a medida que avanza la explotación de este, la información aumenta producto del muestreo de los pozos de tronadura. Esta información es incorporada en el corto plazo con el fin de corregir las decisiones consideradas anteriormente. Sin embargo, la antelación con la que llega esta información entrega poca flexibilidad para modificar decisiones más complejas como el cambio de secuencia minera. Dado este escenario, en esta tesis se buscó medir el efecto de tener esta información de manera prematura en el agendamiento minero de corto plazo en minería a cielo abierto, y verificar si es rentable adelantar la campaña de muestreo para poder tomar mejores decisiones. Para esto, se utilizó un modelo de agendamiento con programación estocástica en dos etapas. En el caso de estudio propuesto, se verifica que para un horizonte de 5 meses en un solo banco, el obtener la información de manera prematura no impacta significativamente en el valor del agendamiento, ni en los indicadores de material procesado ni en la ley media del plan. Esto ocurre pues las decisiones de secuencia tienen poca relevancia en el valor del agendamiento dado el corto horizonte temporal estudiado. Por otro lado, la posibilidad de reasignar los destinos una vez conocida la información del pozo de tronadura mostró ser un factor clave en el valor del plan, independientemente de la secuencia considerada. El uso de la programación estocástica implica la incorporación de diversos escenarios de modelos de bloques dentro del problema de optimización, lo cual repercute fuertemente en los tiempos de ejecución computacional. Por otro lado, es necesario utilizar suficientes escenarios para obtener un resultado confiable considerando la variabilidad del depósito. Por este motivo, se implementó un algoritmo que genera simulaciones antitéticas, para generar escenarios con correlación negativa y utilizar un menor número de éstos para representar la variabilidad del depósito. Las pruebas mostraron que este tipo de simulaciones aceleran la convergencia del problema de agendamiento estocástico, obteniendo resultados más precisos con un número menor de escenarios, comparados a los algoritmos tradicionales de simulación.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Garrido, Rodríguez Felipe Andrés. "Modelamiento de volúmenes geológicos basado en la estimación y simulación estocástica de distancias al contacto." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/139846.

Texte intégral
Résumé :
Magíster en Ciencias, Mención Computación<br>El modelamiento geológico es uno de los primeros pasos en la estimación de recursos en un yacimiento. Este modelamiento se realiza a partir de una interpolación basada en un número limitado de muestras obtenidas en sondajes y tiene por objetivo reproducir de la manera más exacta lo que ocurre en el subsuelo. Esta representación es de suma importancia debido a que influye directamente sobre la toma de decisiones y, por lo tanto, en la metodología para explotar el yacimiento, la rentabilidad y otros asuntos operacionales. El objetivo de este trabajo es implementar una nueva metodología para el modelamiento de cuerpos geológicos utilizando geoestadística para estimar y simular la distancia de las muestras al contacto entre el cuerpo mineralizado y la roca caja que lo contiene. Esta nueva metodología permite incorporar información interpretativa o blanda, en los algoritmos de estimación mediante kriging ordinario y simulación secuencial gaussiana. El trabajo consistió en modificaciones a GSLIB, ésta es una librería que contiene los algoritmos más usados en geoestadística. Las rutinas modificadas fueron dos: \textit{kt3d}, que corresponde al algoritmo de kriging, y \textit{sgsim}, que corresponde a la simulación secuencial gaussiana. Estos algoritmos se modificaron para incluir la información blanda en dos modalidades. La primera consiste en sondajes artificiales, o pseudosondajes, creados por el usuario y que explicitan lo que el experto infiere con respecto a la continuidad y conectividad del cuerpo y/o de la roca caja. La segunda es usar direcciones variables, las cuales definen las direcciones de continuidad en el algoritmo. Estas direcciones se utilizan de dos maneras: orientando la búsqueda y el variograma según el campo de direcciones o bien, utilizándolas en una nueva definición de distancia no euclidiana que las incorpora. Los resultados obtenidos, para una prueba en un yacimiento real, muestran una mejora de entre 1% y 5% para el acierto total. Si bien, para dicho indicador es una leve mejora, sigue siendo una mejora, mas aún considerando que el yacimiento no posee plegamientos importantes que permitan explotar todo el potencial de estos algoritmos. De los algoritmos de estudiados, cabe destacar el comportamiento de la simulación utilizando anisotropía variable, pues mostró una mejora importante en la precisión y en el calce con el volumen real del cuerpo, aunque acompañada de una baja considerable en la cobertura. Esta característica hace de este método una buena alternativa para evaluar yacimientos de una manera conservadora, cuando la inversión se ve restringida y el riesgo debe ser el menor posible, es decir, no tanto alcance, pero con gran presición. El uso de estos nuevos algoritmos constituyen una nueva alternativa para el modelamiento, donde el usuario puede asistir con su conocimiento experto, la creación del modelo, sobre todo en yacimientos donde exista estructuras complejas que dificulten el proceso normal. La ventaja de éstos sobre otras técnicas que persiguen el mismo objetivo es lo intuitivo de las ideas detrás de las modificaciones y de la información adicional que se genera. Estos algoritmos contituyen parte del backend de una aplicación que permitirá al usuario interactuar con los datos para guiar el modelamiento de cuerpos geológicos.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Malekitehrani, Mohammadali. "oint simulation of grades and rock types using non-stationary geostatistical models." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/143833.

Texte intégral
Résumé :
Doctor en Ingeniería de Minas<br>La simulación geoestadística se usa ampliamente en ingeniería de minas para cuantificar la incertidumbre geológica, al producir múltiples realizaciones alternativas de la distribución de los recursos in situ y/o reservas mineras en el subsuelo. Sin embargo, el modelamiento geoestadístico de propiedades de diferentes naturalezas, como las leyes de metales medidas en escalas cuantitativas continuas y los tipos de roca medidos en una escala categórica o nominal, sigue siendo un proceso engorroso y complejo. Tradicionalmente, se recurre a un enfoque jerárquico, donde se modela primero la extensión espacial de los tipos de roca, luego las leyes de metales dentro de cada tipo de roca por separado. Este enfoque tiende a producir discontinuidades en la distribución de las leyes al cruzar la frontera entre tipos de roca, lo que podría no ser deseable. Una alternativa para evitar tales discontinuidades es simular conjuntamente las leyes y los tipos de roca, enfoque que ha sido propuesto en años recientes, principalmente en un marco estacionario donde se supone que las distribuciones de leyes y de tipos de roca son invariantes al desplazarse en el espacio. El modelamiento conjunto de leyes de metal y tipos de roca se torna más difícil cuando se busca reproducir tendencias espaciales y zonaciones en los tipos de roca, una característica que se encuentra comúnmente en la práctica y pone en duda el supuesto de estacionaridad para los tipos de roca. En este contexto, la tesis tiene como objetivo desarrollar propuestas metodológicas y prácticas para simular conjuntamente una ley de metal y un tipo de roca, al representar la primera por un campo aleatorio Gaussiano estacionario y el segundo por un campo aleatorio intrínseco de orden k con incrementos generalizados Gaussianos. Las propuestas conciernen la inferencia de los parámetros del modelo y la construcción de realizaciones condicionadas a datos existentes. Por un lado, la principal dificultad en la inferencia radica en la identificación de la estructura de correlación espacial (covarianzas generalizadas directas y cruzada), para lo cual se diseña un algoritmo semi-automático basado en un ajuste de mínimos cuadrados de las covarianzas de indicadores de roca y covarianzas cruzadas de leyes e indicadores. Se define además varios modelos bivariables de covarianza para facilitar la elección de estructuras básicas en el modelamiento de las covarianzas generalizadas. Por otro lado, la simulación conjunta se basa en un algoritmo espectral para construir realizaciones no condicionales, y en un algoritmo iterativo y una variante de cokriging para condicionar las realizaciones a datos de leyes y tipos de roca. Los modelos y algoritmos propuestos son aplicados a dos yacimientos cupríferos (Lince-Estefanía y Río Blanco-Los Bronces) para simular conjuntamente las leyes de cobre y la extensión de tipos de roca. Los resultados obtenidos muestran la capacidad de los modelos de reproducir las transiciones graduales de leyes al cambiar de tipo de roca, así como la zonación espacial de los tipos de roca en la región de estudio.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Sanz, Zegarra Pablo, and Zavala Omar André Arribasplata. "Diagnóstico y mejora de procesos para la reducción de la tasa de ocupación de un muelle." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2013. http://tesis.pucp.edu.pe/repositorio/handle/123456789/4564.

Texte intégral
Résumé :
En el presente trabajo se describe el análisis, diagnóstico, desarrollo del modelo de simulación discreta y propuesta de mejora en el proceso de carga y descarga de contenedores en el Muelle XYZ del Puerto ABC, en busca de reducir su tasa de ocupación ya que presenta valores mayores a los permitidos por la Autoridad Portuaria Nacional (APN). El uso de la simulación de eventos discretos permitió desarrollar un modelo que representa la realidad de los procesos de carga y descarga de contenedores, así como el flujo de estos dentro del patio de maniobras, con el fin de encontrar aquellos sub procesos en donde se generan mayores demoras y mediante la mejora de los mismos reducirlas. La mejora de procesos debe ser continua y sostenible ya que busca el perfeccionamiento de una empresa y del desempeño de sus procesos. En el análisis de datos se trabajó con data real obtenida de la medición de tiempos y brindada por sistemas internos de la empresa, cuanto más precisa sea esta medición más beneficiosa será para la toma de decisiones; ya que lo que se busca con esta es encontrar una función estadística que se adecúe a cada uno de los subprocesos para que los tiempos de operación y demora de las entidades sean precisos y de esta manera puedan reflejar la realidad. El modelo de simulación debe reflejar al mayor detalle posible como es que se desarrolla el proceso en la realidad, tomando en cuenta todos los eventos que se puedan presentar aún cuando estos tengan poca probabilidad de ocurrencia. Luego de tener el modelo de simulación se valida que los resultados obtenidos sean cercanos a la realidad, para lo cual estos deben encontrarse dentro de un intervalo de confianza y además mantener ciertas condiciones que permitan truncar periodos de calentamiento. Finalmente con toda la información obtenida se generó un modelo de optimización el cual contiene restricciones de operación y una función objetivo de minimización de tiempos en muelle. El resultado obtenido es la solución óptima que generará mejoras en el flujo del proceso.<br>Tesis
Styles APA, Harvard, Vancouver, ISO, etc.
23

Valdez, Mejía Miguel Javier. "Análisis, diseño e implementación de un sistema de simulación para la enseñanza de gravitación universal dirigido a estudiantes de secundaria y pre-grado universitario." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2011. http://tesis.pucp.edu.pe/repositorio/handle/123456789/1115.

Texte intégral
Résumé :
El tema de Gravitación Universal define el comportamiento que tienen los cuerpos físicos frente a otros, describiendo las causas de los cambios en sus movimientos. Para entender este tema se requiere realizar experimentos en los laboratorios. Para realizar experimentos de Gravitación Universal en el dominio de física en los laboratorios, se presentan los siguientes problemas: Alto costo de infraestructura del ambiente y los materiales; falta de demostración de los experimentos relacionados con el tema de Gravitación Universal y complicados procesos de preparación y de desarrollo de los experimentos físicos. El presente proyecto de tesis consiste en analizar, diseñar e implementar un sistema de simulación para la enseñanza de Gravitación Universal dirigido a estudiantes de secundaria y pre-grado universitario, que permita simular ambientes o escenarios de experimentos físicos. El sistema planteado es una herramienta educativa que permite al alumno analizar los experimentos físicos creados por el mismo, desarrollando su creatividad y fomentando el aprendizaje en los temas de física. Los estudiantes que tienen problemas con los conceptos físicos pueden encontrar en este sistema, el aprendizaje interactivo que les permita entender fácilmente los temas. Las simulaciones de experimentos de laboratorio no intentan sustituir los experimentos reales, su propósito es servir como preparación de estos experimentos. Sin embargo, los experimentos reales pueden ser costosos, peligrosos o difíciles de instalar en un laboratorio escolar. El sistema muestra una animación en la que los estudiantes pueden cambiar los escenarios de acuerdo a los parámetros ingresados. Esta animación permite a los estudiantes desarrollar mejores métodos de resolución de problemas y de estímulo para resolverlos.<br>Tesis
Styles APA, Harvard, Vancouver, ISO, etc.
24

Lange, Balboa Werner Joseph. "Modelamiento y Co-Simulación de Leyes de Cobre Total y Soluble." Tesis, Universidad de Chile, 2012. http://repositorio.uchile.cl/handle/2250/104364.

Texte intégral
Résumé :
En el negocio minero, se requiere cuantificar los recursos en un yacimiento con la menor incertidumbre posible, para la toma de decisiones en áreas tan diversas como el proceso metalúrgico a utilizar, el diseño y la planificación minera. Muchos proyectos mineros han debido abordar la problemática de explotar minerales que son recuperables sólo en un porcentaje de su ley total, por lo que se debe generar modelos que reproduzcan las restricciones entre leyes totales y leyes recuperables. Este trabajo consiste en aplicar una metodología para modelar conjuntamente las leyes de cobre total y cobre soluble en un yacimiento óxido cuprífero, vía simulación geoestadística. El modelamiento enfrenta tres dificultades: la restricción de desigualdad (la ley de cobre soluble es menor que la ley de cobre total), la presencia de un muestreo preferencial (no se realizan pruebas químicas de cobre soluble en muestras con baja ley de cobre total) y la presencia de una deriva vertical (la solubilidad tiende a disminuir en profundidad). La metodología se basa en la generación de un modelo bivariable que represente la relación entre las leyes de cobre total y soluble, logrando de este modo independizar ambas variables de la restricción de desigualdad inicial. Con este modelo, se puede transformar dichas variables en variables Gaussianas y aplicar métodos convencionales para la simulación condicional. Los modelos de leyes de cobre total y cobre soluble obtenidos reproducen tanto las relaciones de dependencia entre estas dos variables como su continuidad espacial, permitiendo discriminar de mejor manera si se está trabajando con minerales oxidados, mixtos o estériles y optimizar las rutas de envío a plantas de tratamiento metalúrgico.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Avalos, Sotomayor Sebastián Alejandro. "Simulación multi-puntos utilizando el algoritmo Filtersim: análisis de sensibilidad y casos de estudio." Tesis, Universidad de Chile, 2013. http://repositorio.uchile.cl/handle/2250/113836.

Texte intégral
Résumé :
Ingeniero Civil de Minas<br>La simulación de estructuras complejas de variables continuas basada en algoritmos de simulación multipuntos es un campo que comenzó su exploración hace no más de 20 años. La aplicación de estas técnicas en la caracterización de recursos de yacimientos mineros es aun escasa. No obstante, la propiedad de no suavizar las leyes estimadas lleva a reproducir la realidad de forma más fidedigna y, por consiguiente, tomar decisiones técnico-económicas con mejores resultados en los planes mineros. Dentro de los algoritmos multipuntos, FILTERSIM utiliza la generación de patrones estructurales a partir de la aplicación de filtros sobre imágenes de entrenamiento. El objetivo de la presente memoria es analizar la sensibilidad de FILTERSIM a su conjunto de parámetros de entrada. Para ello se desarrolló un caso de estudio sintético considerando como criterios de análisis tanto el tiempo de cómputo como la calidad de los resultados. Los parámetros con mayor impacto fueron el tamaño de la grilla, que infiere los patrones de comportamiento estructural desde la imagen de entrenamiento, y la función que asocia dichos patrones a los eventos condicionantes en la grilla simulada. Basado en los parámetros óptimos, como resultado del caso de estudio sintético, se decidió llevar a cabo un caso de estudio real, representado por datos de sondajes y posos de tronadura de un yacimiento cuprífero. Los resultados de la simulación fueron contrastados con las estimaciones mediante kriging ordinario. Se observó que la media de las realizaciones no tiende a la estimación de kriging, contradiciendo lo esperado. Por otro lado, los mapas de probabilidad entregaron un comportamiento de la variable similar al de los valores estimados mediante kriging. Finalmente, se proponen dos alternativas para incorporar la media local al proceso de simulación utilizando FILTERSIM. La primera consiste en intervenir la forma en que se asocia el patrón estructural más cercano al evento condicionante. La segunda busca alterar el proceso de agrupación de los patrones inferidos de la imagen de entrenamiento.
Styles APA, Harvard, Vancouver, ISO, etc.
26

Quintana, Quezada Álvaro Omar de la. "Simulación de Unidades Litológicas en el Yacimiento Mansa Mina." Tesis, Universidad de Chile, 2008. http://www.repositorio.uchile.cl/handle/2250/103090.

Texte intégral
Résumé :
Realizar una estimación precisa de los recursos minerales de un yacimiento es fundamental para el éxito de un proyecto minero, debido a los altos montos de inversión involucrados. La estimación se realiza a partir de información obtenida en una toma de muestras y la posterior aplicación de técnicas geoestadísticas de kriging o de simulación, que permiten crear escenarios plausibles dada la información disponible del yacimiento. Los métodos de simulación geoestadística buscan cuantificar la incertidumbre en las leyes de los minerales y en los volúmenes de las distintas unidades geológicas que posee el yacimiento. Esta memoria se enfoca en determinar la incertidumbre en los contactos de las unidades geológicas que existen en el yacimiento Mansa Mina, mediante métodos de simulación de variables categóricas. Específicamente, se utilizan los métodos de simulación secuencial de indicadores y simulación plurigaussiana, con los cuales es posible generar realizaciones de las distintas unidades geológicas que posee el yacimiento Mansa Mina (brecha, stockwork C5, C1 y estéril), con el objetivo de determinar un rango entre los escenarios más optimistas y más pesimistas para cada unidad geológica. Se define una zona de interés y una grilla de prueba en la que se realizan todas las simulaciones de las distintas unidades geológicas. Dado que los escenarios posibles de generar son numerosos, se debe realizar una etapa de validación que permita estudiar la calidad de los modelos generados. Se comparan ambos modelos para establecer cuál de los dos proporciona los mejores resultados en las estimaciones y en los contactos litológicos. Se cuenta con un modelo litológico del yacimiento Mansa Mina propuesto por Codelco, el que es comparado con los modelos simulados, obteniendo una diferencia importante de volúmenes y tonelajes para cada una de las unidades litológicas. Esto se debe principalmente a la existencia de un sector que el modelo de Codelco estima como unidad estéril, mientras que las simulaciones realizadas lo identifican parcialmente como mineral. Como recomendación se establece que se debe refinar el modelo geológico en las zonas del yacimiento en donde la diferencia encontrada es notable.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Basurto, Contreras César Marino, and Contreras César Marino Basurto. "Modelo “Cebaco” aplicado al control de procesos en el circuito de Molienda-Clasificación en una planta concentradora de minerales mediante el software LabVIEW." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2011. http://cybertesis.unmsm.edu.pe/handle/cybertesis/377.

Texte intégral
Résumé :
El control de procesos en una planta concentradora se presenta como un problema desde el mismo momento que el mineral bruto cae a las trompas del molino, el proceso es continuo y solo cesa esta continuidad cuando el producto finalmente emerge para descansar en las canchas de almacenamiento de los concentrados y las canchas de relave de las colas. El material en proceso no puede ser pesado sin interrumpir tal continuidad; consecuentemente, el control de la planta dependerá mucho del muestreo adecuado del material tratado que se encuentra en forma de pulpa. De estas muestras se obtendrá la información esencial y útil por medio del análisis, en cuanto al contenido del metal, distribución del tamaño de partículas y contenido de agua u otros ingredientes en la pulpa del mineral. Con tal información a mano, se cálcula la eficiencia y por ende la efectividad del trabajo que se efectúa mediante el uso de fórmulas y tabulaciones. Pero por lo tedioso que es el trabajo de obtener información de los datos, más que todo por la demora de las pruebas en laboratorio, y por lo tanto no se pueden tomar decisiones al instante para mejorar el proceso de producción. En el presente trabajo se propone una metodología de control de procesos llamado “Cebaco”que consiste básicamente de tres partes pricipales, primero, el diseño de el método de control del proceso que se propone, el control de las variables operativas en el circuito de molienda-clasificación en una planta concentradora que se fundamenta en un mallaje en húmedo en el mismo sitio de muestreo, para la cual solamente se necesitan 2 mallas, éstas pueden ser las No.60 y 200 que son los más recomendables y también contar con un densímetro (balanza MARCY) con su respectivo nomograma, un pesapulpa de 1 litro de capacidad, conociendo la gravedad específica del mineral, la densidad de la pulpa con estos datos se puede calcular al instante el porcentaje de sólidos en cada flujo del clasificador, y con lo cual se cálcula los porcentajes acumulados negativos y positivos de las mallas mencionadas, con dichos datos obtenidos utilizando los modelos matemáticos de Gaudín-Schuhmann[64] y de Rosín-Rammler[61], los más usados en procesamiento de minerales, con los cuales se obtienen los perfiles granulométricos casi al instante, el segundo aporte es la elaboración y propuesta del modelo matemático que se basa en función de las densidades de la pulpa tomadas estas en cada flujo del clasificador y de las densidades obtenidas al hacer el mallaje en húmedo respectivamenter en las mallas ya mencionadas y el tercero es la implementación de el software Goliat 0.2 en el lenguaje de programación LabVIEW con los modelos matemáticos que se propone donde se puede visualizar en el ordenador los resultados obtenidos al instante. Las pruebas de aplicación y comprobación se realizarón, en las plantas concentradoras de “Austria Duvaz” en Morococha, “Corona” de Chumpe en Yauricocha, Yauyos y “Huari” ubicada en La Oroya perteneciente a la UNCP. Cuyos resultados fueron muy halagadores, coincidiendo casi en forma total con la hipótesis planteada. Como demostración de que la metodología funciona óptimamente, tanto en el control de procesos como en la simulación , se puede verificar con los siguientes resultados obtenidos, el tamaño de corte (d50) calculado[51]; con los datos tomados del libro del Ms.Cs. Juan Rivera Zevallos[58] en las páginas 307-324, es de 77.31 micrones y la eficiencia de clasificación es de 42.32% y haciendo los cálculos con la métodologia propuesta el d50 es de 77.32 micrones y la eficiencia de clasificación da un valor de 42.71 %, se puede notar claramente que casi no hay diferencia, en el segundo caso en la comparación de los resultados de los datos obtenidos en la planta concentradora de “Chumpe” Yauricocha, al hacer el control de procesos y los cálculos respectivos por la metodología tradicional, como se realiza en la mayoría de las plantas, da un valor del d50 de 81.31 micrones y la eficiencia de clasificación da un valor de 57.93% y al hacer el control y sus respectivos cálculos con la métodología“Cebaco” da como resultado el d50 de 83.56 micrones y la eficiencia de clasificación de 53.18% se puede también notar sobre todo en esta última que la diferencia no es significativa, siendo el nivel de significancia de 0,08 y con una confidencia de 92%, en el tercer caso también al evaluar otra prueba de los datos tomados de la planta concentradora mencionada al hacer los cálculos con el método tradicional da una eficiencia de clasificación de 48.49% y con la métodología“Cebaco” la eficiencia de clasificación resulta de 48.02 % que en la práctica casi son similares, en el cuarto caso al hacer la evaluación de los resultados obtenidos en la planta concentradora “Austria Duvaz” ubicada en Morococha, el d50 calculado por la metodología tradicional da un valor de 88.3061 y el d50 calculado con la metodología “Cebaco” da un valor de 85.2559 existiendo una diferencia de tan solamente 3.45% y el valor de la eficiencia de clasificación por la metodología tradicional da un valor de 51.8102 y el calculado con la metodología “Cebaco” da un valor de 51.6255 existiendo una diferencia de 0.36% y la razón de carga circulante calculada por la metodología tradicional da un valor de 1.903 y la calculada con la metodología “Cebaco” da un valor de 1.887 cuya diferencia es de tan solamente 0.84% . Y la demostración más importante , donde se comprueba que el método“Cebaco” es una propuesta adecuada, se da con el incremento de las ganancias para la planta concentradora y ésto se obtuvo de las valorizaciones de los concentrados en ambos casos , uno con el balance metalúrgico obtenido con el método tradicional y el otro con el balance metalúrgico obtenido de los trabajos realizados con el método propuesto y ésto se fundamenta en el tiempo de control, ya que el tiempo con el método tradicional en el mejor de los casos es de 4 horas y con el método propuesto es de tan solamente 5 minutos esto implica que las correcciones se hacen casi al instante por lo tanto trae como consecuencia la mejora de las leyes y de las recuperaciones de los concentrados y por ende de la productividad, por los cálculos hecho se determino una ganancia de 11.53 dólares americanos más por tonelada de mineral tratado al realizar el control con el método propuesto.<br>-- The process control in a concentrating plant appears like a problem of imponderable from the moment that the gross mineral falls to the tubes of the mill, the process is continuous and this continuity only stops when the product finally emerges to rest in the fields of storage of the concentrates and the fields of re-wash of the tails. The material in process cannot be weighed without interrupting such continuity; consequently, the control of the plant will depend much on the suitable sampling of the treated material that is like pulp. From these samples the essential and useful information of the analysis will be obtained, as far as the content of the metal, distribution as large as particles and water Content or other ingredients of the mineral pulp. With such information by hand, we can calculate the efficiency and the effectiveness of the work that takes place by means of the use of formulas and tabulations. But by the tedious that is the work to obtain information of the fact, more than everything by delay of the tests in laboratory, so, decisions cannot be taken right away to improve the production process. in the present work a methodology of process control, sets out called “cebaco” that consists basically of three parts main, first, the control method that set out, these are the operative variables in the circuit of milling-classification in a concentrating plant that is based on a humid malla in the same site of sampling, for which 2 are only needed, these can be No.60 and 200 that are the most recommendable and also to have a Densimeter (balance MARCY) with their respective monogram, we can weight pulp of 1litro of Capacity, knowing the mineral specific gravity, the pulp density with these data the solids percentage can be calculated in an instant in each flow of the filing cabinet, and with this data it calculates the negative accumulated percentage and positive of you enmesh mentioned, with these data collected using the mathematical models Gaudin-Schuhmann[64] and Rosin-Rammler [61], but used in mineral processing, with which the grain sized profiles are obtained almost right away and in an instant, the second contribution is the proposal of the mathematical model that is based on the density of the pulp taken these on each flow from the filing cabinet and of the density obtained when doing the humid mallaje respectively in you enmesh already mentioned; and the third party is I elaboration of software Goliat 0,2 in the programming language LabVIEW with the mathematical models that sets out where the obtained results is possible to be visualized in a computer. The tests of application and verification were realized, in Plants Concentrating of “Austria Duvaz” in Morococha, “Crown” of Chumpe in Yauricocha, Yauyos and “Huari” located in UNCP. Whish results were very flattering, agreeing almost in total with the proposition hypothesis. Like demonstration of which the methodology works optimally, as much in the process control like in the simulation, we can verify with the following obtained results, the size of cuts (d50) calculated [51]; with the data taken from the book of Juan Rivera Zevallos[58] in pages 307-324, is 77,31 microns and the classification efficiency is of 42,32 and making the calculations with the methodology, it gives that d50 is 77,32 microns and the classification efficiency gives a value of 42,71, is possible to be clearly noticed that almost there is no difference, In the second case in the comparison of the results of the data collected in the concentrating plant of “Chumpe” Yauricocha, when doing the process control and the respective calculations by the traditional methodology, as it is realized in the majority of the plants, it gives a value of d50 of 81,31 microns and the classification efficiency gives a value of 57,93% and when doing the control and its respective calculations with the methodology “Cebaco” give as result d50 of 83,56 microns and the efficiency of classification of 53,18% can also be noticed mainly in this completes that the difference is not significant, being the level of significance of 0.08 and with a approximation of 92%, in the third case also when evaluating another test of the data taken from the concentrating plant mentioned when doing the calculations with the traditional method, it gives an efficiency of classification of 48,49% and with the methodology “Cebaco” the classification efficiency is about 48,02%, also almost are similar, in the fourth case when doing the evaluation of the results obtained in the concentrating plant “Austria located Duvaz” in Morococha, the d50 calculated by the traditional methodology gives a value of 88,3061 and d50 calculated with the methodology “Cebaco” gives a value of 85,2559 existing a difference of so only 3,45 and the value of the efficiency of classification by the traditional methodology gives a value of 51,8102 and the calculated with the methodology “Cebaco” gives a value of 51,6255 existing an insignificant difference of 0,36 and the reason of circulating load calculated by the traditional methodology gives a value of 1.903 and the calculated one with the methodology “Cebaco” gives a value of 1,887 whose difference is of so only 0.84. So, the demonstration more important, where it is verified that the method “Cebaco” is an suitable proposal, occurs with the increase of the utility for the concentrating plant and this was obtained from valuations of the concentrates in both cases, first with the obtained metallurgical balance with the traditional method and the other with the metallurgical balance obtained of the works carried out with the proposed method, this is based on a better time of control, as for the time with the traditional method in the best cases is of 4 hours and with the proposed method is of so only 5 minutes, this implies that the corrections are made right away and in an instant, so it brings consequently theimprovement of the recoveries laws of the concentrates and therefore increase of the productivity. By the calculations done I determine a utility of 11. 53 dollars American more by ton of mineral treated, when realizing the control with the proposed method.<br>Tesis
Styles APA, Harvard, Vancouver, ISO, etc.
28

Furlan, Paloma. "Simulación numérica de flujo en confluencia." Bachelor's thesis, Universidad Nacional de Córdoba. Facultad de Ciencias Exactas, Físicas y Naturales, 2013. http://hdl.handle.net/11086/784.

Texte intégral
Résumé :
Práctica Supervisada (IC)--FCEFN-UNC, 2013<br>Presenta la formulación, implementación, y validación de un modelo de simulación numérica que modela condiciones geométricas y de flujo, utilizando datos experimentales obtenidos en las instalaciones del instituto de mecánica de los fluidos e ingeniería ambiental (IMFIA), Facultad de Ingeniería, Universidad de la República, Montevideo, Uruguay
Styles APA, Harvard, Vancouver, ISO, etc.
29

Contreras, Romo Jorge Sebastián. "Simulación Considerando Estadísticas de Múltiples Puntos para Modelar la Dilución de Corto Plazo." Tesis, Universidad de Chile, 2009. http://www.repositorio.uchile.cl/handle/2250/103522.

Texte intégral
Résumé :
Uno de los principales problemas en la minería corresponde a la determinación de la dilución operativa, la cual genera un impacto en el beneficio económico, haciendo que muchas veces se incurra en menores retornos de los esperados en la planificación. La planificación de corto plazo debe lidiar con esta problemática, la cual se hace más difícil al contar sólo con datos de la planificación de largo plazo, en donde la dilución es estimada como un porcentaje para la generación de la envolvente económica. El objetivo general del presente trabajo de título es analizar la aplicación de técnicas de simulación geoestadística considerando estadísticas de múltiples puntos para determinar la dilución de corto plazo en una operación minera a cielo abierto. La metodología consiste en la generación de imágenes de entrenamiento a partir de datos de los pozos de tronadura existentes para un determinado banco. Estas imágenes, en conjunto con los sondajes que interceptan el banco inferior, son los datos de entrada para realizar simulaciones con estadísticas de múltiples puntos. Dichas imágenes de entrenamiento discriminan mineral y estéril, por medio de una ley de corte. Al igual como se definieron las imágenes de entrenamiento, las simulaciones categóricas están hechas en términos de mineral y estéril, de forma que el análisis de la calidad predictiva de la simulación pasará por evaluar la reproducción de la conectividad y continuidad espacial de las categorías simuladas respecto al banco que se simuló, ya explotado, razón por la que se cuenta con la información de pozos de tronadura para realizar dichas validaciones. Se concluye que la aplicación de estadísticas de múltiples puntos es una técnica que posee muy buenas expectativas para predecir el comportamiento de la continuidad y conectividad entre mineral y estéril, para efectos de modelar dilución y/o selectividad. Sin embargo, para la correcta aplicación de esta técnica, se requiere que el muestreo realizado al banco que se desea simular, posea un importante número de datos, así como proporciones de mineral y estéril que sean representativas de lo que realmente ocurre en el banco a simular.
Styles APA, Harvard, Vancouver, ISO, etc.
30

Basurto, Contreras César Marino. "Modelo “Cebaco” aplicado al control de procesos en el circuito de Molienda-Clasificación en una planta concentradora de minerales mediante el software LabVIEW." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2011. https://hdl.handle.net/20.500.12672/377.

Texte intégral
Résumé :
El control de procesos en una planta concentradora se presenta como un problema desde el mismo momento que el mineral bruto cae a las trompas del molino, el proceso es continuo y solo cesa esta continuidad cuando el producto finalmente emerge para descansar en las canchas de almacenamiento de los concentrados y las canchas de relave de las colas. El material en proceso no puede ser pesado sin interrumpir tal continuidad; consecuentemente, el control de la planta dependerá mucho del muestreo adecuado del material tratado que se encuentra en forma de pulpa. De estas muestras se obtendrá la información esencial y útil por medio del análisis, en cuanto al contenido del metal, distribución del tamaño de partículas y contenido de agua u otros ingredientes en la pulpa del mineral. Con tal información a mano, se cálcula la eficiencia y por ende la efectividad del trabajo que se efectúa mediante el uso de fórmulas y tabulaciones. Pero por lo tedioso que es el trabajo de obtener información de los datos, más que todo por la demora de las pruebas en laboratorio, y por lo tanto no se pueden tomar decisiones al instante para mejorar el proceso de producción. En el presente trabajo se propone una metodología de control de procesos llamado “Cebaco”que consiste básicamente de tres partes pricipales, primero, el diseño de el método de control del proceso que se propone, el control de las variables operativas en el circuito de molienda-clasificación en una planta concentradora que se fundamenta en un mallaje en húmedo en el mismo sitio de muestreo, para la cual solamente se necesitan 2 mallas, éstas pueden ser las No.60 y 200 que son los más recomendables y también contar con un densímetro (balanza MARCY) con su respectivo nomograma, un pesapulpa de 1 litro de capacidad, conociendo la gravedad específica del mineral, la densidad de la pulpa con estos datos se puede calcular al instante el porcentaje de sólidos en cada flujo del clasificador, y con lo cual se cálcula los porcentajes acumulados negativos y positivos de las mallas mencionadas, con dichos datos obtenidos utilizando los modelos matemáticos de Gaudín-Schuhmann[64] y de Rosín-Rammler[61], los más usados en procesamiento de minerales, con los cuales se obtienen los perfiles granulométricos casi al instante, el segundo aporte es la elaboración y propuesta del modelo matemático que se basa en función de las densidades de la pulpa tomadas estas en cada flujo del clasificador y de las densidades obtenidas al hacer el mallaje en húmedo respectivamenter en las mallas ya mencionadas y el tercero es la implementación de el software Goliat 0.2 en el lenguaje de programación LabVIEW con los modelos matemáticos que se propone donde se puede visualizar en el ordenador los resultados obtenidos al instante. Las pruebas de aplicación y comprobación se realizarón, en las plantas concentradoras de “Austria Duvaz” en Morococha, “Corona” de Chumpe en Yauricocha, Yauyos y “Huari” ubicada en La Oroya perteneciente a la UNCP. Cuyos resultados fueron muy halagadores, coincidiendo casi en forma total con la hipótesis planteada. Como demostración de que la metodología funciona óptimamente, tanto en el control de procesos como en la simulación , se puede verificar con los siguientes resultados obtenidos, el tamaño de corte (d50) calculado[51]; con los datos tomados del libro del Ms.Cs. Juan Rivera Zevallos[58] en las páginas 307-324, es de 77.31 micrones y la eficiencia de clasificación es de 42.32% y haciendo los cálculos con la métodologia propuesta el d50 es de 77.32 micrones y la eficiencia de clasificación da un valor de 42.71 %, se puede notar claramente que casi no hay diferencia, en el segundo caso en la comparación de los resultados de los datos obtenidos en la planta concentradora de “Chumpe” Yauricocha, al hacer el control de procesos y los cálculos respectivos por la metodología tradicional, como se realiza en la mayoría de las plantas, da un valor del d50 de 81.31 micrones y la eficiencia de clasificación da un valor de 57.93% y al hacer el control y sus respectivos cálculos con la métodología“Cebaco” da como resultado el d50 de 83.56 micrones y la eficiencia de clasificación de 53.18% se puede también notar sobre todo en esta última que la diferencia no es significativa, siendo el nivel de significancia de 0,08 y con una confidencia de 92%, en el tercer caso también al evaluar otra prueba de los datos tomados de la planta concentradora mencionada al hacer los cálculos con el método tradicional da una eficiencia de clasificación de 48.49% y con la métodología“Cebaco” la eficiencia de clasificación resulta de 48.02 % que en la práctica casi son similares, en el cuarto caso al hacer la evaluación de los resultados obtenidos en la planta concentradora “Austria Duvaz” ubicada en Morococha, el d50 calculado por la metodología tradicional da un valor de 88.3061 y el d50 calculado con la metodología “Cebaco” da un valor de 85.2559 existiendo una diferencia de tan solamente 3.45% y el valor de la eficiencia de clasificación por la metodología tradicional da un valor de 51.8102 y el calculado con la metodología “Cebaco” da un valor de 51.6255 existiendo una diferencia de 0.36% y la razón de carga circulante calculada por la metodología tradicional da un valor de 1.903 y la calculada con la metodología “Cebaco” da un valor de 1.887 cuya diferencia es de tan solamente 0.84% . Y la demostración más importante , donde se comprueba que el método“Cebaco” es una propuesta adecuada, se da con el incremento de las ganancias para la planta concentradora y ésto se obtuvo de las valorizaciones de los concentrados en ambos casos , uno con el balance metalúrgico obtenido con el método tradicional y el otro con el balance metalúrgico obtenido de los trabajos realizados con el método propuesto y ésto se fundamenta en el tiempo de control, ya que el tiempo con el método tradicional en el mejor de los casos es de 4 horas y con el método propuesto es de tan solamente 5 minutos esto implica que las correcciones se hacen casi al instante por lo tanto trae como consecuencia la mejora de las leyes y de las recuperaciones de los concentrados y por ende de la productividad, por los cálculos hecho se determino una ganancia de 11.53 dólares americanos más por tonelada de mineral tratado al realizar el control con el método propuesto.<br>-- The process control in a concentrating plant appears like a problem of imponderable from the moment that the gross mineral falls to the tubes of the mill, the process is continuous and this continuity only stops when the product finally emerges to rest in the fields of storage of the concentrates and the fields of re-wash of the tails. The material in process cannot be weighed without interrupting such continuity; consequently, the control of the plant will depend much on the suitable sampling of the treated material that is like pulp. From these samples the essential and useful information of the analysis will be obtained, as far as the content of the metal, distribution as large as particles and water Content or other ingredients of the mineral pulp. With such information by hand, we can calculate the efficiency and the effectiveness of the work that takes place by means of the use of formulas and tabulations. But by the tedious that is the work to obtain information of the fact, more than everything by delay of the tests in laboratory, so, decisions cannot be taken right away to improve the production process. in the present work a methodology of process control, sets out called “cebaco” that consists basically of three parts main, first, the control method that set out, these are the operative variables in the circuit of milling-classification in a concentrating plant that is based on a humid malla in the same site of sampling, for which 2 are only needed, these can be No.60 and 200 that are the most recommendable and also to have a Densimeter (balance MARCY) with their respective monogram, we can weight pulp of 1litro of Capacity, knowing the mineral specific gravity, the pulp density with these data the solids percentage can be calculated in an instant in each flow of the filing cabinet, and with this data it calculates the negative accumulated percentage and positive of you enmesh mentioned, with these data collected using the mathematical models Gaudin-Schuhmann[64] and Rosin-Rammler [61], but used in mineral processing, with which the grain sized profiles are obtained almost right away and in an instant, the second contribution is the proposal of the mathematical model that is based on the density of the pulp taken these on each flow from the filing cabinet and of the density obtained when doing the humid mallaje respectively in you enmesh already mentioned; and the third party is I elaboration of software Goliat 0,2 in the programming language LabVIEW with the mathematical models that sets out where the obtained results is possible to be visualized in a computer. The tests of application and verification were realized, in Plants Concentrating of “Austria Duvaz” in Morococha, “Crown” of Chumpe in Yauricocha, Yauyos and “Huari” located in UNCP. Whish results were very flattering, agreeing almost in total with the proposition hypothesis. Like demonstration of which the methodology works optimally, as much in the process control like in the simulation, we can verify with the following obtained results, the size of cuts (d50) calculated [51]; with the data taken from the book of Juan Rivera Zevallos[58] in pages 307-324, is 77,31 microns and the classification efficiency is of 42,32 and making the calculations with the methodology, it gives that d50 is 77,32 microns and the classification efficiency gives a value of 42,71, is possible to be clearly noticed that almost there is no difference, In the second case in the comparison of the results of the data collected in the concentrating plant of “Chumpe” Yauricocha, when doing the process control and the respective calculations by the traditional methodology, as it is realized in the majority of the plants, it gives a value of d50 of 81,31 microns and the classification efficiency gives a value of 57,93% and when doing the control and its respective calculations with the methodology “Cebaco” give as result d50 of 83,56 microns and the efficiency of classification of 53,18% can also be noticed mainly in this completes that the difference is not significant, being the level of significance of 0.08 and with a approximation of 92%, in the third case also when evaluating another test of the data taken from the concentrating plant mentioned when doing the calculations with the traditional method, it gives an efficiency of classification of 48,49% and with the methodology “Cebaco” the classification efficiency is about 48,02%, also almost are similar, in the fourth case when doing the evaluation of the results obtained in the concentrating plant “Austria located Duvaz” in Morococha, the d50 calculated by the traditional methodology gives a value of 88,3061 and d50 calculated with the methodology “Cebaco” gives a value of 85,2559 existing a difference of so only 3,45 and the value of the efficiency of classification by the traditional methodology gives a value of 51,8102 and the calculated with the methodology “Cebaco” gives a value of 51,6255 existing an insignificant difference of 0,36 and the reason of circulating load calculated by the traditional methodology gives a value of 1.903 and the calculated one with the methodology “Cebaco” gives a value of 1,887 whose difference is of so only 0.84. So, the demonstration more important, where it is verified that the method “Cebaco” is an suitable proposal, occurs with the increase of the utility for the concentrating plant and this was obtained from valuations of the concentrates in both cases, first with the obtained metallurgical balance with the traditional method and the other with the metallurgical balance obtained of the works carried out with the proposed method, this is based on a better time of control, as for the time with the traditional method in the best cases is of 4 hours and with the proposed method is of so only 5 minutes, this implies that the corrections are made right away and in an instant, so it brings consequently theimprovement of the recoveries laws of the concentrates and therefore increase of the productivity. By the calculations done I determine a utility of 11. 53 dollars American more by ton of mineral treated, when realizing the control with the proposed method.<br>Tesis
Styles APA, Harvard, Vancouver, ISO, etc.
31

Pérez, Revello Pablo Andrés. "Simulación de movimiento fuerte para sismos de tipo intraplaca de profundidad intermedia." Tesis, Universidad de Chile, 2006. http://www.repositorio.uchile.cl/handle/2250/104453.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
32

Sarmiento-Vásquez, Alfonso-Tullio. "Análisis comparativo de los paradigmas de simulación." Bachelor's thesis, Universidad de Lima, 2016. http://repositorio.ulima.edu.pe/handle/ulima/3296.

Texte intégral
Résumé :
Este trabajo de investigación hace un análisis cualitativo y cuantitativo de los paradigmas de la simulación. Los tres paradigmas estudiados en este trabajo son: dinámica de sistemas, simulación de eventos discretos y la simulación basada en agentes. En el análisis cualitativo, primero se detallan las definiciones y características de cada uno de los tres métodos para luego mostrar en un cuadro comparativo los elementos distintivos de cada uno de ellos. El análisis cuantitativo se realiza a través de un caso de estudio, donde primero se modela y se simula el problema a través del enfoque de cada método en particular. Después mediante diferentes escenarios se muestran las ventajas y desventajas de usar un paradigma sobre los otros. Esto se expone en un resumen comparativo de los escenarios. La integración de las características cualitativas y cuantitativas que distinguen a cada paradigma se presentan en las conclusiones.<br>This research work makes a qualitative and quantitative analysis of the simulation paradigms. The three paradigms studied in this work are: system dynamics, discrete event simulation and agent-based simulation. In the qualitative analysis, the definitions and characteristics of each of the three methods are detailed first and then the distinctive elements of each paradigm are showed in a comparative table. The quantitative analysis is performed through a case study, where first the problem is modeled and simulated through the focus of each particular method. After that, by using different scenarios it is showed the advantages and disadvantages of using a paradigm over the others. This is showed in a comparative summary of the scenarios. The integration of the qualitative and quantitative characteristics that distinguish each paradigm are presented in the conclusions.<br>Trabajo de investigación
Styles APA, Harvard, Vancouver, ISO, etc.
33

Reyes, Cerda Teresita de Jesús. "Simulación numérica de la colisión entre anillos de vorticidad." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/138131.

Texte intégral
Résumé :
Magíster en Ciencias de la Ingeniería, Mención Mecánica<br>El presente trabajo de tesis tiene por objetivo estudiar la generación y posterior colisión de anillos de vorticidad idénticos, en una configuración simétrica de 60°y 120° para tres valores del número de Reynolds. Para esto, se realizan simulaciones computacionales en el sofware Fluent de ANSYS 12.0, en régimen laminar y sin transferencia de calor. Los anillos son generados simulando un mecanismo pistón en una cámara hexagonal donde se impone una función forzante para tres y seis de sus caras dependiendo de la configuración elegida. A partir de tres mallas discretas, que difieren en el número de elementos y en el tipo de estructura del mallado, se lleva a cabo una prueba de malla, donde se evalúa la precisión de los resultados con respecto al tamaño de malla y se elige la más adecuada. Los resultados fueron validados con datos experimentales obtenidos en el laboratorio LEAF-NL. Una vez generados los anillos, se estudian sus parámetros característicos cuando se desplazan en vuelo libre hacia el centro de la cavidad. Cuando se produce la colisión se estudian las propiedades fluido dinámicas en el centro del volumen de control y se caracterizan las estructuras secundarias generadas. La energía cinética se estudia de forma continua para todo el proceso, para identificar los cambios observados en la colisión. Para ambas configuraciones el número de Reynolds incide sobre parámetros cinemáticos del proceso como la velocidad de los anillos antes de la colisión y la velocidad de las estructuras formadas posterior a ésta. En tanto que el diámetro del generador incluye sobre parámetros geométricos como el diámetro de los anillos antes de la colisión y el tamaño de las estructuras formadas posterior a esta, que también está determinado por el número de anillos participantes. Durante la colisión se observa un fuerte aumento de presión en el centro del volumen de control que disminuye a medida que las estructuras generadas se alejan. En cuanto a la velocidad se observa que tiende a cero en torno al centro especialmente para la configuración de seis anillos en colisión. La energía cinética muestra variaciones asociadas a la disipación por esfuerzos viscosos en el movimiento de los anillos, y a la interacción de estos durante la colisión. La dinámica de la colisión de anillos de vorticidad aborda interesantes propiedades, como la reconexión de tubos de vorticidad que da paso a la formación de nuevas estructuras y la posibilidad de generar puntos de estancamiento en las zonas donde se produce la colisión de los anillos.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Brugnoli, González Sebastián. "Modelación y Simulación de DSP TI TMS320C55 Genérico." Tesis, Universidad de Chile, 2009. http://www.repositorio.uchile.cl/handle/2250/103469.

Texte intégral
Résumé :
No autorizada por el autor para ser publicada a texto completo<br>Este proyecto consiste en la modelación e implementación de un simulador de conjunto de instrucciones, funcional atemporal, de la unidad de procesamiento de un DSP Texas Instruments TMS320C55. Este simulador tiene por objetivo proveer de una herramienta de desarrollo de software independiente del diseño y elaboración del hardware, para no retrasar la primera por la indisponibilidad del último. Importante es que el usuario tenga una experiencia, en cuanto a capacidades y tiempos de respuesta, lo más cercana al producto final. Esto se logra mediante la abstracción de las características irrelevantes del hardware y emulación de lo mínimo necesario para la correcta operación del software. Para desarrollar este simulador se utiliza la herramienta ArchC en conjunto con la documentación técnica del DSP. Considerando las características de estos, se realiza una evaluación sobre que elementos del DSP es necesario, factible y prioritario implementar en el marco de tiempo. Durante el trascurso del proyecto, para verificar que cada instrucción opere acorde a lo especificado por la documentación oficial, se somete cada una de estas a pequeñas pruebas, cuyos resultados son contrastados con los ejemplos encontrados en la especificación de cada instrucción. Así, en este caso particular se obtuvo como resultado un simulador con un soporte parcial del total del ISA pero que abarca un gran número de funcionalidades. Este ha sido evaluado mediante la verificación de sus operaciones en valor y modificación del estado. En términos concretos esto se traduce en 115 instrucciones implementadas, de las cuales 78 pasan exitosamente todas las pruebas. Adicionalmente, el código y sus métodos se han estructurado de tal forma que la definición de nuevas instrucciones se pueda realizar mediante la concatenación simple de métodos y se han dejado programadas una serie de funciones que abarcan la gran mayoría de operaciones definidas en el hardware, dejando una base solida para trabajos futuros. En conclusión, se tienen dos aportes en este trabajo: una metodología para la abstracción de hardware y un simulador de conjunto de instrucciones, funcional atemporal, operativo. Estos dan pie para futuros trabajos en el perfeccionamiento del propio proyecto o en trabajos análogos en las áreas de electrónica digital y desarrollo de software.
Styles APA, Harvard, Vancouver, ISO, etc.
35

Beltramo, Emmanuel. "Simulación dinámica estructural de un automóvil de competición." Bachelor's thesis, Universidad Nacional de Córdoba. Facultad de Ciencias Exactas, Físicas y Naturales, 2015. http://hdl.handle.net/11086/1810.

Texte intégral
Résumé :
Proyecto Integrador (IME)--FCEFN-UNC, 2015<br>Estudia, analiza y determina la influencia que posee la rigidez a torsión del chasis de un vehículo de súper TC 2000 en su comportamiento dinámico, fundamentalmente en condición de curva. Para ello se desarrolla un software computacional que calcula la carga normal sobre cada neumático
Styles APA, Harvard, Vancouver, ISO, etc.
36

Jaime, Infante Ramón Alexander. "Desarrollo de métodos de simulación aplicados a la optimización de funciones objetivo biológicas." Doctoral thesis, Universitat Politècnica de València, 2020. http://hdl.handle.net/10251/147112.

Texte intégral
Résumé :
[ES] La Biología de Sistemas es un campo de la investigación en el que confluyen varias disciplinas de conocimiento como la Física, Matemática, Química y Biología, donde las interacciones de los elementos internos de un microorganismo y el medio ambiente influyen en el desarrollo de procesos que se representan mediante un modelo matemático. Este enfoque permite comprender el funcionamiento de los sistemas biológicos y profundizar en el entendimiento de cómo sus interacciones conllevan a la aparición de nuevas propiedades y procesos. En el estudio de los procesos biológicos, se realiza la confirmación o refutación de una teoría que se confronta con resultados experimentales. La Biología de Sistemas utiliza una hipótesis basada en el estudio de los procesos mediante una modelización matemática de los mismos. Uno de los elementos principales de análisis en Biología de Sistemas es la reconstrucción de modelos metabólicos determinante a la hora de poder modificar el funcionamiento de un organismo determinado. Este trabajo se aborda la automatización de esta actividad, así como los fundamentos esenciales de la Herramienta COPABI, como paso fundamental para una buena reconstrucción antes de aplicar diferentes métodos de optimización a un modelo metabólico a escala genómica. Esta investigación se basa en métodos no tradicionales que permiten ofrecer mejoras en los resultados de las simulaciones, con un mejor acercamiento a la realidad en el contexto de la ingeniería metabólica. Presentando PyNetMet, una librería de Python, como herramienta para trabajar con redes y modelos metabólicos. Con el fin de ilustrar las características más importantes y algunos de sus usos, se muestran resultados de la herramienta como el cálculo de la agrupación media de las redes que representan a cada uno de los modelos metabólicos, el número de metabolitos desconectados en cada modelo y la distancia media entre dos metabolitos cualesquiera de la red. Analizar los modelos metabólicos partiendo de la optimización monobjetivo no siempre se acerca todo lo deseado a la realidad, puesto que uno o más objetivos pueden entrar en conflicto porque tienen como denominador común la necesidad de elegir entre diferentes alternativas que han de evaluarse en base a diversos criterios. Para ello, se presentó un algoritmo de optimización multiobjetivo basado en algoritmos evolutivos que consiste en una adaptación del algoritmo sp-MODE implementado en la herramienta bioinformática BioMOE, que considera de manera simultánea la optimización de dos o más objetivos, a menudo en conflicto, dando como soluciones diferentes distribuciones de flujo en la que una no es mejor que la otra. En el área de la comparación de modelos metabólicos se muestra una herramienta bioinformática llamada CompNet, basada en conceptos de teoría de grafos como las Redes de Petri, para poder establecer una comparación entre modelos metabólicos, determinando qué cambios serían necesarios para modificar determinadas funciones en uno de los modelos con respecto al otro, a través de la métrica Distancia de Edición. Mediante las métricas de Baláž y Bunke se muestra el grado de semejanza que existe entre dos modelos mediante un valor cuantitativo que indica las semejanzas y diferencias ellos.<br>[EN] Systems Biology is a field of research in which several disciplines of knowledge converge such as Physics, Mathematics, Chemistry and Biology, where the interactions of the internal elements of a microorganism and the environment influence the development of processes that are represented by a mathematical model. This approach allows us to understand how biological systems work and to deepen our understanding of how their interactions lead to the emergence of new properties and processes. In the study of biological processes, the confirmation or refutation of a theory that is confronted with experimental results is performed. Systems Biology uses a hypothesis based on the study of processes by means of a mathematical modeling of them. One of the main elements of analysis in Systems Biology is the reconstruction of metabolic models, which is decisive when it comes to modifying the functioning of a given organism. This work addresses the automation of this activity, as well as the essential fundamentals of the COPABI Tool, as a fundamental step for a good reconstruction before applying different optimization methods to a metabolic model at genomic scale. This research is based on non-traditional methods that allow us to offer improvements in simulation results, with a better approach to reality in the context of metabolic engineering. Introducing PyNetMet, a Python library, as a tool for working with metabolic networks and models. In order to illustrate the most important characteristics and some of its uses, results of the tool are shown, such as the calculation of the mean grouping of the networks representing each of the metabolic models, the number of metabolites disconnected in each model and the mean distance between any two metabolites in the network. Analyzing metabolic models on the basis of monobjective optimization does not always bring the desired closer to reality, since one or more objectives may come into conflict because their common denominator is the need to choose between different alternatives to be evaluated on the basis of different criteria. To this end, a multi-target optimization algorithm based on evolutionary algorithms was presented, consisting of an adaptation of the sp-MODE algorithm implemented in the bioinformatics tool BioMOE, which simultaneously considers the optimization of two or more objectives, often in conflict, giving as solutions different flow distributions in which one is not better than the other. In the area of the comparison of metabolic models, a bioinformatics tool called Network-Compare is shown, based on concepts of graph theory such as Petri dishes, in order to establish a comparison between metabolic models, determining what changes would be necessary to modify certain functions in one of the models with respect to the other, through the Editing Distance metric. By means of the Baláž and Bunke metrics, the degree of similarity between two models is shown by means of a quantitative value that indicates the similarities and differences between them.<br>[CA] La Biologia de Sistemes és un camp de la recerca en què conflueixen diverses disciplines de coneixement com la Física, Matemàtica, Química i Biologia, on les interaccions dels elements interns d'un microorganisme i el medi ambient influeixen en el desenvolupament de processos que es representen mitjançant un model matemàtic. Aquesta perspectiva permet entendre el funcionament dels sistemes biològics i aprofundir en la comprensió de com les seves interaccions generen noves propietats i processos. En l'estudi dels processos biològics, es realitza la confirmació o refutació d'una teoria que es confronta amb resultats experimentals. La Biologia de Sistemes utilitza una hipòtesi basada en l'estudi dels processos mitjançant una modelització matemàtica dels mateixos. Un dels elements principals d'anàlisi en Biologia de Sistemes és la reconstrucció de models metabòlics determinants a l'hora de poder modificar el funcionament d'un organisme determinat. En aquest treball s'aborda l'automatització d'aquesta activitat, així com els fonaments essencials de l'Eina COPABI, com a pas fonamental per a una bona reconstrucció abans d'aplicar diferents mètodes d'optimització a un model metabòlic a escala genòmica. Aquesta investigació es basa en mètodes no tradicionals que permeten oferir millores en els resultats de les simulacions, amb una millor aproximació a la realitat en el context de l'enginyeria metabòlica. Es presenta PyNetMet, una llibreria de Python, com a eina per treballar amb xarxes i models metabòlics. Per tal d'il¿lustrar les característiques més importants i alguns dels seus usos, es mostren resultats de l'eina com el càlcul de l'agrupació mitjana de les xarxes que representen a cada un dels models metabòlics, el nombre de metabòlits desconnectats en cada model i la distància mitjana entre dos metabòlits qualssevol de la xarxa. Analitzar els models metabòlics partint de l'optimització mono-objectiu no sempre s'acosta tot el desitjat a la realitat, ja que un o més objectius poden entrar en conflicte perquè tenen com a denominador comú la necessitat de triar entre diferents alternatives que han d'avaluar-se sobre la base de diversos criteris. Per a això, es va presentar un algoritme d'optimització multi-objectiu basat en algoritmes evolutius que consisteix en una adaptació de l'algoritme sp-MODE implementat en l'eina bioinformàtica BioMOE, que considera de manera simultània l'optimització de dos o més objectius, sovint en conflicte, donant com solucions diferents distribucions de flux en la qual una no és millor que l'altra. En l'àrea de la comparació de models metabòlics es mostra una eina bioinformàtica anomenada CompNet, basada en conceptes de teoria de grafs com les Xarxes de Petri, per poder establir una comparació entre models metabòlics, determinant quins canvis serien necessaris per a modificar determinades funcions en un dels models respecte a l'altre, a través de la mètrica Distància d'Edició. Mitjançant les mètriques de Balaz i Bunke es mostra el grau de semblança que hi ha entre dos models a través d'un valor quantitatiu que indica les semblances i diferències entre ells.<br>Jaime Infante, RA. (2020). Desarrollo de métodos de simulación aplicados a la optimización de funciones objetivo biológicas [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/147112<br>TESIS
Styles APA, Harvard, Vancouver, ISO, etc.
37

Galarza, Guerrero Lourdes Angelica. "Comparación mediante simulación de los métodos EM e imputación múltiple para datos faltantes." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2013. https://hdl.handle.net/20.500.12672/3578.

Texte intégral
Résumé :
En el siguiente trabajo se presentan dos tratamientos a los problemas suscitados en el análisis de datos con presencia de datos perdidos: El Algoritmo EM basado en la Estimación por Máxima Verosimilitud y la Imputación Múltiple para datos faltantes, ambos métodos presentan ciertas ventajas frente a los métodos de imputación simple que ocasionan la obtención de estimadores distorsionados y sesgados. El algoritmo EM y la Imputación Múltiple se aplican a un conjunto de datos obtenido por simulación, causándole la pérdida de algunos valores con el objetivo de realizar posteriores comparaciones de las estimaciones obtenidas en casos con el conjunto de datos con y sin información faltante.<br>Tesis
Styles APA, Harvard, Vancouver, ISO, etc.
38

Parra, Bustos Álvaro Joaquín. "Adaptación de Algoritmo de Síntesis de Texturas para Simulación Geoestadística de Multiples Puntos Condicionada." Tesis, Universidad de Chile, 2011. http://www.repositorio.uchile.cl/handle/2250/102589.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
39

Panizo, Ríos Diego. "Backscatter coefficient estimation using highly focused ultrasound transducers." Master's thesis, Pontificia Universidad Católica del Perú, 2013. http://tesis.pucp.edu.pe/repositorio/handle/123456789/5339.

Texte intégral
Résumé :
The backscatter coefficient (BSC) is an intrinsic property that quantifies the amount of energy that is reflected by a material as function of the ultrasound wave frequency. BSCs have been proposed for decades for tissue characterization, along with quantitative ultrasound (QUS) parameters derived from BSCs that have been used to construct images that represent how these properties vary spatially. The availability of formulations based on weakly focusing conditions has resulted in a widespread use of large focal number transducers for BSC estimation. The use of highly focused transducers offers the possibility of improving the spatial resolution of BSC-based imaging. The model by Chen et al. [1] was developed for estimating BSCs using transducers of arbitrary focal number. However, to this date only preliminary experimental validation of this method has been performed. The goals of the present study are to analyze for the first time the accuracy of Chen’s [1] method when estimating BSCs using highly focused transducers through both simulations and experiments, and to analyze the accuracy on the estimation of QUS parameters derived from BSCs (specifically the effective scatterer size (ESD) and concentration (ESC)) applying the Chen et al. [1] model. To achieve these goals, a theoretical model of BSC synthesis based on the method of Chen et al. [1]. was derived and used with simulated data. The model considers frequency dependent diffraction patterns, and the scatterers in the synthetic data replicate the properties of solid spheres. In experiments, data obtained using highly focused transducers from a physical phantom containing glass beads was used. This experimental data was appropriately compensated for attenuation and transmission effects. The accuracy of Chen’s method was evaluated calculating the mean fractional error between the estimated and theoretical BSCs curves for both simulations and experiments. Also, the QUS parameters were estimated and compared with real known parameters. BSCs and QUS parameter estimates were obtained from regions of interest from both the transducer focus and throughout the transducer focal region. Finally, the sound speed and the transducer focus were varied in appropriate ranges when processing the data for the BSC and QUS values estimation in order to assess the robustness of the method to uncertainties in these parameters. The results showed that BSCs and QUS parameters can be accurately estimated using highly focused transducers if the appropriate model is used, with regions of interest not restricted to be centered at the focus but to the full extension of the -6-dB transducer focal region. It was also verified that well estimated parameters as the sound speed and transducer focus are necessary in order to obtain accurate BSCs and QUS parameters estimates.<br>Tesis
Styles APA, Harvard, Vancouver, ISO, etc.
40

Vilchez, Marcos Franko Rafael. "Diagnóstico y mejora de procesos utilizando simulación de eventos discretos en una empresa de consumo masivo." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6229.

Texte intégral
Résumé :
El trabajo de investigación es una aplicación de simulación de eventos discretos, cuyo objetivo es incrementar la productividad y rentabilidad del proceso de elaboración y envasado de galletas de una empresa de consumo masivo. En el primer capítulo, se presentan las técnicas de muestreo aleatorio estratificado y diseño de experimentos fraccionados, las cuales se utilizan para analizar los datos de entrada y salida de los modelos de simulación respectivamente; así como también, dos casos de aplicación afines. En el segundo capítulo, se desarrolla la etapa de descripción y diagnóstico. En ella, utilizando los objetivos estratégicos de la compañía como criterios de evaluación, se elige a la tercera línea de elaboración y envasado de galletas como objeto de estudio. Asimismo, se identifican sus principales problemas, y se plantean y seleccionan las contramedidas adecuadas. En el tercer capítulo, se presenta la construcción del modelo de simulación base, su validación y la propuesta de mejora. Esta última consiste en diseñar un balance de línea eficiente para el proceso de envasado, utilizar nuevas y constantes velocidades de operación, previamente optimizadas, y sustituir dos operarios encargados de la alimentación manual de galletas de bajo nivel de experticia por unos estables; e invertir en la compra e implementación de dos nuevas envasadoras. De esta manera, se diseñan experimentos fraccionados y simulados con el fin de determinar la significancia de cada medida en la rentabilidad del proceso y sus niveles para maximizarla. Finalmente, se realiza la evaluación técnica y económica de la propuesta. En la primera, se demuestra que permite reducir el inventario de productos en proceso en 22.99% y 47.38% en el envasado primario y secundario respectivamente, disminuir el nivel de productos no conformes en 11.94%; así como también, evitar las continuas calibraciones y ajustes, y minimizar la duración y tiempo entre fallas imprevistas de equipos en las estaciones de trabajo donde se reemplazan las envasadoras primarias obsoletas. Mientras que, en la segunda, se comprueba la viabilidad económica del proyecto al obtener una Tasa Interna de Retorno (TIR) de 29.30% y un Valor Actual Neto (VAN) de S/. 1, 319,487.51 en un horizonte de cinco años.<br>Tesis
Styles APA, Harvard, Vancouver, ISO, etc.
41

Torres, Sartori Francisco Giovanni. "Estudio fluido estructural de las condiciones de borde en aneurisma cerebral." Tesis, Universidad de Chile, 2014. http://www.repositorio.uchile.cl/handle/2250/116005.

Texte intégral
Résumé :
Magíster en Ciencias de la Ingeniería, Mención Mecánica<br>Ingeniero Civil Mecánico<br>El presente trabajo trata sobre el estudio de los aneurismas cerebrales, los cuales son una enfermedad que se produce por la deformación de la pared de las arterias del cerebro. Esta patología se desarrolla en una zona llamada el círculo de Willis, el cual es un conjunto de arterias que se encarga de suministrar sangre a las diferentes áreas del cerebro. Para este estudio se toma un modelo computacional o CAD (Diseño Asistido por Computador) de un aneurisma reconstruido en trabajos anteriores por el equipo del profesor A. Valencia. El principal objetivo es realizar un estudio de cómo simular adecuadamente las condiciones de borde del modelo computacional, para esto se utilizan dos teorías, la primera es la de Womersley, esta se encarga de simular un perfil de velocidad a la entrada de la arteria que tiene el aneurisma con el fin de reproducir un pulso cardíaco, la segunda es la de Windkessel, esta busca definir la presión de salida de la arteria. Para hacer la simulación se usa un programa de elementos finitos (ADINA), en el cual se importa el modelo CAD del aneurisma y las condiciones de borde, calculadas anteriormente en otro programa llamado MATLAB. Se realiza entonces una variación de la magnitud y de la forma del perfil de velocidad, también se aumenta el valor de la presión de salida (llegando a niveles de hipertensión) y por último se simula el aneurisma con un material elástico y con otro hiperelástico, con el fin de analizar cómo responde el sistema a los cambios. Posteriormente al realizar los cálculos se determina que las mayores concentraciones de esfuerzos se ubican en la zona del cuello del aneurisma y que los lugares con mayores desplazamientos se encuentran en la región del domo. Además, aumentos en un 100 [%] en la velocidad pueden generar incrementos cercanos de un 40 [%] en los esfuerzos. También se establece que lo que más aumenta los esfuerzos en el aneurisma es un incremento de la presión, la hipertensión puede provocar niveles alarmantes de esfuerzos y de deformaciones, incluso muy cercanos a los índices de rupturas. Una hipertensión en grado 3 (presión de sístole por sobre los 180 [mmHg]) puede provocar un incremento en hasta un 87,5 [%] los esfuerzos y en hasta un 32 [%] las deformaciones. Finalmente se determina que un material hiperelástico modela de mejor manera un aneurisma, ya que el elástico puede subestimar valores de esfuerzos en casi un 47 [%]. Por último hay que tener cuidado con la asignación de recursos para las simulaciones, ya que estas pueden consumir demasiada memoria y tiempo, por lo que hay que llegar a un equilibrio entre unos resultados adecuados y los recursos que se disponen.
Styles APA, Harvard, Vancouver, ISO, etc.
42

Romo, Yáñez Álvaro Eduardo. "Simulación Dinámica Estructural de Tratamiento Endovascular en Modelo de Aneurismas Cerebrales Reales." Tesis, Universidad de Chile, 2009. http://www.repositorio.uchile.cl/handle/2250/103429.

Texte intégral
Résumé :
A través de la simulación numérica de la mecánica de aneurismas cerebrales, el profesor Dr. Ing. Álvaro Valencia del Departamento de Ingeniería Mecánica de la Universidad de Chile, en el marco del segundo año de desarrollo del proyecto Fondecyt ’FLOW DYNAMICS AND ARTERIAL WALL INTERACTION IN REALISTIC CEREBRAL ANEURYSM MODELS’, está desarrollando una metodología de apoyo a las decisiones médicas, donde las simulaciones computacionales puedan brindar un grado mayor de certidumbre en el diagnóstico y evaluación de este tipo de patologías. Producto de este trabajo, se cuenta con una metodología consolidada para la reconstrucción de casos de aneurismas cerebrales reales y para la realización de simulaciones de mecánica de sólidos, para el estudio de aneurismas cerebrales sin tratamiento. Por otro lado, el efecto del tratamiento de un aneurisma, desde el punto de vista mecánico, es un punto aún no abordado. A grandes rasgos existen dos tipos de tratamientos de aneurismas: la cirugía convencional, y el tratamiento endovascular. ´ Este ´ultimo busca modificar la circulación de sangre en el aneurisma para evitar su ruptura. En esta memoria de título se modeló y simuló un modelo de tratamiento endovascular tipo stent, que consiste en introducir una malla trenzada de metal flexible dentro de la arteria portadora del aneurisma, y se realizó una comparación de los resultados obtenidos de la simulación con el modelo de stent con los obtenidos previo al tratamiento, en el contexto de las simulaciones de mecánica de sólidos. Se observó que el stent no tuvo efectos importantes en variables como el esfuerzo efectivo (diferencia del 1% aproximadamente entre el caso sin tratamiento y el caso con stent) en la zona del aneurisma. Los estiramientos principales aumentaron con la inclusión del stent en el saco aneurisma, sin embargo, estos se homogenizaron y disminuyeron grandes magnitudes localizadas en la zona del cuello. La rigidez extra, proporcionada por el stent a la pared arterial hizo disminuir de forma importante el desplazamiento en zonas centrales y el domo del aneurisma.
Styles APA, Harvard, Vancouver, ISO, etc.
43

Devia, Campos Nelson Esteban. "Generación de datos de delincuencia vía simulación con modelos basados en agente." Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/113075.

Texte intégral
Résumé :
Magíster en Gestión de Operaciones<br>Ingeniero Civil Industrial<br>El empleo de modelos cuantitativos en el estudio de la delincuencia es una tendencia relativamente reciente, que tiene un gran potencial en el descubrimiento de patrones delictivos, que no se aprecian con sólo observar este fenómeno, y en la generación de nuevas teorías criminológicas a partir de ellos. Sin embargo, una de las mayores limitantes que tiene la aplicación de herramientas matemáticas a este problema es la dificultad de conseguir datos de delincuencia de calidad, debido a varias razones, entre las cuales destacan la confidencialidad de esta información, la cifra negra y la falta de información acerca del contexto en que se produjo cada delito. En esta tesis se propone un modelo de simulación basado en agente para la generación de datos de delincuencia en la vía pública, el cual pretende apoyar futuras investigaciones cuantitativas del crimen, aportando datos que no presentan los inconvenientes ya mencionados y que provienen de la interacción entre los tres actores ligados al crimen: ciudadanos, delincuentes y policías. Éstos son asignados a una ciudad y siguen un conjunto de sencillas reglas de comportamiento e interacción con los demás agentes, lo que permite al modelo replicar el fenómeno de una manera realista, ya que lo modela desde una perspectiva de nivel individual, tal como ocurre en la realidad. El modelo considera que los agentes se mueven por la ciudad siguiendo una ruta, compuesta de varios lugares a visitar, lo que produce encuentros que pueden terminar en un delito, si se dan las condiciones apropiadas. La vigilancia policial es importante en este sentido, ya que influye directamente en la probabilidad de que un delincuente decida o no robar. Para mostrar el potencial de este modelo se implementó un simulador de delitos en la vía pública a partir de él, usando el software Repast Simphony\mr, y se testearon aproximadamente 300 escenarios con diversas cantidades y tipos de policías, bajo cuatro estrategias de distribución policial, para seis ciudades distintas, dos de las cuales corresponden a representaciones de ciudades reales. En todas las ciudades, los resultados muestran que la cantidad de delitos ocurridos es fuertemente dependiente de la dotación policial, pero no del tipo de policía utilizado, mientras que sólo una de las estrategias de distribución policial presenta una influencia significativa en la magnitud del crimen. El modelo de simulación basado en agente desarrollado en esta tesis, tiene un gran potencial en el apoyo a la toma de decisiones en cuanto a políticas anti-delictivas, ya que hace posible ensayar virtualmente las posibles estrategias policiales antes de aplicarlas en la realidad, con lo que se puede anticipar el surgimiento de efectos no deseados, como por ejemplo, el desplazamiento del crimen. Por otra parte, la generación de datos de delincuencia bajo un conjunto de supuestos sencillos puede ser de una enorme utilidad para el apoyo de futuras investigaciones que requieren de una gran cantidad de datos limpios y completos.
Styles APA, Harvard, Vancouver, ISO, etc.
44

Andrade, Torres William Julio. "Modelos evaluativos, de optimización y de simulación de contaminantes del aire." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2007. https://hdl.handle.net/20.500.12672/2678.

Texte intégral
Résumé :
En este trabajo, se presenta un modelo de optimización de costos para minimizar la contaminación del aire en base a dos tipos de medidas de control. El modelo se contrastó con datos históricos de la producción de cemento en una fábrica de este producto y de las emisiones diarias emanadas por ésta. Se presenta asimismo, dos modelos evaluativos de emisiones: El primero, de emisiones de tubos de escape y el segundo, de emisiones evaporables de compuestos orgánicos volátiles (COV), ambos modelos para vehículos ligeros con motor a gasolina en condiciones específicas de clima, de conducción de vehículos y de volatilidad de la gasolina. Además se considera un modelo de simulación por eventos en base a los datos utilizados en los modelos evaluativos mencionados anteriormente, para lo cual se tomaron en cuenta los tipos de autos según el tipo de motor para los arribos y los tipos de servicios requeridos para diferentes periodos de tiempo. Para la obtención del modelo de optimización de costos se utiliza la técnica de Programación Lineal y para los modelos evaluativos se emplea la técnica de Simulación de eventos discretos.<br>-- In this work, a model of optimization of costs is presented against the environmental contamination of air based on two types of control measures. The pattern was contrasted with historical data of the production of cement in a factor of this product and of the daily emissions emanated for this. It is presented also, two model of emissions evaporate is presented: The first one, of emissions of exhaust pipes and the second, of emissions evaporate of compound organic volatile (COV), both models for slight vehicles with motor of gasoline under specific conditions of climate, of conduction of vehicles and of volatility of the gasoline. Lastly it is considered a simulation model by events based on the data used in the model evaluate mentioned previously, for that which they took into account the types of cars according to the motor type for the arrivals and the types of services required for different periods of time. For the obtaining of the pattern of optimization of costs the technique of Lineal Programming it is used and for the model evaluate the technique of Simulation of discreet events it is used.<br>Tesis
Styles APA, Harvard, Vancouver, ISO, etc.
45

Frez, Ríos Tamara. "Kriging y simulación secuencial de indicadores con proporciones localmente variables." Tesis, Universidad de Chile, 2014. http://www.repositorio.uchile.cl/handle/2250/116844.

Texte intégral
Résumé :
Ingeniera Civil de Minas<br>En la actualidad, los modelos geológicos son generalmente construidos de modo determinístico, imposibilitando la cuantificación de la incertidumbre asociada. Si bien en la minería se le da mayor enfoque a variables continuas como las leyes minerales, un estudio previo de variables categóricas provee subdivisiones con mayor homogeneidad geológica y estadística. Además se es capaz de agregar información importante sobre procesos mineros posteriores. El kriging de indicadores con proporciones localmente variables posee una limitante teórica que se pretende mejorar con este estudio. Este método utiliza sólo un variograma global para cada indicador. Dada la influencia que se tiene de las medias de los indicadores sobre su varianza, la meseta del variograma varía con esta media, lo que no se está considerando. Se propone un método que sí considere estas variaciones, utilizando una variable indicador transformada, más específicamente, a la variable indicador se le resta su media variable para centrar en cero, y además se estandariza para eliminar el efecto del cambio de varianza. El análisis se lleva a cabo a través de dos casos de estudio. El primer estudio consta de la estimación por kriging de indicadores tradicional y con la mejora propuesta, sobre una base de datos sintética con un indicador. A este caso también se le realiza un análisis de sensibilidad para revisar los resultados. El segundo caso de estudio consta de la simulación secuencial de indicadores sobre una base de datos real de una veta, contando con información de un muestreo por canales. Se comparan ambas metodologías y se validan los modelos a través de jack-knife. De las estimaciones resultantes del primer caso, se hace un estudio de los errores promedio y varianza del kriging promedio. Los resultados para ambas metodologías son similares, a excepción de la varianza del kriging, la cual para el método propuesto presenta menores valores y una alta influencia de la media del indicador. Este resultado se mantiene a pesar de disminuir los datos muestreados y cambiar el variograma de los datos sintéticos. Las simulaciones del caso de estudio real, en ambas metodologías, resultaron similares. De acuerdo a un análisis de errores cuadráticos, se simularon más bloques con menor error para la metodología propuesta que en la tradicional. Mediante un jack-knife se validan los modelos y se comparan sus porcentajes de aciertos. Ambas metodologías poseen porcentajes de aciertos iguales, incluso con distintos modelos variográficos. En conclusión, si bien el método propuesto muestra mejoras respecto al método tradicional, estas no son lo suficientemente significativas como para declararlo mejor método. Ambas metodologías presentan resultados de alto porcentaje de acierto, pero entre sí son muy similares. A pesar de esto, el nuevo método presenta las ventajas de tener mayor respaldo teórico, menores tiempos de simulación y una mejor cuantificación de los errores de estimación a través de la varianza del kriging.
Styles APA, Harvard, Vancouver, ISO, etc.
46

Hidalgo, Sánchez Tomás Eulogio. "Análisis comparativo de software para simulación en minería subterránea." Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/146287.

Texte intégral
Résumé :
Ingeniero Civil de Minas<br>La pequeña y mediana minería son sectores con múltiples desafíos en aspectos de seguridad, reducción de costos y aumentos de producción. Los desafíos relacionados a costos y producción pueden ser atendidos con la incorporación de la planificación y simulación minera. Por estos motivos surge la importancia de buscar y/o implementar nuevos software de simulación que puedan ser adquiridos a un menor precio pero que sigan cumpliendo con las expectativas de los software tradicionalmente usados. Debido a esto, el objetivo de esta memoria es realizar una comparación técnica entre los programas de simulación ProModel y Delphos Simulator (DSim), orientada principalmente a la velocidad de ejecución, flexibilidad y facilidad de uso de ambos software. El propósito es buscar nuevas alternativas a software frecuentemente utilizados en minería, que requieren de un mayor presupuesto para adquirirlos. La validación de los modelos se hizo comparando el modelo generado en DSim y el generado en ProModel, lo que entregó una diferencia del 0.03% en la producción lograda por ambos software. El motivo de esta diferencia se debe en cierta medida al layout, al recorrido realizado por los LHDs y la cantidad de decimales que soportan ambos software. Para modelos con pocas variables, como el caso de estudio, ProModel tiene tiempos de corrida de simulación al menos 6 veces menores que los logrados en DSim y menor utilización de recursos (procesador) del equipo. DSim ofrece mucha flexibilidad, pero que requiere de altas habilidades de programación para construir un modelo en un tiempo razonable. DSim es mucho mejor para modelar sistemas de gran tamaño o que poseen un layout cambiante en el tiempo, ya que es más fácil reutilizar códigos e ir implementando los nuevos sobre el modelo preconstruido. En cambio, ProModel es mucho mejor para modelar sistemas pequeños debido a que el software cuenta con una interfaz de botones y elementos de simulación que facilitan la construcción de los modelos, además de que el layout de una mina puede ser importado fácilmente. Para el caso de estudio considerado es mejor ProModel. Si el layout fuera pequeño pero existiera una alta cantidad de tareas o interacciones de equipos, ya sea entre LHDs, equipos de preparación u otros, DSim sería más útil ya que la flexibilidad que posee permite abordar el modelo se simulación de diferentes maneras. No se puede indicar con certeza cuál de estos software es mejor, sino que dependiendo de las necesidades del usuario, se debe definir cuál software es más útil o más práctico para realizar un modelo de simulación.
Styles APA, Harvard, Vancouver, ISO, etc.
47

Soto, Rodríguez Diego Nicolás. "Modelación numérica 3D de la interacción entre flujo y partícula en medios permeables." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/141020.

Texte intégral
Résumé :
Ingeniero Civil<br>El presente trabajo consiste en el uso de un software de código abierto llamado YADE (Yet Another Dynamic Engine) escrito en lenguaje C++, que posee una interfaz en Python. Utilizando YADE y elementos de programación llamados objetos, se crea una serie de códigos que permiten crear paquetes de suelo con diversas características y acoplarlo a un dominio de fluido a escala de poros. El objetivo principal es la construcción de un modelo numérico que logre acoplar el efecto del flujo y de las partículas en medios granulares. Para esto se realizan modelos de prueba y de suelo sin fluido, luego se construyen modelos acoplados con flujo ascendente. Se realiza una validación para el análisis de la conductividad hidráulica, comparando los resultados de la modelación con resultados empíricos encontrados en la literatura. Luego se aumenta la cantidad de elementos en las simulaciones (de suelo y de fluidos) y la complejidad de los paquetes de esferas, pasando de modelos con un solo tamaño de granos a paquetes de esferas uniformemente distribuidos. A este set de modelos se le cambian las condiciones de confinamiento y el valor de la polidispersión y se estudia el efecto de los cambios realizados en los valores de la conductividad hidráulica. También se caracteriza cualitativamente el esqueleto de suelo para una serie de granulometrías, se analiza la distribución de la fuerza promedio entre los granos finos y los granos gruesos. Se explora en formas de construcción de paquetes de suelo, buscando la mejor forma de recrear granulometrías inestables según criterio de Kenney and Lou 1985. Finalmente se crean 4 granulometrías reales las que no se acoplan con el fluido, debido a diferencia de tamaños entre volúmenes contiguos de fluido. Se caracteriza la distribución de tensiones en función del diámetro de los granos para relacionarlo con el gradiente hidráulico crítico. Con las simulaciones realizadas se caracteriza el comportamiento de la conductividad hidráulica para un tamaño de grano seleccionado y se observa la influencia del confinamiento y de la polidispersión. Se propone una expresión para calcular la conductividad hidráulica en el rango de estudio. Se demuestra que la polidispersión provoca que la fuerza sea transportada de forma preferente por los granos gruesos. Se encuentra una relación lineal entre el módulo de la tensión y el tamaño de diámetro; la existencia de una zona de dispersión para las granulometrías inestables, en donde existen granos finos con muy poca tensión y otros muy cargados. La envolvente de la dispersión es no-lineal y se relaciona con el gradiente hidráulico critico.
Styles APA, Harvard, Vancouver, ISO, etc.
48

Parra, Bustos Álvaro Joaquín. "Extracción de Patrones desde Imágenes de Entrenamiento para Simulación Geoestadística." Tesis, Universidad de Chile, 2008. http://repositorio.uchile.cl/handle/2250/104965.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
49

García, Avellaneda Ayrton José Alejandro. "Diseño de un plan de evacuación en caso de emergencia por tsunami en el distrito La Punta usando métodos de optimización." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2019. http://hdl.handle.net/20.500.12404/14019.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
50

Vergara, Bustos Diego Rolando. "Simulación geoestadística del consumo de ácido en un pórfido cuprífero utilizando información de loggeos geológicos y ensayos químicos." Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/147390.

Texte intégral
Résumé :
Magíster en Minería<br>Usualmente los yacimientos son separados en distintos dominios geológicos, en los cuales las propiedades de las variables a simular son espacialmente y estadísticamente homogéneas. Sin embargo, cuando se consideran casos multivariables, la partición del yacimiento normalmente es llevada a cabo de acuerdo a los criterios de la variable cuyo estudio es más relevante, induciendo un criterio que no necesariamente se ajusta a las otras variables. Esto es particularmente problemático cuando las variables involucradas tienen distinta naturaleza, como lo son las leyes de elementos, que son resultados de procesos geológicos, y consumo de ácido, que es el resultado de procesos metalúrgicos dependientes de la naturaleza geológica. El objetivo principal de esta tesis es cuantificar la incertidumbre y variabilidad del consumo de ácido y de leyes de carbonato en un yacimiento mediante modelos geoestadísticos de simulación que utilizan la información de sondajes de exploración. Para la definición de dominios se propone una metodología que define los dominios de acuerdo a cada variable de interés, pudiendo ser iguales, traslapados o disjuntos para las distintas variables. Adicionalmente, se considera la dependencia espacial de los datos que pertenecen a distintos dominios, permitiendo aportar información a otros dominios, lo cual es particularmente significativo en zonas de transición entre dos dominios. El enfoque propuesto es aplicado a un caso de estudio, utilizando la base de datos del depósito Antucoya del norte de Chile, donde se simulan las leyes de carbonato y el consumo de ácido para distintas unidades mineralizadas. Distintos escenarios de la distribución de unidades mineralizadas son generados mediante simulaciones plurigaussianas, para obtener la variabilidad de las unidades en el yacimiento. Posteriormente, se realizan cosimulaciones multigaussianas de la ley de carbonato y del consumo de ácido, para poder cuantificar su incertidumbre. Estos resultados fueron validados mediante validación cruzada, donde no se observaron diferencias significativas, en términos globales, entre los distintos modelos de simulación puestos a prueba. Sin embargo, se observa diferencias locales en las simulaciones para los sitios que se encuentran cercanos al contacto entre los distintos dominios.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!