Dissertations / Theses on the topic 'Estadística aplicada'
Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles
Consult the top 50 dissertations / theses for your research on the topic 'Estadística aplicada.'
Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.
You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.
Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.
Chávez, Ramos Manuel Raymundo. "Separata de Estadística Aplicada 1." Universidad Peruana de Ciencias Aplicadas - UPC, 2007. http://hdl.handle.net/10757/272705.
Full textValdivia, Barba Henry Alonso, and Rebatta César Eduardo Chahuas. "Software educativo de estadística aplicada 1." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2018. http://hdl.handle.net/10757/623073.
Full textImplementation of software designed to improve and reinforce the knowledge gained by engineering students who have difficulties in topics Probability by solving cases related to his career. This project has been designed with modules oriented student user and an administration module for teaching user. Presenting the development cycle "Educational Software for Applied Statistics 1" project, including the stage of research on technologies and methods development of educational software, the design of the proposed solution, the implementation of the modules set according to scope and evaluation of the project on students in the course of probabilities.
Cuadros, Gonzalo, Enver Tarazona, Solís Celia Cárdenas, and Infante Raúl Ramírez. "Estadística Aplicada 2 (MA145), ciclo 2013-1." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/271215.
Full textValdivia, Calizaya Nardy Gabriela. "Estadística espacial aplicada al estudio de morbilidad." Universidad Mayor de San Andrés. Programa Cybertesis BOLIVIA, 2010. http://www.cybertesis.umsa.bo:8080/umsa/2010/valdivia_cn/html/index-frames.html.
Full textChávez, Ramos Manuel Raymundo. "Estadística Aplicada 1 (MA131), ciclo 2013-1." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/271333.
Full textCuadros, Gonzalo, Solís Celia Cárdenas, Infante Raúl Ramírez, and Enver Tarazona. "Estadística aplicada 2 (MA145), ciclo 2013-2." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/296651.
Full textChávez, Ramos Manuel Raymundo. "Estadística Aplicada 1 (MA131), ciclo 2014-0." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/306129.
Full textCárdenas, Celia, Rafael Aviles, Freud Melgar, and Raúl Ramírez. "Estadística Aplicada 2 (MA145), ciclo 2014-2." Universidad Peruana de Ciencias Aplicadas - UPC, 2014. http://hdl.handle.net/10757/324270.
Full textCuadros, Gonzalo, Solís Celia Cárdenas, Infante Raúl Ramírez, and Enver Tarazona. "Estadística Aplicada 2 (MA145), ciclo 2014-0." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/306128.
Full textCuadros, Gonzalo, Solís Celia Cárdenas, and Infante Raúl Ramírez. "Estadística Aplicada 2 (MA145), ciclo 2014-1." Universidad Peruana de Ciencias Aplicadas - UPC, 2014. http://hdl.handle.net/10757/313832.
Full textChávez, Ramos Manuel Raymundo, and Rucoba Gilber Piña. "Estadística Aplicada 1 (MA131), ciclo 2014-1." Universidad Peruana de Ciencias Aplicadas - UPC, 2014. http://hdl.handle.net/10757/313861.
Full textPiña, Gilber Francisco. "Estadística Aplicada 1 (MA131), ciclo 2014-2." Universidad Peruana de Ciencias Aplicadas - UPC, 2014. http://hdl.handle.net/10757/323833.
Full textCárdenas, Celia, Raúl Ramírez, and Gonzalo Cuadros. "Estadística Aplicada 2 (MA145), ciclo 2015-0." Universidad Peruana de Ciencias Aplicadas (UPC), 2015. http://hdl.handle.net/10757/337909.
Full textLuna, Wálter. "Estadística Aplicada a los Negocios (MA130), ciclo 2013-1." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/271354.
Full textLuna, Walter. "Estadística Aplicada a los Negocios (MA130), ciclo 2014-0." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/306144.
Full textLuna, Walter. "Estadística Aplicada a los Negocios (MA130), ciclo 2014-1." Universidad Peruana de Ciencias Aplicadas - UPC, 2014. http://hdl.handle.net/10757/313737.
Full textJaramillo, Vega Segundo. "Estadística Aplicada a los Negocios (MA130), ciclo 2014-2." Universidad Peruana de Ciencias Aplicadas - UPC, 2014. http://hdl.handle.net/10757/324029.
Full textFlores, Chinte Milagros, and Ramírez Salomón Acosta. "Manual de Estadística Aplicada a los Negocios (CE75), 2013." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/292954.
Full textLuna, Wálter, and Yolanda Segura. "Estadística Aplicada a la Finanzas 1 (MA333), ciclo 2013-1." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/271219.
Full textLuna, Walter. "Estadística Aplicada a las Finanzas 1 (MA333), ciclo 2014-1." Universidad Peruana de Ciencias Aplicadas - UPC, 2014. http://hdl.handle.net/10757/313794.
Full textLuna, Walter. "Estadística Aplicada a las Finanzas 1 (MA333), ciclo 2014-0." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/306141.
Full textJaramillo, Vega Segundo Santiago. "Estadística Aplicada a las Finanzas 2 (MA334), ciclo 2014-0." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/306125.
Full textJaramillo, Vega Segundo Santiago. "Estadística Aplicada a las Finanzas 2 (MA334) ciclio 2014-2." Universidad Peruana de Ciencias Aplicadas - UPC, 2014. http://hdl.handle.net/10757/323482.
Full textJaramillo, Vega Segundo Santiago. "Estadística Aplicada a las Finanzas 2 (MA334), ciclo 2013-2." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/296215.
Full textJaramillo, Vega Segundo Santiago. "Estadística Aplicada a las Finanzas 2 (MA334), ciclo 2014-1." Universidad Peruana de Ciencias Aplicadas - UPC, 2014. http://hdl.handle.net/10757/313808.
Full textBrito, Pizarro Camila Fernanda. "Teoría de matrices aleatorias aplicada al análisis estadístico de un modelo de factores." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/140486.
Full textLas matrices aleatorias y su reciente teoría están jugando un papel fundamental como herramienta estadística en áreas tales como finanzas, meteorología y procesamiento de señales e imágenes. Algunas de las aplicaciones que han adquirido mayor desarrollo se encuentran en el sector financiero y en el área de las comunicaciones inalámbricas. El desafío planteado en este trabajo de tesis consiste en realizar un análisis estadístico basado en la teoría de matrices aleatorias referido a un modelo de factores. A través de la experimentación computacional, se pretende alcanzar dos metas. La primera de ellas consiste en contrastar dos versiones de un mismo test de hipótesis, las cuales se definen a partir de estadísticos provenientes de dos de las más conocidas familias gaussianas de matrices aleatorias: GUE y GOE. Esta comparación surge del hecho de que la familia GOE es menos estudiada en las aplicaciones de matrices aleatorias a considerar, de modo que se busca ampliar el conocimiento que de ella se tiene. Para hacer efectivo el contraste entre ambas versiones, estas se implementan para luego analizarlas en términos de sus comportamientos frente a errores y aciertos. Así, se logra probar empíricamente que no existe diferencia alguna entre ellas, por lo que la versión GOE del test es la que asume el protagonismo. Alcanzada la meta anterior, la segunda consiste en dar utilidad al test en su versión GOE, mediante el desarrollo de un procedimiento que lo aplica iteradas veces para estimar el número de factores de una muestra sujeta al modelo de factores. Posteriormente, el procedimiento es sometido a una serie de pruebas empíricas que buscan validarlo como método de estimación del número de factores. Finalmente, es preciso mencionar que, si bien, este trabajo posee un carácter fundamentalmente experimental, no se aparta del estudio, análisis y manejo abstracto de la teoría de matrices aleatorias que se requieren necesariamente para llevarlo a cabo.
Este trabajo ha sido parcialmente financiado por Núcleo Milenio: "Modelos estocásticos de sistemas complejos y desordenados"
Abella, Garcia Ainoa. "Ingeniería kansei en el campo del diseño : una aproximación desde la ingeniería estadística aplicada a la percepción de los materiales." Doctoral thesis, Universitat Politècnica de Catalunya, 2021. http://hdl.handle.net/10803/671760.
Full textEl objetivo de la presente tesis doctoral es la aplicación teórica y experimental de la ingeniería kansei en el ámbito del diseño. La ingeniería kansei es un método que apunta al desarrollo o la mejora de productos, servicios y/o experiencias mediante la traducción de las necesidades emocionales de los usuarios en parámetros o características del propio diseño. En la presente investigación la ingeniería kansei utiliza como base la ingeniería estadística, ya que se emplean los métodos estadísticos y analíticos más apropiados para aportar valor, validez y rigurosidad. La primera contribución de esta tesis es la creación de un Marco Teórico de las dimensiones emocionales -sensación, percepción, emoción, sentimiento y afecto- fruto de una revisión sistemática en dos bases de datos científicas. El objetivo es promover la integración de las emociones durante cualquier etapa del proceso creativo, y por ello se desarrolla una taxonomía común sobre definiciones, teorías y herramientas de medición para cada una de las dimensiones emocionales. Además, se han creado tres figuras -Emotional Path, Emotional Systematization y Mapeo preliminar de diseño y emoción- que sintetizan esta información para ser utilizadas como guías visuales. Una vez comprendido el estado del arte, se focaliza la investigación en dos temáticas distintas relacionadas con la ingeniería kansei y su adaptación en el contexto del siglo XXI: los canales de comunicación y las herramientas de medición. Para ello, se seleccionan los materiales como ámbito de aplicación. Respecto a los Canales de Comunicación, se realizan dos casos de estudio -prueba piloto y experimento- con el fin de comprender cómo puede variar la percepción del usuario según la interacción y la cantidad de información que recibe. En el diseño experimental se presentan tres materiales a través de tres canales de comunicación distintos para evaluar sus propiedades sensoriales. En algunos casos las personas evalúan el mismo material para cada canal y en otros, cada participante evalúa un material distinto por canal, a través del Perception Evaluation Kit. Los resultados indican que en algunos canales de comunicación hay diferencias significativas respecto a la percepción de las propiedades sensoriales. El nivel de las respuestas en las dos tipologías de experimento es muy parecido, lo que indica que el orden de presentación de los canales de comunicación parece no influir en la percepción. Además, la preferencia por el canal 3, interacción completa del material, destaca independientemente del estilo de aprendizaje predominante en la persona. La contribución respecto al capítulo de Herramientas de Medición es aplicar una metodología heterogénea que utiliza herramientas de autoreporte y fisiológicas para evaluar la percepción de los materiales reciclados, así como la actitud ambiental y los hábitos de consumo de los participantes. La finalidad es detectar si hay alguna relación entre la información que se extrae de las dos tipologías de herramientas. La actividad electrodermal, la apreciación hedónica y las evaluaciones de las propiedades sensoriales han reportado diferencias significativas entre materiales. En cambio, en la electromiografía, la precisión en la identificación y la relación entre hábitos de consumo y actitud ambiental no se han observado efectos o interacciones significativas en los datos. Por último, en el apartado Estadística y Diseño se reflexiona sobre la relación y la unión de las dos disciplinas y se presentan dos puntos de confluencia entre estas -la ingeniería estadística y el Data-Driven Design-. La aportación de este capítulo es el Data Collection Toolkit, un conjunto de metodologías, recursos y herramientas para los diseñadores. El objetivo es promover una mejor práctica en la investigación a través del diseño para que el experimento tenga una mayor validez y sustento estadístico
L’objectiu de la present tesi doctoral és l’aplicació teòrica i experimental de l’enginyeria kansei en l’àmbit del disseny. L’enginyeria kansei és un mètode que apunta al desenvolupament o la millora de productes, serveis i/o experiències mitjançant la traducció de les necessitats emocionals dels usuaris en paràmetres o característiques del mateix disseny. En la present recerca l’enginyeria kansei utilitza com a base l’enginyeria estadística, ja que s’utilitzen els mètodes estadístics i analítics més apropiats per a aportar valor, validesa i rigorositat. La primera contribució de la tesi és la creació d’un Marc Teòric de les dimensions emocionals –sensació, percepció, emoció, sentiment i afecte– fruit d’una revisió sistemàtica en dues bases de dades científiques. L’objectiu és promoure la integració de les emocions durant qualsevol etapa del procés creatiu, per això es desenvolupa una taxonomia comuna sobre definicions, teories i eines de mesura per a cadascuna de les dimensions emocionals. A més, s’han creat tres figures –Emotional, Path, Emotional Systematization i Mapeig preliminar de disseny i emoció– que sintetitzen aquesta informació per a ser utilitzades com a guies visuals. Una vegada comprès l’estat de l’art, es focalitza la recerca en dues temàtiques diferents relacionades amb l’enginyeria kansei i la seva adaptació al context del segle XXI: els canals de comunicació i les eines de mesura. Per a això, se seleccionen els materials com àmbit d’aplicació. Respecte als Canals de Comunicació, es realitzen dos casos d’estudi –prova pilot i experiment– amb la finalitat de comprendre com pot variar la percepció de l’usuari segons la interacció i la quantitat d’informació que rep. En el disseny experimental es presenten tres materials a través de tres canals de comunicació diferents per a avaluar les seves propietats sensorials. En alguns casos les persones avaluen el mateix material per a cada canal i en uns altres, cada participant avalua un material diferent per canal, amb el Perception Evaluation Kit. Els resultats indiquen que en alguns canals de comunicació hi ha diferències significatives respecte a la percepció de les propietats sensorials. El nivell de les respostes a les dues tipologies d'experiment és molt semblant, el que indica que l'ordre de presentació dels canals de comunicació sembla no influir en la percepció. A més, la preferència pel canal 3, interacció completa del material, destaca independentment de l'estil d'aprenentatge predominant en la persona. La contribució respecte al capítol d’Eines de Mesura és aplicar una metodologia heterogènia que utilitza eines d’autoinforme i fisiològiques per a avaluar la percepció dels materials reciclats, així com l’actitud ambiental i els hàbits de consum dels participants. La finalitat és detectar si hi ha alguna relació entre la informació que s’extreu de les dues tipologies d’eines. L’activitat electrodermal, l’apreciació hedònica i les avaluacions de les propietats sensorials han reportat diferències significatives entre materials. En canvi, en l’electromiografia, la precisió en la identificació i la relació entre hàbits de consum i actitud ambiental no s’han observat efectes o interaccions significatives en les dades. Finalment, en l’apartat Estadística i Disseny es reflexiona sobre la relació i la unió de les dues disciplines i es presenten dos punts de confluència entre aquestes –l’enginyeria estadística i el Data-Driven Design–. L’aportació d’aquest capítol és el Data Collection Toolkit, un conjunt de metodologies, recursos i eines per als dissenyadors. L’objectiu és promoure una millor pràctica en la recerca a través del disseny perquè l’experiment tingui una major validesa i base estadística.
Pérez, Bonilla Alejandra Alicia. "Metodología de Caracterización Conceptual por Condicionamientos Sucesivos. Una Aplicación a Sistemas Medioambientales." Doctoral thesis, Universitat Politècnica de Catalunya, 2010. http://hdl.handle.net/10803/6533.
Full textAsí, actualmente es necesario introducir herramientas para asistir al usuario en las tareas de interpretación de una partición sobre un conjunto de objetos, con el fin de establecer el significado de las clases resultantes. Si las clases obtenidas no tienen sentido para los expertos, los resultados no son considerados válidos, ni tampoco se podrán utilizar, ni darán apoyo a ninguna decisión posterior. La literatura abunda algoritmos (técnicas) de validación orientados a la vertiente estructural de la partición, pero disponer de clases bien formadas estructuralmente no ofrece garantía de que un experto vaya a ser capaz de asociar cada uno de esos grupos a una entidad semántica. Esta tesis pretende contribuir a la mejora de este proceso, fundamental para comprender el significado de las clases obtenidas y dar soporte efectivo a la posterior toma de decisiones.
La alternativa que parece más prometedora es el desarrollo de técnicas que a partir de la evidencia empírica, identifiquen las variables más relevantes y formulen conceptos que expresen las particularidades de cada clase y se expresen en una forma de representación conceptual generable automáticamente y directamente comprensible para el experto.
Incorporar procedimientos que trasladen los resultados del análisis a una representación explícita del conocimiento obtenido, se sitúa en la línea de lo que Fallad propone para los sistemas de Knowledge Discovery from Data (KDD), donde la fase de post-proceso de los resultados para generar conocimiento es casi tan importante como el análisis en si mismo.
La metodología de Caracterización Conceptual por Condicionamientos Sucesivos (CCCS) trata de aproximar en un modelo formal el proceso natural que sigue un experto en su fase de interpretación de resultados realizando una aproximación iterativa basada en el clustering jerárquico. La CCCS:
· Aporta una sistematización al proceso de interpretación de clases procedentes de un cluster jerárquico y supone un avance significativo respecto al estado actual en que la interpretación se realiza de forma artesanal.
· Contribuye a sistematizar y objetivar los mecanismos de interpretación que usan los expertos humanos.
· Genera resultados que permiten que el experto pueda comprender más fácilmente las características principales de la clasificación obtenida ya que genera conocimiento explícito directamente a partir de las clases.
Si bien la CCCS es general, se ha centrado la aplicación a estaciones depuradoras de aguas residuales por ser éste uno de los dominios donde las aproximaciones clásicas funcionan peor.
Desde un punto de vista teórico, el interés de esta tesis es presentar una propuesta metodológica híbrida que combine herramientas y técnicas de Estadística e Inteligencia Artificial (IA) en forma cooperativa, siguiendo un enfoque transversal y multidiciplinar combinando elementos de la inducción de conceptos en IA, lógica proposicional y teoría de probabilidad. Es así como, ésta tesis, contribuye a la concepción genérica de sistema de KDD y a objetivar los procedimientos de validación de resultados, ya que el hecho de que un clustering tenga una interpretación clara está relacionado con su utilidad; evaluarla requiere un mecanismo a posteriori de comprensión del significado de las clases.
La CCCS aprovecha la estructura jerárquica de la clasificación objetivo para inducir conceptos iterando sobre las divisiones binarias que indica el dendrograma, de tal forma que, a partir de las variables que describen los objetos pertenecientes a cierto dominio, se puedan encontrar las particularidades de cada clase, contribuyendo así al proceso de interpretación conceptual automática de clases.
The validation of a cluster is still an open problem as an objective criteria for determining the quality of a set of classes has not yet been found in the context of clustering. The interpretation constitutes a fundamental phase of the process and still today remains one of the most commonly used criteria to validate the cluster.
Thus, it is now necessary to introduce tools to assist the user in the task of interpreting a partition of a set of objects in order to establish the meaning of the resulting classes. If the classes obtained don't do not make sense to the experts, the results of the classification are not considered valid, nor could be used or support any subsequent decision. All validation techniques and algorithms focus on the structure of the partition, but having well-structured classes does not guarantee that an expert will be able to associate each of these groups with a semantic entity. This thesis wants to make a contribution to this process, fundamental for understanding the meaning of the obtained classes and to give effective support to the subsequent decision-making.
The most promising alternative seems to be the development of techniques based on empirical evidence to identify the most important variables and formulate concepts that express the specifics (or: specific nature) of each class and are expressed in a conceptual representation able apt for automatic generation and directly understandable to the expert.
To incorporate procedures that translate the results of analysis (in this case of clustering) into a representation of explicit knowledge is in line with what Fayyad in 1996 suggests for systems of Knowledge Discovery from Data (KDD) where the phase of post-process of the results to generate knowledge is almost as important as the analysis itself. Perhaps due to its semantic nature, the automatic generation of interpretations of a classification has not been formally treated by statistics, but to resolve it is essential.
The methodology of Characterization by Embedded Conditioning (CCEC) proposed tries to approximate in a formal model the natural process that an expert follows in its phase of interpretation of results by making an iterative approximation based on a hierarchical clustering. The CCEC:
· Provides a systematizing of the process of interpretation of classes from a hierarchical cluster and represents a significant advance to the current situation in which the interpretation is done manually and more or less crafted.
· Helps to systematize and objectify the mechanisms of interpretation used by human experts.
· The results generated by the methodology allow the expert to better understand the main characteristics of the classification obtained by generating explicit knowledge directly from the classes.
While the methodology proposed is general, the application focuses on Waste Water Treatment Plant (WWTP) because this is one of the domains where conventional approaches lack efficiency.
From a theoretical point of view, the main focus of this thesis has been to present a hybrid methodology that combines tools and techniques of statistics and Artificial Intelligence in a cooperative way, using a transversal and multidisciplinary approach combining elements of the induction of concepts from Artificial Intelligence, propositional logic and probability theory. Thus, this thesis contributes to the generic design of KDD system. It also contributes to objectivate procedures for the validation of results, as the fact that clustering has a clear interpretation is related to the usefulness of a classification; evaluating the usefulness requires a posteriori mechanism of understanding the meaning of classes.
The methodology CCEC benefits from the hierarchical structure of the target classification by induceing concepts iterating with binary divisions from dendrogram, so that, based on the variables that describe the objects belonging to a certain domain, the specifics of each class can be found, thus contributing to the automatic interpretation of conceptual description of clustering.
Cabasés, i. Piqué Ma Àngels. "Models i índexs de concentració. Aplicació al volum empresarial de Lleida." Doctoral thesis, Universitat de Lleida, 1993. http://hdl.handle.net/10803/8129.
Full textCom a conseqüència, en l'esfera econòmica assistim a la proliferació d'estudis empírics i a l'ús de mesures capaces de quantificar el grau de desigualtat que pot presentar la distribució de la riquesa, renda o consum.
Dos són els criteris a l'hora de mesurar la desigualtat:
a.- L'enfocament tradicional, pretén únicament estudiar la desigualtat sense entrar en qüestions de tipus ètic. Són mesures estadístiques positives que es poden aplicar a qualsevol distribució sense disposar d'informació addicional. Les més freqüents i utilitzades són: GINI, ÍNDEX DE THEIL i COEFICIENT DE VARIACIÓ.
b.- L'enfocament modern, iniciat per Atkinson (1970) va mostrar que en les diverses mesures de desigualtat estan immersos criteris ètics i per tant, s'han d'evitar incompatibilitats entre els criteris ètics de les mesures i els criteris ètics de les Funcions de Benestar Social. Es creen les anomenades mesures normatives de desigualtat. Per construcció els índexs normatius no seran apropiats per mesurar la desigualtat en la distribució de magnituds econòmiques diferents de la renda.
Actualmente uno de los temas más debatidos por la opinión pública es la desigualdad existente en los diferentes ámbitos de la sociedad y, por lo tanto, este tema acontece uno objetivo de las formaciones políticas las cuales conceden mucha importancia al impacto de las medidas específicas en materia de distribución.
Como consecuencia, en la esfera económica asistamos a la proliferación de estudios empíricos y al uso de medidas capaces de cuantificar el grado de desigualdad que puede presentar la distribución de la riqueza, renta o consumo.
Dos son los criterios a la hora de mesurar la desigualdad:
a.- El enfoque tradicional, pretende únicamente estudiar la desigualdad sin entrar en cuestiones de tipo ético. Son medidas estadísticas positivas que se pueden aplicar a cualquiera distribución sin disponer de información adicional. Las más frecuentes y utilizadas son: GINI, ÍNDICE DE THEIL y COEFICIENTE DE VARIACIÓN.
b.- El enfoque moderno, iniciado por Atkinson (1970) mostró que en las diversas medidas de desigualdad están inmersos criterios éticos y por lo tanto, se tienen que evitar incompatibilidades entre los criterios éticos de las medidas y los criterios éticos de las Funciones de Bienestar Social. Se crean las nominadas mesuras normativas de desigualdad. Por construcción los índices normativos no serán apropiados por mesurar la desigualdad en la distribución de magnitudes económicas diferentes de la renta.
Abellana, Sangrà Rosa Maria. "Aportacions als mètodes estadístics per a modelar dades agregades amb correlació espacial." Doctoral thesis, Universitat de Barcelona, 2003. http://hdl.handle.net/10803/2837.
Full textEl primer objectiu de la tesis ha estat comparar aquests dos procediments. Aquesta comparació s'ha realitzat en termes de biaix i precisió mitjançant un estudi de simulació. La principal conclusió que s'ha obtingut es que els dos procediments no presenten grans diferències tot i que en situacions d'un nombre petit de regions i de casos esperats les estimacions fully bayesian presenten uns resultats més consistents i en canvi amb moltes regions i casos esperats el procediment quasiversemblança penalitzada presenta més precisió en les estimacions.
El segon objectiu ha estat millorar la convergència de l'algoritme de maximització utilitzat en el procediment de la quasiversosimilitud penalitzada quan es modelen dades amb correlació espacial. Aquesta millora s'ha aconseguit reparametritzant la matriu de variàncies i covariàncies dels efectes aleatoris.
El tercer objectiu ha estat buscar mètodes per testar la absència d'un patró geogràfic, és a dir, la existència d'independència espacial. Per això s'han avaluat diverses proves per contrastar aquesta hipòtesis com: el test de Wald, el quocient de versemblances, el Score test, i el AKAIKE information criterion i a més s'ha estudiat el comportament del coeficient de concordança entre matrius. Els principals resultats que s'han obtingut són: el score test es la prova que presenta un millor equilibri entre l'error de tipus I i potència i el coeficient de concordança entre matrius és una mesura útil per prendre decisions sobre independència espacial, sobretot en aquells casos on el nombre de regions, casos esperats i la variància dels efectes aleatoris són petites.
Finalment, s'ha il·lustrat la metodologia presentada al llarg de la tesi mitjançant una aplicació sobre el risc de diabetis tipus I a Catalunya durant els anys 1989 i 1998.
The main objective of this thesis has been to study and to improve the techniques used in the analysis of the geographical variability of the disease risk across a region. In these studies the data are spatial correlated. The useful methodology to analyze this kind of data is the generalized linear mixed models. The estimation of these models can be carried out by two point of view: bayesian and frequentist. From a bayesian point of view, the estimation is done by fully bayesian and from frequentist the approach more used is the penalized quasi likelihood.
The first objective of this thesis has been to compare both approaches. The comparison has been performed in terms of bias and precision by a study of simulation. The main conclusion has been that both approaches don't present great differences but when the number of regions and expected counts are small the Fully Bayesian gives a more consistent results. However when the number of regions and expected counts are large the estimates by the penalized quasilikelihood are more precise.
The second objective has been to improve the convergence of the maximization algorithm used with the approach of the penalized quasi likelihood when the data are spatial correlated. The improvement has been obtained by a reparameterization of the variance and covariance matrix of the random effects.
The third objective has been to introduce the concordance coefficient between matrixes as a useful approach to evaluate the hypothesis of spatial independence. In addition, its performance has been compared to the Wald test, the score test, the likelihood ratio test and the AKAIKE information criterion. The main conclusions have been: the concordance coefficient has been shown to be a useful measure to decide spatial independence, mainly in those cases in which the region number, expected counts and the random effects variance are small and the score test is the test which presents a better balance between type I error and power.
Finally, the results of this thesis has been applied to the Insulin-Dependent Diabetes type I data from Catalonia.
Rubio, Molina-Prados Francisco E. "Generalized consistent estimation in arbitrarily high dimensional signal processing." Doctoral thesis, Universitat Politècnica de Catalunya, 2008. http://hdl.handle.net/10803/6918.
Full textLas técnicas tradicionales de procesado estadístico de la señal proporcionan un rendimiento satisfactorio dada la disponibilidad de un número particularmente elevado de observaciones de dimensión finita. En efecto, las condiciones de optimalidad originales no pueden garantizarse en teoría a menos que el número de muestras disponibles aumente de forma asintótica.
En base a esta suposición, en ocasiones se puede obtener una caracterización estadística haciendo uso de la teoría de grandes muestras para matrices de covarianza muestral. En la práctica, no obstante, la aplicación de estos métodos debe necesariamente basarse en una ventana de observación de longitud finita. Además, la dimensión de las muestras recibidas, y el tamaño de la ventana de observación son a menudo comparables en magnitud. En estas situaciones, los planteamientos basados en el análisis estadístico multivariante clásico pierden eficiencia de forma significativa.
En esta tesis se proporciona un marco teórico para la caracterización de la pérdida de eficiencia que los enfoques estadísticos clásicos experimentan en aplicaciones típicas del procesado de la señal en las condiciones prácticas mencionadas con anterioridad. En base a la teoría del análisis espectral de matrices aleatorias de grandes dimensiones, o teoría de matrices aleatorias, se construye una familia de métodos de inferencia estadística que superan las limitaciones de los esquemas de estimación tradicionales para un tamaño de muestra y dimensión de la observación comparativamente grandes. Específicamente, los estimadores de la nueva clase obtenida generalizan las implementaciones al uso siendo consistentes incluso para observaciones con dimensión arbitrariamente grande.
En particular, el marco teórico propuesto es empleado para caracterizar de forma adecuada el rendimiento de sistemas multi-antena con preámbulos de entrenamiento en un régimen asintótico más acorde definido por un tamaño y dimensión de las muestras que crecen sin límite con razón constante. Además, el problema de filtrado óptimo de rango reducido es revisado y extendido de forma que se satisfaga la definición anterior de consistencia generalizada. Por otro parte, se proporciona una caracterización asintótica en el doble límite de un conjunto de formas cuadráticas de las potencias negativas de la covarianza de la observación que generaliza los resultados existentes referentes a los momentos negativos de la distribución de Wishart. A partir de estos resultados, se construye una clase de estimadores de potencia de fuente mejorados que son robustos a imprecisiones en el conocimiento del nivel de ruido y de la matriz de covarianza real.
Con el propósito de reducir la complejidad computacional asociada a implementaciones prácticas basadas en la inversión de matrices, se aborda una solución a los problemas anteriores en términos de las potencias positivas de la matriz de covarianza muestral. A tal efecto, se obtienen una clase de estimadores consistentes generalizados del espectro de la matriz de covarianza y del nivel de potencia en el subespacio de Krylov definido por la covarianza real y el vector de firma asociado al parámetro de interés. Como contribución final, se propone una arquitectura de filtrado robusto a constricciones de la firma que es consistente en el régimen doblemente asintótico de referencia a lo largo de la tesis.
The theory of statistical signal processing finds a wide variety of applications in the fields of data communications, such as in channel estimation, equalization and symbol detection, and sensor array processing, as in beamforming, and radar and sonar systems. Indeed, a large number of these applications can be interpreted in terms of a parametric estimation problem, typically approached by a linear filtering operation acting upon a set of multidimensional observations. This dissertation is devoted to the design and evaluation of statistical signal processing methods under realistic implementation conditions encountered in practice.
Traditional statistical signal processing techniques intrinsically provide a good performance under the availability of a particularly high number of observations of fixed dimension. Indeed, the original optimality conditions cannot be theoretically guaranteed unless the number of samples increases asymptotically to infinity. In practice, though, the application of these methods to the implementation of practical signal processing systems must rely on an observation window of finite length. Moreover, the dimension of the received samples and the window size are most often comparable in magnitude. Under these situations, approaches based on the classical multivariate statistical analysis significantly lose efficiency or cannot even be applied. As a consequence, the performance of practical solutions in some real situations might turn out to be unacceptable.
In this dissertation, a theoretical framework for characterizing the efficiency loss incurred by classical multivariate statistical approaches in conventional signal processing applications under the practical conditions mentioned above is provided. Based on the theory of the spectral analysis of large-dimensional random matrices, or random matrix theory (RMT), a family of new statistical inference methods overcoming the limitations of traditional inferential schemes under comparably large sample-size and observation dimension is derived. Specifically, the new class of consistent estimators generalize conventional implementations by proving to be consistent even for a limited number of samples per filtering degree-of-freedom.
In particular, the proposed theoretical framework is shown to properly characterize the performance of multi-antenna systems with training preambles in the more meaningful asymptotic regime defined by both sample size and dimension increasing without bound at the same rate. Moreover, the problem of optimum reduced-rank linear filtering is reviewed and extended to satisfy the previous generalized consistency definition. On the other hand, an asymptotic characterization of a set of vector-valued quadratic forms involving the negative powers of the observation covariance is provided that generalizes existing results on the limiting eigenvalue moments of the inverse Wishart distribution. Using these results, a new generalized consistent eigenspectrum estimator is derived that uniquely relies on the sample covariance matrix (SCM) and does not require matrix eigendecomposition. The effectiveness of the previous spectral estimator is demonstrated via the construction of a source power estimator that is robust to inaccuracies in the knowledge of both noise level and true covariance matrix.
In order to alleviate the computation complexity issue associated with practical implementations involving matrix inversions, a solution to the two previous problems is afforded in terms of the positive powers of the SCM. To that effect, a class of generalized consistent estimators of the covariance eigenspectrum and the power level are obtained on the Krylov subspace defined by the true covariance matrix and the signature vector associated with the intended parameter. Finally, a signal-mismatch robust filtering architecture is proposed that is consistent in the doubly-asymptotic regime.
Muñoz, Cinca Victor Eusebi. "Optimización de la producción en una terminal marítima de contenedores. Umbrales y punto de equilibrio." Doctoral thesis, Universitat Politècnica de Catalunya, 2008. http://hdl.handle.net/10803/7009.
Full textPara ello se analizan todos los procesos, en especial el rendimiento de explanada y su influencia en la productividad de operaciones de transferencia en muelle (buque) y tierra (camiones y ferrocarril). En base al rendimiento de explanada, costes y precios se determinan los umbrales de producción.
Definimos una Terminal de Contenedores como una interfaz o conexión entre varios modos de transporte (carretera, ferrocarril, marítimo y aguas interiores). Sus funciones son la transferencia de contenedores entre los diferentes modos y hacer de almacenamiento temporal (buffer) en el ínterin. No confundir con una función de almacenaje, la Terminal solo amortigua la conexión entre los diferentes modos de transporte.
El Sistema Operativo es el conjunto de procesos que optimizan la transferencia y almacenamiento temporal de los contenedores. Generalizando las operaciones se pueden dividir en dos tipos, operaciones de muelle y operaciones de tierra. Siguiendo otro criterio también podríamos clasificarlos en procesos dinámicos, que serían los de transferencia y en procesos estáticos como el almacenamiento y estiba de la explanada.
El Capítulo Primero, describe la evolución histórica de los procedimientos de carga y descarga en los puertos hasta la aparición del contenedor. Continuamos con una introducción de las premisas para el diseño de una Terminal de contenedores. Para finalizar se definen objetivos y metodología del trabajo.
El Capítulo Segundo, describe la evolución de las Terminales de Contenedores Marítimas. Antecedentes y normalización del Contenedor, Transporte Combinado, Infraestructuras, la Investigación de Operaciones como herramienta para la creación de modelos y los diferentes estudios realizados sobre terminales de contenedores en función del método, alcance y objetivo.
El Capítulo Tercero es una introducción de los diferentes procesos tanto a nivel de transferencia o dinámicos como de planificación o estáticos. Se analizan las operaciones y los principales subprocesos relacionados como ciclos de máquina, planificación de explanada, tráfico, asignación de medios (humanos y mecánicos), asignación de atraques y análisis del flujo de camiones en puertas.
El Capítulo Cuarto es un estudio del rendimiento de explanada, se analizan las remociones, rotación del inventario y su relación con la ocupación y la productividad de las operaciones.
En el Capítulo Quinto, se definen, analizan y calculan los umbrales de producción y punto de equilibrio. El rendimiento de explanada combinado con los costes y precios de mercado determina los diferentes puntos a partir de los cuales la Terminal amortiza sus costes y maximiza el beneficio.
En el Capítulo Sexto concluye con la necesidad de aplicar modelos conjuntos en la operativa de terminales para obtener mejoras en su productividad y costes. Básicamente se trata de equilibrar la función dinámica con relación a la función estática.
En el Capítulo Séptimo finalmente se concluye que el grado de homogenización y la estancia de los containers conjuntamente con su layout son los factores determinantes que maximizan su rendimiento conjunto. Económicamente podemos llegar a saturar el nivel de producción pero es el cliente quien pone límite y obliga a optimizar rendimientos operativos, es por ello que la terminal debe buscar sus umbrales de producción siempre y cuando sus rendimientos operativos entren dentro de los márgenes del sector.
Por último en los anexos, se relacionan las características de las principales terminales del mundo, para finalizar con un análisis de las tendencias del sector.
In this thesis we analyze the whole Terminal Operating Processes being conducted in a Marine Container Terminal, to create a model that optimizes the production volume in terms of costs, price, structure and resources.
It analyzes all the processes, especially yard performance and its influence on the productivity of transfer operations on berthing line (ships) and land (truck and rail). Based on the yard performance, prices and costs we determine the production thresholds.
We define a container terminal as an interface or connection between various modes of transport (road, rail, maritime and inland waters). Its functions include the transfer of containers between different modes and make temporary storage (buffer) in the meantime. Not to be confused with a storage terminal or warehouse as it only dampens the connection between different modes.
The operating system is the set of processes that optimize the transfer and temporary storage of containers. Generalizing operations can be divided into two types dock operations and ground operations. Following another approach could also classify them in dynamic processes, which would be the transfer and static processes such as yard storage and stowage.
The First Chapter describes the historic development of procedures for loading and unloading at ports until the emergence of the container. We continue with an introduction of the premises for the design of a container terminal. Finally we define objectives and methodology of work.
The Second Chapter describes the evolution of Marine Container Terminals. Background and standardization of Container, Combined Transport, Infrastructures and Operations Research as a tool for creating models and different studies on container terminals depending on the method, scope and objective.
The Third Chapter is an introduction of different processes both at the level of transfer or dynamic as planning or static. We analyze the operations and the main related sub processes as machine cycles, yard planning, traffic, allocation of resources (human and mechanical), berth allocation and analysis of the flow of trucks at terminal gates.
The Fourth Chapter is a study of yard performance, thus we analyze the yard container shiftings (container removals), the rotation of inventory and its relationship to the occupancy and productivity of operations.
In the Fifth Chapter we define, analyze and calculate the thresholds of production and break-even point. Yard performance combined with the costs and market prices, determines different points from which the Terminal depreciates their costs and maximizes profit.
The Sixth Chapter concludes with the need to improve the combined operational models of terminal processes to obtain improvements in its productivity and costs. Basically it comes to balancing the dynamic role with regard to its static role.
In Chapter Seventh finally concluded that the degree of homogenization and container dwell times in conjunction with its layout are the determinants that maximize their overall performance. Economically we can reach saturation level of production but is the costumer who limits and obliges to optimize the operational performance, thus the Terminal must find their thresholds of production bearing in mind that its performance falls within the industry limits.
Finally in the annexes there are related the characteristics of the main terminals in the world, to finish with an analysis of the industry trends.
Sabater, Lorenzo Pilar. "Las tesis doctorales de las facultades de ciencias de la Universidad de Murcia. 1955 – 1990 (catálogo, estadística descriptiva y bibliometría)." Doctoral thesis, Universidad de Murcia, 2001. http://hdl.handle.net/10803/38249.
Full textCorrea, Espinal Alexander Alberto. "Órdenes de experimentación en diseños factoriales." Doctoral thesis, Universitat Politècnica de Catalunya, 2007. http://hdl.handle.net/10803/6527.
Full text1. El número de cambios de nivel en los factores que exige la aleatorización puede ser grande (bastante mayor que otras posibles ordenaciones) y difícil de llevar a la práctica, lo que complica y encarece la experimentación.
2. Si se realizan unas hipótesis que parecen muy razonables respecto al tipo de influencia que ejercen los factores desconocidos, existen órdenes claramente mejores que otros para minimizar la influencia de esos factores ajenos a la experimentación.
Numerosos autores han estado trabajando sobre este tema y ya han sido resueltos algunos aspectos, como el de determinar los órdenes de experimentación que mejor neutralizan la influencia de factores desconocidos, aunque sin tener en cuenta el número de cambios en los niveles de los factores que esa ordenación implica. Adicionalmente, se ha resuelto el problema de encontrar órdenes que presentan el mínimo número de cambios de nivel, pero sin considerar de forma simultánea la posible influencia de los factores desconocidos.
Cuando se considera conjuntamente la influencia de los factores desconocidos y el número de cambios en los factores, se ha llegado hasta los diseños con 16 experimentos, pero no más allá porque los procedimientos de búsqueda empleados son inviables cuando el número de ordenaciones posibles se hace tan grande (con 32 experimentos el número de ordenaciones posibles es 32! = 2,6 · 1035)
La tesis que se presenta tiene por objetivo encontrar un procedimiento que permita obtener órdenes de experimentación con el mínimo número de cambios en los factores y que además minimicen la influencia de los factores desconocidos en la estimación de los efectos, para cualquier diseño factorial a 2 niveles. Además, se pretende elaborar un procedimiento de forma que dichas ordenaciones, con las propiedades deseadas, puedan ser obtenidas de forma fácil por el experimentador.
El contenido se presenta estructurado en 7 capítulos y 8 apéndices. El capitulo 1 presenta las motivaciones que se consideraron para seleccionar este tema de investigación y define los elementos fundamentales que se presentan a lo largo del trabajo, tales como los diseños factoriales a dos niveles -completos o fraccionales- los problemas que puede causar la aleatorización en estos diseños, y cómo cuantificar la influencia de los factores ajenos a la experimentación en la estimación de los efectos. Asimismo, se plantean las hipótesis y el contexto en que se buscarán los órdenes de ejecución que presentan las propiedades deseadas.
En el capitulo 2, se realiza una revisión bibliográfica exhaustiva de las propuestas existentes respecto a los órdenes de ejecución de este tipo de diseños para conseguir que las conclusiones del análisis no se vean afectadas por la influencia de factores ajenos a la experimentación y/o que el número de cambios a realizar en los niveles de los factores sea mínimo. Al final del capítulo se comentan las debilidades del estado del arte actual y se plantean los aportes previstos en esta tesis. En el capitulo 3, se presenta un procedimiento original que permite encontrar órdenes de experimentación para diseños factoriales a 2 niveles con el mínimo número de cambios en los factores y un sesgo conocido. A este procedimiento lo denominamos método de duplicación, ya que duplicando las filas de un diseño 2k y agregando un factor adicional con una determinada secuencia de signos, permite obtener un diseño 2k+1 que conserve las características del diseño anterior. Una importante propiedad de este método es que puede aplicarse a cualquier número de factores.
Este procedimiento garantiza el mínimo número de cambios de nivel, pero no siempre garantiza el mínimo sesgo (medida de la influencia de los factores desconocidos en la estimación de los efectos). En el capitulo 4, se utilizan diferentes métodos de búsqueda para hallar órdenes de experimentación que presenten un sesgo menor al proporcionado por el método de la duplicación.
Estos métodos son:
- Búsqueda aleatoria con restricciones: Se utiliza un procedimiento que va generando aleatoriamente el orden de ejecución de los experimentos pero de forma que a una condición experimental solo puede seguirle otra condición que presente solo un cambio en los niveles de los factores (para garantizar el mínimo número de cambios). Una vez completada una ordenación se calcula su sesgo, y se almacenan las ordenaciones con un sesgo por debajo de un cierto umbral.
- Búsqueda exhaustiva: Se utiliza un algoritmo planteado por Dickinson (1974) y que fue adaptado por De León (2005). Es similar al algoritmo anterior, pero no genera las condiciones de experimentación de forma aleatoria sino que sigue una sistemática para encontrar todas las ordenaciones posibles. De esta forma se ha encontrado la mejor ordenación para diseños con 32 experimentos, hasta ahora desconocida, entendiendo por mejor la que presenta mínimo número de cambios en los niveles de los factores y de entre estas, la que presenta menor sesgo.
- Búsqueda exhaustiva con alimentación forzada. Es imposible explorar exhaustivamente todas las ordenaciones posibles si el número de experimentos es mayor a 32. Para explorar la zona de ordenaciones más prometedora se ha aplicado el procedimiento de búsqueda exhaustiva en tono a una ordenación que ya es buena y que ha sido obtenida por los métodos anteriores.
Para diseños con más de 32 experimentos los mejores órdenes se obtienen de una combinación de los diferentes métodos propuestos. Así, para diseños con 64 experimentos el mejor orden se obtiene con el método de búsqueda exhaustiva con alimentación forzada, alimentando el algoritmo con una ordenación obtenida a través de la búsqueda aleatoria con restricciones. La mejor ordenación para 128 experimentos se obtiene de la misma forma, pero alimentando el algoritmo con una ordenación obtenida por duplicación del orden obtenido para 64 experimentos.
Los métodos descritos en el capítulo 4 proporcionan lo que denominamos "órdenes semilla", ya que a partir de estos órdenes se pueden deducir otros con sus mismas propiedades. En el capitulo 5, se presentan dos procedimientos para obtener órdenes con las características deseadas a partir de los órdenes semilla. Estos métodos los denominamos método de permutación y cambios de signo y el método de las columnas de expansión. Ambos métodos han sido programados en macros de Minitab, lo cual permite generar de forma automática y aleatoria (de entre todos los posibles) los órdenes con las características propuestas.
En el capitulo 6, se presenta un nueva medida de atenuación de la influencia de los factores ajenos a la experimentación que permite comparar la atenuación entre diseños factoriales con diferente número de factores, mostrando que el procedimiento de duplicación presentado en el capitulo 3, es adecuado para obtener órdenes de experimentación con las características propuestas en diseños con más de 128 experimentos. Finalmente, en el capitulo 7 se presentan las principales conclusiones obtenidas y se definen posibles futuras líneas de investigación que podrían ampliar los estudios realizados.
En el anexo 1 se presentan los órdenes propuestos por De León (2005) para diseños con 8 y 16 experimentos, citados en diversas ocasiones a lo largo de la tesis y que constituyen uno de los puntos de partida. El anexo 2 presenta el lenguaje de programación FreeBasic, utilizado para implementar los algoritmos de búsqueda de ordenaciones, y en los anexos 3 y 4 se incluyen 2 de los programas realizados: el de búsqueda aleatoria para diseños con 64 experimentos (anexo 3) y búsqueda exhaustiva para diseño con 32 experimentos (anexo 4). En el anexo 5 se presenta uno de los órdenes obtenidos con las propiedades deseadas para los diseños con 128 experimentos, y en los anexos 6 y 7 se incluyen las macros realizadas con el lenguaje de programación de Minitab y que a partir de las semillas para cada tipo de experimento, propone una ordenación de entre todas las posibles que tienen las propiedades deseadas. Finalmente, en el anexo 8 se realizan algunas consideraciones sobre el análisis de los órdenes propuestos, con restricciones en la aleatorización, y se resumen las propuestas realizadas sobre este tema.
A common recommendation when thinking in a factorial design is randomizing the run order. The purpose of this randomization is to protect the response from the possible influence of unknown factors. This influence is expected to be blurred among all the effects, thus none of them is specially affected and no mistakes are made when estimating its statistical significance. But this praxis has two essential problems:
1. The number of factor's level changes due to randomization might be large (much larger than in other sequences). It can be also difficult to conduct, making the experimentation complicated and more expensive.
2. Making some reasonable hypothesis regarding the influence of the unknown factors, there are some sequences clearly better than others for minimizing the influence of this undesirable factors.
Many authors have worked on this topic, and some matters have already been solved. For instance, the experimentation sequence that better neutralises the influence of unknown factors is already determined, but without taking into consideration the number of level changes that this sequence implies. It has also been solved the problem of finding sequences that have the minimum number of level changes, but without considering simultaneously the potential influence of unknown factors.
When both the influence of unknown factors and the number of level changes is considered, the problem has been solved up to designs with 16 runs. But not further as the searching procedures used are nonviable when the number of possible sequences becomes so huge (with 32 runs the number of different sequences is 32! = 2,6 · 1035)
The aim of this thesis is finding a procedure that makes it possible to obtain run sequences with the minimum number of level changes, and that besides minimize the influence of unknown factors in the effect estimation, for any 2 level factorial design.
Moreover, the desired run sequence should be obtained easily by the experimenter when using the proposed procedure.
The content is structured in 7 chapters and 8 appendixes. Chapter 1 shows the motivation that lead to chose this research topic. It also defines the basic elements of this work (complete and fractional 2 level factorial designs, problems that appear when randomizing this designs, and how to quantify the influence of unknown and undesired factors in the effect estimation). In addition, the hypothesis and context in which the search for run orders with the desired properties will take place are presented.
Chapter 2 gives an exhaustive bibliographic review of the current solutions related with run orders in these designs robust to the influenceof factors alien to the experimentation
and/or with minimum number of level changes. The end of the chapter lists weaknesses of the current state of the art and advances the expected contributions of this thesis.
Chapter 3 presents an original procedure for finding run orders for 2 level factorial designs
with the minimum number of changes in the level factors and a known bias. We called this procedure duplication method, as duplicating the rows of a 2k design and adding a factor with a specific sign sequence, a 2k+1 design with the same properties as the first design is achieved. An important property of this method is that it can be applied to any number of factors.
This procedure guarantees the minimum number of level changes, but not always guaranties the minimum bias (measure of the influence that unknown factors have in the effect estimation). Chapter 4 shows different methods for finding run orders with less bias than the one produced by the duplication method. These methods are: - Random search with restrictions: The procedure randomly generates the run order, but in a way that a run is followed by another one that has only one change in the factor levels (the minimum number of changes is then guaranteed). Once the sequence is completed its bias is calculated, and the sequences with a bias under a threshold are stored.
- Exhaustive search: An algorithm proposed by Dickinson (1974) and adapted by De León (2005) is used. It is similar to the previous algorithm, but it does not generate the runs in a random manner. Instead, it behaves systematically in order to find all the possible run orders. With this algorithm the best run order for designs with 32 experiments has been found (and it was unknown until now). The best run order means the one that has minimum number of changes in the levels and, among these, the one with less bias.
- Exhaustive search with forced feeding. The exhaustive exploration of all possible run orders with more than 32 runs is impossible. The procedure of exhaustive search around a good run order already found with one of the previous methods allowed the exploration of the most promising run order area. For designs with more than 32 runs the best run orders are obtained from a combination of the proposed methods.
For designs with 64 runs the best order comes from the exhaustive search with forced feeding method, feeding the algorithm with a run order obtained from the random search with restrictions method. We used the same procedure for obtaining the best run order for 128 runs, but feeding the algorithm with a run order obtained from duplication of the one for 64 runs.
Methods described in chapter 4 provide the so called "seed orders": from this orders new ones with the same properties can be deduced. Chapter5 shows two procedures for obtaining orders with the expected properties from the seed orders. These methods are called permutation and sign change method, and expansion columns method. Both methods have been programmed as Minitab macros, making it possible to automatically and randomly generate (among all possible ones) the orders with the desired properties.
A new measure for attenuating the influence of factors alien to experimentation is presented in chapter 6. This allows the comparison among the attenuation of factorial designs with different number of factors, thus showing that the duplication procedure shown in chapter 3 is appropriate for obtaining run orders with the properties desired in designs with more than 128 runs. Finally, chapter 7 gives the main conclusions and defines possible future research areas that could extend our studies.
Appendix 1 shows the orders proposed by De León (2005) for designs with 8 and 16 experiments, cited several times in the thesis and one of our starting points. Appendix 2 explains the FreeBasic programming language, used for implementing the search algorithms. Appendixes 3 and 4 include 2 programs: random search for designs with 32 runs (appendix 3) and exhaustive search for designs with 32 experiments (appendix 4). Appendix 5 shows one of the obtained orders with the desired properties for designs with 128 runs. Appendixes 6 and 7 have the Minitab macros that using the seed orders for each kind of experiment proposes an order among all the possible ones with the desired properties. Finally, appendix 8 has some comments about the proposed run orders, with restrictions in the randomization, and summarizes the proposals about this topic.
Barreto, Cabrera Claudia. "Minería de datos aplicada a la mejora de procesos de extrusión de elastómeros." Doctoral thesis, Universitat Politècnica de València, 2009. http://hdl.handle.net/10251/6608.
Full textBarreto Cabrera, C. (2009). Minería de datos aplicada a la mejora de procesos de extrusión de elastómeros [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6608
Palancia
Caqui, Yabar Gildder Erdmann. "Transposición didáctica de la matemática y el rendimiento académico de los estudiantes del IV ciclo del curso de estadística aplicada de la Escuela Académico Profesional de Ingeniería Ambiental – Universidad César Vallejo Sede Lima Norte – 2014." Master's thesis, Universidad Nacional Mayor de San Marcos, 2017. https://hdl.handle.net/20.500.12672/8150.
Full textDemuestra como el empleo de la transposición de la didáctica de la matemática influye en el rendimiento académico en los alumnos del curso de estadística aplicada del cuarto ciclo de la Escuela Académico Profesional de Ingeniería Ambiental de la Universidad César Vallejo sede Lima Norte. La investigación es explicativa, el diseño no experimental, de nivel descriptivo explicativo, de tipo cuantitativo correlacional, se usa la encuesta como instrumento de medición; con una muestra de 85 alumnos. En el análisis, interpretación y discusión de resultados se usa la prueba de Hipótesis de Friedman. Concluyendo en la comprobación que la transposición de la didáctica de la matemática y el tiempo que se dedica a estudiar, sí influye en el nivel de rendimiento académico. Además de implementar los métodos matemáticos con mayor afinidad en los alumnos, de manera que la transposición didáctica tenga más llegada a los alumnos, alineados al logro de los objetivos relacionados con el aprendizaje, por lo que los rendimientos aumentan.
Tesis
Argoti, Morales Marco Antonio. "Gráficos de control por atributos con curvas ARL cuasi insesgadas: Análisis y desarrollo de métodos." Doctoral thesis, Universitat Politècnica de València, 2019. http://hdl.handle.net/10251/120025.
Full text[CAT] Els gràfics de control per atributs són ferramentes estadístiques àmpliament utilitzades tant en la indústria de béns com en la de serveis i serveixen per a monitoritzar processos per mitjà d'atributs de qualitat. Els gràfics per atributs uni- variants estan entre els més coneguts i són el tema central d'esta tesi. Existeixen dos tipus: els gràfics basats en la distribució binomial (Gràfics np i p) i els gràfics basats en la distribució de Poisson (Gràfics c i u). Els gràfics per atributs Shewhart són sens dubte els més populars i tenen la particularitat que els seus límits de control es basen en l'aproximació normal a les distribucions binomial i de Poisson. Quan s'utilitzen estos gràfics allò més habitual és assumir que, sempre que l'aproximació normal siga adequada, la seua capacitat de monitorització serà idònia, és a dir que podran detectar de la mateixa manera tant millores com deterioraments del procés. En aquesta tesi es demostra que, a causa de la asimetria de les distribucions binomial i de Poisson, l'ajust de l'aproximació normal és imprecís en les cues d'eixes distribucions i que això afecta negativament la potència de detecció dels gràfics Shewhart. Per a poder establir la magnitud de l'afectació es van desenrotllar diversos paràmetres nous que servixen per a avaluar i caracteritzar la capacitat de monitorització de qualsevol gràfic per atributs del tipus univariant. A través d'ells es va establir que els gràfics Shewhart, al contrari del que es presumeix, estan lluny de ser idonis. Els nous paràmetres mencionats en el paràgraf anterior també van servir per a analitzar gràfics de control plantejats com a alternatives superiors als Shewhart. Els resultats de les anàlisis van demostrar que tampoc tenen una capacitat de monitorització del tot satisfactòria. Dos nous gràfics de control, el p Kmod i el u Kmod, són proposats. Estos gràfics tenen una capacitat de monitorització superior a qualsevol altre gràfic de control (p i u respectivament) inclòs en esta tesi, a més de comptar amb un mètode de fàcil ús, per mitjà del qual és possible establir si eixa capacitat és òptima o no. Els resultats de la investigació han sigut publicats en actes de congressos i en revistes científiques internacionals.
[EN] Attribute control charts are statistical tools that are widely used in the goods and services industries, they serve to monitor processes by means of product quality attributes. The uni-variant attribute charts are amongst the most well-known and are the main topic of this thesis. Two types of such charts exist, namely: the ones based on the binomial distribution (np and p Charts) and the ones based on the Poisson distribution (c and u Charts). The Shewhart attribute charts are without doubt the most popular and have the peculiarity that their control limits are based on the normal approximation to the binomial and Poisson distributions. When these charts are used it is commonly assumed that, as long as the normal approximation is adequate, their monitoring capability will be ideal, or in other words, that they will be able to detect with equal capacity, either process improvements or deteriorations. In this thesis we show that due to asymmetry of the binomial and Poisson distributions, the adjustment of the normal approximation is inaccurate on their tail sides and that this affects on a detrimental way the detection power of the Shewhart charts. In order to be able to establish the magnitude of the affectation, various novel parameters that serve to assess and characterised the monitoring capability of any uni-attribute type chart were developed. Through them it was established that the Shewhart charts, contrary to what is commonly assumed, are far from being ideal. The aforementioned novel parameters, also served to analyse other control charts posed as superior alternatives to the Shewhart¿s. The analysis results demonstrated that those charts, although superior to the Shewhart¿s, also have a far from satisfactory monitoring capability. Two new control charts, the p Kmod and the u Kmod, are proposed. These charts have a superior monitoring capability compared to any other chart (p and u respectively) included in this thesis, in addition they have an easy to use method that makes it possible to establish if their monitoring capability is, or is not, ideal. The results of the research have been published in congress proceedings and international scientific journals.
A la Secretaria de Educación Superior, Ciencia, Tecnología e Innovación (SENESCYT) del Ecuador, por auspiciar y darme la oportunidad de realizar mis estudios doctorales en España.
Argoti Morales, MA. (2019). Gráficos de control por atributos con curvas ARL cuasi insesgadas: Análisis y desarrollo de métodos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/120025
TESIS
Capilla, Lladró Roberto. "Análisis estratégico de los estudios TIC en la Universidad Politécnica de Valencia." Doctoral thesis, Universitat Politècnica de València, 2009. http://hdl.handle.net/10251/5767.
Full textCapilla Lladró, R. (2009). Análisis estratégico de los estudios TIC en la Universidad Politécnica de Valencia [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/5767
Palancia
Prohom, Duran Marc Jaume. "Incidència de les grans erupcions volcàniques en el clima de la Península Ibèrica i Balears." Doctoral thesis, Universitat de Barcelona, 2003. http://hdl.handle.net/10803/1951.
Full text· Des del punt de vista exclusivament tèrmic, la temperatura mitjana mensual experimenta un descens durant els dos o tres anys posteriors a erupcions volcàniques. En funció de la localització, la resposta presenta matisos. Així per a grans erupcions volcàniques de localització tropical la incidència es més perllongada però de magnitud modesta, mentre que per a erupcions d'elevades latituds (de l'hemisferi nord) la resposta té una durada molt inferior (4-6 mesos), però sent aquesta molt més aguda. Espacialment, tendeix a ser més sensible al refredament el sector meridional peninsular, mentre que estacionalment els mesos de tardor i estiu semblen ser els quins mostren un major descens tèrmic.
· La circulació atmosfèrica sobre Europa presenta anomalies durant el primer any posterior a una gran erupció tropical. Així, mitjançant l'ús de la tècnica PCA, en el primer hivern (desembre, gener i febrer) s'aprecia una major persistència de situacions zonals, amb un desplaçament cap al nord de l'anticicló subtropical de les Açores.
·´Com a conseqüència de l'anterior, és possible detectar significatives anomalies de precipitació en el sector peninsular y balear durant els tres hiverns posteriors a fenòmens volcànics de gran magnitud. Així, els dos primers hiverns registren anomalies negatives de precipitació a tota la Península, especialment al sector nord-oest.
ABSTRACT:
Large volcanic eruptions are a well-known source of natural variability of climate. The main goal of this research is to detect the volcanic signal in the climate of the Iberian Peninsula and Balearic Islands. Superposed Epoch Analysis and Principal Component Analysis (PCA) are the two techniques used for this purpose.
The main results show:
· Mean surface temperature of Iberia shows a decrease during the two or three years following main volcanic events. For tropical eruptions, the response is more persistent but of moderate magnitude, while for high latitude volcanic events (northern hemisphere) the response is shorter (4-6 months) but more intense. The southern sector of Iberia shows a more intense cooling, being summer and autumn the seasons more affected.
· The atmospheric circulation over Europe shows significant anomalies during the first year following a large tropical eruption. Thus, during the first post-volcanic winter season a more persistent westerly circulation is displayed, with a northward displacement of the subtropical Azores high.
· As a consequence, significant negative rainfall anomalies are clearly detected all over the Iberian Peninsula during the first two winter seasons.
La incidencia de las grandes erupciones volcánicas sobre el clima de la Tierra es un aspecto inherente a la propia variabilidad climática natural del planeta. En esta tesis, se analiza la respuesta del clima de la Península Ibérica e islas Baleares ante este tipo de forzamiento externo. Mediante el uso principalmente de dos técnicas estadísticas, el Análisis de Épocas Superpuestas y el Análisis por Componentes Principales (PCA), se ha podido apreciar la siguiente respuesta:
* Desde el punto de vista exclusivamente térmico, la temperatura media peninsular experimenta un descenso durante los dos a tres años posteriores a eventos volcánicos. En función de la localización, la respuesta presenta matices. Así para grandes erupciones tropicales la incidencia es más prolongada pero de magnitud modesta, mientras que para erupciones de elevadas latitudes (del hemisferio norte) la respuesta tiene una duración mucho menor (4-6 meses), pero siendo esta mucha más aguda. Espacialmente, tiende a ser más sensible al enfriamiento el sector meridional peninsular, mientras que estacionalmente los meses otoñales y estivales parecen ser los que reflejan un mayor descenso térmico.
* La circulación atmosférica sobre Europa presenta anomalías durante el primer año posterior a una gran erupción tropical. Así, mediante el uso de la técnica PCA, en el primer invierno (diciembre, enero y febrero) se aprecia una mayor persistencia de situaciones zonales, con un desplazamiento hacia el norte del anticiclón subtropical de las Azores.
* Como consecuencia de lo anterior, es posible detectar significativas anomalías de precipitación en el sector peninsular y Baleares durante los tres inviernos posteriores a eventos volcánicos de gran magnitud. Así, los dos primeros inviernos registran anomalías negativas de precipitación en toda la Península, especialmente en el sector NW.
JIMENEZ, AMEZQUITA WILSON NICOLAS. "Análisis de la eficiencia de los hospitales públicos de la Comunidad Valenciana." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/60823.
Full textJimenez Amezquita, WN. (2012). Análisis de la eficiencia de los hospitales públicos de la Comunidad Valenciana [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/60823
Palancia
Torres, Salinas Karina Hesi. "El modelo de larga duración Weibull-Geométrica." Master's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/13781.
Full textTesis
Bigio, Luks David Miles. "Selección de métodos numéricos aplicados a la predicción estadística usando la regresión logística." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/8149.
Full textTesis
Canales, Cristian M. "Population structure and spatio-temporal modelling of biological attributes and population dynamic of nylon shrimp (Heterocarpus reedi) off central Chile (25°-36°S) = Estructura poblacional y modelamiento espacio-temporal de los atributos biológicos y la dinámica poblacional del camarón nailon Heterocarpus reedi (Decapoda, Caridea) frente a Chile central (25°-36°S)." Doctoral thesis, Universitat de Barcelona, 2016. http://hdl.handle.net/10803/400612.
Full textL'estructura poblacional dels recursos pesquers i l'impacte dels factors ambientals sobre la productivitat són processos importants a tenir en compte per a la gestió de les seves pesqueries. Els factors ambientals poden determinar l'èxit de la deriva larvària, l'estructura espacial de la població, així com les variacions de la biomassa. Tenint en compte aquests aspectes, s’haurien de considerar dos elements clau per a una explotació adequada i sostinguda de qualsevol pesqueria: les característiques biològiques de les espècies i com aquestes poden variar en el temps i en l’espai, essent necessària la millora de la comprensió d'aquests efectes, com varien, i com es relacionen amb els factors ambientals. No obstant això, els processos espacials rarament són considerats explícitament en la valoració i gestió de les poblacions d'invertebrats marins, més quan aquests aspectes són particularment importants en els processos de deriva larval actuant de principal mecanisme d'expansió d'una població. El concepte ecològic de metapopulations és àmpliament utilitzat i acceptat per a la comprensió de les poblacions marines de baixa mobilitat, i les seves implicacions haurien de ser considerades a la gestió pesquera. En aquest treball es demostra l'efecte del medi en la distribució, abundància i estructura espacial de la població de la espècie de crustaci decàpode Heterocarpus reedi anomenada a Xile en castellà com a “Camarón nailon”. S’ha mostrejat aquesta espècie a a la zona central de Xile (25 ° - 37 ° S) a partir de la informació obtinguda en campanyes oceanogràfiques de pesca d'arrossegament fets entre els anys 1996 i el 2011, així com de les característiques de l’aigua superficial (concentració de clorofil·la α i de la matèria orgànica dissolta). Els resultats van mostrar una separació geogràfica de la població a 32 ° S, on la densitat de gambes és més gran, així com també la concentració de clorofil·la α i la dissolució de matèria orgànica, això darrer degut segurament a la presència d'afluents dels rius i zones d'aflorament costaner. En aquesta zona es concentra la major part de la població adulta i podria actuar com a població “font” i la seva influència en la deriva larvària explicaria tant la preponderància de juvenils en la zona nord així com una població menys abundant (població “pseudo-sumider”). A la zona sud, l'augment de mida de la població s'explica per un procés d'expansió espacial i batimètric a traves del temps, on la colonització i el creixement somàtic dels individus serien els principals mecanismes. Els períodes de condicions ambientals favorables explicarien les altes densitats de individus de l’espècie niló dos anys després. Aquestes condicions ambientals favorables podrien estar principalment relacionades amb la supervivència de les larves, l'èxit dels processos de reclutament i el posterior creixement somàtic. D'altra banda, i amb l’objectiu de fer una verificació dels resultats dalt explicats, i basant-se en una font d'informació complementària, es van analitzar 17 anys de dades biològiques recollides en mostrejos pesquers del “camaron nylon” davant de la costa central de Xile. Es van analitzar aquestes dades utilitzant models lineals generalitzats (GLM) per tal de determinar els factors responsables dels canvis en la longitud del cefalotòrax, el pes del cos, la maduresa sexual i la proporció de sexes. Es va determinar una notable heterogeneïtat espacial en les característiques biològiques dels individus de H. reedi. Els individus en millor condició es van trobar al sud de la latitud de 32 ° S i aquesta millor condició es va relacionar amb les millors condicions ambientals i de menjar en aquesta zona. Per exemple, els individus són més grans, les femelles assoleixen abans el tamany de primera maduresa (CL50%), i les femelles madures són menys freqüents. Amb aquests resultats es presenta una base teòrica que pot guiar la recerca sobre les poblacions de H. reedi tenint en compte les consideracions espacials en les futures mesures de conservació. Finalment, per poder comparar diferents hipòtesis sobre l'estructura de la població i connectivitat espacial proposades al llarg d'aquest treball, es presenta un model de població basat en la talla i s’ha analitzat la informació biològica i pesquera disponible des de 1945. S’han tingut en compte tres hipòtesis en funció de la taxa de connectivitat de les dues subpoblacions, es a dir, les situades al nord i al sud de 32 ° S. Els resultats van mostrar que, estadísticament, diverses hipòtesi es poden fer servir per a explicar les dades disponibles. La hipòtesi més versemblant és la d'una metapoblació en la qual la zona sud actua com a població font o refugi reproductiu. Aquesta població determina parcialment o totalment l'arribada de reclutes a la zona nord i podria explicar l'augment d'aquesta població trobat a l'última dècada. Segons el nostre estudi, la hipòtesi de connectivitat espacial ha de ser contrastada només amb l'evidència empírica. Tenint en compte les implicacions per a la gestió pesquera, s’hauria de prestar una especial atenció a les condicions biològico-pesqueres que es registren al sud de 32 ° S, tenir especial precaució als nivells d'explotació pesquera i considerar aquesta zona (sud del 32 ° S) com a refugi reproductiu a Xile de l’espècie H. reedi.
Vàzquez, Garcia Mercè. "Estratègies estadístiques aplicades a l'extracció automàtica de terminologia." Doctoral thesis, Universitat Pompeu Fabra, 2014. http://hdl.handle.net/10803/283114.
Full textTerminology is found in all areas of knowledge. Due to the use of technology in the different ambits of society, new terms are being created and distributed very quickly and efficiently. Over recent decades, automatic term extraction methods have been developed based on linguistic analysis, statistical strategies and a combination of the two to aid manual extraction. However, these automatic methods tend to produce large numbers of term candidates, which makes manual candidate validation tasks more difficult. This thesis presents an algorithm that uses the terms from a specialist area to detect new terms (token slot recognition method) and lexical association measures to overcome these limitations. It also shows the level of performance offered by the combination of statistical strategies analysed. The token slot recognition method extracts candidates that are more likely to be terms and is able to process corpora in different languages and specialist areas. The research also confirms that lexical association measures place terms in the top positions in lists of candidates and, as a result, aid the final manual candidate validation tasks. In conclusion, the combination of statistical strategies analysed offers flexibility when identifying and validating the terms present in a specialist corpus, which raises the possibility of integrating them into a term extraction tool.
La terminología se encuentra presente en todas las áreas de conocimiento. Con el uso de la tecnología en los diferentes ámbitos de la sociedad, la creación y difusión de nuevos términos es muy rápida y efectiva. En las últimas décadas se han desarrollado métodos de extracción automática de termas basados en análisis lingüístico, estrategias estadísticas y una combinación de las dos modalidades para facilitar el vaciado manual de estas unidades, pero estos métodos tienden a extraer un alto número de candidatos a término, y este hecho dificulta la validación manual de los candidatos. En esta tesis hemos diseñado un algoritmo que aprovecha los términos presentes en un ámbito de especialidad para detectar nuevos términos (método token slot recognition) y hace uso de medidas de asociación léxica para poder resolver esta limitación. El trabajo presenta el nivel de productividad que ofrece la combinación de estrategias estadísticas analizadas. Hemos observado que el método token slot recognition extrae los candidatos que tienen más probabilidad de ser terminológicos y tiene capacidad para procesar corpus en diferentes lenguas y ámbitos de especialidad. Nuestra investigación también confirma que las medidas de asociación léxica sitúan los términos en las posiciones iniciales de una lista de candidatos y, en consecuencia, facilitan la tarea de validación manual final de los candidatos. Como conclusión, la combinación de estrategias analizadas ofrece flexibilidad a la hora de identificar y validar los términos presentes en corpus de especialidad, lo que permite plantear su integración en una herramienta de extracción de terminología.
Bartumeus, i. Ferré Frederic. "Lévy Processes in Animal Movement and Dispersal." Doctoral thesis, Universitat de Barcelona, 2005. http://hdl.handle.net/10803/1424.
Full textThe general aim of this thesis was to develop a theoretical framework in order to study large-scale animal movements and/or dispersal processes as random search strategies. The framework was based on statistical physics methods and concepts related to a class of stochastic processes based on the Lévy-stable distribution (the so-called Lévy processes). In particular, we modeled animal movement and dispersal processes by means of a new class of random walks based on the Lévy-stable distribution (the so-called Lévy flights). Lévy flight models introduce two relevant long-term statistical properties: super-diffusion and scale invariance. Both phenomena have been observed in large-scale animal movement and dispersal data, and impinge directly into organisms' encounter probabilities at both individual (e.g., search strategies) and population (e.g., colonization of new habitats) organizational levels. The approach is novel not only because of the methodology used (based on the statistical physics related to Lévy processes), but also because it is founded on statistical principles usually understated in animal ecology. To achieve this general objective we carried out three main studies, which define the main parts of the thesis.
First, we quantified the variations in encounter rates due to the statistical properties provided by Lévy walking particles in spatially explicit systems. We carried out a series of numerical simulations in spatially explicit systems (1D, 2D, and 3D) where randomly moving particles (Lévy random walkers) must find each other. The simulations were meant to represent different encounter scenarios and different encounter dynamics: destructive and non-destructive. We showed that in certain scenarios encounter rate variation was shaped by the nature of the statistical properties of movement rather than by physical aspects of the particles (organisms) such as size or velocity. In particular, super-diffusion and scale invariance were relevant at low resource densities and/or when the search processes involve low spatial dimensionality. We also showed how the movement trajectories of the searching particles could be optimized depending on the type of encounter dynamics (destructive or not), and the mobility of the target particles (i.e., both velocity and super-diffusive properties).
Second, we studied how and why Lévy flight properties (i.e., scale invariance, and super-diffusion) should be sustained by specific animal movement mechanisms. We showed an organism capable to adjust its search statistics as a function of resource concentration. As resource decreased the marine heteroflagellate Oxhyrris marina changed from a Brownian to a Lévy search statistics. Changes in the helical component of the animal movement were also tracked and interpreted. The biological mechanism allowing the main statistical change was also identified: the transient arrests of the longitudinal flagellum provided scale invariant intermittence to the movement. Assuming random walk models as a necessary tool to understand how animals face environmental uncertainty, we also analyzed the statistical differences between Lévy walks and another type of random walk models commonly used to fit animal movement data, the correlated random walks. This analysis allowed us to understand better why we should expect Lévy flight statistical properties to be behaviorally adaptive in living organisms.
Third, we establish a link between the individual and the population level of organization by modeling "population dispersal strategies" as Lévy processes. A Lévy-dispersal kernel is the one based on a Lévy-stable distribution. We modeled (meta) population dispersal strategies by means of Lévy-dispersal kernels. In particular, we studied how different Lévy flight dispersal strategies are optimized depending on the underlying landscape architecture (e.g., spatial correlation, fragmentation, etc.). Finally, as a first step towards the introduction of Lévy-dispersal kernels in the context of metapopulation theory, we developed a model (both numerical and analytic) to study the role of dispersal range in the persistence and dynamics of metapopulations living in fragmented habitats.
EN CATALÀ:
L'objectiu principal d'aquesta tesi va ser desenvolupar un marc teòric basat en mètodes i conceptes de física estadística per tal d'estudiar el moviment animal i els fenòmens de dispersió. A escales espacio-temporals grans, el moviment dels animals i els fenòmens de dispersió poden ésser entesos com a processos de cerca a l'atzar. Concretament, nosaltres hem modelat el moviment animal i els processos de dispersió en base a una classe de passeigs a l'atzar coneguts com a vols de Lévy que es fonamenten en la distribució estable de Lévy. Els vols de Lévy s'inclouen en una classe més àmplia de processos estocàstics tots ells basats en la distribució estable de Lévy i que reben el nom genèric de processos de Lévy. Els vols de Lévy introdueixen en el món dels passeigs a l'atzar dues propietats estadístiques rellevants: la super-difusió i la invariànça d'escala. Tots dos fenòmens han estat descrits en relació al moviment dels animals a gran escala i/o en relació a certs processos de dispersió. Tots dos fenòmens tenen implicacions directes sobre les probabilitats d'encontre tant a nivell individual (processos de cerca de recursos) com a nivell poblacional (processos de colonització d'habitats fragmentats). L'aproximació al problema del moviment animal i la dispersió proposada en aquesta tesi, no només és novedosa en el sentit estrictament metodològic (i.e., aplicació de la física estadística i dels processos de Lévy al moviment animal), sinó també perquè es basa en una sèrie de principis estadístics que fins ara no han estat considerats en l'estudi del moviment animal.
Les principals conclusions que es poden extreure del treball realitzat són: 1) les propietats estadístiques lligades als processos de tipus Lévy (i.e., super-difusió i invariànça d'escala) incrementen les taxes d'encontre en situacions de cerca a l'atzar, 2) existeixen organismes capaços de provocar l'emergència d'aquestes propietats estadístiques en una situació de cerca a l'atzar, 3) a nivell poblacional, fenòmens de dispersió de tipus Lévy incrementen la taxa de colonització en hàbitats molt fragmentats, i 4) la dispersió de llarg abast facilita l'existència de metapoblacions en hàbitats fragmentats.
Sosa, Paredes Yuriko Kirilovna. "Modelo Dina aplicado a la evaluación de matemática en estudiantes de segundo grado de secundaria." Master's thesis, Pontificia Universidad Católica del Perú, 2017. http://tesis.pucp.edu.pe/repositorio/handle/123456789/8717.
Full textTrabajo de investigación
Valencia, Chacón Raphael Félix. "Análisis y evaluación de procesos por lotes aplicando la estadística T2 de hotelling." Universidad Nacional Mayor de San Marcos. Programa Cybertesis PERÚ, 2010. http://www.cybertesis.edu.pe/sisbib/2010/valencia_cr/html/index-frames.html.
Full textManufacturing processes can be classified in two groups: continuous and batch production processes. The statistical techniques used to control continuous production processes are not applicable to batch production processes because the latter present an additional dimension to deal with: the batch size. This thesis presents the analysis and evaluation of batch production processes using a modification of the T2 Hotelling statistic. In order to apply the proposed methodology, information about the desanding process for the batch production process of bivalve mollusk of an export enterprise of frozen hydrobiological products was collected. Trying to control the variability of a batch production process, the total variability of the observations was divided in two independent sources: one to explain the variability between measures at different times, that is, between batches, and the other to explain the variability between measures at the same time, that is, within batches. Likewise, when working with batch production processes it is possible that each batch had a different mean vector. This situation affects the control setting of the process, so it is necessary to know if the data have a multivariate normal distribution with common mean vector and variance-covariance matrix (category 1) or if they have a multivariate normal distribution with different mean vectors and common variance covariance matrix (category 2). To implement this methodology was necessary to use the modified Hotelling T2 statistics and to simplify the calculation of statistics had to develop a free software program R. This way it could reach a proper analysis of the variability of a batch process. The implementation of the proposed methodology was carried out in the company "Seafood" specialized in the export of bivalve molluscs
Forné, Izquierdo Carles. "Models matemàtics i estadístics aplicats a la presa de decisions en salut." Doctoral thesis, Universitat de Lleida, 2020. http://hdl.handle.net/10803/670064.
Full textLa toma de decisiones en salud debe basarse en la mejor evidencia relevante disponible, más si estas decisiones inciden en toda la sociedad mediante la aplicación de políticas públicas de salud y, dado que todas las personas son pacientes potenciales —presentes o futuros—, también en las decisiones clínicas. Tomar la decisión óptima depende de muchos factores que deben ser debidamente identificados y minuciosamente medidos en las diferentes alternativas de elección, entre ellos, la escasez de recursos disponibles para cubrir una ilimitada demanda de salud. La evaluación económica en salud tiene por objeto informar y facilitar decisiones sobre cuál es el mejor uso de los recursos limitados disponibles, con el fin de maximizar los beneficios en salud, priorizando las alternativas de elección mediante criterios de eficiencia. Actualmente, las agencias nacionales de evaluación de tecnologías sanitarias basan sus recomendaciones de financiación en estudios de evaluación económica fundamentados en la mejor evidencia disponible y metodológicamente correctos. Esto incluye desde un diseño adecuado al objetivo, hasta una comunicación completa y transparente que permita la reproducibilidad de los resultados, pasando por el riguroso tratamiento analítico de los datos de estudio. En este marco, los modelos analíticos son una fuente de evidencia válida para la toma de decisiones, como lo son los ensayos clínicos y los estudios observacionales, también bien diseñados y bien realizados. En esta tesis se incluyen cuatro trabajos en que la aplicación de los métodos analíticos adecuados permitió dar respuesta a unos objetivos que de otra manera no podrían resolverse, o sólo parcialmente o con mayores limitaciones. Gracias al uso de modelos probabilísticos se pudo evaluar el coste-efectividad y el daño-beneficio de 2.625 escenarios diferentes de cribado de cáncer de mama, y se mostró que las estrategias basadas en el riesgo pueden reducir el daño y los costes en comparación con las estrategias uniformes. Dado que para avanzar en la organización de programas de cribado basados en el riesgo es necesario desarrollar medidas precisas de riesgo individual de cáncer de mama, se formuló un modelo conjunto bayesiano que combina la historia longitudinal de la densidad mamaria y la edad en el diagnóstico de cáncer de mama. La metodología propuesta podría aplicarse para obtener medidas más precisas del riesgo individual de cáncer de mama. Para ello sería necesario realizar estudios de cohortes de base poblacional más grandes, con disposición de medidas longitudinales de la densidad mamaria, así como de otros factores de riesgo conocidos, como las lesiones de mama benignas y el riesgo poligénico. De este modo sería posible alcanzar capacidades predictivas aplicables a la personalización del cribado de cáncer de mama, o para establecer estrategias de prevención para mujeres con riesgo elevado. En esta tesis también se incluye un análisis de diecinueve potenciales biomarcadores cardiovasculares en población con enfermedad renal mediante la aplicación de algoritmos de aprendizaje automático. En concreto, aplicando el algoritmo de bosque aleatorio de supervivencia para eventos competitivos, fue posible evaluar la capacidad predictiva de todos los biomarcadores al mismo tiempo, junto con todo el resto de factores de riesgo conocidos, de otro modo imposible dado el limitado número de eventos cardiovasculares disponibles para ajustar los habituales modelos de supervivencia multivariables. Si bien la adición de los biomarcadores potenciales mejoró marginalmente la capacidad de discriminación obtenida con sólo los factores de riesgo cardiovascular conocidos, se identificaron los biomarcadores más prometedores, a los que idealmente deberían ser destinados los recursos de la futura investigación, siempre que el beneficio potencial de la nueva evidencia supere los costes de la investigación. Para acabar, se incluye la evaluación del impacto en costes y en salud del aumento del uso de la intervención coronaria percutánea en pacientes ingresados con síndrome coronario agudo mediante un modelo analítico semi-Markov, ya que los registros poblacionales muestran una infrautilización de la intervención en ancianos, posiblemente debida a la falta de estimaciones de su eficiencia o de su coste-utilidad. El modelo desarrollado conceptualiza el curso de la enfermedad en un horizonte temporal de 8 años desde el ingreso hospitalario, y proporciona resultados muy robustos que indican que aumentar el número de pacientes ancianos que se beneficien de la intervención es rentable en un umbral de disposición a pagar muy inferior a los estándares en países europeos. Por tanto, el coste-utilidad no debería ser un motivo para no incrementar el uso de la intervención en esta población. A lo largo de los trabajos incluidos en esta tesis han quedado patentes el papel y la utilidad de la modelización matemática y estadística, aplicada de manera adecuada y rigurosa según los objetivos de cada estudio, para proporcionar evidencia útil que facilite la toma de decisiones, la planificación y la gestión en salud.
Health decision-making should be based on the best relevant evidence available, even more so when these decisions impact society through the application of public health policies, and given that all people are also potential—present or future—patients in clinical decisions. Optimal decision-making depends on many factors that must be properly identified and precisely measured for each alternative choice. These include the scarce resources available to meet unlimited healthcare demand. The economic evaluation in health aims to inform and facilitate decision-making on the best use of the limited resources available, in order to maximize health benefits, prioritizing the alternative choices following efficiency criteria. Currently, national agencies for health technology assessment base their recommendations about whether or not to fund particular interventions on economic evaluation studies that incorporate the best relevant evidence available and are methodologically correct. This ranges from a proper study design suited to the objective, to a complete and transparent report allowing reproducibility of results, undertaking a rigorous analytical handling of the study data. In this framework, analytical models are a valid source of evidence for decision-making, such as well-designed and well-conducted clinical trials and observational studies. Four works are included in this thesis, in which the application of appropriate analytical methods allowed us to provide answers to objectives that otherwise could not be solved, or only partially or with greater limitations. Thanks to the use of probabilistic models, the cost-effectiveness and harm-benefit of 2,625 different scenarios of screening for breast cancer were assessed, showing that risk-based strategies can reduce harm and costs compared to uniform strategies. Given that precise measures of individual breast cancer risk must be developed in order to shift toward personalized screening strategies based on breast cancer risk, a Bayesian joint model that combines the longitudinal history of breast density and age at diagnosis of breast cancer was formulated. The proposed methodology could be applied to obtain more precise measures of the individual risk of breast cancer. To achieve this objective, it would be necessary to conduct studies of larger population-based cohorts, with longitudinal measurements of breast density as well as other known risk factors, such as benign breast disease and polygenic risk. In this way, it would be possible to achieve a predictive ability that makes it possible to personalize screening for breast cancer, or to establish prevention strategies for women at high risk. An analysis of 19 potential cardiovascular biomarkers in patients with renal disease by means of machine learning algorithms is also included in this thesis. Specifically, by applying a random survival forest for competing risks, it was possible to evaluate the predictive ability of all biomarkers at the same time, along with all other known risk factors, otherwise impossible given the limited number of cardiovascular events to fit classic multivariable survival models. Although the addition of potential biomarkers marginally improved the predictive ability obtained with only the known cardiovascular risk factors, the most promising biomarkers were identified, where resources for future research should ideally be allocated, whenever the benefit of new evidence exceeds the costs of research. Finally, the evaluation of costs and health outcomes of increasing the use of percutaneous coronary intervention in patients admitted with acute coronary syndrome through a semi-Markov analytical model is included, since population-based registries have described lower use of the intervention in the elderly, possibly due to the lack of estimates of their efficiency or cost-utility. The model developed conceptualizes the course of the disease over an 8-year time horizon from hospital admission, and provides very robust results showing that increasing the number of elderly patients who benefit from the intervention is cost-effective on a threshold of willingness-to-pay far below the standards in European countries. Therefore, cost-utility should not be a reason not to increase the use of percutaneous coronary intervention in this population. Throughout the work included in this thesis, the role and usefulness of mathematical and statistical modeling has been shown, properly and rigorously applied according to the objectives of each study, to provide useful evidence that facilitates decision-making, planning and healthcare management.
Ccahuana, Rivas Erica Mercedes. "Datamart aplicado al área de estadística e informática de la Clínica Universitaria basados en balanced scorecard." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2008. https://hdl.handle.net/20.500.12672/12642.
Full textTrabajo de suficiencia profesional
Pizarro, Bore Gonzalo Matías. "Modelos estadísticos de peligro sísmico aplicados a minería de Panel Caving." Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/159405.
Full textLa evolución de la minería subterránea a yacimientos de mayor profundidad ha conllevado a un aumento significativo de la ocurrencia de interferencias operacionales asociadas a la sismicidad inducida producto de la actividad minera. Estos eventos sísmicos pueden causar estallidos de rocas, los cuales pueden generar consecuencias para los trabajadores, equipos y la sustentabilidad del negocio minero. El presente trabajo propone utilizar modelos estadísticos para estimar el peligro sísmico asociado a la minería de Panel Caving. Se emplean dos modelos; el primer modelo corresponde a una regresión logística en función de variables geo-mineras, y el segundo corresponde a un índice que es una combinación lineal de parámetros geotécnicos pre-minería. Como caso de estudio se utiliza la minería de panel caving realizada en el sector Reservas Nortes (RENO) de la Mina El Teniente, CODELCO-CHILE, considerando el periodo 2000-2010. En base a una zonificación que considera aspectos geotécnicos y mineros, se definen cinco zonas de análisis en la mina y utilizando una escala temporal mensual, se genera una base de datos estandarizada de 660 casos con variables geo-mineras que incluyen: área socavada, área incorporada, ancho del frente, velocidad de extracción, ángulo de extracción, presencia de fracturamiento hidráulico, Fallas geológicas, condición de esfuerzos, unidades litológicas y geotécnicas. De estos 660 casos, 52 casos presentan eventos sísmicos con magnitud de momento mayor, Mw ≥1.0. Los modelos son calibrados utilizando la base de datos generada. El modelo de regresión logística permite estimar la probabilidad de ocurrencia de eventos Mw ≥1.0 utilizando como input las variables geo-mineras, mientras que, el índice ambiental permite categorizar de manera relativa, zonas de mayor peligro sísmico. El mejor ajuste del modelo de Regresión Logística alcanza una tasa de aciertos (TPR) de 74%, y una precisión de 67%. La categorización de zonas sísmicas obtenida del índice ambiental se realiza mediante curvas de distribución acumulada de la magnitud de momento, mostrando consistencia entre las clases definidas. Se concluye, que este tipo de modelos podrían ser parte de un set de herramientas de manera de integrar el peligro sísmico en el proceso de planificación y diseño minero. Como resultado y aporte del estudio se conceptualizan, implementan y testean algoritmos matemáticos en herramientas computacionales que permiten replicar y estandarizar el uso de la metodología desarrollada en otras operaciones mineras. Se recomienda incluir modelos tridimensionales de las unidades litológicas, zonas geotécnicas, fallas estructurales y modelamiento numérico, de modo de mejorar el análisis e interpretación de la sismicidad inducida, las bases de datos y los modelos estadísticos calibrados.