To see the other types of publications on this topic, follow the link: Estadística aplicada.

Dissertations / Theses on the topic 'Estadística aplicada'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Estadística aplicada.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Chávez, Ramos Manuel Raymundo. "Separata de Estadística Aplicada 1." Universidad Peruana de Ciencias Aplicadas - UPC, 2007. http://hdl.handle.net/10757/272705.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Valdivia, Barba Henry Alonso, and Rebatta César Eduardo Chahuas. "Software educativo de estadística aplicada 1." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2018. http://hdl.handle.net/10757/623073.

Full text
Abstract:
Implementación de un software orientado a mejorar y reforzar los conocimientos obtenidos por los alumnos de Ingeniería que presentan dificultades en los temas de probabilidades mediante la resolución de casos relacionados a su carrera. Este proyecto ha sido diseñado con módulos orientados hacia el usuario alumno, así como un módulo de administración para el usuario docente. Presenta el ciclo de desarrollo del proyecto “Software Educativo para Estadística Aplicada 1”, incluyendo la etapa de investigación sobre las tecnologías y métodos de desarrollo de software educativos, el diseño de la solución propuesta, la implementación de los módulos establecidos según alcance y la evaluación del proyecto sobre los alumnos del curso de probabilidades.
Implementation of software designed to improve and reinforce the knowledge gained by engineering students who have difficulties in topics Probability by solving cases related to his career. This project has been designed with modules oriented student user and an administration module for teaching user. Presenting the development cycle "Educational Software for Applied Statistics 1" project, including the stage of research on technologies and methods development of educational software, the design of the proposed solution, the implementation of the modules set according to scope and evaluation of the project on students in the course of probabilities.
APA, Harvard, Vancouver, ISO, and other styles
3

Cuadros, Gonzalo, Enver Tarazona, Solís Celia Cárdenas, and Infante Raúl Ramírez. "Estadística Aplicada 2 (MA145), ciclo 2013-1." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/271215.

Full text
Abstract:
El curso de Estadística Aplicada 2 para estudiantes de Ingeniería Industrial e Ingeniería de Sistemas, comprende el estudio de diversos métodos de Estadística Inferencial que sirven de apoyo en el proceso de toma de decisiones a partir de información proveniente de las diferentes ramas de la ingeniería. Contenido: Muestreo -- Diseño de la encuesta por muestreo -- Pruebas de hipótesis -- Uso de la distribución Chi Cuadrado -- Análisis de variancia -- Análisis factorial -- Análisis de regresión lineal y no lineal simple -- Análisis de correlación -- Análisis de regresión múltiple -- Series de tiempo.
APA, Harvard, Vancouver, ISO, and other styles
4

Valdivia, Calizaya Nardy Gabriela. "Estadística espacial aplicada al estudio de morbilidad." Universidad Mayor de San Andrés. Programa Cybertesis BOLIVIA, 2010. http://www.cybertesis.umsa.bo:8080/umsa/2010/valdivia_cn/html/index-frames.html.

Full text
Abstract:
El presente trabajo tiene por objetivo evaluar, describir y modelizar, empleando análisis de datos en rejilla (lattice data), el patrón espacial existente en un conjunto de datos en un área y año determinados. Aplicado al estudio de morbilidad en el departamento de Santa Cruz para la gestión 2008. Así mismo se desarrolla la teoría de análisis de datos en rejilla (lattice data) para establecer la discriminación regional, determinación de áreas de influencia y representación geográfica del análisis de datos. Realizando un análisis exploratorio de datos de morbilidad, integración de información cartográfica a la base de datos y aplicación de la teoría de datos en rejilla para realizar el análisis, modelado y validación espacial de los datos considerados. Para el análisis del presente trabajo se cuenta con el índice de morbilidad general y el índice de morbilidad específico, calculados en base al número de casos notificados en el Departamento de Santa Cruz, obtenidos a través de datos publicados por el Sistema Nacional de Información en Salud (SNIS) para el año 2008. Las variables son analizadas tomando en cuenta las 15 provincias y 56 municipios del departamento. Las características demográficas de la población fueron proporcionadas por el Instituto Nacional de Estadística (INE, Censo de población y vivienda 2001 y el Atlas de Salud 2005). Las características climatológicas fueron proporcionados por el Servicio Nacional de Hidrología y Meteorología (SENAMHI, 2008). Finalmente las referencias geográficas del departamento fueron obtenidas del Instituto Geográfico Militar (IGM).
APA, Harvard, Vancouver, ISO, and other styles
5

Chávez, Ramos Manuel Raymundo. "Estadística Aplicada 1 (MA131), ciclo 2013-1." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/271333.

Full text
Abstract:
Separata del curso Estadística Aplicada 1 (MA131), que corresponde al ciclo 2013-1. Contenido: 1. Estadística: estadística descriptiva e inferencial. 2. Definiciones básicas. 3. Escala de mediciones: escala nominal, escala ordinal, escala de intervalos y escala de razón. 4. Tipos de variables: variables cualitativas y variables cuantitativas. 5. Problemas resueltos de conceptos básicos. 6. Problemas propuestos de conceptos básicos.
APA, Harvard, Vancouver, ISO, and other styles
6

Cuadros, Gonzalo, Solís Celia Cárdenas, Infante Raúl Ramírez, and Enver Tarazona. "Estadística aplicada 2 (MA145), ciclo 2013-2." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/296651.

Full text
Abstract:
El curso de Estadística Aplicada 2 para estudiantes de Ingeniería Industrial e Ingeniería de Sistemas, comprende el estudio de diversos métodos de Estadística Inferencial que sirven de apoyo en el proceso de toma de decisiones a partir de información proveniente de las diferentes ramas de la ingeniería. Contenido: Muestreo -- Pruebas de hipótesis -- Uso de la distribución Ji Cuadrada -- Uso de la distribución Ji cuadrada -- Diseños experimentales -- Análisis de regresión lineal simple -- Regresión Múltiple -- Análisis -- Series de tiempo -- Método de Atenuación Exponencial.
APA, Harvard, Vancouver, ISO, and other styles
7

Chávez, Ramos Manuel Raymundo. "Estadística Aplicada 1 (MA131), ciclo 2014-0." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/306129.

Full text
Abstract:
Cuaderno de trabajo del curso Estadística Aplicada 1 (MA131), que corresponde al ciclo 2014-0. Contenido: 1. Estadística: estadística descriptiva e inferencial. 2. Definiciones básicas. 3. Escala de mediciones: escala nominal, escala ordinal, escala de intervalos y escala de razón. 4. Tipos de variables: variables cualitativas y variables cuantitativas. 5. Problemas resueltos de conceptos básicos. 6. Problemas propuestos de conceptos básicos.
APA, Harvard, Vancouver, ISO, and other styles
8

Cárdenas, Celia, Rafael Aviles, Freud Melgar, and Raúl Ramírez. "Estadística Aplicada 2 (MA145), ciclo 2014-2." Universidad Peruana de Ciencias Aplicadas - UPC, 2014. http://hdl.handle.net/10757/324270.

Full text
Abstract:
El curso de Estadística Aplicada 2 para estudiantes de Ingeniería Industrial e Ingeniería de Sistemas, comprende el estudio de diversos métodos de Estadística Inferencial que sirven de apoyo en el proceso de toma de decisiones a partir de información proveniente de las diferentes ramas de la ingeniería. Contenido: Muestreo -- Pruebas de hipótesis -- Uso de la distribución Ji Cuadrada -- Uso de la distribución Ji cuadrada -- Diseños experimentales -- Análisis de regresión lineal simple -- Regresión Múltiple -- Análisis -- Series de tiempo -- Método de Atenuación Exponencial.
APA, Harvard, Vancouver, ISO, and other styles
9

Cuadros, Gonzalo, Solís Celia Cárdenas, Infante Raúl Ramírez, and Enver Tarazona. "Estadística Aplicada 2 (MA145), ciclo 2014-0." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/306128.

Full text
Abstract:
El curso de Estadística Aplicada 2 para estudiantes de Ingeniería Industrial e Ingeniería de Sistemas, comprende el estudio de diversos métodos de Estadística Inferencial que sirven de apoyo en el proceso de toma de decisiones a partir de información proveniente de las diferentes ramas de la ingeniería. Contenido: Muestreo -- Pruebas de hipótesis -- Uso de la distribución Ji Cuadrada -- Diseños experimentales -- Análisis de regresión lineal simple -- Regresión Múltiple -- Series de tiempo -- Método de Atenuación Exponencial.
APA, Harvard, Vancouver, ISO, and other styles
10

Cuadros, Gonzalo, Solís Celia Cárdenas, and Infante Raúl Ramírez. "Estadística Aplicada 2 (MA145), ciclo 2014-1." Universidad Peruana de Ciencias Aplicadas - UPC, 2014. http://hdl.handle.net/10757/313832.

Full text
Abstract:
Este cuaderno de trabajo constituye un material de apoyo para el desarrollo del curso. El curso de Estadística Aplicada 2 se dicta para estudiantes de Ingeniería Industrial. Contenido: Pruebas de hipótesis -- Uso de la distribución Ji Cuadrada -- Diseños experimentales -- Análisis de regresión lineal simple -- Regresión Múltiple -- Series de tiempo -- Atenuación Exponencial -- Control estadístico de procesos.
APA, Harvard, Vancouver, ISO, and other styles
11

Chávez, Ramos Manuel Raymundo, and Rucoba Gilber Piña. "Estadística Aplicada 1 (MA131), ciclo 2014-1." Universidad Peruana de Ciencias Aplicadas - UPC, 2014. http://hdl.handle.net/10757/313861.

Full text
Abstract:
Cuaderno de trabajo del curso Estadística Aplicada 1 (MA131), que corresponde al ciclo 2014-1. Contenido: 1. Estadística: estadística descriptiva e inferencial. 2. Definiciones básicas. 3. Escala de mediciones: escala nominal, escala ordinal, escala de intervalos y escala de razón. 4. Tipos de variables: variables cualitativas y variables cuantitativas. 5. Problemas resueltos de conceptos básicos. 6. Problemas propuestos de conceptos básicos.
APA, Harvard, Vancouver, ISO, and other styles
12

Piña, Gilber Francisco. "Estadística Aplicada 1 (MA131), ciclo 2014-2." Universidad Peruana de Ciencias Aplicadas - UPC, 2014. http://hdl.handle.net/10757/323833.

Full text
Abstract:
Cuaderno de trabajo del curso Estadística Aplicada 1 (MA131), que corresponde al ciclo 2014-2. Contenido: 1. Estadística: estadística descriptiva e inferencial. 2. Definiciones básicas. 3. Escala de mediciones: escala nominal, escala ordinal, escala de intervalos y escala de razón. 4. Tipos de variables: variables cualitativas y variables cuantitativas. 5. Problemas resueltos de conceptos básicos. 6. Problemas propuestos de conceptos básicos.
APA, Harvard, Vancouver, ISO, and other styles
13

Cárdenas, Celia, Raúl Ramírez, and Gonzalo Cuadros. "Estadística Aplicada 2 (MA145), ciclo 2015-0." Universidad Peruana de Ciencias Aplicadas (UPC), 2015. http://hdl.handle.net/10757/337909.

Full text
Abstract:
El curso de Estadística Aplicada 2 para estudiantes de Ingeniería Industrial e Ingeniería de Sistemas, comprende el estudio de diversos métodos de Estadística Inferencial que sirven de apoyo en el proceso de toma de decisiones a partir de información proveniente de las diferentes ramas de la ingeniería. Contenido: Muestreo -- Pruebas de hipótesis -- Uso de la distribución Ji Cuadrada -- Uso de la distribución Ji cuadrada -- Diseños experimentales -- Análisis de regresión lineal simple -- Regresión Múltiple -- Análisis -- Series de tiempo -- Método de Atenuación Exponencial.
APA, Harvard, Vancouver, ISO, and other styles
14

Luna, Wálter. "Estadística Aplicada a los Negocios (MA130), ciclo 2013-1." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/271354.

Full text
Abstract:
Esta guía de clase contiene la teoría y los ejercicios necesarios para poder llevar el curso Estadística Aplicada a los Negocios (MA130). Este curso es teórico y práctico y está dirigido para la carrera de Administración y algunas carreras de Negocios. Comprende el estudio de las técnicas de la estadística descriptiva y la teoría de probabilidad, que forman parte fundamental de las herramientas para la toma ética de decisiones en un trabajo de investigación que los alumnos presentan y exponen en las últimas semanas del curso.
APA, Harvard, Vancouver, ISO, and other styles
15

Luna, Walter. "Estadística Aplicada a los Negocios (MA130), ciclo 2014-0." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/306144.

Full text
Abstract:
Esta guía de clase contiene la teoría y los ejercicios necesarios para poder llevar el curso Estadística Aplicada a los Negocios (MA130). Este curso es teórico y práctico y está dirigido para la carrera de Administración y algunas carreras de Negocios. Comprende el estudio de las técnicas de la estadística descriptiva y la teoría de probabilidad, que forman parte fundamental de las herramientas para la toma ética de decisiones en un trabajo de investigación que los alumnos presentan y exponen en las últimas semanas del curso.
APA, Harvard, Vancouver, ISO, and other styles
16

Luna, Walter. "Estadística Aplicada a los Negocios (MA130), ciclo 2014-1." Universidad Peruana de Ciencias Aplicadas - UPC, 2014. http://hdl.handle.net/10757/313737.

Full text
Abstract:
Separata del curso Estadística Aplicada a los Negocios (MA130), que corresponde al ciclo 2014-1. Al finalizar el curso, el alumno aplica conceptos de estadística descriptiva y teoría de probabilidad en situaciones reales para tomar decisiones adecuadas, presentando y exponiendo la información de forma ética.
APA, Harvard, Vancouver, ISO, and other styles
17

Jaramillo, Vega Segundo. "Estadística Aplicada a los Negocios (MA130), ciclo 2014-2." Universidad Peruana de Ciencias Aplicadas - UPC, 2014. http://hdl.handle.net/10757/324029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Flores, Chinte Milagros, and Ramírez Salomón Acosta. "Manual de Estadística Aplicada a los Negocios (CE75), 2013." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/292954.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Luna, Wálter, and Yolanda Segura. "Estadística Aplicada a la Finanzas 1 (MA333), ciclo 2013-1." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/271219.

Full text
Abstract:
Esta guía contiene los temas del curso de Estadística Aplicada a las Finanzas 1 (MA333), desarrollada en cinco unidades: Organización de datos, Medidas descriptivas, Teoría de probabilidades, Variable aleatoria y Distribuciones muestrales. La teoría se complementa con ejemplos desarrollados y con los ejercicios que deben ser desarrollados por el alumno en una sesión de clase.
APA, Harvard, Vancouver, ISO, and other styles
20

Luna, Walter. "Estadística Aplicada a las Finanzas 1 (MA333), ciclo 2014-1." Universidad Peruana de Ciencias Aplicadas - UPC, 2014. http://hdl.handle.net/10757/313794.

Full text
Abstract:
Esta guía contiene los temas del curso de Estadística Aplicada a las Finanzas 1 (MA333), desarrollada en cinco unidades: Organización de datos, Medidas descriptivas, Teoría de probabilidades, Variables aleatorias y Distribuciones muestrales. La teoría se complementa con ejemplos desarrollados y con los ejercicios que deben ser desarrollados por el alumno en una sesión de clase.
APA, Harvard, Vancouver, ISO, and other styles
21

Luna, Walter. "Estadística Aplicada a las Finanzas 1 (MA333), ciclo 2014-0." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/306141.

Full text
Abstract:
Esta guía contiene los temas del curso de Estadística Aplicada a las Finanzas 1 (MA333), desarrollada en cinco unidades: Organización de datos, Medidas descriptivas, Teoría de probabilidades, Variables aleatorias y Distribuciones muestrales. La teoría se complementa con ejemplos desarrollados y con los ejercicios que deben ser desarrollados por el alumno en una sesión de clase.
APA, Harvard, Vancouver, ISO, and other styles
22

Jaramillo, Vega Segundo Santiago. "Estadística Aplicada a las Finanzas 2 (MA334), ciclo 2014-0." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/306125.

Full text
Abstract:
Cuaderno de trabajo del curso Estadística Aplicada a las Finanzas 2 (MA334). El curso comprende el estudio de los métodos básicos más utilizados de la estadística inferencial, que constituyen herramientas muy útiles para la toma de decisiones y como base para otras disciplinas para el mismo fin, que se estudiarán a lo largo de la carrera.
APA, Harvard, Vancouver, ISO, and other styles
23

Jaramillo, Vega Segundo Santiago. "Estadística Aplicada a las Finanzas 2 (MA334) ciclio 2014-2." Universidad Peruana de Ciencias Aplicadas - UPC, 2014. http://hdl.handle.net/10757/323482.

Full text
Abstract:
Separata del curso Estadística Aplicada a las Finanzas 2 (MA334). El curso comprende el estudio de los métodos básicos más utilizados de la estadística inferencial, que constituyen herramientas muy útiles para la toma de decisiones y como base para otras disciplinas para el mismo fin, que se estudiarán a lo largo de la carrera.
APA, Harvard, Vancouver, ISO, and other styles
24

Jaramillo, Vega Segundo Santiago. "Estadística Aplicada a las Finanzas 2 (MA334), ciclo 2013-2." Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/296215.

Full text
Abstract:
Cuaderno de trabajo del curso Estadística Aplicada a las Finanzas 2 (MA334). El curso comprende el estudio de los métodos básicos más utilizados de la estadística inferencial, que constituyen herramientas muy útiles para la toma de decisiones y como base para otras disciplinas para el mismo fin, que se estudiarán a lo largo de la carrera.
APA, Harvard, Vancouver, ISO, and other styles
25

Jaramillo, Vega Segundo Santiago. "Estadística Aplicada a las Finanzas 2 (MA334), ciclo 2014-1." Universidad Peruana de Ciencias Aplicadas - UPC, 2014. http://hdl.handle.net/10757/313808.

Full text
Abstract:
Cuaderno de trabajo del curso Estadística Aplicada a las Finanzas 2 (MA334). El curso comprende el estudio de los métodos básicos más utilizados de la estadística inferencial, que constituyen herramientas muy útiles para la toma de decisiones y como base para otras disciplinas para el mismo fin, que se estudiarán a lo largo de la carrera.
APA, Harvard, Vancouver, ISO, and other styles
26

Brito, Pizarro Camila Fernanda. "Teoría de matrices aleatorias aplicada al análisis estadístico de un modelo de factores." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/140486.

Full text
Abstract:
Magíster en Ciencias de la Ingeniería, Mención Matemáticas Aplicadas. Ingeniera Civil Matemática
Las matrices aleatorias y su reciente teoría están jugando un papel fundamental como herramienta estadística en áreas tales como finanzas, meteorología y procesamiento de señales e imágenes. Algunas de las aplicaciones que han adquirido mayor desarrollo se encuentran en el sector financiero y en el área de las comunicaciones inalámbricas. El desafío planteado en este trabajo de tesis consiste en realizar un análisis estadístico basado en la teoría de matrices aleatorias referido a un modelo de factores. A través de la experimentación computacional, se pretende alcanzar dos metas. La primera de ellas consiste en contrastar dos versiones de un mismo test de hipótesis, las cuales se definen a partir de estadísticos provenientes de dos de las más conocidas familias gaussianas de matrices aleatorias: GUE y GOE. Esta comparación surge del hecho de que la familia GOE es menos estudiada en las aplicaciones de matrices aleatorias a considerar, de modo que se busca ampliar el conocimiento que de ella se tiene. Para hacer efectivo el contraste entre ambas versiones, estas se implementan para luego analizarlas en términos de sus comportamientos frente a errores y aciertos. Así, se logra probar empíricamente que no existe diferencia alguna entre ellas, por lo que la versión GOE del test es la que asume el protagonismo. Alcanzada la meta anterior, la segunda consiste en dar utilidad al test en su versión GOE, mediante el desarrollo de un procedimiento que lo aplica iteradas veces para estimar el número de factores de una muestra sujeta al modelo de factores. Posteriormente, el procedimiento es sometido a una serie de pruebas empíricas que buscan validarlo como método de estimación del número de factores. Finalmente, es preciso mencionar que, si bien, este trabajo posee un carácter fundamentalmente experimental, no se aparta del estudio, análisis y manejo abstracto de la teoría de matrices aleatorias que se requieren necesariamente para llevarlo a cabo.
Este trabajo ha sido parcialmente financiado por Núcleo Milenio: "Modelos estocásticos de sistemas complejos y desordenados"
APA, Harvard, Vancouver, ISO, and other styles
27

Abella, Garcia Ainoa. "Ingeniería kansei en el campo del diseño : una aproximación desde la ingeniería estadística aplicada a la percepción de los materiales." Doctoral thesis, Universitat Politècnica de Catalunya, 2021. http://hdl.handle.net/10803/671760.

Full text
Abstract:
The objective of the current doctoral thesis is the theoretical and experimental application of Kansei engineering in the field of design. Kansei engineering is a method that aims to develop or improve products, services and/or experiences by translating the emotional needs of users into parameters or characteristics of the design itself. In the present investigation, Kansei engineering uses as a base statistical engineering, since the most appropriate statistical and analytical methods are used to provide value, validity and rigor. The first contribution of the thesis is the creation of a Theoretical Framework of the emotional dimensions –sensation, perception, emotion, feeling and affect– as a result of a systematic review in two scientific databases. The objective is to promote the integration of emotions during any stage of the creative process; therefore, a common taxonomy is developed with definitions, theories and measurement tools for each of the emotional dimensions. In addition, three figures -Emotional Path, Emotional Systematization, and Preliminary Mapping of Design and Emotion- have been created in order to synthesize all information and to be used as visual guides. Once the state of the art is developed, the research has focused on two different topics related to Kansei engineering and its updating in the 21st-century context: communication channels and measurement tools. For this, the materials are selected as the scope of application. Regarding Communication Channels, two case studies are carried out –pilot test and experiment– in order to understand how user perception may vary depending on the interaction and the amount of information received. In the experimental design, three materials are presented through three different communication channels to evaluate their sensory properties. In some cases, people evaluate the same material for each channel and in others, each participant evaluates a different material per channel, through the Perception Evaluation Kit. The results indicate that in some communication channels there are significant differences regarding the perception of sensory properties. Responses level in both experiments is very similar, that is to say, the order of presentation for the communication channels does not seem to influence perception. In addition, channel 3 is the preferred one regardless of the predominant learning style. The contribution concerning the Measurement Tools chapter is to apply a heterogeneous method- ology that uses self-report and physiological tools to assess the perception of recycled materials, as well as the environmental attitude and consumption habits of the participants. The purpose is to detect if there is any relationship between the information that is extracted from the two types of tools. Electrodermal activity, hedonic appreciation, and evaluations of sensory properties have reported significant differences between materials. In contrast, electromyography, the precision in the identification and the relationship between consumption habits and environmental attitude have not observed significant effects or interactions in the data. Finally, the Statistics and Design section reflects on the relationship and union of the two disciplines and presents two points of confluence between these –statistical engineering and Data-Driven Design–. The contribution of this chapter is the Data Collection Toolkit, a set of methodologies, resources and tools for designers. The objective is to promote better practice in research through design so that the experiment has greater validity and statistical base.
El objetivo de la presente tesis doctoral es la aplicación teórica y experimental de la ingeniería kansei en el ámbito del diseño. La ingeniería kansei es un método que apunta al desarrollo o la mejora de productos, servicios y/o experiencias mediante la traducción de las necesidades emocionales de los usuarios en parámetros o características del propio diseño. En la presente investigación la ingeniería kansei utiliza como base la ingeniería estadística, ya que se emplean los métodos estadísticos y analíticos más apropiados para aportar valor, validez y rigurosidad. La primera contribución de esta tesis es la creación de un Marco Teórico de las dimensiones emocionales -sensación, percepción, emoción, sentimiento y afecto- fruto de una revisión sistemática en dos bases de datos científicas. El objetivo es promover la integración de las emociones durante cualquier etapa del proceso creativo, y por ello se desarrolla una taxonomía común sobre definiciones, teorías y herramientas de medición para cada una de las dimensiones emocionales. Además, se han creado tres figuras -Emotional Path, Emotional Systematization y Mapeo preliminar de diseño y emoción- que sintetizan esta información para ser utilizadas como guías visuales. Una vez comprendido el estado del arte, se focaliza la investigación en dos temáticas distintas relacionadas con la ingeniería kansei y su adaptación en el contexto del siglo XXI: los canales de comunicación y las herramientas de medición. Para ello, se seleccionan los materiales como ámbito de aplicación. Respecto a los Canales de Comunicación, se realizan dos casos de estudio -prueba piloto y experimento- con el fin de comprender cómo puede variar la percepción del usuario según la interacción y la cantidad de información que recibe. En el diseño experimental se presentan tres materiales a través de tres canales de comunicación distintos para evaluar sus propiedades sensoriales. En algunos casos las personas evalúan el mismo material para cada canal y en otros, cada participante evalúa un material distinto por canal, a través del Perception Evaluation Kit. Los resultados indican que en algunos canales de comunicación hay diferencias significativas respecto a la percepción de las propiedades sensoriales. El nivel de las respuestas en las dos tipologías de experimento es muy parecido, lo que indica que el orden de presentación de los canales de comunicación parece no influir en la percepción. Además, la preferencia por el canal 3, interacción completa del material, destaca independientemente del estilo de aprendizaje predominante en la persona. La contribución respecto al capítulo de Herramientas de Medición es aplicar una metodología heterogénea que utiliza herramientas de autoreporte y fisiológicas para evaluar la percepción de los materiales reciclados, así como la actitud ambiental y los hábitos de consumo de los participantes. La finalidad es detectar si hay alguna relación entre la información que se extrae de las dos tipologías de herramientas. La actividad electrodermal, la apreciación hedónica y las evaluaciones de las propiedades sensoriales han reportado diferencias significativas entre materiales. En cambio, en la electromiografía, la precisión en la identificación y la relación entre hábitos de consumo y actitud ambiental no se han observado efectos o interacciones significativas en los datos. Por último, en el apartado Estadística y Diseño se reflexiona sobre la relación y la unión de las dos disciplinas y se presentan dos puntos de confluencia entre estas -la ingeniería estadística y el Data-Driven Design-. La aportación de este capítulo es el Data Collection Toolkit, un conjunto de metodologías, recursos y herramientas para los diseñadores. El objetivo es promover una mejor práctica en la investigación a través del diseño para que el experimento tenga una mayor validez y sustento estadístico
L’objectiu de la present tesi doctoral és l’aplicació teòrica i experimental de l’enginyeria kansei en l’àmbit del disseny. L’enginyeria kansei és un mètode que apunta al desenvolupament o la millora de productes, serveis i/o experiències mitjançant la traducció de les necessitats emocionals dels usuaris en paràmetres o característiques del mateix disseny. En la present recerca l’enginyeria kansei utilitza com a base l’enginyeria estadística, ja que s’utilitzen els mètodes estadístics i analítics més apropiats per a aportar valor, validesa i rigorositat. La primera contribució de la tesi és la creació d’un Marc Teòric de les dimensions emocionals –sensació, percepció, emoció, sentiment i afecte– fruit d’una revisió sistemàtica en dues bases de dades científiques. L’objectiu és promoure la integració de les emocions durant qualsevol etapa del procés creatiu, per això es desenvolupa una taxonomia comuna sobre definicions, teories i eines de mesura per a cadascuna de les dimensions emocionals. A més, s’han creat tres figures –Emotional, Path, Emotional Systematization i Mapeig preliminar de disseny i emoció– que sintetitzen aquesta informació per a ser utilitzades com a guies visuals. Una vegada comprès l’estat de l’art, es focalitza la recerca en dues temàtiques diferents relacionades amb l’enginyeria kansei i la seva adaptació al context del segle XXI: els canals de comunicació i les eines de mesura. Per a això, se seleccionen els materials com àmbit d’aplicació. Respecte als Canals de Comunicació, es realitzen dos casos d’estudi –prova pilot i experiment– amb la finalitat de comprendre com pot variar la percepció de l’usuari segons la interacció i la quantitat d’informació que rep. En el disseny experimental es presenten tres materials a través de tres canals de comunicació diferents per a avaluar les seves propietats sensorials. En alguns casos les persones avaluen el mateix material per a cada canal i en uns altres, cada participant avalua un material diferent per canal, amb el Perception Evaluation Kit. Els resultats indiquen que en alguns canals de comunicació hi ha diferències significatives respecte a la percepció de les propietats sensorials. El nivell de les respostes a les dues tipologies d'experiment és molt semblant, el que indica que l'ordre de presentació dels canals de comunicació sembla no influir en la percepció. A més, la preferència pel canal 3, interacció completa del material, destaca independentment de l'estil d'aprenentatge predominant en la persona. La contribució respecte al capítol d’Eines de Mesura és aplicar una metodologia heterogènia que utilitza eines d’autoinforme i fisiològiques per a avaluar la percepció dels materials reciclats, així com l’actitud ambiental i els hàbits de consum dels participants. La finalitat és detectar si hi ha alguna relació entre la informació que s’extreu de les dues tipologies d’eines. L’activitat electrodermal, l’apreciació hedònica i les avaluacions de les propietats sensorials han reportat diferències significatives entre materials. En canvi, en l’electromiografia, la precisió en la identificació i la relació entre hàbits de consum i actitud ambiental no s’han observat efectes o interaccions significatives en les dades. Finalment, en l’apartat Estadística i Disseny es reflexiona sobre la relació i la unió de les dues disciplines i es presenten dos punts de confluència entre aquestes –l’enginyeria estadística i el Data-Driven Design–. L’aportació d’aquest capítol és el Data Collection Toolkit, un conjunt de metodologies, recursos i eines per als dissenyadors. L’objectiu és promoure una millor pràctica en la recerca a través del disseny perquè l’experiment tingui una major validesa i base estadística.
APA, Harvard, Vancouver, ISO, and other styles
28

Pérez, Bonilla Alejandra Alicia. "Metodología de Caracterización Conceptual por Condicionamientos Sucesivos. Una Aplicación a Sistemas Medioambientales." Doctoral thesis, Universitat Politècnica de Catalunya, 2010. http://hdl.handle.net/10803/6533.

Full text
Abstract:
La validación de un cluster sigue siendo un problema abierto por no haberse encontrado aún un criterio objetivo para determinar la calidad de un conjunto de clases en el contexto del clustering. La interpretación de un clustering se convierte así en una fase fundamental del proceso de validación y sigue siendo, aún hoy, uno de los criterios más utilizados en la práctica.

Así, actualmente es necesario introducir herramientas para asistir al usuario en las tareas de interpretación de una partición sobre un conjunto de objetos, con el fin de establecer el significado de las clases resultantes. Si las clases obtenidas no tienen sentido para los expertos, los resultados no son considerados válidos, ni tampoco se podrán utilizar, ni darán apoyo a ninguna decisión posterior. La literatura abunda algoritmos (técnicas) de validación orientados a la vertiente estructural de la partición, pero disponer de clases bien formadas estructuralmente no ofrece garantía de que un experto vaya a ser capaz de asociar cada uno de esos grupos a una entidad semántica. Esta tesis pretende contribuir a la mejora de este proceso, fundamental para comprender el significado de las clases obtenidas y dar soporte efectivo a la posterior toma de decisiones.

La alternativa que parece más prometedora es el desarrollo de técnicas que a partir de la evidencia empírica, identifiquen las variables más relevantes y formulen conceptos que expresen las particularidades de cada clase y se expresen en una forma de representación conceptual generable automáticamente y directamente comprensible para el experto.

Incorporar procedimientos que trasladen los resultados del análisis a una representación explícita del conocimiento obtenido, se sitúa en la línea de lo que Fallad propone para los sistemas de Knowledge Discovery from Data (KDD), donde la fase de post-proceso de los resultados para generar conocimiento es casi tan importante como el análisis en si mismo.

La metodología de Caracterización Conceptual por Condicionamientos Sucesivos (CCCS) trata de aproximar en un modelo formal el proceso natural que sigue un experto en su fase de interpretación de resultados realizando una aproximación iterativa basada en el clustering jerárquico. La CCCS:

· Aporta una sistematización al proceso de interpretación de clases procedentes de un cluster jerárquico y supone un avance significativo respecto al estado actual en que la interpretación se realiza de forma artesanal.
· Contribuye a sistematizar y objetivar los mecanismos de interpretación que usan los expertos humanos.
· Genera resultados que permiten que el experto pueda comprender más fácilmente las características principales de la clasificación obtenida ya que genera conocimiento explícito directamente a partir de las clases.

Si bien la CCCS es general, se ha centrado la aplicación a estaciones depuradoras de aguas residuales por ser éste uno de los dominios donde las aproximaciones clásicas funcionan peor.

Desde un punto de vista teórico, el interés de esta tesis es presentar una propuesta metodológica híbrida que combine herramientas y técnicas de Estadística e Inteligencia Artificial (IA) en forma cooperativa, siguiendo un enfoque transversal y multidiciplinar combinando elementos de la inducción de conceptos en IA, lógica proposicional y teoría de probabilidad. Es así como, ésta tesis, contribuye a la concepción genérica de sistema de KDD y a objetivar los procedimientos de validación de resultados, ya que el hecho de que un clustering tenga una interpretación clara está relacionado con su utilidad; evaluarla requiere un mecanismo a posteriori de comprensión del significado de las clases.

La CCCS aprovecha la estructura jerárquica de la clasificación objetivo para inducir conceptos iterando sobre las divisiones binarias que indica el dendrograma, de tal forma que, a partir de las variables que describen los objetos pertenecientes a cierto dominio, se puedan encontrar las particularidades de cada clase, contribuyendo así al proceso de interpretación conceptual automática de clases.
The validation of a cluster is still an open problem as an objective criteria for determining the quality of a set of classes has not yet been found in the context of clustering. The interpretation constitutes a fundamental phase of the process and still today remains one of the most commonly used criteria to validate the cluster.

Thus, it is now necessary to introduce tools to assist the user in the task of interpreting a partition of a set of objects in order to establish the meaning of the resulting classes. If the classes obtained don't do not make sense to the experts, the results of the classification are not considered valid, nor could be used or support any subsequent decision. All validation techniques and algorithms focus on the structure of the partition, but having well-structured classes does not guarantee that an expert will be able to associate each of these groups with a semantic entity. This thesis wants to make a contribution to this process, fundamental for understanding the meaning of the obtained classes and to give effective support to the subsequent decision-making.

The most promising alternative seems to be the development of techniques based on empirical evidence to identify the most important variables and formulate concepts that express the specifics (or: specific nature) of each class and are expressed in a conceptual representation able apt for automatic generation and directly understandable to the expert.

To incorporate procedures that translate the results of analysis (in this case of clustering) into a representation of explicit knowledge is in line with what Fayyad in 1996 suggests for systems of Knowledge Discovery from Data (KDD) where the phase of post-process of the results to generate knowledge is almost as important as the analysis itself. Perhaps due to its semantic nature, the automatic generation of interpretations of a classification has not been formally treated by statistics, but to resolve it is essential.
The methodology of Characterization by Embedded Conditioning (CCEC) proposed tries to approximate in a formal model the natural process that an expert follows in its phase of interpretation of results by making an iterative approximation based on a hierarchical clustering. The CCEC:

· Provides a systematizing of the process of interpretation of classes from a hierarchical cluster and represents a significant advance to the current situation in which the interpretation is done manually and more or less crafted.
· Helps to systematize and objectify the mechanisms of interpretation used by human experts.
· The results generated by the methodology allow the expert to better understand the main characteristics of the classification obtained by generating explicit knowledge directly from the classes.

While the methodology proposed is general, the application focuses on Waste Water Treatment Plant (WWTP) because this is one of the domains where conventional approaches lack efficiency.

From a theoretical point of view, the main focus of this thesis has been to present a hybrid methodology that combines tools and techniques of statistics and Artificial Intelligence in a cooperative way, using a transversal and multidisciplinary approach combining elements of the induction of concepts from Artificial Intelligence, propositional logic and probability theory. Thus, this thesis contributes to the generic design of KDD system. It also contributes to objectivate procedures for the validation of results, as the fact that clustering has a clear interpretation is related to the usefulness of a classification; evaluating the usefulness requires a posteriori mechanism of understanding the meaning of classes.

The methodology CCEC benefits from the hierarchical structure of the target classification by induceing concepts iterating with binary divisions from dendrogram, so that, based on the variables that describe the objects belonging to a certain domain, the specifics of each class can be found, thus contributing to the automatic interpretation of conceptual description of clustering.
APA, Harvard, Vancouver, ISO, and other styles
29

Cabasés, i. Piqué Ma Àngels. "Models i índexs de concentració. Aplicació al volum empresarial de Lleida." Doctoral thesis, Universitat de Lleida, 1993. http://hdl.handle.net/10803/8129.

Full text
Abstract:
Actualment un dels temes més debatuts per l'opinió pública és la desigualtat existent en els diferents àmbits de la societat i, per tant, aquest tema esdevé un objectiu de les formacions polítiques les quals concedeixen molta importància a l'impacte de les mesures específiques en matèria de distribució.
Com a conseqüència, en l'esfera econòmica assistim a la proliferació d'estudis empírics i a l'ús de mesures capaces de quantificar el grau de desigualtat que pot presentar la distribució de la riquesa, renda o consum.
Dos són els criteris a l'hora de mesurar la desigualtat:
a.- L'enfocament tradicional, pretén únicament estudiar la desigualtat sense entrar en qüestions de tipus ètic. Són mesures estadístiques positives que es poden aplicar a qualsevol distribució sense disposar d'informació addicional. Les més freqüents i utilitzades són: GINI, ÍNDEX DE THEIL i COEFICIENT DE VARIACIÓ.
b.- L'enfocament modern, iniciat per Atkinson (1970) va mostrar que en les diverses mesures de desigualtat estan immersos criteris ètics i per tant, s'han d'evitar incompatibilitats entre els criteris ètics de les mesures i els criteris ètics de les Funcions de Benestar Social. Es creen les anomenades mesures normatives de desigualtat. Per construcció els índexs normatius no seran apropiats per mesurar la desigualtat en la distribució de magnituds econòmiques diferents de la renda.
Actualmente uno de los temas más debatidos por la opinión pública es la desigualdad existente en los diferentes ámbitos de la sociedad y, por lo tanto, este tema acontece uno objetivo de las formaciones políticas las cuales conceden mucha importancia al impacto de las medidas específicas en materia de distribución.
Como consecuencia, en la esfera económica asistamos a la proliferación de estudios empíricos y al uso de medidas capaces de cuantificar el grado de desigualdad que puede presentar la distribución de la riqueza, renta o consumo.
Dos son los criterios a la hora de mesurar la desigualdad:
a.- El enfoque tradicional, pretende únicamente estudiar la desigualdad sin entrar en cuestiones de tipo ético. Son medidas estadísticas positivas que se pueden aplicar a cualquiera distribución sin disponer de información adicional. Las más frecuentes y utilizadas son: GINI, ÍNDICE DE THEIL y COEFICIENTE DE VARIACIÓN.
b.- El enfoque moderno, iniciado por Atkinson (1970) mostró que en las diversas medidas de desigualdad están inmersos criterios éticos y por lo tanto, se tienen que evitar incompatibilidades entre los criterios éticos de las medidas y los criterios éticos de las Funciones de Bienestar Social. Se crean las nominadas mesuras normativas de desigualdad. Por construcción los índices normativos no serán apropiados por mesurar la desigualdad en la distribución de magnitudes económicas diferentes de la renta.
APA, Harvard, Vancouver, ISO, and other styles
30

Abellana, Sangrà Rosa Maria. "Aportacions als mètodes estadístics per a modelar dades agregades amb correlació espacial." Doctoral thesis, Universitat de Barcelona, 2003. http://hdl.handle.net/10803/2837.

Full text
Abstract:
L'objectiu d'aquesta tesi ha estat estudiar i millorar les tècniques utilitzades en el modelatge de la variabilitat geogràfica del risc de patir o morir d'una determinada malaltia al llarg d'una àrea. Donat que aquestes dades sovint presenten correlació espacial, una metodologia adequada per modelar-les són els models lineals generalitzats mixtos. L'estimació d'aquests models es pot realitzar mitjançant dos perspectives: la bayesiana i la frequentista Des d'un punt de vista bayesià el procediment d'estimació és la fully bayesian y des de la frequentista el mètode més utilitzat és la quasiversosimilitut penalitzada.
El primer objectiu de la tesis ha estat comparar aquests dos procediments. Aquesta comparació s'ha realitzat en termes de biaix i precisió mitjançant un estudi de simulació. La principal conclusió que s'ha obtingut es que els dos procediments no presenten grans diferències tot i que en situacions d'un nombre petit de regions i de casos esperats les estimacions fully bayesian presenten uns resultats més consistents i en canvi amb moltes regions i casos esperats el procediment quasiversemblança penalitzada presenta més precisió en les estimacions.
El segon objectiu ha estat millorar la convergència de l'algoritme de maximització utilitzat en el procediment de la quasiversosimilitud penalitzada quan es modelen dades amb correlació espacial. Aquesta millora s'ha aconseguit reparametritzant la matriu de variàncies i covariàncies dels efectes aleatoris.
El tercer objectiu ha estat buscar mètodes per testar la absència d'un patró geogràfic, és a dir, la existència d'independència espacial. Per això s'han avaluat diverses proves per contrastar aquesta hipòtesis com: el test de Wald, el quocient de versemblances, el Score test, i el AKAIKE information criterion i a més s'ha estudiat el comportament del coeficient de concordança entre matrius. Els principals resultats que s'han obtingut són: el score test es la prova que presenta un millor equilibri entre l'error de tipus I i potència i el coeficient de concordança entre matrius és una mesura útil per prendre decisions sobre independència espacial, sobretot en aquells casos on el nombre de regions, casos esperats i la variància dels efectes aleatoris són petites.
Finalment, s'ha il·lustrat la metodologia presentada al llarg de la tesi mitjançant una aplicació sobre el risc de diabetis tipus I a Catalunya durant els anys 1989 i 1998.
The main objective of this thesis has been to study and to improve the techniques used in the analysis of the geographical variability of the disease risk across a region. In these studies the data are spatial correlated. The useful methodology to analyze this kind of data is the generalized linear mixed models. The estimation of these models can be carried out by two point of view: bayesian and frequentist. From a bayesian point of view, the estimation is done by fully bayesian and from frequentist the approach more used is the penalized quasi likelihood.
The first objective of this thesis has been to compare both approaches. The comparison has been performed in terms of bias and precision by a study of simulation. The main conclusion has been that both approaches don't present great differences but when the number of regions and expected counts are small the Fully Bayesian gives a more consistent results. However when the number of regions and expected counts are large the estimates by the penalized quasilikelihood are more precise.
The second objective has been to improve the convergence of the maximization algorithm used with the approach of the penalized quasi likelihood when the data are spatial correlated. The improvement has been obtained by a reparameterization of the variance and covariance matrix of the random effects.
The third objective has been to introduce the concordance coefficient between matrixes as a useful approach to evaluate the hypothesis of spatial independence. In addition, its performance has been compared to the Wald test, the score test, the likelihood ratio test and the AKAIKE information criterion. The main conclusions have been: the concordance coefficient has been shown to be a useful measure to decide spatial independence, mainly in those cases in which the region number, expected counts and the random effects variance are small and the score test is the test which presents a better balance between type I error and power.
Finally, the results of this thesis has been applied to the Insulin-Dependent Diabetes type I data from Catalonia.
APA, Harvard, Vancouver, ISO, and other styles
31

Rubio, Molina-Prados Francisco E. "Generalized consistent estimation in arbitrarily high dimensional signal processing." Doctoral thesis, Universitat Politècnica de Catalunya, 2008. http://hdl.handle.net/10803/6918.

Full text
Abstract:
La teoría del procesado estadístico de la señal halla un amplio abanico de aplicaciones en los campos de las comunicaciones de datos, así como también en el procesado con agrupaciones de sensores. Ciertamente, un gran número de estas aplicaciones pueden ser interpretadas como un problema de estimación paramétrica, típicamente resuelto mediante una operación de filtrado lineal actuando sobre un conjunto de observaciones multidimensionales. Esta disertación está dedicada al diseño y evaluación de métodos de procesado estadístico de la señal en condiciones de implementación realistas encontradas en la práctica.
Las técnicas tradicionales de procesado estadístico de la señal proporcionan un rendimiento satisfactorio dada la disponibilidad de un número particularmente elevado de observaciones de dimensión finita. En efecto, las condiciones de optimalidad originales no pueden garantizarse en teoría a menos que el número de muestras disponibles aumente de forma asintótica.
En base a esta suposición, en ocasiones se puede obtener una caracterización estadística haciendo uso de la teoría de grandes muestras para matrices de covarianza muestral. En la práctica, no obstante, la aplicación de estos métodos debe necesariamente basarse en una ventana de observación de longitud finita. Además, la dimensión de las muestras recibidas, y el tamaño de la ventana de observación son a menudo comparables en magnitud. En estas situaciones, los planteamientos basados en el análisis estadístico multivariante clásico pierden eficiencia de forma significativa.
En esta tesis se proporciona un marco teórico para la caracterización de la pérdida de eficiencia que los enfoques estadísticos clásicos experimentan en aplicaciones típicas del procesado de la señal en las condiciones prácticas mencionadas con anterioridad. En base a la teoría del análisis espectral de matrices aleatorias de grandes dimensiones, o teoría de matrices aleatorias, se construye una familia de métodos de inferencia estadística que superan las limitaciones de los esquemas de estimación tradicionales para un tamaño de muestra y dimensión de la observación comparativamente grandes. Específicamente, los estimadores de la nueva clase obtenida generalizan las implementaciones al uso siendo consistentes incluso para observaciones con dimensión arbitrariamente grande.
En particular, el marco teórico propuesto es empleado para caracterizar de forma adecuada el rendimiento de sistemas multi-antena con preámbulos de entrenamiento en un régimen asintótico más acorde definido por un tamaño y dimensión de las muestras que crecen sin límite con razón constante. Además, el problema de filtrado óptimo de rango reducido es revisado y extendido de forma que se satisfaga la definición anterior de consistencia generalizada. Por otro parte, se proporciona una caracterización asintótica en el doble límite de un conjunto de formas cuadráticas de las potencias negativas de la covarianza de la observación que generaliza los resultados existentes referentes a los momentos negativos de la distribución de Wishart. A partir de estos resultados, se construye una clase de estimadores de potencia de fuente mejorados que son robustos a imprecisiones en el conocimiento del nivel de ruido y de la matriz de covarianza real.
Con el propósito de reducir la complejidad computacional asociada a implementaciones prácticas basadas en la inversión de matrices, se aborda una solución a los problemas anteriores en términos de las potencias positivas de la matriz de covarianza muestral. A tal efecto, se obtienen una clase de estimadores consistentes generalizados del espectro de la matriz de covarianza y del nivel de potencia en el subespacio de Krylov definido por la covarianza real y el vector de firma asociado al parámetro de interés. Como contribución final, se propone una arquitectura de filtrado robusto a constricciones de la firma que es consistente en el régimen doblemente asintótico de referencia a lo largo de la tesis.
The theory of statistical signal processing finds a wide variety of applications in the fields of data communications, such as in channel estimation, equalization and symbol detection, and sensor array processing, as in beamforming, and radar and sonar systems. Indeed, a large number of these applications can be interpreted in terms of a parametric estimation problem, typically approached by a linear filtering operation acting upon a set of multidimensional observations. This dissertation is devoted to the design and evaluation of statistical signal processing methods under realistic implementation conditions encountered in practice.
Traditional statistical signal processing techniques intrinsically provide a good performance under the availability of a particularly high number of observations of fixed dimension. Indeed, the original optimality conditions cannot be theoretically guaranteed unless the number of samples increases asymptotically to infinity. In practice, though, the application of these methods to the implementation of practical signal processing systems must rely on an observation window of finite length. Moreover, the dimension of the received samples and the window size are most often comparable in magnitude. Under these situations, approaches based on the classical multivariate statistical analysis significantly lose efficiency or cannot even be applied. As a consequence, the performance of practical solutions in some real situations might turn out to be unacceptable.
In this dissertation, a theoretical framework for characterizing the efficiency loss incurred by classical multivariate statistical approaches in conventional signal processing applications under the practical conditions mentioned above is provided. Based on the theory of the spectral analysis of large-dimensional random matrices, or random matrix theory (RMT), a family of new statistical inference methods overcoming the limitations of traditional inferential schemes under comparably large sample-size and observation dimension is derived. Specifically, the new class of consistent estimators generalize conventional implementations by proving to be consistent even for a limited number of samples per filtering degree-of-freedom.
In particular, the proposed theoretical framework is shown to properly characterize the performance of multi-antenna systems with training preambles in the more meaningful asymptotic regime defined by both sample size and dimension increasing without bound at the same rate. Moreover, the problem of optimum reduced-rank linear filtering is reviewed and extended to satisfy the previous generalized consistency definition. On the other hand, an asymptotic characterization of a set of vector-valued quadratic forms involving the negative powers of the observation covariance is provided that generalizes existing results on the limiting eigenvalue moments of the inverse Wishart distribution. Using these results, a new generalized consistent eigenspectrum estimator is derived that uniquely relies on the sample covariance matrix (SCM) and does not require matrix eigendecomposition. The effectiveness of the previous spectral estimator is demonstrated via the construction of a source power estimator that is robust to inaccuracies in the knowledge of both noise level and true covariance matrix.
In order to alleviate the computation complexity issue associated with practical implementations involving matrix inversions, a solution to the two previous problems is afforded in terms of the positive powers of the SCM. To that effect, a class of generalized consistent estimators of the covariance eigenspectrum and the power level are obtained on the Krylov subspace defined by the true covariance matrix and the signature vector associated with the intended parameter. Finally, a signal-mismatch robust filtering architecture is proposed that is consistent in the doubly-asymptotic regime.
APA, Harvard, Vancouver, ISO, and other styles
32

Muñoz, Cinca Victor Eusebi. "Optimización de la producción en una terminal marítima de contenedores. Umbrales y punto de equilibrio." Doctoral thesis, Universitat Politècnica de Catalunya, 2008. http://hdl.handle.net/10803/7009.

Full text
Abstract:
Esta tesis analiza el conjunto de operaciones que se realizan en una Terminal de Contenedores Marítima para crear un modelo que optimice el volumen de producción en función de costes, precios, estructura y recursos.

Para ello se analizan todos los procesos, en especial el rendimiento de explanada y su influencia en la productividad de operaciones de transferencia en muelle (buque) y tierra (camiones y ferrocarril). En base al rendimiento de explanada, costes y precios se determinan los umbrales de producción.

Definimos una Terminal de Contenedores como una interfaz o conexión entre varios modos de transporte (carretera, ferrocarril, marítimo y aguas interiores). Sus funciones son la transferencia de contenedores entre los diferentes modos y hacer de almacenamiento temporal (buffer) en el ínterin. No confundir con una función de almacenaje, la Terminal solo amortigua la conexión entre los diferentes modos de transporte.

El Sistema Operativo es el conjunto de procesos que optimizan la transferencia y almacenamiento temporal de los contenedores. Generalizando las operaciones se pueden dividir en dos tipos, operaciones de muelle y operaciones de tierra. Siguiendo otro criterio también podríamos clasificarlos en procesos dinámicos, que serían los de transferencia y en procesos estáticos como el almacenamiento y estiba de la explanada.

El Capítulo Primero, describe la evolución histórica de los procedimientos de carga y descarga en los puertos hasta la aparición del contenedor. Continuamos con una introducción de las premisas para el diseño de una Terminal de contenedores. Para finalizar se definen objetivos y metodología del trabajo.

El Capítulo Segundo, describe la evolución de las Terminales de Contenedores Marítimas. Antecedentes y normalización del Contenedor, Transporte Combinado, Infraestructuras, la Investigación de Operaciones como herramienta para la creación de modelos y los diferentes estudios realizados sobre terminales de contenedores en función del método, alcance y objetivo.

El Capítulo Tercero es una introducción de los diferentes procesos tanto a nivel de transferencia o dinámicos como de planificación o estáticos. Se analizan las operaciones y los principales subprocesos relacionados como ciclos de máquina, planificación de explanada, tráfico, asignación de medios (humanos y mecánicos), asignación de atraques y análisis del flujo de camiones en puertas.

El Capítulo Cuarto es un estudio del rendimiento de explanada, se analizan las remociones, rotación del inventario y su relación con la ocupación y la productividad de las operaciones.

En el Capítulo Quinto, se definen, analizan y calculan los umbrales de producción y punto de equilibrio. El rendimiento de explanada combinado con los costes y precios de mercado determina los diferentes puntos a partir de los cuales la Terminal amortiza sus costes y maximiza el beneficio.

En el Capítulo Sexto concluye con la necesidad de aplicar modelos conjuntos en la operativa de terminales para obtener mejoras en su productividad y costes. Básicamente se trata de equilibrar la función dinámica con relación a la función estática.

En el Capítulo Séptimo finalmente se concluye que el grado de homogenización y la estancia de los containers conjuntamente con su layout son los factores determinantes que maximizan su rendimiento conjunto. Económicamente podemos llegar a saturar el nivel de producción pero es el cliente quien pone límite y obliga a optimizar rendimientos operativos, es por ello que la terminal debe buscar sus umbrales de producción siempre y cuando sus rendimientos operativos entren dentro de los márgenes del sector.

Por último en los anexos, se relacionan las características de las principales terminales del mundo, para finalizar con un análisis de las tendencias del sector.
In this thesis we analyze the whole Terminal Operating Processes being conducted in a Marine Container Terminal, to create a model that optimizes the production volume in terms of costs, price, structure and resources.

It analyzes all the processes, especially yard performance and its influence on the productivity of transfer operations on berthing line (ships) and land (truck and rail). Based on the yard performance, prices and costs we determine the production thresholds.

We define a container terminal as an interface or connection between various modes of transport (road, rail, maritime and inland waters). Its functions include the transfer of containers between different modes and make temporary storage (buffer) in the meantime. Not to be confused with a storage terminal or warehouse as it only dampens the connection between different modes.

The operating system is the set of processes that optimize the transfer and temporary storage of containers. Generalizing operations can be divided into two types dock operations and ground operations. Following another approach could also classify them in dynamic processes, which would be the transfer and static processes such as yard storage and stowage.

The First Chapter describes the historic development of procedures for loading and unloading at ports until the emergence of the container. We continue with an introduction of the premises for the design of a container terminal. Finally we define objectives and methodology of work.

The Second Chapter describes the evolution of Marine Container Terminals. Background and standardization of Container, Combined Transport, Infrastructures and Operations Research as a tool for creating models and different studies on container terminals depending on the method, scope and objective.

The Third Chapter is an introduction of different processes both at the level of transfer or dynamic as planning or static. We analyze the operations and the main related sub processes as machine cycles, yard planning, traffic, allocation of resources (human and mechanical), berth allocation and analysis of the flow of trucks at terminal gates.

The Fourth Chapter is a study of yard performance, thus we analyze the yard container shiftings (container removals), the rotation of inventory and its relationship to the occupancy and productivity of operations.

In the Fifth Chapter we define, analyze and calculate the thresholds of production and break-even point. Yard performance combined with the costs and market prices, determines different points from which the Terminal depreciates their costs and maximizes profit.

The Sixth Chapter concludes with the need to improve the combined operational models of terminal processes to obtain improvements in its productivity and costs. Basically it comes to balancing the dynamic role with regard to its static role.

In Chapter Seventh finally concluded that the degree of homogenization and container dwell times in conjunction with its layout are the determinants that maximize their overall performance. Economically we can reach saturation level of production but is the costumer who limits and obliges to optimize the operational performance, thus the Terminal must find their thresholds of production bearing in mind that its performance falls within the industry limits.

Finally in the annexes there are related the characteristics of the main terminals in the world, to finish with an analysis of the industry trends.
APA, Harvard, Vancouver, ISO, and other styles
33

Sabater, Lorenzo Pilar. "Las tesis doctorales de las facultades de ciencias de la Universidad de Murcia. 1955 – 1990 (catálogo, estadística descriptiva y bibliometría)." Doctoral thesis, Universidad de Murcia, 2001. http://hdl.handle.net/10803/38249.

Full text
Abstract:
El propósito de esta tesis doctoral ha sido la realización de un catálogo de la tesis doctorales defendidas en las Facultades de Ciencias de la Universidad de Murcia desde 1955 a 1990. Dicho catálogo recoge los datos referenciales de 667 tesis (292 de química, 225 de medicina, 84 de biología, 32 de veterinaria, 20 de matemáticas, 13 de física y 3 de geología). El catálogo se presenta ordenado por titulaciones y dentro de éstas, alfabéticamente por autores, se complementa con un índice general de autores, otro de directores y un tercero de autores ordenado por fechas de lectura de las tesis. El catálogo se acompaña además de un estudio estadístico descriptivo de los autores de las tesis, de los directores de las mismas, de la forma depresentación de las propias tesis y, por último, un análisis bibliométrico de las referencias bibliográficas de cada una de las tesis.
APA, Harvard, Vancouver, ISO, and other styles
34

Correa, Espinal Alexander Alberto. "Órdenes de experimentación en diseños factoriales." Doctoral thesis, Universitat Politècnica de Catalunya, 2007. http://hdl.handle.net/10803/6527.

Full text
Abstract:
Cuando se plantea un diseño factorial la práctica habitual es recomendar que los experimentos se realicen en orden aleatorio. Esta aleatorización tiene como objetivo el proteger de la posible influencia de factores desconocidos, ya que se espera que esa influencia quede difuminada entre todos los efectos de forma que ninguno se vea especialmente afectado y no se cometan errores al valorar su significación estadística. Pero este proceder tiene dos inconvenientes importantes:
1. El número de cambios de nivel en los factores que exige la aleatorización puede ser grande (bastante mayor que otras posibles ordenaciones) y difícil de llevar a la práctica, lo que complica y encarece la experimentación.
2. Si se realizan unas hipótesis que parecen muy razonables respecto al tipo de influencia que ejercen los factores desconocidos, existen órdenes claramente mejores que otros para minimizar la influencia de esos factores ajenos a la experimentación.
Numerosos autores han estado trabajando sobre este tema y ya han sido resueltos algunos aspectos, como el de determinar los órdenes de experimentación que mejor neutralizan la influencia de factores desconocidos, aunque sin tener en cuenta el número de cambios en los niveles de los factores que esa ordenación implica. Adicionalmente, se ha resuelto el problema de encontrar órdenes que presentan el mínimo número de cambios de nivel, pero sin considerar de forma simultánea la posible influencia de los factores desconocidos.
Cuando se considera conjuntamente la influencia de los factores desconocidos y el número de cambios en los factores, se ha llegado hasta los diseños con 16 experimentos, pero no más allá porque los procedimientos de búsqueda empleados son inviables cuando el número de ordenaciones posibles se hace tan grande (con 32 experimentos el número de ordenaciones posibles es 32! = 2,6 · 1035)
La tesis que se presenta tiene por objetivo encontrar un procedimiento que permita obtener órdenes de experimentación con el mínimo número de cambios en los factores y que además minimicen la influencia de los factores desconocidos en la estimación de los efectos, para cualquier diseño factorial a 2 niveles. Además, se pretende elaborar un procedimiento de forma que dichas ordenaciones, con las propiedades deseadas, puedan ser obtenidas de forma fácil por el experimentador.
El contenido se presenta estructurado en 7 capítulos y 8 apéndices. El capitulo 1 presenta las motivaciones que se consideraron para seleccionar este tema de investigación y define los elementos fundamentales que se presentan a lo largo del trabajo, tales como los diseños factoriales a dos niveles -completos o fraccionales- los problemas que puede causar la aleatorización en estos diseños, y cómo cuantificar la influencia de los factores ajenos a la experimentación en la estimación de los efectos. Asimismo, se plantean las hipótesis y el contexto en que se buscarán los órdenes de ejecución que presentan las propiedades deseadas.
En el capitulo 2, se realiza una revisión bibliográfica exhaustiva de las propuestas existentes respecto a los órdenes de ejecución de este tipo de diseños para conseguir que las conclusiones del análisis no se vean afectadas por la influencia de factores ajenos a la experimentación y/o que el número de cambios a realizar en los niveles de los factores sea mínimo. Al final del capítulo se comentan las debilidades del estado del arte actual y se plantean los aportes previstos en esta tesis. En el capitulo 3, se presenta un procedimiento original que permite encontrar órdenes de experimentación para diseños factoriales a 2 niveles con el mínimo número de cambios en los factores y un sesgo conocido. A este procedimiento lo denominamos método de duplicación, ya que duplicando las filas de un diseño 2k y agregando un factor adicional con una determinada secuencia de signos, permite obtener un diseño 2k+1 que conserve las características del diseño anterior. Una importante propiedad de este método es que puede aplicarse a cualquier número de factores.
Este procedimiento garantiza el mínimo número de cambios de nivel, pero no siempre garantiza el mínimo sesgo (medida de la influencia de los factores desconocidos en la estimación de los efectos). En el capitulo 4, se utilizan diferentes métodos de búsqueda para hallar órdenes de experimentación que presenten un sesgo menor al proporcionado por el método de la duplicación.
Estos métodos son:
- Búsqueda aleatoria con restricciones: Se utiliza un procedimiento que va generando aleatoriamente el orden de ejecución de los experimentos pero de forma que a una condición experimental solo puede seguirle otra condición que presente solo un cambio en los niveles de los factores (para garantizar el mínimo número de cambios). Una vez completada una ordenación se calcula su sesgo, y se almacenan las ordenaciones con un sesgo por debajo de un cierto umbral.
- Búsqueda exhaustiva: Se utiliza un algoritmo planteado por Dickinson (1974) y que fue adaptado por De León (2005). Es similar al algoritmo anterior, pero no genera las condiciones de experimentación de forma aleatoria sino que sigue una sistemática para encontrar todas las ordenaciones posibles. De esta forma se ha encontrado la mejor ordenación para diseños con 32 experimentos, hasta ahora desconocida, entendiendo por mejor la que presenta mínimo número de cambios en los niveles de los factores y de entre estas, la que presenta menor sesgo.
- Búsqueda exhaustiva con alimentación forzada. Es imposible explorar exhaustivamente todas las ordenaciones posibles si el número de experimentos es mayor a 32. Para explorar la zona de ordenaciones más prometedora se ha aplicado el procedimiento de búsqueda exhaustiva en tono a una ordenación que ya es buena y que ha sido obtenida por los métodos anteriores.
Para diseños con más de 32 experimentos los mejores órdenes se obtienen de una combinación de los diferentes métodos propuestos. Así, para diseños con 64 experimentos el mejor orden se obtiene con el método de búsqueda exhaustiva con alimentación forzada, alimentando el algoritmo con una ordenación obtenida a través de la búsqueda aleatoria con restricciones. La mejor ordenación para 128 experimentos se obtiene de la misma forma, pero alimentando el algoritmo con una ordenación obtenida por duplicación del orden obtenido para 64 experimentos.
Los métodos descritos en el capítulo 4 proporcionan lo que denominamos "órdenes semilla", ya que a partir de estos órdenes se pueden deducir otros con sus mismas propiedades. En el capitulo 5, se presentan dos procedimientos para obtener órdenes con las características deseadas a partir de los órdenes semilla. Estos métodos los denominamos método de permutación y cambios de signo y el método de las columnas de expansión. Ambos métodos han sido programados en macros de Minitab, lo cual permite generar de forma automática y aleatoria (de entre todos los posibles) los órdenes con las características propuestas.
En el capitulo 6, se presenta un nueva medida de atenuación de la influencia de los factores ajenos a la experimentación que permite comparar la atenuación entre diseños factoriales con diferente número de factores, mostrando que el procedimiento de duplicación presentado en el capitulo 3, es adecuado para obtener órdenes de experimentación con las características propuestas en diseños con más de 128 experimentos. Finalmente, en el capitulo 7 se presentan las principales conclusiones obtenidas y se definen posibles futuras líneas de investigación que podrían ampliar los estudios realizados.
En el anexo 1 se presentan los órdenes propuestos por De León (2005) para diseños con 8 y 16 experimentos, citados en diversas ocasiones a lo largo de la tesis y que constituyen uno de los puntos de partida. El anexo 2 presenta el lenguaje de programación FreeBasic, utilizado para implementar los algoritmos de búsqueda de ordenaciones, y en los anexos 3 y 4 se incluyen 2 de los programas realizados: el de búsqueda aleatoria para diseños con 64 experimentos (anexo 3) y búsqueda exhaustiva para diseño con 32 experimentos (anexo 4). En el anexo 5 se presenta uno de los órdenes obtenidos con las propiedades deseadas para los diseños con 128 experimentos, y en los anexos 6 y 7 se incluyen las macros realizadas con el lenguaje de programación de Minitab y que a partir de las semillas para cada tipo de experimento, propone una ordenación de entre todas las posibles que tienen las propiedades deseadas. Finalmente, en el anexo 8 se realizan algunas consideraciones sobre el análisis de los órdenes propuestos, con restricciones en la aleatorización, y se resumen las propuestas realizadas sobre este tema.
A common recommendation when thinking in a factorial design is randomizing the run order. The purpose of this randomization is to protect the response from the possible influence of unknown factors. This influence is expected to be blurred among all the effects, thus none of them is specially affected and no mistakes are made when estimating its statistical significance. But this praxis has two essential problems:
1. The number of factor's level changes due to randomization might be large (much larger than in other sequences). It can be also difficult to conduct, making the experimentation complicated and more expensive.
2. Making some reasonable hypothesis regarding the influence of the unknown factors, there are some sequences clearly better than others for minimizing the influence of this undesirable factors.
Many authors have worked on this topic, and some matters have already been solved. For instance, the experimentation sequence that better neutralises the influence of unknown factors is already determined, but without taking into consideration the number of level changes that this sequence implies. It has also been solved the problem of finding sequences that have the minimum number of level changes, but without considering simultaneously the potential influence of unknown factors.
When both the influence of unknown factors and the number of level changes is considered, the problem has been solved up to designs with 16 runs. But not further as the searching procedures used are nonviable when the number of possible sequences becomes so huge (with 32 runs the number of different sequences is 32! = 2,6 · 1035)
The aim of this thesis is finding a procedure that makes it possible to obtain run sequences with the minimum number of level changes, and that besides minimize the influence of unknown factors in the effect estimation, for any 2 level factorial design.
Moreover, the desired run sequence should be obtained easily by the experimenter when using the proposed procedure.
The content is structured in 7 chapters and 8 appendixes. Chapter 1 shows the motivation that lead to chose this research topic. It also defines the basic elements of this work (complete and fractional 2 level factorial designs, problems that appear when randomizing this designs, and how to quantify the influence of unknown and undesired factors in the effect estimation). In addition, the hypothesis and context in which the search for run orders with the desired properties will take place are presented.
Chapter 2 gives an exhaustive bibliographic review of the current solutions related with run orders in these designs robust to the influenceof factors alien to the experimentation
and/or with minimum number of level changes. The end of the chapter lists weaknesses of the current state of the art and advances the expected contributions of this thesis.
Chapter 3 presents an original procedure for finding run orders for 2 level factorial designs
with the minimum number of changes in the level factors and a known bias. We called this procedure duplication method, as duplicating the rows of a 2k design and adding a factor with a specific sign sequence, a 2k+1 design with the same properties as the first design is achieved. An important property of this method is that it can be applied to any number of factors.
This procedure guarantees the minimum number of level changes, but not always guaranties the minimum bias (measure of the influence that unknown factors have in the effect estimation). Chapter 4 shows different methods for finding run orders with less bias than the one produced by the duplication method. These methods are: - Random search with restrictions: The procedure randomly generates the run order, but in a way that a run is followed by another one that has only one change in the factor levels (the minimum number of changes is then guaranteed). Once the sequence is completed its bias is calculated, and the sequences with a bias under a threshold are stored.
- Exhaustive search: An algorithm proposed by Dickinson (1974) and adapted by De León (2005) is used. It is similar to the previous algorithm, but it does not generate the runs in a random manner. Instead, it behaves systematically in order to find all the possible run orders. With this algorithm the best run order for designs with 32 experiments has been found (and it was unknown until now). The best run order means the one that has minimum number of changes in the levels and, among these, the one with less bias.
- Exhaustive search with forced feeding. The exhaustive exploration of all possible run orders with more than 32 runs is impossible. The procedure of exhaustive search around a good run order already found with one of the previous methods allowed the exploration of the most promising run order area. For designs with more than 32 runs the best run orders are obtained from a combination of the proposed methods.
For designs with 64 runs the best order comes from the exhaustive search with forced feeding method, feeding the algorithm with a run order obtained from the random search with restrictions method. We used the same procedure for obtaining the best run order for 128 runs, but feeding the algorithm with a run order obtained from duplication of the one for 64 runs.
Methods described in chapter 4 provide the so called "seed orders": from this orders new ones with the same properties can be deduced. Chapter5 shows two procedures for obtaining orders with the expected properties from the seed orders. These methods are called permutation and sign change method, and expansion columns method. Both methods have been programmed as Minitab macros, making it possible to automatically and randomly generate (among all possible ones) the orders with the desired properties.
A new measure for attenuating the influence of factors alien to experimentation is presented in chapter 6. This allows the comparison among the attenuation of factorial designs with different number of factors, thus showing that the duplication procedure shown in chapter 3 is appropriate for obtaining run orders with the properties desired in designs with more than 128 runs. Finally, chapter 7 gives the main conclusions and defines possible future research areas that could extend our studies.
Appendix 1 shows the orders proposed by De León (2005) for designs with 8 and 16 experiments, cited several times in the thesis and one of our starting points. Appendix 2 explains the FreeBasic programming language, used for implementing the search algorithms. Appendixes 3 and 4 include 2 programs: random search for designs with 32 runs (appendix 3) and exhaustive search for designs with 32 experiments (appendix 4). Appendix 5 shows one of the obtained orders with the desired properties for designs with 128 runs. Appendixes 6 and 7 have the Minitab macros that using the seed orders for each kind of experiment proposes an order among all the possible ones with the desired properties. Finally, appendix 8 has some comments about the proposed run orders, with restrictions in the randomization, and summarizes the proposals about this topic.
APA, Harvard, Vancouver, ISO, and other styles
35

Barreto, Cabrera Claudia. "Minería de datos aplicada a la mejora de procesos de extrusión de elastómeros." Doctoral thesis, Universitat Politècnica de València, 2009. http://hdl.handle.net/10251/6608.

Full text
Abstract:
Este trabajo se ha centrado en el proceso de extrusión de perfiles de goma para la industria de la automoción. Los perfiles de goma son productos largos y de muy variadas formas que se colocan en los automóviles para proporcionar hermeticidad y estanqueidad en puertas y ventanillas. Con el uso de los perfiles se evitan varios inconvenientes en el automóvil, tales como ruidos indeseables del medio externo, vibraciones, así como la entrada de agua y aire. La línea de fabricación de los perfiles de goma, está compuesta por varios procesos, tales como la extrusión, el moleteado, el vulcanizado, el flockado y el corte del producto al tamaño indicado, de acuerdo al modelo del automóvil. De los procesos antes mencionados la investigación se centró en la extrusión, ya que a pesar de que su uso se remonta al año 1800 [Bhowmick et al. (1994), Rauwendaal (2002)], aún hay mucho por conocer de él. De acuerdo al Consorcio Nacional de la Industria del Caucho en España, en el año 2005, el 40% de las ventas de productos de goma en este país fueron destinadas al sector de la automoción [CNIC (2005)]. Asimismo, España es el tercer fabricante europeo de productos de goma desde el 2001. Con el objetivo de facilitar, tanto el control de calidad como el control de producción del producto, se lleva a cabo el registro detallado de los parámetros importantes de fabricación de los perfiles. Es decir, se realiza la trazabilidad del producto. Lo que permite proporcionar conocimiento del proceso productivo para determinar, en un momento dado, las causas de un posible defecto, incluso después de haber salido de fábrica y remontarse, si es necesario, a la calidad de las materias primas utilizadas. Se ha supuesto que los problemas surgen durante la extrusión y no en los procesos posteriores a éste. Al revisar la literatura, se han encontrado aplicaciones exitosas en el ámbito industrial [Rodríguez et al. (2003), Martínez de Pisón et al. (2003), Martínez de Pisón et al. (2005)].
Barreto Cabrera, C. (2009). Minería de datos aplicada a la mejora de procesos de extrusión de elastómeros [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6608
Palancia
APA, Harvard, Vancouver, ISO, and other styles
36

Caqui, Yabar Gildder Erdmann. "Transposición didáctica de la matemática y el rendimiento académico de los estudiantes del IV ciclo del curso de estadística aplicada de la Escuela Académico Profesional de Ingeniería Ambiental – Universidad César Vallejo Sede Lima Norte – 2014." Master's thesis, Universidad Nacional Mayor de San Marcos, 2017. https://hdl.handle.net/20.500.12672/8150.

Full text
Abstract:
Publicación a texto completo no autorizada por el autor
Demuestra como el empleo de la transposición de la didáctica de la matemática influye en el rendimiento académico en los alumnos del curso de estadística aplicada del cuarto ciclo de la Escuela Académico Profesional de Ingeniería Ambiental de la Universidad César Vallejo sede Lima Norte. La investigación es explicativa, el diseño no experimental, de nivel descriptivo explicativo, de tipo cuantitativo correlacional, se usa la encuesta como instrumento de medición; con una muestra de 85 alumnos. En el análisis, interpretación y discusión de resultados se usa la prueba de Hipótesis de Friedman. Concluyendo en la comprobación que la transposición de la didáctica de la matemática y el tiempo que se dedica a estudiar, sí influye en el nivel de rendimiento académico. Además de implementar los métodos matemáticos con mayor afinidad en los alumnos, de manera que la transposición didáctica tenga más llegada a los alumnos, alineados al logro de los objetivos relacionados con el aprendizaje, por lo que los rendimientos aumentan.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
37

Argoti, Morales Marco Antonio. "Gráficos de control por atributos con curvas ARL cuasi insesgadas: Análisis y desarrollo de métodos." Doctoral thesis, Universitat Politècnica de València, 2019. http://hdl.handle.net/10251/120025.

Full text
Abstract:
[ES] Los gráficos de control por atributos son herramientas estadísticas ampliamente utilizadas tanto en la industria de bienes como en la de servicios y sirven para monitorizar procesos mediante atributos de calidad. Los gráficos por atributos uni-variantes están entre los más conocidos y son el tema central de esta tesis. Estos gráficos se dividen en dos tipos: los basados en la distribución binomial (Gráficos np y p) y aquellos basados en la distribución de Poisson (Gráficos c y u). Los gráficos por atributos Shewhart son sin lugar a duda los más populares y tienen la particularidad de que sus límites de control se basan en la aproximación normal a las distribuciones binomial y de Poisson. Cuando se utilizan estos gráficos lo habitual es asumir que, siempre y cuando la aproximación normal sea adecuada, su capacidad de monitorización será idónea, es decir que podrán detectar de igual manera tanto mejoras como deterioros del proceso. En esta tesis se demuestra que, debido a la asimetría de las distribuciones binomial y de Poisson, el ajuste de la aproximación normal es impreciso en las colas de esas distribuciones y que eso afecta negativamente la potencia de detección de los gráficos Shewhart. Para poder establecer la magnitud de la afectación, se desarrollaron varios parámetros novedosos que sirven para evaluar y caracterizar la capacidad de monitorización de cualquier gráfico por atributos del tipo uni-variante. Por medio de estos parámetros se estableció que los gráficos Shewhart, al contrario de lo que se presume, están lejos de ser idóneos. Los nuevos parámetros mencionados en el párrafo anterior, también sirvieron para analizar gráficos de control planteados como alternativas superiores a los Shewhart. Los resultados de los análisis demostraron que esos gráficos tampoco tienen una capacidad de monitorización del todo satisfactoria. Dos nuevos gráficos de control, el p Kmod y el u Kmod, son propuestos. Estos gráficos tienen una capacidad de monitorización superior a cualquier otro gráfico de control (p y u respectivamente) incluido en esta tesis y además cuentan con un método de fácil uso mediante el cual es posible establecer si esa capacidad es o no óptima. Los resultados de la investigación han sido publicados en actas de congresos y en revistas científicas internacionales.
[CAT] Els gràfics de control per atributs són ferramentes estadístiques àmpliament utilitzades tant en la indústria de béns com en la de serveis i serveixen per a monitoritzar processos per mitjà d'atributs de qualitat. Els gràfics per atributs uni- variants estan entre els més coneguts i són el tema central d'esta tesi. Existeixen dos tipus: els gràfics basats en la distribució binomial (Gràfics np i p) i els gràfics basats en la distribució de Poisson (Gràfics c i u). Els gràfics per atributs Shewhart són sens dubte els més populars i tenen la particularitat que els seus límits de control es basen en l'aproximació normal a les distribucions binomial i de Poisson. Quan s'utilitzen estos gràfics allò més habitual és assumir que, sempre que l'aproximació normal siga adequada, la seua capacitat de monitorització serà idònia, és a dir que podran detectar de la mateixa manera tant millores com deterioraments del procés. En aquesta tesi es demostra que, a causa de la asimetria de les distribucions binomial i de Poisson, l'ajust de l'aproximació normal és imprecís en les cues d'eixes distribucions i que això afecta negativament la potència de detecció dels gràfics Shewhart. Per a poder establir la magnitud de l'afectació es van desenrotllar diversos paràmetres nous que servixen per a avaluar i caracteritzar la capacitat de monitorització de qualsevol gràfic per atributs del tipus univariant. A través d'ells es va establir que els gràfics Shewhart, al contrari del que es presumeix, estan lluny de ser idonis. Els nous paràmetres mencionats en el paràgraf anterior també van servir per a analitzar gràfics de control plantejats com a alternatives superiors als Shewhart. Els resultats de les anàlisis van demostrar que tampoc tenen una capacitat de monitorització del tot satisfactòria. Dos nous gràfics de control, el p Kmod i el u Kmod, són proposats. Estos gràfics tenen una capacitat de monitorització superior a qualsevol altre gràfic de control (p i u respectivament) inclòs en esta tesi, a més de comptar amb un mètode de fàcil ús, per mitjà del qual és possible establir si eixa capacitat és òptima o no. Els resultats de la investigació han sigut publicats en actes de congressos i en revistes científiques internacionals.
[EN] Attribute control charts are statistical tools that are widely used in the goods and services industries, they serve to monitor processes by means of product quality attributes. The uni-variant attribute charts are amongst the most well-known and are the main topic of this thesis. Two types of such charts exist, namely: the ones based on the binomial distribution (np and p Charts) and the ones based on the Poisson distribution (c and u Charts). The Shewhart attribute charts are without doubt the most popular and have the peculiarity that their control limits are based on the normal approximation to the binomial and Poisson distributions. When these charts are used it is commonly assumed that, as long as the normal approximation is adequate, their monitoring capability will be ideal, or in other words, that they will be able to detect with equal capacity, either process improvements or deteriorations. In this thesis we show that due to asymmetry of the binomial and Poisson distributions, the adjustment of the normal approximation is inaccurate on their tail sides and that this affects on a detrimental way the detection power of the Shewhart charts. In order to be able to establish the magnitude of the affectation, various novel parameters that serve to assess and characterised the monitoring capability of any uni-attribute type chart were developed. Through them it was established that the Shewhart charts, contrary to what is commonly assumed, are far from being ideal. The aforementioned novel parameters, also served to analyse other control charts posed as superior alternatives to the Shewhart¿s. The analysis results demonstrated that those charts, although superior to the Shewhart¿s, also have a far from satisfactory monitoring capability. Two new control charts, the p Kmod and the u Kmod, are proposed. These charts have a superior monitoring capability compared to any other chart (p and u respectively) included in this thesis, in addition they have an easy to use method that makes it possible to establish if their monitoring capability is, or is not, ideal. The results of the research have been published in congress proceedings and international scientific journals.
A la Secretaria de Educación Superior, Ciencia, Tecnología e Innovación (SENESCYT) del Ecuador, por auspiciar y darme la oportunidad de realizar mis estudios doctorales en España.
Argoti Morales, MA. (2019). Gráficos de control por atributos con curvas ARL cuasi insesgadas: Análisis y desarrollo de métodos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/120025
TESIS
APA, Harvard, Vancouver, ISO, and other styles
38

Capilla, Lladró Roberto. "Análisis estratégico de los estudios TIC en la Universidad Politécnica de Valencia." Doctoral thesis, Universitat Politècnica de València, 2009. http://hdl.handle.net/10251/5767.

Full text
Abstract:
En estos momentos la Universidad española se encuentra ante un momento crucial en el que se conjuga, entre otros, por una parte la incorporación al espacio europeo de educación superior, y por otra un prolongado descenso en el número de alumnos que acceden a la Universidad. Para afrontar esta coyuntura las Universidades han iniciado la elaboración de planes estratégicos, programas globales, análisis de la situación de cada universidad, etc., En este trabajo se realiza un análisis estatrégico de la evolución de las titulaciones TIC en la UPV, con los objetivos de analizar la evolución de estos estudios en los últimos años y determinar cuál va a ser la evolución previsible en los próximos, con el fin de plantear acciones que permitan decantar a más alumnos hacia estas carreras, si se considera necesario desde los órganos de gobierno. Adicionalmente se propone desarrollar una metodología de análisis trasferible a otras áreas de estudio El trabajo se inicia con una descripción de los objetivos perseguidos y la metodología seguida para alcanzarlos. En el Capítulo 2 se analiza el sistema educativo español, en el Capítulo 3 se analizan los datos utilizados referentes al sistema educativo, tanto globales como locales, dedicando el Capítulo 4 especialmente al empleo. En el capítulo 5 se analizan los estudios TIC en la UPV y en el Capítulo 6 se presentan las conclusiones del trabajo.
Capilla Lladró, R. (2009). Análisis estratégico de los estudios TIC en la Universidad Politécnica de Valencia [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/5767
Palancia
APA, Harvard, Vancouver, ISO, and other styles
39

Prohom, Duran Marc Jaume. "Incidència de les grans erupcions volcàniques en el clima de la Península Ibèrica i Balears." Doctoral thesis, Universitat de Barcelona, 2003. http://hdl.handle.net/10803/1951.

Full text
Abstract:
La incidència de les grans erupcions volcàniques sobre el clima de la Terra és un aspecte inherent a la pròpia variabilitat climàtica natural del planeta. En aquesta tesi, s'analitza la resposta del clima de la Península Ibèrica i les illes Balears davant d'aquest forçament extern. Mitjançant l'ús principalment de dues tècniques estadístiques, l'Anàlisi d'Èpoques Superposades i l'Anàlisi per Components Principals (PCA) s'aprecien les següents respostes:

· Des del punt de vista exclusivament tèrmic, la temperatura mitjana mensual experimenta un descens durant els dos o tres anys posteriors a erupcions volcàniques. En funció de la localització, la resposta presenta matisos. Així per a grans erupcions volcàniques de localització tropical la incidència es més perllongada però de magnitud modesta, mentre que per a erupcions d'elevades latituds (de l'hemisferi nord) la resposta té una durada molt inferior (4-6 mesos), però sent aquesta molt més aguda. Espacialment, tendeix a ser més sensible al refredament el sector meridional peninsular, mentre que estacionalment els mesos de tardor i estiu semblen ser els quins mostren un major descens tèrmic.

· La circulació atmosfèrica sobre Europa presenta anomalies durant el primer any posterior a una gran erupció tropical. Així, mitjançant l'ús de la tècnica PCA, en el primer hivern (desembre, gener i febrer) s'aprecia una major persistència de situacions zonals, amb un desplaçament cap al nord de l'anticicló subtropical de les Açores.

·´Com a conseqüència de l'anterior, és possible detectar significatives anomalies de precipitació en el sector peninsular y balear durant els tres hiverns posteriors a fenòmens volcànics de gran magnitud. Així, els dos primers hiverns registren anomalies negatives de precipitació a tota la Península, especialment al sector nord-oest.
ABSTRACT:

Large volcanic eruptions are a well-known source of natural variability of climate. The main goal of this research is to detect the volcanic signal in the climate of the Iberian Peninsula and Balearic Islands. Superposed Epoch Analysis and Principal Component Analysis (PCA) are the two techniques used for this purpose.
The main results show:

· Mean surface temperature of Iberia shows a decrease during the two or three years following main volcanic events. For tropical eruptions, the response is more persistent but of moderate magnitude, while for high latitude volcanic events (northern hemisphere) the response is shorter (4-6 months) but more intense. The southern sector of Iberia shows a more intense cooling, being summer and autumn the seasons more affected.

· The atmospheric circulation over Europe shows significant anomalies during the first year following a large tropical eruption. Thus, during the first post-volcanic winter season a more persistent westerly circulation is displayed, with a northward displacement of the subtropical Azores high.

· As a consequence, significant negative rainfall anomalies are clearly detected all over the Iberian Peninsula during the first two winter seasons.
La incidencia de las grandes erupciones volcánicas sobre el clima de la Tierra es un aspecto inherente a la propia variabilidad climática natural del planeta. En esta tesis, se analiza la respuesta del clima de la Península Ibérica e islas Baleares ante este tipo de forzamiento externo. Mediante el uso principalmente de dos técnicas estadísticas, el Análisis de Épocas Superpuestas y el Análisis por Componentes Principales (PCA), se ha podido apreciar la siguiente respuesta:

* Desde el punto de vista exclusivamente térmico, la temperatura media peninsular experimenta un descenso durante los dos a tres años posteriores a eventos volcánicos. En función de la localización, la respuesta presenta matices. Así para grandes erupciones tropicales la incidencia es más prolongada pero de magnitud modesta, mientras que para erupciones de elevadas latitudes (del hemisferio norte) la respuesta tiene una duración mucho menor (4-6 meses), pero siendo esta mucha más aguda. Espacialmente, tiende a ser más sensible al enfriamiento el sector meridional peninsular, mientras que estacionalmente los meses otoñales y estivales parecen ser los que reflejan un mayor descenso térmico.

* La circulación atmosférica sobre Europa presenta anomalías durante el primer año posterior a una gran erupción tropical. Así, mediante el uso de la técnica PCA, en el primer invierno (diciembre, enero y febrero) se aprecia una mayor persistencia de situaciones zonales, con un desplazamiento hacia el norte del anticiclón subtropical de las Azores.

* Como consecuencia de lo anterior, es posible detectar significativas anomalías de precipitación en el sector peninsular y Baleares durante los tres inviernos posteriores a eventos volcánicos de gran magnitud. Así, los dos primeros inviernos registran anomalías negativas de precipitación en toda la Península, especialmente en el sector NW.
APA, Harvard, Vancouver, ISO, and other styles
40

JIMENEZ, AMEZQUITA WILSON NICOLAS. "Análisis de la eficiencia de los hospitales públicos de la Comunidad Valenciana." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/60823.

Full text
Abstract:
El sector de la sanidad es uno de los sectores más importantes del sistema socio-económico, tanto su importancia social, dado que es el sector que vela por la salud de los ciudadanos, como en su importancia económica, dada la gran proporción de los recursos económicos que absorbe.Es por ello que una de las finalidades fundamentales que hoy día se persigue en la generalidad de los países es mejorar el sistema sanitario, tanto en la calidad de sus prestaciones, como en la eficiencia y el grado de aprovechamiento de sus recursos.Es precisamente en este contexto en el que se enmarca el objetivo de la presente tesis doctoral, el cual es caracterizar y diferenciar los hospitales existentes en la Comunidad Valenciana, en los aspectos relativos a la producción de servicios sanitarios y consumo de recursos (sanitarios y económicos), pudiendo así clasificarlos y detectar las diferentes áreas que afectan a su eficiencia y capacidad de producción. La metodología empleada consiste en una primera parte, en la obtención de toda la información estadística referente a las actividades hospitalarias, suministrada por la Consellería de Sanidad de la Generalitat Valenciana, durante el año 2.004. Previamente, y según diversos criterios de inclusión, se determinaron los hospitales que debían ser seleccionados para el estudio. A continuación, a través de los métodos estocásticos, se realiza un análisis descriptivo y de los componentes principales; a partir de este último, se desarrollan modelos de regresión; finalmente, se identifican las variables tipo input y output.Posteriormente, se realizó el análisis clúster jerárquico para agrupar y clasificar de forma homogénea los hospitales de la Comunidad Valenciana. El resultado obtenido fueron tres clusters, destacándose que el primero solo contiene un único hospital de referencia que por sus variables de tamaño actividad y funcionamiento lo hacen constituir un único grupo. El segundo clúster está constituido por hospitales de referencia y el
Jimenez Amezquita, WN. (2012). Análisis de la eficiencia de los hospitales públicos de la Comunidad Valenciana [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/60823
Palancia
APA, Harvard, Vancouver, ISO, and other styles
41

Torres, Salinas Karina Hesi. "El modelo de larga duración Weibull-Geométrica." Master's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/13781.

Full text
Abstract:
Los modelos de larga duración son una extensión de los modelos de supervivencia tradicional y nos permiten modelar una proporción de la población que no llegan a experimentar un evento de interés, incluso después de un largo periodo de seguimiento. En este trabajo se presenta y deduce la distribución de larga duración Weibull-Geométrica y su proceso de estimación e inferencia. Se desarrolló un estudio de simulación con el un de evaluar el desempeño de las estimaciones y determinar si se recuperan los parámetros. Asimismo el modelo fue aplicado a una muestra de clientes que adquirieron y activaron una tarjeta de crédito entre enero a diciembre del año 2015 y donde el principal objetivo del análisis era entender el comportamiento del tiempo hasta la cancelación de la tarjeta de crédito del cliente. Comparamos al modelo de larga duración Weibull-Geométrica con otros modelos de larga duración, Exponencial-Geométrica y Weibull. Los resultados indican que nuestro modelo muestra un mejor ajuste en los datos.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
42

Bigio, Luks David Miles. "Selección de métodos numéricos aplicados a la predicción estadística usando la regresión logística." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/8149.

Full text
Abstract:
El presente proyecto de fin de carrera buscará encontrar el mejor método computacional para la predicción estadística usando la regresión logística. Esta búsqueda se realizará dentro de un espacio limitado de métodos que se estudiaran. Una vez que se realice la investigación se escogerá el algoritmo más óptimo para la predicción y se obtendrá como resultado un aplicativo genérico para modelar comportamientos futuros en cualquier ámbito. Al leer la presente investigación uno podrá lograr discriminar sobre las mejores herramientas – de las planteadas – para la predicción de escenarios futuros en cualquier campo de estudio, de tal forma que se mejoren las decisiones tomadas y que los usuarios (estadísticos, matemáticos e ingenieros) sepan un poco más sobre los métodos que los llevan a sus respuestas predictivas.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
43

Canales, Cristian M. "Population structure and spatio-temporal modelling of biological attributes and population dynamic of nylon shrimp (Heterocarpus reedi) off central Chile (25°-36°S) = Estructura poblacional y modelamiento espacio-temporal de los atributos biológicos y la dinámica poblacional del camarón nailon Heterocarpus reedi (Decapoda, Caridea) frente a Chile central (25°-36°S)." Doctoral thesis, Universitat de Barcelona, 2016. http://hdl.handle.net/10803/400612.

Full text
Abstract:
The population structure of fishery resources and the impact of environmental factors over its productivity are important processes to be considered in fisheries management. Environmental factors could determine both, the success of larval drift as the population spatial structure and its changes of biomass. Considering this, two key elements in the adequate, sustained exploitation of any fishery should be considered; the biological attributes of the species and how these vary over time and space. Research is needed to obtain a more thorough understanding of these effects, how they vary, and how they relate to environmental factors. However, spatial processes rarely constitute an explicit consideration in the evaluation and management of marine invertebrate populations, but this is particularly important in processes in which larval drift acts as one of the main mechanisms of population expansion. The ecological concept metapopulation is widely used and accepted for understanding low-mobility marine populations, and its implications for fishery management purposes should be considered. In this work we show the environmental effect over distribution, abundance and spatial structure of nylon shrimp population (Heterocarpus reedi) off central Chile (25°-37°S) from trawling surveys carried out between 1996 and 2011. Environmental variables considered where sea surface concentration of chlorophyll-a and dissolved organic matter. Results show a geographical separation in population around 32°S. Shrimp density is higher in the southern zone, where concentration of chlorophyll-a and dissolved organic matter are high due to presence of river tributaries and coastal upwelling zones. In this area, the bulk of the adult population is concentrated, which could act as "source" population and thereby its influence on larval drift could explain both, the preponderance of juveniles in the northern area as the smallest size of its population (“pseudo-sink” population). In the southern area, a process of spatial and bathymetric expansion had driven the increase in population size over time, where the colonization and individual somatic growth had been the main mechanisms. We found that periods of good environmental conditions explain high densities of shrimp with a delay of two years, which might be related mainly with larval survival and enhanced recruitment and somatic growth. In order to do a cross check of this proposal, and based on a complementary information source, 17 years of biological data collected from nylon shrimp fishery off central Chile were analyzed. We analyze these data using generalized linear models and determine the factors responsible for changes in carapace length, body weight, maturity, and sex ratio. better physical conditions and reproductive attributes of H. reedi south of 32°S would be related with the best environmental and food conditions at this zone. For example, individuals are larger, females are longer at first maturity (CL50%), and mature females are less prevalent. We outline a theoretical foundation that can guide future research on H. reedi. We also suggest that future conservation measures consider biological attributes within a spatial context. Finally, in order to contrast different hypotheses of population structure and spatial connectivity proposed along this work, we proposed a length-based population model and analyzed the biologic and fishery information available since 1945 under three hypotheses, based on the connectivity rate of two subpopulations located to the north and south of 32°S. The results show that, statistically, several hypotheses can be used to explain the data. The most likely hypothesis is that of a metapopulation in which the south zone acts as a source population (reproductive refuge) and determines, partially or totally, the arrival of recruits in the north zone, thereby explaining the population increase over the last decade. According to our study, empirical evidence will strengthen the hypothesis of spatial connectivity and, given the implications for managing the fishery of this resource, special attention should be paid to the biological-fishery conditions recorded south of 32°S, caution in its exploitation levels and consider this zone as reproductive refuge of nylon shrimp.
L'estructura poblacional dels recursos pesquers i l'impacte dels factors ambientals sobre la productivitat són processos importants a tenir en compte per a la gestió de les seves pesqueries. Els factors ambientals poden determinar l'èxit de la deriva larvària, l'estructura espacial de la població, així com les variacions de la biomassa. Tenint en compte aquests aspectes, s’haurien de considerar dos elements clau per a una explotació adequada i sostinguda de qualsevol pesqueria: les característiques biològiques de les espècies i com aquestes poden variar en el temps i en l’espai, essent necessària la millora de la comprensió d'aquests efectes, com varien, i com es relacionen amb els factors ambientals. No obstant això, els processos espacials rarament són considerats explícitament en la valoració i gestió de les poblacions d'invertebrats marins, més quan aquests aspectes són particularment importants en els processos de deriva larval actuant de principal mecanisme d'expansió d'una població. El concepte ecològic de metapopulations és àmpliament utilitzat i acceptat per a la comprensió de les poblacions marines de baixa mobilitat, i les seves implicacions haurien de ser considerades a la gestió pesquera. En aquest treball es demostra l'efecte del medi en la distribució, abundància i estructura espacial de la població de la espècie de crustaci decàpode Heterocarpus reedi anomenada a Xile en castellà com a “Camarón nailon”. S’ha mostrejat aquesta espècie a a la zona central de Xile (25 ° - 37 ° S) a partir de la informació obtinguda en campanyes oceanogràfiques de pesca d'arrossegament fets entre els anys 1996 i el 2011, així com de les característiques de l’aigua superficial (concentració de clorofil·la α i de la matèria orgànica dissolta). Els resultats van mostrar una separació geogràfica de la població a 32 ° S, on la densitat de gambes és més gran, així com també la concentració de clorofil·la α i la dissolució de matèria orgànica, això darrer degut segurament a la presència d'afluents dels rius i zones d'aflorament costaner. En aquesta zona es concentra la major part de la població adulta i podria actuar com a població “font” i la seva influència en la deriva larvària explicaria tant la preponderància de juvenils en la zona nord així com una població menys abundant (població “pseudo-sumider”). A la zona sud, l'augment de mida de la població s'explica per un procés d'expansió espacial i batimètric a traves del temps, on la colonització i el creixement somàtic dels individus serien els principals mecanismes. Els períodes de condicions ambientals favorables explicarien les altes densitats de individus de l’espècie niló dos anys després. Aquestes condicions ambientals favorables podrien estar principalment relacionades amb la supervivència de les larves, l'èxit dels processos de reclutament i el posterior creixement somàtic. D'altra banda, i amb l’objectiu de fer una verificació dels resultats dalt explicats, i basant-se en una font d'informació complementària, es van analitzar 17 anys de dades biològiques recollides en mostrejos pesquers del “camaron nylon” davant de la costa central de Xile. Es van analitzar aquestes dades utilitzant models lineals generalitzats (GLM) per tal de determinar els factors responsables dels canvis en la longitud del cefalotòrax, el pes del cos, la maduresa sexual i la proporció de sexes. Es va determinar una notable heterogeneïtat espacial en les característiques biològiques dels individus de H. reedi. Els individus en millor condició es van trobar al sud de la latitud de 32 ° S i aquesta millor condició es va relacionar amb les millors condicions ambientals i de menjar en aquesta zona. Per exemple, els individus són més grans, les femelles assoleixen abans el tamany de primera maduresa (CL50%), i les femelles madures són menys freqüents. Amb aquests resultats es presenta una base teòrica que pot guiar la recerca sobre les poblacions de H. reedi tenint en compte les consideracions espacials en les futures mesures de conservació. Finalment, per poder comparar diferents hipòtesis sobre l'estructura de la població i connectivitat espacial proposades al llarg d'aquest treball, es presenta un model de població basat en la talla i s’ha analitzat la informació biològica i pesquera disponible des de 1945. S’han tingut en compte tres hipòtesis en funció de la taxa de connectivitat de les dues subpoblacions, es a dir, les situades al nord i al sud de 32 ° S. Els resultats van mostrar que, estadísticament, diverses hipòtesi es poden fer servir per a explicar les dades disponibles. La hipòtesi més versemblant és la d'una metapoblació en la qual la zona sud actua com a població font o refugi reproductiu. Aquesta població determina parcialment o totalment l'arribada de reclutes a la zona nord i podria explicar l'augment d'aquesta població trobat a l'última dècada. Segons el nostre estudi, la hipòtesi de connectivitat espacial ha de ser contrastada només amb l'evidència empírica. Tenint en compte les implicacions per a la gestió pesquera, s’hauria de prestar una especial atenció a les condicions biològico-pesqueres que es registren al sud de 32 ° S, tenir especial precaució als nivells d'explotació pesquera i considerar aquesta zona (sud del 32 ° S) com a refugi reproductiu a Xile de l’espècie H. reedi.
APA, Harvard, Vancouver, ISO, and other styles
44

Vàzquez, Garcia Mercè. "Estratègies estadístiques aplicades a l'extracció automàtica de terminologia." Doctoral thesis, Universitat Pompeu Fabra, 2014. http://hdl.handle.net/10803/283114.

Full text
Abstract:
La terminologia és present en totes les àrees de coneixement. Amb l'ús de la tecnologia en els diferents àmbits de la societat, la creació i difusió de nous termes és molt ràpida i efectiva. En les darreres dècades s'han desenvolupat mètodes d'extracció automàtica de termes basats en anàlisi lingüística, estratègies estadístiques i una combinació de les dues modalitats per a facilitar el buidatge manual d'aquestes unitats, però aquests mètodes tendeixen a extreure un alt nombre de candidats a terme, i aquest fet dificulta la validació manual dels candidats. En aquesta tesi hem dissenyat un algorisme que aprofita els termes presents en un àmbit d'especialitat per a detectar-ne de nous (mètode token slot recognition) i fa ús de mesures d'associació lèxica per a poder resoldre aquesta limitació. El treball presenta el nivell de rendibilitat que ofereix la combinació d'estratègies estadístiques analitzades. Hem observat que el mètode token slot recognition extreu els candidats que tenen més probabilitat de ser terminològics i té capacitat per a processar corpus en diferents llengües i àmbits d'especialitat. La nostra recerca també confirma que les mesures d'associació lèxica situen els termes en les posicions inicials d'una llista de candidats i, en conseqüència, faciliten la tasca de validació manual final dels candidats. Com a conclusió, la combinació d'estratègies analitzades ofereix flexibilitat a l'hora d'identificar i validar els termes presents en corpus d'especialitat, fet que permet plantejar la seva integració en una eina d'extracció de terminologia.
Terminology is found in all areas of knowledge. Due to the use of technology in the different ambits of society, new terms are being created and distributed very quickly and efficiently. Over recent decades, automatic term extraction methods have been developed based on linguistic analysis, statistical strategies and a combination of the two to aid manual extraction. However, these automatic methods tend to produce large numbers of term candidates, which makes manual candidate validation tasks more difficult. This thesis presents an algorithm that uses the terms from a specialist area to detect new terms (token slot recognition method) and lexical association measures to overcome these limitations. It also shows the level of performance offered by the combination of statistical strategies analysed. The token slot recognition method extracts candidates that are more likely to be terms and is able to process corpora in different languages and specialist areas. The research also confirms that lexical association measures place terms in the top positions in lists of candidates and, as a result, aid the final manual candidate validation tasks. In conclusion, the combination of statistical strategies analysed offers flexibility when identifying and validating the terms present in a specialist corpus, which raises the possibility of integrating them into a term extraction tool.
La terminología se encuentra presente en todas las áreas de conocimiento. Con el uso de la tecnología en los diferentes ámbitos de la sociedad, la creación y difusión de nuevos términos es muy rápida y efectiva. En las últimas décadas se han desarrollado métodos de extracción automática de termas basados en análisis lingüístico, estrategias estadísticas y una combinación de las dos modalidades para facilitar el vaciado manual de estas unidades, pero estos métodos tienden a extraer un alto número de candidatos a término, y este hecho dificulta la validación manual de los candidatos. En esta tesis hemos diseñado un algoritmo que aprovecha los términos presentes en un ámbito de especialidad para detectar nuevos términos (método token slot recognition) y hace uso de medidas de asociación léxica para poder resolver esta limitación. El trabajo presenta el nivel de productividad que ofrece la combinación de estrategias estadísticas analizadas. Hemos observado que el método token slot recognition extrae los candidatos que tienen más probabilidad de ser terminológicos y tiene capacidad para procesar corpus en diferentes lenguas y ámbitos de especialidad. Nuestra investigación también confirma que las medidas de asociación léxica sitúan los términos en las posiciones iniciales de una lista de candidatos y, en consecuencia, facilitan la tarea de validación manual final de los candidatos. Como conclusión, la combinación de estrategias analizadas ofrece flexibilidad a la hora de identificar y validar los términos presentes en corpus de especialidad, lo que permite plantear su integración en una herramienta de extracción de terminología.
APA, Harvard, Vancouver, ISO, and other styles
45

Bartumeus, i. Ferré Frederic. "Lévy Processes in Animal Movement and Dispersal." Doctoral thesis, Universitat de Barcelona, 2005. http://hdl.handle.net/10803/1424.

Full text
Abstract:
ENGLISH ABSTRACT:

The general aim of this thesis was to develop a theoretical framework in order to study large-scale animal movements and/or dispersal processes as random search strategies. The framework was based on statistical physics methods and concepts related to a class of stochastic processes based on the Lévy-stable distribution (the so-called Lévy processes). In particular, we modeled animal movement and dispersal processes by means of a new class of random walks based on the Lévy-stable distribution (the so-called Lévy flights). Lévy flight models introduce two relevant long-term statistical properties: super-diffusion and scale invariance. Both phenomena have been observed in large-scale animal movement and dispersal data, and impinge directly into organisms' encounter probabilities at both individual (e.g., search strategies) and population (e.g., colonization of new habitats) organizational levels. The approach is novel not only because of the methodology used (based on the statistical physics related to Lévy processes), but also because it is founded on statistical principles usually understated in animal ecology. To achieve this general objective we carried out three main studies, which define the main parts of the thesis.

First, we quantified the variations in encounter rates due to the statistical properties provided by Lévy walking particles in spatially explicit systems. We carried out a series of numerical simulations in spatially explicit systems (1D, 2D, and 3D) where randomly moving particles (Lévy random walkers) must find each other. The simulations were meant to represent different encounter scenarios and different encounter dynamics: destructive and non-destructive. We showed that in certain scenarios encounter rate variation was shaped by the nature of the statistical properties of movement rather than by physical aspects of the particles (organisms) such as size or velocity. In particular, super-diffusion and scale invariance were relevant at low resource densities and/or when the search processes involve low spatial dimensionality. We also showed how the movement trajectories of the searching particles could be optimized depending on the type of encounter dynamics (destructive or not), and the mobility of the target particles (i.e., both velocity and super-diffusive properties).

Second, we studied how and why Lévy flight properties (i.e., scale invariance, and super-diffusion) should be sustained by specific animal movement mechanisms. We showed an organism capable to adjust its search statistics as a function of resource concentration. As resource decreased the marine heteroflagellate Oxhyrris marina changed from a Brownian to a Lévy search statistics. Changes in the helical component of the animal movement were also tracked and interpreted. The biological mechanism allowing the main statistical change was also identified: the transient arrests of the longitudinal flagellum provided scale invariant intermittence to the movement. Assuming random walk models as a necessary tool to understand how animals face environmental uncertainty, we also analyzed the statistical differences between Lévy walks and another type of random walk models commonly used to fit animal movement data, the correlated random walks. This analysis allowed us to understand better why we should expect Lévy flight statistical properties to be behaviorally adaptive in living organisms.

Third, we establish a link between the individual and the population level of organization by modeling "population dispersal strategies" as Lévy processes. A Lévy-dispersal kernel is the one based on a Lévy-stable distribution. We modeled (meta) population dispersal strategies by means of Lévy-dispersal kernels. In particular, we studied how different Lévy flight dispersal strategies are optimized depending on the underlying landscape architecture (e.g., spatial correlation, fragmentation, etc.). Finally, as a first step towards the introduction of Lévy-dispersal kernels in the context of metapopulation theory, we developed a model (both numerical and analytic) to study the role of dispersal range in the persistence and dynamics of metapopulations living in fragmented habitats.
EN CATALÀ:

L'objectiu principal d'aquesta tesi va ser desenvolupar un marc teòric basat en mètodes i conceptes de física estadística per tal d'estudiar el moviment animal i els fenòmens de dispersió. A escales espacio-temporals grans, el moviment dels animals i els fenòmens de dispersió poden ésser entesos com a processos de cerca a l'atzar. Concretament, nosaltres hem modelat el moviment animal i els processos de dispersió en base a una classe de passeigs a l'atzar coneguts com a vols de Lévy que es fonamenten en la distribució estable de Lévy. Els vols de Lévy s'inclouen en una classe més àmplia de processos estocàstics tots ells basats en la distribució estable de Lévy i que reben el nom genèric de processos de Lévy. Els vols de Lévy introdueixen en el món dels passeigs a l'atzar dues propietats estadístiques rellevants: la super-difusió i la invariànça d'escala. Tots dos fenòmens han estat descrits en relació al moviment dels animals a gran escala i/o en relació a certs processos de dispersió. Tots dos fenòmens tenen implicacions directes sobre les probabilitats d'encontre tant a nivell individual (processos de cerca de recursos) com a nivell poblacional (processos de colonització d'habitats fragmentats). L'aproximació al problema del moviment animal i la dispersió proposada en aquesta tesi, no només és novedosa en el sentit estrictament metodològic (i.e., aplicació de la física estadística i dels processos de Lévy al moviment animal), sinó també perquè es basa en una sèrie de principis estadístics que fins ara no han estat considerats en l'estudi del moviment animal.

Les principals conclusions que es poden extreure del treball realitzat són: 1) les propietats estadístiques lligades als processos de tipus Lévy (i.e., super-difusió i invariànça d'escala) incrementen les taxes d'encontre en situacions de cerca a l'atzar, 2) existeixen organismes capaços de provocar l'emergència d'aquestes propietats estadístiques en una situació de cerca a l'atzar, 3) a nivell poblacional, fenòmens de dispersió de tipus Lévy incrementen la taxa de colonització en hàbitats molt fragmentats, i 4) la dispersió de llarg abast facilita l'existència de metapoblacions en hàbitats fragmentats.
APA, Harvard, Vancouver, ISO, and other styles
46

Sosa, Paredes Yuriko Kirilovna. "Modelo Dina aplicado a la evaluación de matemática en estudiantes de segundo grado de secundaria." Master's thesis, Pontificia Universidad Católica del Perú, 2017. http://tesis.pucp.edu.pe/repositorio/handle/123456789/8717.

Full text
Abstract:
Los modelos de diagnóstico cognitivo (MDC) tienen como finalidad describir o diagnosticar el comportamiento de los evaluados por medio de clases o perfiles latentes, de tal manera que se obtenga información más específica acerca de las fortalezas y debilidades de ellos. Uno de los modelos más populares de esta gran familia es el llamado modelo DINA, el cual tuvo su primera aparición en Haertel (1989) enfocado principalmente en el campo educacional. Este modelo considera solo respuestas observadas dicotómicas de parte de los individuos y tiene como restricción principal que ellos deben dominar necesariamente todas las habilidades requeridas por cada ítem; aquellas que se resumen en una matriz llamada Q. Asimismo, el modelo estima parámetros para los ítems, los cuales son denominados de \ruido": Adivinación y Desliz. En este trabajo desarrolla teóricamente el modelo expuesto; es decir, sus fundamentos y principales propiedades desde el enfoque bayesiano. Específicamente, las estimaciones se realizan mediante el Muestreador de Gibbs. Se realizaron 8 estudios de simulación, cada uno de ellos con tres diferentes tamaños de población, donde se probaron combinaciones de los parámetros en estudio con el fin de comparar la recuperación de parámetros mediante el enfoque clásico y el bayesiano. El análisis de ambos enfoques se realizó con rutinas de código del software libre R, usando los paquetes CDM y dina para el enfoque clásico y el bayesiano, respectivamente. En líneas generales, los resultados muestran estimaciones insesgadas y con valores pequeños de la raíz del error cuadrático medio (RMSE) para ambos enfoques. Incluso, conforme el tamaño de la población incrementa, las estimaciones no tienen mayores diferencias. Aunque en tamaños de población más pequeños el enfoque bayesiano obtiene ligeras ventajas con respecto al otro, especialmente en el parámetro de probabilidad de pertenencia a las clases (π). Además, es necesario mencionar que los parámetros de ruido de los ítems son estimados más precisamente con el enfoque clásico en varios de los estudios. Finalmente, se presenta una aplicación enfocada en educación, donde se analiza una muestra de 3040 alumnos del 2do grado de secundaria, evaluados en una prueba de 48 ítems de la competencia matemática realizada por la Oficina de Medición de la Calidad de los Aprendizajes (UMC) en el 2015. A esta prueba se le aplica el modelo de Rasch y el modelo DINA bajo el enfoque bayesiano, con el _n de estudiar la correspondencia entre indicadores de ambos modelos, tanto para los parámetros de los alumnos (habilidad y per_les latentes) como de los ítems (dificultad y parámetros de ruido).
Trabajo de investigación
APA, Harvard, Vancouver, ISO, and other styles
47

Valencia, Chacón Raphael Félix. "Análisis y evaluación de procesos por lotes aplicando la estadística T2 de hotelling." Universidad Nacional Mayor de San Marcos. Programa Cybertesis PERÚ, 2010. http://www.cybertesis.edu.pe/sisbib/2010/valencia_cr/html/index-frames.html.

Full text
Abstract:
Los procesos utilizados en la industria se pueden dividir en dos grandes grupos: los procesos continuos y los procesos por lotes (batch). Las técnicas utilizadas para monitorear y controlar los procesos continuos no son directamente aplicables a los procesos por lotes, ya que estos últimos presentan una dimensión adicional con la que se tiene que tratar: el tamaño del lote. En la presente tesis se realizó el análisis y evaluación de procesos por lotes, aplicando para ello una modificación de la estadística T2 de Hotelling. Para la aplicación de la metodología propuesta se tomó información del proceso de desarenado para el procesamiento por lotes de moluscos bivalvos de una empresa exportadora de productos hidrobiológicos congelados. En la búsqueda de controlar la variabilidad de un proceso por lotes, se logró descomponer la variabilidad total de las observaciones de los lotes en dos fuentes independientes: una fuente que explique la variabilidad entre las mediciones realizadas en diferentes periodos de tiempo es decir entre lotes y otra fuente que explique la variabilidad entre las mediciones realizadas para un solo periodo de tiempo es decir dentro de lotes. Asimismo, al trabajar con procesos por lotes es posible que cada uno de los lotes tenga distinto vector de medias, alterando de esta manera la puesta en control del proceso; entonces es necesario conocer el tipo de distribución normal que presentan los datos; por esta razón se buscará saber si los datos provienen de una distribución normal multivariada con un vector de medias iguales y con matriz de varianzas covarianzas común (Categoría 1) o provienen de una distribución normal multivariada con vector de medias diferentes y con matriz de varianzas covarianzas común (Categoría 2). Para implementar esta metodología fue necesario usar la estadística T2 modificada de Hotelling y para simplificar los cálculos de la estadística se tuvo que elaborar un programa en el software libre R. De esta forma se pudo llegar a un análisis adecuado de la variabilidad de un proceso por lotes. La aplicación de la metodología propuesta se efectuó en la empresa “Frutos del Mar” especializada en la exportación de moluscos bivalvos
Manufacturing processes can be classified in two groups: continuous and batch production processes. The statistical techniques used to control continuous production processes are not applicable to batch production processes because the latter present an additional dimension to deal with: the batch size. This thesis presents the analysis and evaluation of batch production processes using a modification of the T2 Hotelling statistic. In order to apply the proposed methodology, information about the desanding process for the batch production process of bivalve mollusk of an export enterprise of frozen hydrobiological products was collected. Trying to control the variability of a batch production process, the total variability of the observations was divided in two independent sources: one to explain the variability between measures at different times, that is, between batches, and the other to explain the variability between measures at the same time, that is, within batches. Likewise, when working with batch production processes it is possible that each batch had a different mean vector. This situation affects the control setting of the process, so it is necessary to know if the data have a multivariate normal distribution with common mean vector and variance-covariance matrix (category 1) or if they have a multivariate normal distribution with different mean vectors and common variance covariance matrix (category 2). To implement this methodology was necessary to use the modified Hotelling T2 statistics and to simplify the calculation of statistics had to develop a free software program R. This way it could reach a proper analysis of the variability of a batch process. The implementation of the proposed methodology was carried out in the company "Seafood" specialized in the export of bivalve molluscs
APA, Harvard, Vancouver, ISO, and other styles
48

Forné, Izquierdo Carles. "Models matemàtics i estadístics aplicats a la presa de decisions en salut." Doctoral thesis, Universitat de Lleida, 2020. http://hdl.handle.net/10803/670064.

Full text
Abstract:
La presa de decisions en salut ha de basar-se en la millor evidència rellevant disponible, més si aquestes decisions incideixen en tota la societat mitjançant l’aplicació de polítiques públiques de salut i, donat que totes les persones són pacients potencials —presents o futurs—, també en les decisions clíniques. Prendre la decisió òptima depèn de molts factors que han de ser degudament identificats i minuciosament mesurats en les diferents alternatives d’elecció, entre els quals, l’escassetat de recursos disponibles per a cobrir una il·limitada demanda de salut. L’avaluació econòmica en salut té per objecte informar i facilitar decisions sobre quin és el millor ús dels recursos limitats disponibles, amb la finalitat de maximitzar-ne els beneficis en salut, prioritzant les alternatives d’elecció mitjançant criteris d’eficiència. Actualment, les agències nacionals d’avaluació de tecnologies sanitàries basen les seves recomanacions de finançament en estudis d’avaluació econòmica fonamentats en la millor evidència disponible i metodològicament correctes. Això inclou des d’un disseny adequat a l’objectiu, fins a un report complet i transparent que permeti la reproductibilitat dels resultats, passant pel rigorós tractament analític de les dades d’estudi. En aquest marc, els models analítics són una font d’evidència vàlida per a la presa de decisions, com ho són els assajos clínics i els estudis observacionals, també ben dissenyats i ben realitzats. En aquesta tesi s’inclouen quatre treballs en què l’aplicació dels mètodes analítics adequats van permetre donar resposta a uns objectius que d’altra manera no podrien resoldre’s, o només parcialment o amb majors limitacions. Gràcies a l’ús de models probabilístics es va poder avaluar el cost-efectivitat i el dany-benefici de 2.625 escenaris diferents de cribratge de càncer de mama, i es mostrà que les estratègies basades en el risc poden reduir els danys i els costos en comparació amb les estratègies uniformes. Donat que per avançar en l’organització de programes de cribratge basats en el risc cal desenvolupar mesures precises de risc individual de càncer de mama, es va formular un model conjunt bayesià que combina la història longitudinal de la densitat mamària i l’edat en el diagnòstic de càncer de mama. La metodologia proposada podria aplicar-se per obtenir mesures més precises del risc individual de càncer de mama. Per això caldria realitzar estudis de cohorts de base poblacional més grans, amb disposició de mesures longitudinals de la densitat mamària, així com d’altres factors de risc coneguts, com les lesions de mama benignes i el risc poligènic. D’aquesta manera, seria possible assolir capacitats predictives aplicables a la personalització del cribratge de càncer de mama, o per establir estratègies de prevenció per a dones amb risc elevat. En aquesta tesi també s’inclou una anàlisi de dinou potencials biomarcadors cardiovasculars en població amb malaltia renal mitjançant l’aplicació d’algorismes d’aprenentatge automàtic. En concret, aplicant l’algorisme de bosc aleatori de supervivència per a esdeveniments competitius, va ser possible avaluar la capacitat predictiva de tots els biomarcadors alhora, junt amb tota la resta de factors de risc coneguts, altrament impossible donat el limitat nombre d’esdeveniments cardiovasculars disponibles per ajustar els habituals models de supervivència multivariables. Si bé l’addició dels biomarcadors potencials va millorar marginalment la capacitat de discriminació obtinguda amb només els factors de risc cardiovascular coneguts, es van identificar els biomarcadors més prometedors, als quals idealment haurien de ser destinats els recursos de la futura recerca, sempre que el benefici potencial de la nova evidència superi els costos de la investigació. Per acabar, s’inclou l’avaluació de l’impacte en costos i en salut de l’augment de l’ús de la intervenció coronària percutània en pacients ingressats amb síndrome coronària aguda mitjançant un model analític semi-Markov, ja que els registres poblacionals mostren una infrautilització de la intervenció en ancians, possiblement deguda a la manca d’estimacions de la seva eficiència o del seu cost-utilitat. El model desenvolupat conceptualitza el curs de la malaltia en un horitzó temporal de 8 anys des de l’ingrés hospitalari, i proporciona resultats molt robustos que indiquen que augmentar el nombre de pacients ancians que es beneficiïn de la intervenció és rendible en un llindar de disposició a pagar molt inferior als estàndards en països europeus. Per tant, el cost-utilitat no hauria de ser un motiu per no incrementar l’ús de la intervenció en aquesta població. Al llarg dels treballs inclosos en aquesta tesi han quedat palesos el paper i la utilitat de la modelització matemàtica i estadística, aplicada de manera adequada i rigorosa segons els objectius de cada estudi, per proporcionar evidència útil que faciliti la presa de decisions, la planificació i la gestió en salut.
La toma de decisiones en salud debe basarse en la mejor evidencia relevante disponible, más si estas decisiones inciden en toda la sociedad mediante la aplicación de políticas públicas de salud y, dado que todas las personas son pacientes potenciales —presentes o futuros—, también en las decisiones clínicas. Tomar la decisión óptima depende de muchos factores que deben ser debidamente identificados y minuciosamente medidos en las diferentes alternativas de elección, entre ellos, la escasez de recursos disponibles para cubrir una ilimitada demanda de salud. La evaluación económica en salud tiene por objeto informar y facilitar decisiones sobre cuál es el mejor uso de los recursos limitados disponibles, con el fin de maximizar los beneficios en salud, priorizando las alternativas de elección mediante criterios de eficiencia. Actualmente, las agencias nacionales de evaluación de tecnologías sanitarias basan sus recomendaciones de financiación en estudios de evaluación económica fundamentados en la mejor evidencia disponible y metodológicamente correctos. Esto incluye desde un diseño adecuado al objetivo, hasta una comunicación completa y transparente que permita la reproducibilidad de los resultados, pasando por el riguroso tratamiento analítico de los datos de estudio. En este marco, los modelos analíticos son una fuente de evidencia válida para la toma de decisiones, como lo son los ensayos clínicos y los estudios observacionales, también bien diseñados y bien realizados. En esta tesis se incluyen cuatro trabajos en que la aplicación de los métodos analíticos adecuados permitió dar respuesta a unos objetivos que de otra manera no podrían resolverse, o sólo parcialmente o con mayores limitaciones. Gracias al uso de modelos probabilísticos se pudo evaluar el coste-efectividad y el daño-beneficio de 2.625 escenarios diferentes de cribado de cáncer de mama, y se mostró que las estrategias basadas en el riesgo pueden reducir el daño y los costes en comparación con las estrategias uniformes. Dado que para avanzar en la organización de programas de cribado basados en el riesgo es necesario desarrollar medidas precisas de riesgo individual de cáncer de mama, se formuló un modelo conjunto bayesiano que combina la historia longitudinal de la densidad mamaria y la edad en el diagnóstico de cáncer de mama. La metodología propuesta podría aplicarse para obtener medidas más precisas del riesgo individual de cáncer de mama. Para ello sería necesario realizar estudios de cohortes de base poblacional más grandes, con disposición de medidas longitudinales de la densidad mamaria, así como de otros factores de riesgo conocidos, como las lesiones de mama benignas y el riesgo poligénico. De este modo sería posible alcanzar capacidades predictivas aplicables a la personalización del cribado de cáncer de mama, o para establecer estrategias de prevención para mujeres con riesgo elevado. En esta tesis también se incluye un análisis de diecinueve potenciales biomarcadores cardiovasculares en población con enfermedad renal mediante la aplicación de algoritmos de aprendizaje automático. En concreto, aplicando el algoritmo de bosque aleatorio de supervivencia para eventos competitivos, fue posible evaluar la capacidad predictiva de todos los biomarcadores al mismo tiempo, junto con todo el resto de factores de riesgo conocidos, de otro modo imposible dado el limitado número de eventos cardiovasculares disponibles para ajustar los habituales modelos de supervivencia multivariables. Si bien la adición de los biomarcadores potenciales mejoró marginalmente la capacidad de discriminación obtenida con sólo los factores de riesgo cardiovascular conocidos, se identificaron los biomarcadores más prometedores, a los que idealmente deberían ser destinados los recursos de la futura investigación, siempre que el beneficio potencial de la nueva evidencia supere los costes de la investigación. Para acabar, se incluye la evaluación del impacto en costes y en salud del aumento del uso de la intervención coronaria percutánea en pacientes ingresados con síndrome coronario agudo mediante un modelo analítico semi-Markov, ya que los registros poblacionales muestran una infrautilización de la intervención en ancianos, posiblemente debida a la falta de estimaciones de su eficiencia o de su coste-utilidad. El modelo desarrollado conceptualiza el curso de la enfermedad en un horizonte temporal de 8 años desde el ingreso hospitalario, y proporciona resultados muy robustos que indican que aumentar el número de pacientes ancianos que se beneficien de la intervención es rentable en un umbral de disposición a pagar muy inferior a los estándares en países europeos. Por tanto, el coste-utilidad no debería ser un motivo para no incrementar el uso de la intervención en esta población. A lo largo de los trabajos incluidos en esta tesis han quedado patentes el papel y la utilidad de la modelización matemática y estadística, aplicada de manera adecuada y rigurosa según los objetivos de cada estudio, para proporcionar evidencia útil que facilite la toma de decisiones, la planificación y la gestión en salud.
Health decision-making should be based on the best relevant evidence available, even more so when these decisions impact society through the application of public health policies, and given that all people are also potential—present or future—patients in clinical decisions. Optimal decision-making depends on many factors that must be properly identified and precisely measured for each alternative choice. These include the scarce resources available to meet unlimited healthcare demand. The economic evaluation in health aims to inform and facilitate decision-making on the best use of the limited resources available, in order to maximize health benefits, prioritizing the alternative choices following efficiency criteria. Currently, national agencies for health technology assessment base their recommendations about whether or not to fund particular interventions on economic evaluation studies that incorporate the best relevant evidence available and are methodologically correct. This ranges from a proper study design suited to the objective, to a complete and transparent report allowing reproducibility of results, undertaking a rigorous analytical handling of the study data. In this framework, analytical models are a valid source of evidence for decision-making, such as well-designed and well-conducted clinical trials and observational studies. Four works are included in this thesis, in which the application of appropriate analytical methods allowed us to provide answers to objectives that otherwise could not be solved, or only partially or with greater limitations. Thanks to the use of probabilistic models, the cost-effectiveness and harm-benefit of 2,625 different scenarios of screening for breast cancer were assessed, showing that risk-based strategies can reduce harm and costs compared to uniform strategies. Given that precise measures of individual breast cancer risk must be developed in order to shift toward personalized screening strategies based on breast cancer risk, a Bayesian joint model that combines the longitudinal history of breast density and age at diagnosis of breast cancer was formulated. The proposed methodology could be applied to obtain more precise measures of the individual risk of breast cancer. To achieve this objective, it would be necessary to conduct studies of larger population-based cohorts, with longitudinal measurements of breast density as well as other known risk factors, such as benign breast disease and polygenic risk. In this way, it would be possible to achieve a predictive ability that makes it possible to personalize screening for breast cancer, or to establish prevention strategies for women at high risk. An analysis of 19 potential cardiovascular biomarkers in patients with renal disease by means of machine learning algorithms is also included in this thesis. Specifically, by applying a random survival forest for competing risks, it was possible to evaluate the predictive ability of all biomarkers at the same time, along with all other known risk factors, otherwise impossible given the limited number of cardiovascular events to fit classic multivariable survival models. Although the addition of potential biomarkers marginally improved the predictive ability obtained with only the known cardiovascular risk factors, the most promising biomarkers were identified, where resources for future research should ideally be allocated, whenever the benefit of new evidence exceeds the costs of research. Finally, the evaluation of costs and health outcomes of increasing the use of percutaneous coronary intervention in patients admitted with acute coronary syndrome through a semi-Markov analytical model is included, since population-based registries have described lower use of the intervention in the elderly, possibly due to the lack of estimates of their efficiency or cost-utility. The model developed conceptualizes the course of the disease over an 8-year time horizon from hospital admission, and provides very robust results showing that increasing the number of elderly patients who benefit from the intervention is cost-effective on a threshold of willingness-to-pay far below the standards in European countries. Therefore, cost-utility should not be a reason not to increase the use of percutaneous coronary intervention in this population. Throughout the work included in this thesis, the role and usefulness of mathematical and statistical modeling has been shown, properly and rigorously applied according to the objectives of each study, to provide useful evidence that facilitates decision-making, planning and healthcare management.
APA, Harvard, Vancouver, ISO, and other styles
49

Ccahuana, Rivas Erica Mercedes. "Datamart aplicado al área de estadística e informática de la Clínica Universitaria basados en balanced scorecard." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2008. https://hdl.handle.net/20.500.12672/12642.

Full text
Abstract:
Propone desarrollar un Datamart para el apoyo en la toma de decisiones, brindando información precisa y oportuna, enfocada al área de Estadística e Informática, basado en la metodología de Ralph Kimball, utilizando almacenes de datos, tecnología DataMart y herramientas de procesamiento OLAP. Asimismo, se establece Indicadores de Gestión utilizando la metodología del Balance Scorecard, el cual permite medir el desempeño de la empresa. Para el desarrollo del DataMart se utilizará la Herramienta SQL Server 2005 Analysis Services (SSAS). Para la presentación de los Reportes que contienen información proveniente del DataMart, se utilizará la herramienta Excel 2007. Las pruebas de implementación del DataMart serán realizadas en un computador local, debido a factores de tiempo y falta de las herramientas necesarias, por parte de la Clínica Universitaria. Se llegará hasta el diseño de un prototipo que permita hacer un muestreo de las consultas requeridas.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
50

Pizarro, Bore Gonzalo Matías. "Modelos estadísticos de peligro sísmico aplicados a minería de Panel Caving." Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/159405.

Full text
Abstract:
Magíster en Minería. Ingeniero Civil de Minas
La evolución de la minería subterránea a yacimientos de mayor profundidad ha conllevado a un aumento significativo de la ocurrencia de interferencias operacionales asociadas a la sismicidad inducida producto de la actividad minera. Estos eventos sísmicos pueden causar estallidos de rocas, los cuales pueden generar consecuencias para los trabajadores, equipos y la sustentabilidad del negocio minero. El presente trabajo propone utilizar modelos estadísticos para estimar el peligro sísmico asociado a la minería de Panel Caving. Se emplean dos modelos; el primer modelo corresponde a una regresión logística en función de variables geo-mineras, y el segundo corresponde a un índice que es una combinación lineal de parámetros geotécnicos pre-minería. Como caso de estudio se utiliza la minería de panel caving realizada en el sector Reservas Nortes (RENO) de la Mina El Teniente, CODELCO-CHILE, considerando el periodo 2000-2010. En base a una zonificación que considera aspectos geotécnicos y mineros, se definen cinco zonas de análisis en la mina y utilizando una escala temporal mensual, se genera una base de datos estandarizada de 660 casos con variables geo-mineras que incluyen: área socavada, área incorporada, ancho del frente, velocidad de extracción, ángulo de extracción, presencia de fracturamiento hidráulico, Fallas geológicas, condición de esfuerzos, unidades litológicas y geotécnicas. De estos 660 casos, 52 casos presentan eventos sísmicos con magnitud de momento mayor, Mw ≥1.0. Los modelos son calibrados utilizando la base de datos generada. El modelo de regresión logística permite estimar la probabilidad de ocurrencia de eventos Mw ≥1.0 utilizando como input las variables geo-mineras, mientras que, el índice ambiental permite categorizar de manera relativa, zonas de mayor peligro sísmico. El mejor ajuste del modelo de Regresión Logística alcanza una tasa de aciertos (TPR) de 74%, y una precisión de 67%. La categorización de zonas sísmicas obtenida del índice ambiental se realiza mediante curvas de distribución acumulada de la magnitud de momento, mostrando consistencia entre las clases definidas. Se concluye, que este tipo de modelos podrían ser parte de un set de herramientas de manera de integrar el peligro sísmico en el proceso de planificación y diseño minero. Como resultado y aporte del estudio se conceptualizan, implementan y testean algoritmos matemáticos en herramientas computacionales que permiten replicar y estandarizar el uso de la metodología desarrollada en otras operaciones mineras. Se recomienda incluir modelos tridimensionales de las unidades litológicas, zonas geotécnicas, fallas estructurales y modelamiento numérico, de modo de mejorar el análisis e interpretación de la sismicidad inducida, las bases de datos y los modelos estadísticos calibrados.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography