Segui questo link per vedere altri tipi di pubblicazioni sul tema: Grandes Volúmenes de Datos.

Tesi sul tema "Grandes Volúmenes de Datos"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-21 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Grandes Volúmenes de Datos".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Salvador, Jaime. "Optimización y Procesamiento Inteligente de Grandes Volúmenes de Datos Categóricos". Doctoral thesis, Universidad de Alicante, 2019. http://hdl.handle.net/10045/95548.

Testo completo
Abstract (sommario):
El algoritmo de clasificación kNN (k-nearest neighbors) es uno de los métodos de clasificación no paramétrico más utilizados, sin embargo, está limitado debido al consumo de memoria relacionado con el tamaño del conjunto de datos, lo que hace poco práctica su aplicación a grandes volúmenes de datos. La investigación descrita en esta tesis fue motivada por la necesidad de una representación óptima de datos categóricos que puedan ser fácilmente incorporados en los algoritmos de aprendizaje automático que permiten un análisis y explotación inteligente de grandes volúmenes de datos. En esta tesis se propone el uso de un esquema de compresión a nivel de bits para comprimir el conjunto de datos de entrenamiento (training dataset) antes de entrenar un modelo de aprendizaje automático. Para utilizar el conjunto de datos, se propuso una descompresión en tiempo real que permite el uso del conjunto de datos sin necesidad de una descompresión completa. Para facilitar la incorporación del método de compresión propuesto en los frameworks de aprendizaje automático existentes, el método propuesto está alineado con el estándar Basic Linear Algebra Subprograms - BLAS de nivel 1 que define los bloques de construcción básicos en forma de funciones algebraicas. En particular, en esta tesis se propone el uso del algoritmo kNN para trabajar con datos categóricos comprimidos. El método propuesto permite mantener los datos comprimidos en memoria, con lo que se reduce drásticamente el consumo de memoria.
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Clavijo, García David Mauricio. "Metodología para el análisis de grandes volúmenes de información aplicada a la investigación médica en Chile". Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/146597.

Testo completo
Abstract (sommario):
Magíster en Ingeniería de Negocios con Tecnología de Información
El conocimiento en la medicina se ha acumulado en artículos de investigación científica a través del tiempo, por consiguiente, se ha generado un interés creciente en desarrollar metodologías de minería de texto para extraer, estructurar y analizar el conocimiento obtenido de grandes volúmenes de información en el menor tiempo posible. En este trabajo se presenta un una metodología que permite lograr el objetivo anterior utilizando el modelo LDA (Latent Dirichlet Allocation). Esta metodología consiste en 3 pasos: Primero, reconocer tópicos relevantes en artículos de investigación científica médica de la Revista Médica de Chile (2012 2015); Segundo, identificar e interpretar la relación entre los tópicos resultantes mediante métodos de visualización (LDAvis); Tercero, evaluar características propias de las investigaciones científicas, en este caso, el financiamiento dirigido, utilizando los dos pasos anteriores. Los resultados muestran que esta metodología resulta efectiva, no sólo para el análisis de artículos de investigación científica médica, sino que también puede ser utilizado en otros campos de la ciencia. Adicionalmente, éste método permite analizar e interpretar el estado en el que se encuentra la investigación médica a nivel nacional utilizando como referente la Revista Médica de Chile. Dentro de este contexto es importante considerar los procesos de planificación, gestión y producción de la investigación científica al interior de los Hospitales que han sido estandartes de generación del conocimiento ya que funcionan como campus universitarios de tradición e innovación. Por la razón anterior, se realizará un análisis del entorno en el sector de la salud, su estructura y la posibilidad de aplicar la metodología propuesta en este trabajo a partir del planteamiento estratégico y el modelo de negocio del Hospital Exequiel González Cortés.
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Leon, Payano Mauro Antonio. "Identificación de líderes de opinión mediante el modelo PROV-DM y técnicas de minería de grafos". Master's thesis, Pontificia Universidad Católica del Perú, 2019. http://hdl.handle.net/20.500.12404/14912.

Testo completo
Abstract (sommario):
El análisis de la influencia social nos permite estudiar la manera de determinar la opinión de las personas utilizando como medio el intercambio de información. Dentro de esta disciplina, la identificación líderes de opinión tiene como finalidad identificar a las personas que ejercen un mayor nivel de influencia. La identificación de líderes de opinión se usa en campañas de marketing viral, sistemas de recomendación de productos y en sistemas de detección de anómalas en redes de telefonía móvil. Debido a que los medios sociales se han transformado en la fuente de datos más representativa y relevante para entender el comportamiento de las personas, el análisis de influencia se ha convertido en una de las tecnologías más importantes en las industrias modernas de información y servicios. Existen diversos métodos para identificar a los líderes de opinión. En este trabajo se plantea un algoritmo híbrido para cuantificar la influencia de acuerdo a atributos estáticos y de interacción de los usuarios pertenecientes a una red social. Los algoritmos híbridos requieren la representación de las interacciones de los usuarios mediante grafos. Por ello, se implementó un algoritmo de construcción, de segmentación y de visualización de grafos con el objeto de abordar los desafíos que involucra identificar y cuantificar la influencia de los usuarios en grandes redes sociales. El procedimiento fue aplicado en mensajes que tratan sobre el calentamiento global, recolectados desde la plataforma de Twitter con el objetivo de representar en un grafo, a los usuarios interesados en el tema. Los líderes de opinión seleccionados a partir del algoritmo propuesto representan mejor la influencia ganada a través del proceso de difusión. Este documento consta de 6 Capítulos: El capítulo 1 busca venir el problema y el enfoque adoptado en este trabajo. El Capítulo 2 describe los diversos conceptos, métodos, procesos y herramientas utilizados en el análisis de influencia social tanto en el presente trabajo y estudios relacionados. El Capítulo 3 describe los trabajos previos que busquen identificar líderes de opinión en grandes redes sociales. El Capítulo 4 describe el procedimiento de análisis de influencia social desarrollado. El Capítulo 5 describe los resultados obtenidos en la ejecución del procedimiento propuesto. Finalmente, el Capítulo 6 presentamos las conclusiones y recomendaciones obtenidas producto de trabajo realizado.
Tesis
Gli stili APA, Harvard, Vancouver, ISO e altri
4

García, Piquer Álvaro. "Facing-up Challenges of Multiobjective Clustering Based on Evolutionary Algorithms: Representations, Scalability and Retrieval Solutions". Doctoral thesis, Universitat Ramon Llull, 2012. http://hdl.handle.net/10803/80090.

Testo completo
Abstract (sommario):
Aquesta tesi es centra en algorismes de clustering multiobjectiu, que estan basats en optimitzar varis objectius simultàniament obtenint una col•lecció de solucions potencials amb diferents compromisos entre objectius. El propòsit d'aquesta tesi consisteix en dissenyar i implementar un nou algorisme de clustering multiobjectiu basat en algorismes evolutius per afrontar tres reptes actuals relacionats amb aquest tipus de tècniques. El primer repte es centra en definir adequadament l'àrea de possibles solucions que s'explora per obtenir la millor solució i que depèn de la representació del coneixement. El segon repte consisteix en escalar el sistema dividint el conjunt de dades original en varis subconjunts per treballar amb menys dades en el procés de clustering. El tercer repte es basa en recuperar la solució més adequada tenint en compte la qualitat i la forma dels clusters a partir de la regió més interessant de la col•lecció de solucions ofertes per l’algorisme.
Esta tesis se centra en los algoritmos de clustering multiobjetivo, que están basados en optimizar varios objetivos simultáneamente obteniendo una colección de soluciones potenciales con diferentes compromisos entre objetivos. El propósito de esta tesis consiste en diseñar e implementar un nuevo algoritmo de clustering multiobjetivo basado en algoritmos evolutivos para afrontar tres retos actuales relacionados con este tipo de técnicas. El primer reto se centra en definir adecuadamente el área de posibles soluciones explorada para obtener la mejor solución y que depende de la representación del conocimiento. El segundo reto consiste en escalar el sistema dividiendo el conjunto de datos original en varios subconjuntos para trabajar con menos datos en el proceso de clustering El tercer reto se basa en recuperar la solución más adecuada según la calidad y la forma de los clusters a partir de la región más interesante de la colección de soluciones ofrecidas por el algoritmo.
This thesis is focused on multiobjective clustering algorithms, which are based on optimizing several objectives simultaneously obtaining a collection of potential solutions with different trade¬offs among objectives. The goal of the thesis is to design and implement a new multiobjective clustering technique based on evolutionary algorithms for facing up three current challenges related to these techniques. The first challenge is focused on successfully defining the area of possible solutions that is explored in order to find the best solution, and this depends on the knowledge representation. The second challenge tries to scale-up the system splitting the original data set into several data subsets in order to work with less data in the clustering process. The third challenge is addressed to the retrieval of the most suitable solution according to the quality and shape of the clusters from the most interesting region of the collection of solutions returned by the algorithm.
Gli stili APA, Harvard, Vancouver, ISO e altri
5

De, Barros Fernandez Claudio. "Mastoplastia reductora en l para grandes volúmenes". Doctoral thesis, Universitat Autònoma de Barcelona, 2012. http://hdl.handle.net/10803/107860.

Testo completo
Abstract (sommario):
Las primeras descripciones de las mastoplastias fueron atribuidas a Paulus Aegineta en 625-690d.C. 4, con una resección de ginecomastia por el surco sub-mamario. Posteriormente, muchas técnicas fueron descritas para la disminución del órgano. Clásicamente, fueron consideradas mamas grandes aquellas con volúmenes resecados más grandes que 600 gr., siendo la mayoría tratadas tras cicatrices en T invertido. El objetivo de ese estudio es mostrar que es posible tratar mamas grandes con cicatrices más cortas, en L, por comparaciones subjetivas y objetivas con la T, con buenos resultados. Casuística y Método: Fueron estudiados 4 grupos de 20 pacientes, así subdivididos: N = normal. Sin cirugía previa T1: mamas grandes operadas por G (Francia) – cicatrices en T. T2: mamas grandes operadas por J (Brasil) – cicatrices en T. L1: mamas grandes operadas por el autor – cicatrices en L L2: mamas grandes, operadas por el autor con variación técnica de resección interna – cicatrices en L. Fueron tomadas las medidas oblicuas (desde la horquilla esternal hasta el centro del pezón) y fotografías, per y postoperatoriamente. La variación técnica realizada entre el grupo L 1 y 2 fue que: L 1: ángulos de resección de la base paralelos a la parrilla costal o abiertos caudalmente L 2: ángulos de resección de la base más cerrados caudalmente. Resultados y Discusión: preoperatoriamente, las medidas fueron similares (exceptuándose el grupo N). Posoperatoriamente, la cirugía hizo con que los grupos N y T se asemejasen al grupo N. EL grupo L2, entretanto, fue lo que más se acercó del grupo normal, con las distancias oblicuas más cortas. Eso se comprobó estadísticamente, con p = 0,2815 (=semejanza estadística). Conclusión: fue posible el tratamiento de las mamas grandes por la técnica en L, mejorada con la variación técnica propuesta, con resultados más parecidos con las mamas normales comparadas a las técnicas tradicionales, disminuyendo el tiempo peroperatorio, hemorragias y tensión cutánea.
The subject big reduction mastoplasty or not, with or without small scars, will always end with different personal opinion or, in some cases, with big disagreement. Based in the medical literature, we develop about author´s thoughts evolution, his find outs and mistakes between 21 years of medical practice. From the planning of inverted “T”, passing through “L” designs, we observed that mistakes were, mostly, from a lack of tridimensional geometric planning of the resections of the mammary parenchyma for the proposed technique, especially in the big breasts. The conclusions emerge from the superficial and anatomic topographic observations of the no esthetic breasts and the natural ones, considered esthetically adequate.
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Díaz, Sánchez Carlos. "Minería de datos: método para obtener y explorar información en grandes cantidades de datos". Tesis de Licenciatura, Universidad Autónoma del Estado de México, 2012. http://hdl.handle.net/20.500.11799/99972.

Testo completo
Abstract (sommario):
El uso masivo de las bases de datos y los avances para aumentar las capacidades de almacenamiento de datos, han hecho que todo tipo de organizaciones puedan disponer de grandes cantidad de datos relativos a la actividad de una empresa. En muchas de estas organizaciones se han dado cuenta del potencial que tienen estos datos para conocer el comportamiento y movimiento de los productos que promueve o del personal que manejan y/o de muchas cosas más. El análisis de los datos permite ver la evolución y desarrollo de las organizaciones, y por lo tanto, trazar un plan que permita proyectar por donde moverse en un futuro. Así, el estudio de los datos para obtener información ofrece una visión de qué se está haciendo y cómo se están haciendo los procesos y prospectiva (cómo puede evolucionar la organización en un futuro a corto-medio plazo) de la organización, y es por ello por lo que tiene una función de apoyo a la toma de decisiones. El análisis de las bases de datos ha sido, y es, común en organizaciones
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Hasperué, Waldo. "Extracción de conocimiento en grandes bases de datos utilizando estrategias adaptativas". Editorial de la Universidad Nacional de La Plata (EDULP), 2014. http://hdl.handle.net/10915/35555.

Testo completo
Abstract (sommario):
El objetivo general de esta tesis es el desarrollo de una técnica adaptativa para la extracción de conocimiento en grandes bases de datos. En el análisis de enormes volúmenes de datos resulta de interés contar con técnicas que permitan, primero analizar la información y obtener conocimiento útil en forma de reglas de clasificación y luego adaptar el conocimiento adquirido ante los cambios que ocurran en los datos originales. El aporte de la tesis está centrado en la definición de una técnica adaptativa que permite extraer conocimiento de grandes bases de datos a partir de un modelo dinámico capaz de adaptarse a los cambios de la información, obteniendo así una técnica de minería de datos que sea capaz de generar conocimiento útil, produciendo resultados que sean de provecho al usuario final. Los resultados de esta investigación pueden aplicarse en áreas tales como análisis de suelos, análisis genético, biología, robótica, economía, medicina, detección de fallas en plantas y comunicación de sistemas móviles. (del texto de la contratapa)
Tesis doctoral de la Facultad de Informática (UNLP). Grado alcanzado: Doctor en Ciencias Informáticas. Directores de tesis: Armando De Giusti y Laura Lanzarini. La tesis, presentada en el año 2012, obtuvo el Premio "Dr. Raúl Gallard" en el 2013.
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Sánchez, Sáez Paula Andrea. "Variabilidad de AGN en la era de las grandes Bases de Datos". Tesis, Universidad de Chile, 2019. http://repositorio.uchile.cl/handle/2250/170858.

Testo completo
Abstract (sommario):
Tesis para optar al grado de Doctora en Ciencias, Mención Astronomía
Los núcleos activos de galaxias o AGN por su sigla en inglés, se caracterizan por su continuo variable en el tiempo en cada banda de frecuencias en la que se han estudiado (Peterson, 2001). Sin embargo, aún no entendemos por completo los mecanismos que conducen a tales variaciones. En particular, no entendemos en detalle cómo se relaciona la variabilidad de AGN en diferentes longitudes de onda, y cómo las propiedades físicas del motor central están relacionadas con las propiedades de variabilidad del sistema. El principal objetivo de esta tesis es entender de mejor manera la física que hay detrás de la variabilidad de los AGN, y proporcionar una técnica de selección de AGN basada en su variabilidad, para así poder obtener muestras de AGN menos sesgadas, que nos permitan entender de mejor manera como se forman y como evolucionan estos objetos. En primer lugar, se realizó un estudio estadístico de la variabilidad infrarroja cercana (NIR) de AGN seleccionados por rayos X en el campo COSMOS, utilizando datos de UltraVISTA. En este trabajo, estudiamos las diferencias entre las propiedades de variabilidad de distintas poblaciones de AGN. Los resultados de este estudio fueron publicados en el artículo Sánchez et al. (2017), y son presentados en el capítulo 2. En segundo lugar, estudiamos la relación que hay entre las propiedades físicas de los AGN (como la masa del agujero negro central, su luminosidad y su taza de acreción) con las propiedades de variabilidad de estos objetos. En este estudio, encontramos que la amplitud de la variabilidad depende principalmente de la taza de acreción del objeto. Los resultados de este análisis fueron publicados en el artículo Sánchez-Sáez et al. (2018), y son presentados en el capítulo 3. En tercer lugar, realizamos una selección de candidatos a AGN, utilizando análisis de variabilidad y aprendizaje de maquinas. Nuestro método es capaz de seleccionar candidatos a AGN que no son normalmente encontrados por métodos tradicionales, que usan el color de los objetos para la selección. Los resultados de este estudio fueron enviados a la revista Astrophysical Journal Supplement , y son presentados en el capítulo 4. Finalmente, realizamos un mapeo de reverberación del toro de polvo, utilizando datos de UltraVISTA. En este trabajo calculamos el retraso temporal entre curvas de luz asociadas a emisión del disco y del toro de distintos AGN. A partir de nuestros resultados, concluimos que para objetos más distantes (0.5 < z < 1.2) no se observan las mismas correlaciones entre el retraso temporal y la luminosidad de los objetos obtenidas para objetos locales, lo cual se podría explicar por la existencia de granos de polvo más grandes en el toro de polvo de AGN lejanos. Los resultados de este estudio serán incluidos en un artículo que esta en preparación, y son presentados en el capítulo 5.
CONICYT Beca Doctorado Nacional año 2013 grant no. 21130441, y CONICYT-PFB-06
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Luperdi, Lucioni Sandro Mauricio. "Propuesta de un modelo de gestión de mantenimiento en una asociación de mype’s de calzado de Lima para la correcta planificación y abastecimiento de pedidos en grandes volúmenes". Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2014. http://hdl.handle.net/10757/336440.

Testo completo
Abstract (sommario):
La presente tesis emplea conceptos de gestión por procesos y gestión de mantenimiento aplicado a las medianas y pequeñas empresas (MYPES) de fabricación de calzado de Lima para modelar un proceso que permita aumentar su competitividad y productividad. El diagnóstico de las empresas se realizó en base a la información recopilada por la encuesta del grupo de investigación. El modelo a presentar se compone de siete etapas principales, las cuales deben desarrollarse de manera progresiva en cada MYPE. El énfasis del modelo es presentado en los procesos relacionados a la planificación, programación y ejecución del mantenimiento. Adicionalmente, se presenta otros procesos que permitirán monitorear y dirigir los procesos principales. Finalmente, se fundamentó el modelo de gestión mediante el enfoque de gestión por procesos y el esquema asociativo para dar inicio a las conclusiones y recomendaciones.
Tesis
Gli stili APA, Harvard, Vancouver, ISO e altri
10

ZARCO, GONZALEZ ZULEYMA 708350, e GONZALEZ ZULEYMA ZARCO. "Cambio de uso de suelo en hidroeléctricas mexicanas con datos de percepción remota". Tesis de maestría, Universidad Autónoma del Estado de México, 2017. http://hdl.handle.net/20.500.11799/79954.

Testo completo
Abstract (sommario):
Las represas son un elemento de fragmentación que afecta a diferentes niveles, uno de los cuales es el uso de la tierra. La teledetección es actualmente una de las principales herramientas de monitoreo y manejo de los recursos naturales. Este es el primer estudio en México con el objetivo de evaluar el cambio de uso del suelo en ocho de las principales centrales hidroeléctricas de México a partir de imágenes satelitales. Se utilizaron 26 imágenes de Landsat clasificadas con el algoritmo Support Vector Machine. Se evaluaron los mapas con el complemento de Qgis Accurassess, obteniéndose valores superiores al 85% de precisión global en todas las clasificaciones. Hubo principalmente una disminución de la selva y cobertura forestal y un aumento en la agricultura y el uso urbano. También se evaluó el impacto en algunos indicadores socioeconómicos antes y después de la construcción de las presas, aunque se encontraron cambios significativos, el deterioro ambiental a su alrededor muestra que no son proyectos sustentables.
A CONACYT beca 585490.
Gli stili APA, Harvard, Vancouver, ISO e altri
11

Quintana, Pacheco Yuri. "Optimización de búsquedas en grandes conjuntos de datos mediante la utilización de algoritmos de clustering con preservación de la topología". Doctoral thesis, Universidad de Alicante, 2013. http://hdl.handle.net/10045/28507.

Testo completo
Abstract (sommario):
En la presente investigación se propone un método para realizar búsquedas en grandes conjuntos de datos con características similares a los grafos. El método está dividido en dos etapas: una etapa de organización del conjunto de datos y una etapa donde se puede realizar la búsqueda de elementos que minimicen una función objetivo según el modelo organizativo obtenido. Para la organización del conjunto de datos se propone el empleo del algoritmo growing neural gas, al que se le han incorporado modificaciones que facilitan su empleo en el contexto de la investigación. El método de grafos embebidos en espacios vectoriales se utiliza para obtener representaciones de los elementos del conjunto de datos apropiadas para la aplicación del algoritmo de clustering. Como resultado del proceso de organización cada elemento del conjunto de datos es asociado a un nodo del modelo obtenido de la aplicación del algoritmo de clustering. Para la etapa de búsqueda se propone un algoritmo basado en la heurística simulated annealing. El algoritmo realiza estimaciones de la calidad de los elementos asociados a cada nodo del modelo mediante evaluaciones de la función objetivo que realiza mientras se recorre el modelo. Estas estimaciones son empleadas para orientar la búsqueda. El funcionamiento de cada etapa de la propuesta de solución es validada de forma empírica mediante el empleo de conjuntos de datos y funciones objetivo seleccionados con este fin. Los resultados de la aplicación del método general propuesto muestran que la obtención de soluciones requiere la evaluación de un pequeño porcentaje de los elementos del conjunto de datos, de modo que se reducen los tiempos asociados al proceso de búsqueda.
Gli stili APA, Harvard, Vancouver, ISO e altri
12

Guillén, Zapata Handry James. "Visualización 3D de grandes cantidades de datos 3D para la prevención frente a desastres naturales: una revisión de la literatura". Bachelor's thesis, Pontificia Universidad Católica del Perú, 2020. http://hdl.handle.net/20.500.12404/17550.

Testo completo
Abstract (sommario):
La visualización de datos 3D es un aspecto muy importante para varios campos de trabajo como la arquitectura, minería, videojuegos, diseño gráfico, geografía, etc. En especial en este último, la geografía, el cual a diario necesita visualizar información topográfica para hacer un estudio previo de los terrenos sin la necesidad de estar presente. En Perú, el uso información 3D por parte de los geógrafos para analizar terrenos a detalle, se ha vuelto una actividad de mucha importancia, debido a que el país es muy propenso a sufrir de fenómenos naturales como el fenómeno del Niño. Esta información topográfica suele ser de superficies de un gran tamaño que pueden llegar hasta un área de 7000 hectáreas, por lo que se necesita de procesar una inmensa cantidad de información 3D. Es por esto que el presente trabajo de investigación se centra en revisar la literatura para lograr una visualización de grandes cantidades de datos 3D. En primer lugar, se revisará cómo es que se deben guardar y organizar los datos 3D para que puedan ser fácilmente extraídos por el visualizador y qué tipo de estructura de datos es la mejor para este tipo de trabajos. En segundo lugar, se revisarán los métodos que existen actualmente para poder renderizar los datos 3D de forma fluida, con el objetivo de logar una visualización interactiva del usuario sin exigir tantos recursos. Por último, se presentarán las conclusiones de los dos puntos mencionados anteriormente y se explicarán cuáles son los mejores métodos para realizar el proyecto de visualización de grandes cantidades de datos 3D.
Trabajo de investigación
Gli stili APA, Harvard, Vancouver, ISO e altri
13

Real, Gatius Jordi. "Estrategias de emparejamiento de muestras (matching) para eliminar la confusión en los estudios observacionales: Aplicación en fármaco-epidemiología con grandes bases de datos de registros clínicos". Doctoral thesis, Universitat Internacional de Catalunya, 2016. http://hdl.handle.net/10803/403407.

Testo completo
Abstract (sommario):
Los estudios observacionales tienen un papel importante en la investigación médica. Sin embargo, una de las limitaciones comunes de los estudios observacionales analíticos es la que afecta a la validez interna, principalmente debido al potencial sesgo de confusión causada por la asignación no controlada de los individuos a los grupos de exposición. Las técnicas más habituales en la investigación médica en general, y la epidemiología en particular, para corregir el sesgo de confusión son los modelos de regresión multivariables (MRMs) (tales como Regresión logística, lineal, Cox etc...). Estas técnicas de ajuste requieren de una adecuada especificación del modelo para que la las medidas de asociación de interés (efecto, riesgo relativo, Odds ratio, razón de prevalencias, etc.) estén correctamente estimadas. En la actualidad, existe un creciente interés en otras alternativas a los modelos multivariables como son enfoques no paramétricos utilizando algoritmos de emparejamiento (matching). Estas técnicas prometen inferencias más robustas al no depender de la correcta especificación del modelo. Los objetivos generales de la presente tesis doctoral son: 1) Evaluar el reporte, en cuanto a presentación de medidas de bondad de ajuste o diagnóstico de los MRMs utilizados en estudios observacionales analíticos publicados e indexados en PubMed; 2) Comparar la robustez de los métodos matching enfrente los MRMs como métodos de ajuste mediante un estudio de simulación; y 3) Aplicar la metodología matching en estudios observacionales analíticos con una hipótesis clínica o de salud pública. Los resultados de la presente tesis doctoral han mostrado que existe un extensivo y creciente uso de los MRMs en el ámbito de la investigación biomédica con diseño observacional. A la vez, también se ha observado un bajo reporte en la verificación de las hipótesis de tres técnicas de regresión muy comunes (Regresión logística, lineal y Cox) en artículos publicados e indexados en PubMed. En este sentido, tan solo uno de cada 4 artículos revisados mostró o declaró realizar un análisis de validación de las hipótesis de los modelos o aportó estadísticos de bondad de ajuste. Por otro lado, mediante un estudio de simulación se ha mostrado, como una técnica de regresión, ampliamente utilizada, como es la regresión logística multivariable, puede generar estimaciones sesgadas, y consecuentemente un elevado error de tipo I si la comprobación de las asunciones del modelo es ignorada. En este sentido, los algoritmos matching, presentaron una mayor robustez en comparación con los MRMs. Por último, se presenta la utilidad práctica con la aplicación de los métodos matching en investigación clínica y de salud pública en estudios basados en registros clínicos. En conclusión, el reporte de la comprobación de las asunciones formales de los MRMs es bajo en los artículos científicos publicados e indexados en PubMed. Dada la importancia de estas, y la sensibilidad de las estimaciones de los MRMs paramétricos, sería deseable una mayor transparencia en la declaración de las asunciones de los MRMs, especialmente en estudios observacionales analíticos. Por otro lado, los métodos matching controlan mucho mejor la reducción del sesgo de confusión por lo que se deberían considerar más a menudo en la investigación clínica y de salud pública como alternativa a los MRMs, especialmente en estudios basados en registros clínicos o grandes muestras disponibles
Gli stili APA, Harvard, Vancouver, ISO e altri
14

Spinetti, Rodrigo Noel Saldías. "Análise da relação conduta-desempenho das grandes empresas agrícolas na expansão da produção de grãos no Uruguai". reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2011. http://hdl.handle.net/10183/29546.

Testo completo
Abstract (sommario):
A área de cultivos de sequeiro no Uruguai quadriplicou-se na ultima década como consequência dos aumentos nos preços das commodities, do crescimento da soja e da rápida consolidação da lógica empresarial na produção de grãos. A conduta das principais empresas agrícolas mudou a realidade do setor, aumentando a concentração da terra e deslocando outras atividades. Novas regiões começaram a ser utilizadas para a agricultura e o incremento da demanda pelos arrendamentos da terra elevou os preços e dificultou o acesso a este recurso. Utilizando como referencial teórico o paradigma Estrutura-Conduta-Desempenho da Organização Industrial, a pesquisa foi realizada com o objetivo de identificar e analisar como as variáveis da conduta empresarial afetaram os resultados, consolidando assim o processo de expansão agrícola no Uruguai. Foram realizadas entrevistas com experts visando identificar as empresas a serem entrevistadas, das quais seis responderam sobre as suas estratégias e resultados no período 2004/05 a 2008/09. Os dados foram analisados com ferramentas de estatística descritiva, matrizes de correlações e pela construção de modelos de regressão com dados em painel, visando identificar variáveis da conduta que explicassem a expansão da área e da produção, além das variações na produtividade e nas margens líquidas por hectare. Os modelos foram testados em três subgrupos de variáveis, aquelas pertencentes à totalidade da empresa, à produção de soja e do trigo. Os resultados demonstram que a maior distribuição dos sistemas de produção nas regiões do Uruguai e a proporção de terra arrendada tiveram efeito estatisticamente significativo e positivo na expansão da área e da produção, indicando a importância destas duas estratégias nos resultados. Apesar de que o arrendamento da terra tenha permitido gerar incrementos na área e na produção do bloco de empresas, teve um efeito negativo na produtividade da soja. Isto confirmou a necessidade de desenvolver mais eficientes processos de produção, aprimorando as parcerias com os proprietários da terra, perspectivas que foram apontadas pelas empresas. Após a realização desta pesquisa, estima-se que a continuidade da expansão agrícola ocorra a partir de ajustes nos processos de produção mais do que por novos aumentos importantes da superfície.
Uruguayan dry land cropping has quadrupled in the last decade as a result of important increases in commodities prices, the growth in soybean cropping, and the fast consolidation of grain production enterprise models. The actions of the most important agricultural companies have modified the sector’s reality, increasing the land concentration and relocating other activities. New regions began being used for cropping and the increase in demand for land to lease resulted in higher rental values and more difficulty of access to this resource. Using the Structure-Conduct-Performance paradigm of the Industrial Organization as a theoretical reference, the research was carried out with the aim of identifying and analyzing how enterprise conduct variables affected the results, therefore consolidating the agricultural expansion process in Uruguay. Expert interviews were carried out, with the aim of identifying the companies to be later analyzed. Six of them reported their strategies and results in the period between 2004/05 and 2008/09. Data processing and analysis were undertaken through the descriptive statistic study, correlations matrices and through the construction of panel data regression models. This was developed with the aim of identifying enterprise conduct variables which explained the area and productive expansions, apart from productivity variations and net margins per hectare. Models were evaluated in three sub-groups of variables; those that belonged to the whole company and the ones related to wheat or soybean production. Results indicate that an increase in territorial diversification of production areas in the different Uruguayan regions, and the proportion of leased land had a statistically significant and positive effect on area and production expansion, which indicates the significance of these two strategies in the companies’ results. Although land leasing allowed an increase in production and area, it had a negative effect on the soybean productivity. This situation reaffirms the need to develop more efficient production processes, by improving relationships with land owners, a fact that was rated as highly relevant by the companies. Through this research, it can be conclude that the continuity of agricultural expansion will take place through production-process improvements, rather than through significant increases in the cropping areas.
La superficie de cultivos de secano en Uruguay se cuadriplicó en la última década como resultado de importantes aumentos en los precios de las commodities, del crecimiento de la soja y de la rápida consolidación de modelos empresariales en la producción de granos. La conducta de las principales empresas agrícolas modificó la realidad del sector, aumentando la concentración de la tierra y reubicando otras actividades. Nuevas regiones comenzaron a ser utilizadas para la agricultura y el incremento de la demanda por arrendamientos de tierra elevó sus precios y dificultó el acceso a este recurso. Utilizando como referencial teórico el paradigma Estructura-Conducta-Resultados de la Organización Industrial, el trabajo fue realizado con el objetivo de identificar y analizar como las variables de la conducta empresarial afectaron los resultados, consolidando así el proceso de expansión agrícola en Uruguay. Fueron realizadas entrevistas a experts, con el objetivo de identificar a las empresas que posteriormente fueron analizadas. Seis de ellas respondieron sobre sus estrategias y resultados en el período comprendido entre la zafra 2004/05 y 2008/09. El procesamiento y análisis de los datos se hizo a partir del estudio de estadística descriptiva, matrices de correlaciones y a partir de la construcción de modelos de regresión con datos de panel. Esto fue realizado con el objetivo de identificar variables de la conducta empresarial que explicaron la expansión del área y la producción, además de las variaciones en la productividad y en los márgenes neto por hectárea. Los modelos fueron evaluados en tres subgrupos de variables, aquellas que pertenecían a la totalidad de la empresa y las relacionadas con la producción de soja o de trigo. Los resultados indican que la mayor diversificación territorial de los sistemas de producción en las diferentes regiones de Uruguay y la proporción de tierra arrendada tuvieron un efecto estadísticamente significativo y positivo en la expansión del área y la producción, lo que indica la importancia de estas dos estrategias en los resultados de las empresas. A pesar de que el arrendamiento de la tierra permitió aumentar la producción y área, tuvo un efecto negativo en la productividad de la soja. Esto situación reafirma la necesidad de desarrollar procesos de producción más eficientes, mejorando las relaciones con los propietarios de la tierra, situaciones que fueron evaluadas como muy relevantes por las empresas. A partir de este trabajo se concluye que la continuidad de la expansión agrícola tendrá lugar a partir de mejoras en los procesos de producción y no por nuevos aumentos significativos en la superficie.
Gli stili APA, Harvard, Vancouver, ISO e altri
15

Gallo, Poma Josselyn Natalia. "Propuesta de un modelo de Estandarización de procesos productivos a una asociación de Mypes del sector calzado en Lima para poder abastecer pedidos de grandes volúmenes logrando la mejora de la competitividad a través de la aplicación de la Gestión por procesos". Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2014. http://hdl.handle.net/10757/337020.

Testo completo
Abstract (sommario):
La presente tesis de investigación propone, en primer lugar, un modelo general en el cual las pequeñas y medianas empresas (Mypes) que se encuentran dispersas en una región o zona determinada se agrupen y puedan formar una asociación, donde puedan abastecer pedidos tanto nacionales como internacionales, implementando la herramienta de la Gestión por Proceso. Con esta implementación se podrá satisfacer los requerimientos, tales como estándares, certificaciones internacionales, entre otros y, de esta manera, poder aumentar el poder de ventas de cada una de las Mypes y lograr que cada una de éstas genere mayores utilidades y dar el siguiente paso y convertirse en una Pyme (Pequeña y mediana empresa). Para realizar esta investigación, se propone el desarrollo de diversos procesos como los cuales: Gestión de la Innovación, Gestión de la Calidad Total, Estandarización de procesos productivos, Gestión de pedido, Estandarización de producto, Planeamiento y Control de la Producción, Seguridad y Salud ocupacional, Gestión del mantenimiento, Gestión de residuos, Gestión financiera, Gestión del Talento Humano y Gestión Logística. En este caso, la presente tesis se enfocará en el desarrollo del modelo de estandarización de procesos productivos, el cual estará basado bajo los lineamientos de la norma ISO 9001:2008 y los criterios del modelo de excelencia EFQM. El objetivo que plantea este modelo es que los productos que serán fabricados en cada una de las Mypes de la asociación sean elaborados de la misma forma y eviten la variabilidad en los productos finales para la satisfacción del cliente.
Tesis
Gli stili APA, Harvard, Vancouver, ISO e altri
16

Correa, Domènech Marc. "Estructura de Capital de Empresa: Teorías explicativas y estudio empírico internacional aplicado a grandes empresas". Doctoral thesis, Universitat Ramon Llull, 2007. http://hdl.handle.net/10803/9314.

Testo completo
Abstract (sommario):
El present projecte de recerca pretén aportar evidencies empíriques que permetin conèixer millor el complex, i a vegades contradictori, debat entorn a com les companyies prenen les seves decisions d'endeutament. Per aquest motiu, en primer lloc s'ha realitzat un estudi bibliomètric sobre la recerca en economia financera, analitzant de manera detallada l'activitat científica que estudiava l'estructura de capital de l'empresa, així com la línia de recerca que més publicacions ha generat entre els anys 1995 i 2006.

A partir del marc de referència proveït per l'estudi bibliomètric, s'ha analitzat l'impacte de les decisions de finançament, inversió i dividends sobre la creació de valor de les empreses. S'ha estudiat també els efectes que tenen sobre les decisions de finançament l'ús de diferents mètrics que medeixen el valor creat. Per això s'ha utilitzat una mostra de 205 empreses que pertanyen a l'índex S&P 500 entre els anys 1994 i 2004, i una anàlisi de dades de panell. Els resultats que s'han obtingut han permès concloure que les tres decisions financeres són rellevants en matèria de creació de valor. L'anàlisi realitzat ha considerat la presencia i absència de les oportunitats de creixement que presentaven cada una de les companyies. S'ha conclòs també que la influència de les decisions financeres varia en funció del mètric utilitzat per mesurar la creació de valor, i finalment s'ha presentat també el model basat en el market value added com aquell que recull millor la influència de les decisions financeres.

La conclusió positiva de la influència de les decisions de finançament en matèria de creació de valor, ha motivat l'estudi de les dues principals teories explicatives de l'estructura de capital de l'empresa: teoria del trade-off i teoria de la jerarquització financera. Per realitzar aquest contrast s'ha utilitzat una mostra de 195 empreses del S&P 500 entre els anys 1997-2005 i una anàlisi de dades de panell. Els resultats obtinguts han permès concloure que les hipòtesis formulades per la teoria de la jerarquització financera troben una coincidència més gran, que no pas les formulades per la teoria del trade-off. Tot i això, la teoria de la jerarquització financera no té una capacitat explicativa plena al no poder aportar una explicació als resultats obtinguts per a algunes de les hipòtesis formulades.

Per aquest motiu s'ha realitzar un apropament nou als plantejats fins ara a la literatura sobre l'estructura de capital de l'empresa, tractant de trobar un marc de referència que fos capaç d'explicar les decisions de finançament a través de les noves aportacions realitzades pel corporate governance. Aquesta disciplina fa un fort èmfasis en el paper que juguen els stakeholders en la manera de governar les companyies. A partir d'aquest marc conceptual, i de l'aportació de diferents publicacions que havien analitzat per separat de quina manera alguns stakeholders podien condicionar les decisions de finançament, s'ha presentat un nou acostament que pretén explicar les decisions de finançament a través de la influència dels stakeholders. Després d'analitzar una mostra de les 500 empreses europees més grans, pel que fa al volum de facturació, s'ha pogut contrastar positivament la influència dels directius, treballadors, competidors, clients i proveïdors, en les decisions de finançament.
El presente proyecto de investigación pretende aportar evidencias empíricas que permitan conocer mejor el complejo, y a veces contradictorio, debate en torno a cómo las compañías toman sus decisiones de endeudamiento. Por este motivo, en primer lugar se ha realizado un estudio bibliométrico sobre la investigación en economía financiera, analizando de manera pormenorizada la actividad científica que estudiaba la estructura de capital de la empresa así como la línea de investigación que más publicaciones ha generado entre los años 1995 y 2006.

Tras establecer el marco de referencia provisto por el estudio bibliométrico, se ha analizado el impacto de las decisiones de financiación, inversión y dividendos sobre la creación de valor de las compañías. Se ha estudiado también los efectos que tienen sobre las decisiones financieras el uso de diferentes métricos que miden el valor creado. Para ello se ha utilizado una muestra de 205 empresas pertenecientes al índice S&P 500 entre los años 1994 y 2004 y un análisis de datos de panel. Los resultados obtenidos han permitido concluir que las tres decisiones financieras son relevantes en materia de creación de valor. Para ello se ha tenido en cuenta la presencia y ausencia de las oportunidades de crecimiento que presentaban cada una de las compañías. Se ha concluido también que la influencia de las decisiones financieras varía en función del métrico utilizado para medir la creación de valor, y finalmente se ha presentado el modelo basado en el market value added como aquel que recoge mejor la influencia de las decisiones financieras.

La relevancia de las decisiones de financiación en materia de creación de valor ha conllevado el estudio de las dos principales teorías explicativas de la estructura de capital de la empresa: teoría del trade-off y teoría de la jerarquización financiera. Para ello se ha utilizado una muestra de 195 empresas del S&P 500 entre los años 1997 y 2005 y un análisis de datos de panel. Los resultados obtenidos han permitido concluir que las hipótesis formuladas por la teoría de la jerarquización financiera encuentran una mayor coincidencia con los resultados que las formuladas por la teoría del trade-off. Aún así, la teoría de la jerarquización no tiene una capacidad explicativa plena al no poder explicar los resultados obtenidos para todas las hipótesis planteadas.

Por este motivo se ha buscado un acercamiento novedoso a la investigación de la estructura de capital, tratando de hallar un marco de referencia que explicara las decisiones de financiación a través de las nuevas aportaciones realizadas por el corporate governance. Esta disciplina hace un fuerte énfasis en el papel que los stakeholders desempeñan en la manera de gobernar las compañías. A partir de este marco conceptual, y la aportación de diferentes publicaciones que habían analizado por separado de qué manera algunos stakeholders podían condicionar las decisiones de financiación, se ha presentado una línea de investigación que pretende explicar las decisiones de financiación a través de la influencia de los stakeholders. Tras analizar una muestra de las 500 mayores empresas europeas, por volumen de ventas, se ha contrastado la influencia de los directivos, trabajadores, competidores, clientes y proveedores, en las decisiones de financiación.
This research project tries to contribute with empirical evidence in the complex debate of leverage decisions. First of all, we made a bibliometric study about Finance research between 1995 and 2006. After doing a general view of the main researched topics in finance, we focused on capital structure

Secondly we present an empirical contrast among 205 companies of the S&P 500 between 1994 and 2004. This research is a study about the influence of the financial policies (investment, dividends and capital structure) on the value creation taking into account different value metrics. The obtained results allowed to conclude that these financial decisions are relevant on the matter of value creation. Our analysis take in to account the presence and absence of the growth opportunities of the companies studied. We also conclude that the influence of the financial decisions change in function of the metric used. After having considered different models base on several value metrics, we selected the model base on the Market Value Added as best collecting the influence of the financial decisions.

Thirdly, we used a panel data analysis with a sample of 182 companies of the S&P 500 between 1997 and 2005 to compare two different financial theories on capital structure: Pecking order vs. trade-off. Our results show a better agreement with the pecking order hypothesis than the hypothesis formulated by the trade-off theory. However, some of our results cannot be explained by the pecking order theory.

Finally, we present a new approach to the financing decisions based on the new contributions provided by the corporate governance. This new approach emphasizes the crucial role of the stakeholders in the corporate governance. Grounding on this conceptual framework and the existing literature that analyzes the independent effect of some of the stakeholders over the financing decisions, we present a new approach for considering the influence of the stakeholders altogether. After analyzing a sample of 500 European top selling companies, we conclude that the financing decisions are influenced by managers, workers, competitors, client and suppliers.
Gli stili APA, Harvard, Vancouver, ISO e altri
17

Kim, Jinju. "ENJOYING SOCIAL TV Re-discovering the social process and big data research". Doctoral thesis, Universitat Autònoma de Barcelona, 2019. http://hdl.handle.net/10803/668003.

Testo completo
Abstract (sommario):
Esta tesis estudia el comportamiento de las audiencias de lo que hoy se conoce como la televisión social: producciones audiovisuales a las que se accede a través de las redes sociales y el televidente puede disfrutar de su proyección y al tiempo compartir su experiencia audiovisual con otras personas. A diferencia de las investigaciones tradicionales que han analizado el consumo transnacional de las producciones culturales (principalmente desde los Estados Unidos al resto del mundo), esta tesis estudia el consumo que hacen las audiencias occidentales (de habla inglesa, española y francesa) de productos audiovisuales producidos en países orientales, concretamente en Corea del Sur. La interculturalidad se ha convertido hoy en día en un fenómeno común, pero se sabe muy poco sobre los procesos sociales que tienen lugar cuando se consumen productos con precedencias culturales diferentes. Investigaciones previas han señalado que los enfoques tradicionales para el estudio del consumo de las producciones audiovisuales, solo permiten comprender los aspectos superficiales del comportamiento de las audiencias digitales. Por lo tanto, en esta tesis se ha propuesto identificar y aplicar nuevos enfoques teóricos y metodológicos para el estudio de audiencias. Estos métodos utilizan las técnicas desarrolladas en el ámbito de la computación que hacen posible el acceso a datos provenientes de distintas redes sociales (big data methods) y procesarlos utilizado dos enfoques. El primero se desarrolla en el ámbito del proceso del lenguaje natural (tanto el análisis de la expresión lingüística de sentimientos como de los temas expresados). El segundo, en el ámbito del análisis de las redes sociales el cual permite diferenciar las interdependencias que tienen lugar durante el proceso de transformación de un artista en una estrella. La primera contribución de la tesis es identificar las emociones expresadas lingüísticamente, su valencia, y su intensidad, y lo realiza en un contexto multicultural (anglosajón, español y francés), mediendo su relación con la popularidad de las producciones culturales. El marco cultural está basado en la psicología social y realiza una aportación al estudio del comportamiento del consumidor. La segunda contribución tiene que ver con la interacción parasocial que tiene lugar entre los consumidores y los actores que dan vida a los personajes y a la trama de la producción audiovisual. Para identificar las dimensiones de la interacción parasocial se utilizan métodos desarrollados para el procesamiento del lenguaje natural. Se puede decir que esta es la primera investigación que los identifica la interacción parasocial e incluso mide su influencia en la popularidad de las expresiones culturales analizadas. La tercera contribución de la tesis radica en la aportación de una nueva teoría que explica la evolución de las redes de interacción social de los artistas. La teoría, se ha denominado “Big Bang Theory of Stardom”, la cual identifica y explica el proceso de transformación de las redes sociales de los artistas, desde que estos entran en el mercado hasta que se transforman en famosos. La experiencia emocional socialmente compartida entre los espectadores parece ser el punto de partida de los procesos sociales. En resumen, los resultados muestran que los productos mediáticos no occidentales exitosos en la televisión social son los capaces de estimular las reacciones emocionales de los espectadores globales y su interacción afectiva social con los personajes mediáticos. Los personajes de los medios se vuelven fundamentales para la popularidad de los medios solo cuando son capaces de crear una estructura capilar de la red de interacciones entre las audiencias. Se llega a la conclusión de que la televisión social ofrece una nueva y prometedora forma de entender el comportamiento de las audiencias globales y de la interculturalidad multidireccional en el nuevo entorno de los medios.
Social media, online sharing platforms, and online TV industry among other innovations in communication technologies have dramatically changed the media production and consumption environment. The globalization of the media markets is probably the most critical consequence of this digital revolution. However, the majority of previous research in cross-cultural studies have been framed in western productions (the US mainly) distributed to the rest of the world and conducted using traditional data gathering and analytical tools. Therefore, blindly applying these previous research frameworks to the globalization of media markets may reduce our ability to describe how global audiences enjoy media productions through online TV channels and interpret consumers’ role in the popularity of eastern media products. These new questions remain unexplored and refer us to the study of consumers’ experience watching eastern media products in terms of cultural values, enjoyment, and emotions by global audiences including western audiences. One of the most recent and essential phenomena in the global digital media entertainment ecosystem is the advent of social TV merging television and social media. Emotional expressions are of the utmost importance to describe viewers’ enjoyment with social TV. From a research viewpoint, this dense online conversations and flow of comments carry valuable information about online viewers' experience of the media contents they have been exposed to. To examine the information embedded in the vast body of text data present in social TV we use a series of advanced computer-aided text research methods, such as sentiment analysis, topic modelling, and network analysis that have been rarely employed so far in communication studies. For the first time, this study adopts a mixed research approach to analyse the audience behaviour of Korean TV series in social TV with qualitative data (viewers' real-time comments) and advanced quantitative methods developed for big-data analyses. The first contribution of the thesis identifies the expression of emotions embedded in viewers' comments and measures the intensity of audiences' enjoyment. We consider three different linguistic groups of global viewers, English, Spanish, and French in a multicultural context. The results suggest that the cultural groups do not influence the way consumers express their emotions when watching Korean TV series, but do influence the intensity with which they are expressed in comments. The second contribution consists in examining the parasocial interaction of audiences with media characters in Korean TV series through social TV and measure its relationship with the popularity of cultural products. We identify the thematic content expressed in real-time comments with topic modelling, a new analytical tool for automatic thematic analysis. This is the first research that identifies and measure the influence of parasocial interaction on the popularity of cultural media products. The third contribution reveals a theory that explains the evolution of the social interaction networks of an artist called Big Bang Theory of stardom. Socially shared emotional experience among viewers seems to be the starting point of a social process. The results of network analysis among the viewers' comments identify and explain the process of transformation of the social network of artists from entering the market until they become famous. To sum up, this research reveals that successful non-western media products on social TV are the ones capable of stimulating global viewers' emotional reactions and their social affective interaction with media characters. Media characters turn to be fundamental for the media popularity only when they are able to create a capillary structure of interactions network among audiences. We conclude that social TV provides a promising new way of understanding the global audiences’ behaviour of multidirectional cross-cultural consumption in the new media environment.
Gli stili APA, Harvard, Vancouver, ISO e altri
18

Munir, Rana Faisal. "Storage format selection and optimization for materialized intermediate results in data-intensive flows". Doctoral thesis, Universitat Politècnica de Catalunya, 2019. http://hdl.handle.net/10803/668476.

Testo completo
Abstract (sommario):
Modern organizations produce and collect large volumes of data, that need to be processed repeatedly and quickly for gaining business insights. For such processing, typically, Data-intensive Flows (DIFs) are deployed on distributed processing frameworks. The DIFs of different users have many computation overlaps (i.e., parts of the processing are duplicated), thus wasting computational resources and increasing the overall cost. The output of these computation overlaps (known as intermediate results) can be materialized for reuse, which helps in reducing the cost and saves computational resources if properly done. Furthermore, the way such outputs are materialized must be considered, as different storage layouts (i.e., horizontal, vertical, and hybrid) can be used to reduce the I/O cost. In this PhD work, we first propose a novel approach for automatically materializing the intermediate results of DIFs through a multi-objective optimization method, which can tackle multiple and conflicting quality metrics. Next, we study the behavior of different operators of DIFs that are the first to process the loaded materialized results. Based on this study, we devise a rule-based approach, that decides the storage layout for materialized results based on the subsequent operation types. Despite improving the cost in general, the heuristic rules do not consider the amount of data read while making the choice, which could lead to a wrong decision. Thus, we design a cost model that is capable of finding the right storage layout for every scenario. The cost model uses data and workload characteristics to estimate the I/O cost of a materialized intermediate results with different storage layouts and chooses the one which has minimum cost. The results show that storage layouts help to reduce the loading time of materialized results and overall, they improve the performance of DIFs. The thesis also focuses on the optimization of the configurable parameters of hybrid layouts. We propose ATUN-HL (Auto TUNing Hybrid Layouts), which based on the same cost model and given the workload and characteristics of data, finds the optimal values for configurable parameters in hybrid layouts (i.e., Parquet). Finally, the thesis also studies the impact of parallelism in DIFs and hybrid layouts. Our proposed cost model helps to devise an approach for fine-tuning the parallelism by deciding the number of tasks and machines to process the data. Thus, the cost model proposed in this thesis, enables in choosing the best possible storage layout for materialized intermediate results, tuning the configurable parameters of hybrid layouts, and estimating the number of tasks and machines for the execution of DIFs.
Las organizaciones producen y recopilan grandes volúmenes de datos, que deben procesarse de forma repetitiva y rápida para obtener información relevante para la empresa. Para tal procesamiento, por lo general, se emplean flujos intensivos de datos (DIFs por sussiglas en inglés) en entornos de procesamiento distribuido. Los DIFs de diferentes usuarios tienen elementos comunes (es decir, se duplican partes del procesamiento, lo que desperdicia recursos computacionales y aumenta el coste en general). Los resultados intermedios de varios DIFs pueden pues coincidir y se pueden por tanto materializar para facilitar su reutilización, lo que ayuda a reducir el coste y ahorrar recursos si se realiza correctamente. Además, la forma en qué se materializan dichos resultados debe ser considerada. Por ejemplo, diferentes tipos de diseño lógico de los datos (es decir, horizontal, vertical o híbrido) se pueden utilizar para reducir el coste de E/S. En esta tesis doctoral, primero proponemos un enfoque novedoso para materializar automáticamente los resultados intermedios de los DIFs a través de un método de optimización multi-objetivo, que puede considerar múltiples y contradictorias métricas de calidad. A continuación, estudiamos el comportamiento de diferentes operadores de DIF que acceden directamente a los resultados materializados. Sobre la base de este estudio, ideamos un enfoque basado en reglas, que decide el diseño del almacenamiento para los resultados materializados en función de los tipos de operaciones que los utilizan directamente. A pesar de mejorar el coste en general, las reglas heurísticas no consideran estadísticas sobre la cantidad de datos leídos al hacer la elección, lo que podría llevar a una decisión errónea. Consecuentemente, diseñamos un modelo de costos que es capaz de encontrar el diseño de almacenamiento adecuado para cada escenario dependiendo de las características de los datos almacenados. El modelo de costes usa estadísticas y características de acceso para estimar el coste de E/S de un resultado intervii medio materializado con diferentes diseños de almacenamiento y elige el de menor coste. Los resultados muestran que los diseños de almacenamiento ayudan a reducir el tiempo de carga de los resultados materializados y, en general, mejoran el rendimiento de los DIF. La tesis también presta atención a la optimización de los parámetros configurables de diseños híbridos. Proponemos así ATUN-HL (Auto TUNing Hybrid Layouts), que, basado en el mismo modelo de costes, las características de los datos y el tipo de acceso que se está haciendo, encuentra los valores óptimos para los parámetros de configuración en disponibles Parquet (una implementación de diseños híbridos para Hadoop Distributed File System). Finalmente, esta tesis estudia el impacto del paralelismo en DIF y diseños híbridos. El modelo de coste propuesto ayuda a idear un enfoque para ajustar el paralelismo al decidir la cantidad de tareas y máquinas para procesar los datos. En resumen, el modelo de costes propuesto permite elegir el mejor diseño de almacenamiento posible para los resultados intermedios materializados, ajustar los parámetros configurables de diseños híbridos y estimar el número de tareas y máquinas para la ejecución de DIF.
Moderne Unternehmen produzieren und sammeln große Datenmengen, die wiederholt und schnell verarbeitet werden müssen, um geschäftliche Erkenntnisse zu gewinnen. Für die Verarbeitung dieser Daten werden typischerweise Datenintensive Prozesse (DIFs) auf verteilten Systemen wie z.B. MapReduce bereitgestellt. Dabei ist festzustellen, dass die DIFs verschiedener Nutzer sich in großen Teilen überschneiden, wodurch viel Arbeit mehrfach geleistet, Ressourcen verschwendet und damit die Gesamtkosten erhöht werden. Um diesen Effekt entgegenzuwirken, können die Zwischenergebnisse der DIFs für spätere Wiederverwendungen materialisiert werden. Hierbei müssen vor allem die unterschiedlichen Speicherlayouts (horizontal, vertikal und hybrid) berücksichtigt werden. In dieser Doktorarbeit wird ein neuartiger Ansatz zur automatischen Materialisierung der Zwischenergebnisse von DIFs durch eine mehrkriterielle Optimierungsmethode vorgeschlagen, der in der Lage ist widersprüchliche Qualitätsmetriken zu behandeln. Des Weiteren wird untersucht die Wechselwirkung zwischen verschiedenen Operatortypen und unterschiedlichen Speicherlayouts untersucht. Basierend auf dieser Untersuchung wird ein regelbasierter Ansatz vorgeschlagen, der das Speicherlayout für materialisierte Ergebnisse, basierend auf den nachfolgenden Operationstypen, festlegt. Obwohl sich die Gesamtkosten für die Ausführung der DIFs im Allgemeinen verbessern, ist der heuristische Ansatz nicht in der Lage die gelesene Datenmenge bei der Auswahl des Speicherlayouts zu berücksichtigen. Dies kann in einigen Fällen zu falschen Entscheidung führen. Aus diesem Grund wird ein Kostenmodell entwickelt, mit dem für jedes Szenario das richtige Speicherlayout gefunden werden kann. Das Kostenmodell schätzt anhand von Daten und Auslastungsmerkmalen die E/A-Kosten eines materialisierten Zwischenergebnisses mit unterschiedlichen Speicherlayouts und wählt das kostenminimale aus. Die Ergebnisse zeigen, dass Speicherlayouts die Ladezeit materialisierter Ergebnisse verkürzen und insgesamt die Leistung von DIFs verbessern. Die Arbeit befasst sich auch mit der Optimierung der konfigurierbaren Parameter von hybriden Layouts. Konkret wird der sogenannte ATUN-HLAnsatz (Auto TUNing Hybrid Layouts) entwickelt, der auf der Grundlage des gleichen Kostenmodells und unter Berücksichtigung der Auslastung und der Merkmale der Daten die optimalen Werte für konfigurierbare Parameter in Parquet, d.h. eine Implementierung von hybrider Layouts. Schließlich werden in dieser Arbeit auch die Auswirkungen von Parallelität in DIFs und hybriden Layouts untersucht. Dazu wird ein Ansatz entwickelt, der in der Lage ist die Anzahl der Aufgaben und dafür notwendigen Maschinen automatisch zu bestimmen. Zusammengefasst lässt sich festhalten, dass das in dieser Arbeit vorgeschlagene Kostenmodell es ermöglicht, das bestmögliche Speicherlayout für materialisierte Zwischenergebnisse zu ermitteln, die konfigurierbaren Parameter hybrider Layouts festzulegen und die Anzahl der Aufgaben und Maschinen für die Ausführung von DIFs zu schätzen
Gli stili APA, Harvard, Vancouver, ISO e altri
19

Salinas, Bueno Iosune. "Pautas ergonómicas para la interacción persona ordenador. Diseño y uso de sistemas para el acceso a las tic de usuarios con grandes discapacidades motoras". Doctoral thesis, Universitat de les Illes Balears, 2012. http://hdl.handle.net/10803/117326.

Testo completo
Abstract (sommario):
Las personas con grandes discapacidades motoras pueden alcanzar un acceso ordinario a las TIC a través de productos de apoyo, como son los sistemas de acceso al ordenador basados en visión por ordenador que detectan el movimiento de la cabeza. Los requisitos y recomendaciones ergonómicos habituales no recogen situaciones como estas, que implican nuevos elementos en el equipo de trabajo y en los que las personas que utilizan el ordenador presentan diversidad de posturas y adaptaciones al esfuerzo. Se pretende identificar las condiciones ergonómicas adecuadas para el uso de dispositivos de entrada de datos basados en visión por ordenador mediante la detección de movimientos de la cabeza, concretamente el SINA, por parte de personas con grandes discapacidades motoras, para establecer las pautas necesarias para garantizar un mínimo esfuerzo físico al usar el ordenador.
People with severe disabilities can achieve regular access to technologies by means of assistive technologies, such as alternative input devices. This is the case of human computer interaction (HCI) by means of vision-based hands-free input devices using head movement detection, specifically SINA, which is the focus of this research. Ergonomic requirements and recommendations are addressed to anthropometric and demographic standard users, equipments and workstations. They neither cover HCI with input devices that involve new equipment elements such as the camera that detects motion, nor present specific recommendations for people with diversity of postures and movements in their interaction with the computer. This research aims to identify the appropriate ergonomic conditions for the use of vision-based hands-free input devices using head movement detection by people with severe motor disabilities, as well as setting guidelines to ensure minimal physical effort for the target user population.
Gli stili APA, Harvard, Vancouver, ISO e altri
20

Hasperué, Waldo. "Extracción de conocimiento en grandes bases de datos utilizando estrategias adaptativas". Tesis, 2012. http://hdl.handle.net/10915/4215.

Testo completo
Abstract (sommario):
El objetivo general de esta tesis es el desarrollo de una técnica adaptativa para la extracción de conocimiento en grandes bases de datos. Hoy en día, la tecnología posibilita el almacenamiento de enormes volúmenes de información. Por tal motivo, resulta de interés contar con técnicas que permitan, en una primera etapa, analizar tal información y obtener conocimiento que pueda ser expresado como reglas de clasificación. Sin embargo, es de esperar que la información disponible se modifique o incremente a lo largo del tiempo y por lo tanto, en una segunda etapa, sería relevante poder adaptar el conocimiento adquirido a los cambios o variaciones que ocurran en el conjunto de datos original. El aporte de la tesis está centrado en la definición de una técnica adaptativa que permite extraer conocimiento de grandes bases de datos a partir de un modelo dinámico capaz de adaptarse a los cambios de la información, obteniendo así una técnica de minería de datos que sea capaz de generar conocimiento útil, produciendo resultados que sean de provecho al usuario final. Los resultados de esta investigación pueden aplicarse en áreas tales como análisis de suelos, análisis genético, biología, robótica, economía, medicina, detección de fallas en plantas y comunicación de sistemas móviles. En estos casos es importante la obtención de un resultado óptimo, de modo de mejorar la calidad de las decisiones que se toman a partir del procesamiento. Desde el punto de vista informático estos problemas son un desafío interesante debido al volumen y distribución de los datos a analizar (incluso su complejidad) para obtener el conocimiento buscado.
Gli stili APA, Harvard, Vancouver, ISO e altri
21

Bustos, Maximiliano David. "Técnicas embedding para clasificación de imágenes en grandes bancos de datos". Bachelor's thesis, 2015. http://hdl.handle.net/11086/2827.

Testo completo
Abstract (sommario):
En este trabajo se considera el problema de clasificación de imágenes en gran escala mediante embeddings lineales. En un modelo embedding, además de generar una representación para las imágenes (entradas) se genera una representación para las clases o conceptos de interés (salidas). De esta forma, al comparar estas representaciones intermedias (imágenes y clases) en un espacio de representación común, es posible abordar de manera unificada problemas como los de clasificación y búsqueda de imágenes por contenido. Los métodos embedding son particularmente atractivos en cuanto permiten generar proyecciones a espacios de imensionalidad reducida, lo que hace posible el abordaje de problemas en gran escala (millones de imágenes, cientos de miles de conceptos) de manera eficiente. En particular, se analiza el algoritmo WSABIE propuesto por [Weston et al.,2011b] el cual, a diferencia de los esquemas tradicionales, aborda el problema de aprendizaje mediante la optimización de una función objetivo que tiene en cuenta no solo si una muestra fue bien o mal clasificada, sino cómo se ubicó su etiqueta verdadera respecto de las k mejores predicciones en una lista ordenada de posibles anotaciones.
In this work we consider the problem of large scale image classification using linear embeddings. In an embedding model, a representation of both images (inputs) and classes (outputs) is generated. Then, by comparing these intermediate representations (images and classes) in a common representation space, it is possible to solve problems like classification and image retrieval in a unified manner. Embedding methods are attractive because they allow the projection into spaces of low dimensionality where large scale problems (millions of images and hundreds of thousands of concepts) can be handled efficiently. In particular, we analyze the WSABIE algorithm proposed by [Weston et al., 2011b] which, unlike traditional methods, approaches the learning problem through the optimization of an objective function that considers not only whether the sample was correctly classified, but also the rank of the true label with respect to the k best predictions in a sorted list of possible annotations.
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia