Дисертації з теми "Extraction de dates"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Extraction de dates.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-19 дисертацій для дослідження на тему "Extraction de dates".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Al-Jasser, Mohammed S. "The feasibility of date processing Phoenix dactylifera L. var Sufri components using physical and pectolytic enzyme treatments." Thesis, Loughborough University, 1990. https://dspace.lboro.ac.uk/2134/6928.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
The Sufri variety of date is widely cultivated in Saudi Arabia, where it 'produced large quantities of dates. The high quality dates are consumed fresh, dried or preserved, the surplus and second quality dates may be damaged by improper harvesting, handling, transporting and processing. The Sufri variety of date is one of moderate quality and there is a surplus in local markets for processing into overflows to be used as "a base" for the food industry. The present work was conducted to increase soluble solids, including sugars, in the overflows and to maintain the quality of the underflows; chemical analysis of both the overflows and the underflows revealed that Sufri date contains proteins/ amino acids and pectin in small quantities, which can be utilised as byproducts. Physical treatment involved maceration with different ratios (date/water) at mild temperatures (30-60°C) for different times (10- 30 min). Over this range the increase in soluble solids in the overflow was at a minimum but the underflow retained its quality and softening of date tissues was achieved. Different extraction ratios indicated that a lower ratio produced a low overflow which was turbid, but that the higher ratios produced overflows which were dilute. Serial extractions with the same ratio in the initial extraction was not practical. In enzymic treatment, pectolytic enzymes were incubated with date underflows at different concentrations, temperatures for various incubation times. Overflows increased significantly over a short time and at low temperatures (30 min and 30°C) indicating the effectiveness of pectolytic enzymes in releasing more of the overflows, and sugars were increased in the overflows as an indication of the effect of these enzymes on date cell walls. Pure pectolytic enzymes were investigated and it was found that specificity was very important for selection of suitable pectolytic enzymes. It is concluded that the Sufri variety of date is a good source of reducing sugars, and its by-products have a promising future.
2

Poulain, d'Andecy Vincent. "Système à connaissance incrémentale pour la compréhension de document et la détection de fraude." Thesis, La Rochelle, 2021. http://www.theses.fr/2021LAROS025.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le Document Understanding est la discipline de l’Intelligence Artificielle qui dote les machines du pouvoir de Lecture. Cette capacité sous-entend de comprendre dans une vision globale l’objet du document, sa classe, et dans une vision locale, des informations précises, des entités. Un double défi est de réussir ces opérations dans plus de 90% des cas tout en éduquant la machine avec le moins d’effort humain possible. Cette thèse défend la possibilité de relever ces défis avec des méthodes à apprentissage incrémental. Nos propositions permettent d’éduquer efficacement et itérativement une machine avec quelques exemples de document. Pour la classification, nous démontrons (1) la possibilité de découvrir itérativement des descripteurs textuels, (2) l’intérêt de tenir compte de l’ordre du discours et (3) l’intérêt d’intégrer dans le modèle de donnée incrémental une mémoire épisodique de quelques Souvenirs d’échantillon. Pour l’extraction d’entité, nous démontrons un modèle structurel itératif à partir d’un graphe en étoile dont la robustesse est améliorée avec quelques connaissances a priori d’ordre général. Conscient de l’importance économique et sociétale de la fraude dans les flux documentaires, cette thèse fait également le point sur cette problématique. Notre contribution est modeste en étudiant les catégories de fraude pour ouvrir des perspectives de recherche. Cette thèse a été conduite dans un cadre atypique en conjonction avec une activité industrielle à Yooz et des projets collaboratifs, en particulier, les projets FEDER SECURDOC soutenu par la région Nouvelle Aquitaine et Labcom IDEAS soutenu par l’ANR
The Document Understanding is the Artificial Intelligence ability for machines to Read documents. In a global vision, it aims the understanding of the document function, the document class, and in a more local vision, it aims the understanding of some specific details like entities. The scientific challenge is to recognize more than 90% of the data. While the industrial challenge requires this performance with the least human effort to train the machine. This thesis defends that Incremental Learning methods can cope with both challenges. The proposals enable an efficient iterative training with very few document samples. For the classification task, we demonstrate (1) the continue learning of textual descriptors, (2) the benefit of the discourse sequence, (3) the benefit of integrating a Souvenir of few samples in the knowledge model. For the data extraction task, we demonstrate an iterative structural model, based on a star-graph representation, which is enhanced by the embedding of few a priori knowledges. Aware about economic and societal impacts because the document fraud, this thesis deals with this issue too. Our modest contribution is only to study the different fraud categories to open further research. This research work has been done in a non-classic framework, in conjunction of industrial activities for Yooz and collaborative research projects like the FEDER Securdoc project supported by la région Nouvelle Aquitaine, and the Labcom IDEAS supported by the ANR
3

Weingessel, Andreas, Martin Natter, and Kurt Hornik. "Using independent component analysis for feature extraction and multivariate data projection." SFB Adaptive Information Systems and Modelling in Economics and Management Science, WU Vienna University of Economics and Business, 1998. http://epub.wu.ac.at/1424/1/document.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Deriving low-dimensional perceptual spaces from data consisting of many variables is of crucial interest in strategic market planning. A frequently used method in this context is Principal Components Analysis, which finds uncorrelated directions in the data. This methodology which supports the identification of competitive structures can gainfully be utilized for product (re)positioning or optimal product (re)design. In our paper, we investigate the usefulness of a novel technique, Independent Component Analysis, to discover market structures. Independent Component Analysis is an extension of Principal Components Analysis in the sense that it looks for directions in the data that are not only uncorrelated but also independent. Comparing the two approaches on the basis of an empirical data set, we find that Independent Component Analysis leads to clearer and sharper structures than Principal Components Analysis. Furthermore, the results of Independent Component Analysis have a reasonable marketing interpretation.
Series: Working Papers SFB "Adaptive Information Systems and Modelling in Economics and Management Science"
4

Akasha, Ibrahim Abdurrhman Mohamed. "Extraction and characterisation of protein fraction from date palm (Phoenix dactylifera L.) seeds." Thesis, Heriot-Watt University, 2014. http://hdl.handle.net/10399/2771.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
To meet the challenges of protein price increases from animal sources, the development of new, sustainable and inexpensive proteins sources (nonanimal sources) is of great importance. Date palm (Phoenix dactylifera L.) seeds could be one of these sources. These seeds are considered a waste and a major problem to the food industry. In this thesis we report a physicochemical characterisation of date palm seed protein. Date palm seed was found to be composed of a number of components including protein and amino acids, fat, ash and fibre. The first objective of the project was to extract protein from date palm seed to produce a powder of sufficient protein content to test functional properties. This was achieved using several laboratory scale methods. Protein powders of varying protein content were produced depending on the method used. Most methods were based on solubilisation of the proteins in 0.1M NaOH. Using this method combined with enzymatic hydrolysis of seed polysaccharides (particularly mannans) it was possible to achieve a protein powder of about 40% protein (w/w) compared to a seed protein content of about 6% (w/w). Phenol/TCA extraction gave the protein powder with the highest protein percentage of 68.24% (w/w) and this powder was used for subsequent functional testing. Several factors were found to influence seed protein extraction such as pH, temperature, the extraction time, the solvent to sample ratio and the solvent concentration. Optimum conditions for extraction were found to be pH 10, 45˚C and extraction time of 60 min. The results showed that use of enzymes to hydrolyse and remove seed polysaccharides improved the extraction of date seed protein. Optimal improvement was obtained using Mannaway, which hydrolyses mannans and galactomannans, which gave a powder with 34.82% (w/w) protein compared to the control of 11.15% (w/w) protein. The proteins in the extracted date seed protein were profiled using LC/MSMS. Three-hundred and seventeen proteins were identified. The proteins belonged to all major functional categories. The most abundant proteins were glycinin and β-conglycinin, the two major seed storage proteins of plants. The functional properties of extracted date seed protein were investigated using a range of tests. The thermal properties of date seed proteins were consistent with a powder containing high levels of conglycinin and β-glycinin. The solubility had a similar pH profile to soy protein, but differed in absolute solubility due to differences in non-protein composition. Similarly, water holding and oil holding capacity of date seed protein was lower than for soy protein, probably because of compositional differences. Date seed proteins were able to emulsify oils and had a comparable emulsifying ability and emulsion stability to soy protein isolate. The date seed protein was not a good foaming agent compared to soy protein or whey protein concentrate.
5

Al, Bulushi Karima. "Supercritical CO2 extraction of waxes from date palm (Phoenix dactylifera) leaves : optimisation, characterisation, and applications." Thesis, University of York, 2018. http://etheses.whiterose.ac.uk/21257/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
The low cost, abundant, underexploited and underutilised renewable agricultural waste residue, date palm leaves (Phoenix dactylifera), were extracted using supercritical carbon dioxide (scCO2) to obtain valuable waxes. The extraction process was optimised using second order factorial design to obtain high yield of waxes. Date palm leaves exhibited relatively high yield of wax of 3.49%, as compared to other agricultural residues extracted with scCO2. Diverse range of lipophilic compounds were characterised and quantified including n-alkanes, free fatty acids, free fatty alcohols, long chain aldehydes, sterols and wax esters. Waxes extracted at different extraction pressure and temperature exhibited significant difference in melting profile (ranging from 35 °C for extractions at 40°C and 80 Bar to melting points of 78 °C for extractions at 100 °C and 400 Bar). Thus, suggesting the opportunity to tailor extraction to meet a target application. ScCO2 extraction has several advantages over organic solvent extraction which were demonstrated in this work. Date palm leaves wax was tested as structuring agent for sunflower oil along with other commercial natural waxes. Date palm wax based oleogel exhibited low critical gelling concentrations compared to other waxes. Chemical composition and crystal morphology for the waxes and their gels were further explored to gain better understanding of their gelling behaviour. Date palm wax exhibited good gelling ability and high thermal stability compared to other commercial waxes. The rheological profile for date palm wax based oleogel was comparable with other natural waxes making it a promising structuring agent in food industry. The scale up of scCO2 extraction was studied at semi-pilot scale and resulted in comparable yields, chemical composition and melting profile of wax to the lab scale. Attempts to further reduce the complexity of the wax by fractional extraction, yielding three different wax fractions with varying in texture, composition and physical properties. Economic aspects of the extraction process were explored to further assess the viability of the process. Cost of Manufacture of date palm wax was initially €14.01 kg−1 wax, which could be further reduced to €8.80 kg-1 wax by biomass pelletising. If the extracted biomass was utilised to generate electricity the costs are further reduced to 3.88 kg−1 wax.
6

Bosch, Vicente Juan José. "From heuristics-based to data-driven audio melody extraction." Doctoral thesis, Universitat Pompeu Fabra, 2017. http://hdl.handle.net/10803/404678.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
The identification of the melody from a music recording is a relatively easy task for humans, but very challenging for computational systems. This task is known as "audio melody extraction", more formally defined as the automatic estimation of the pitch sequence of the melody directly from the audio signal of a polyphonic music recording. This thesis investigates the benefits of exploiting knowledge automatically derived from data for audio melody extraction, by combining digital signal processing and machine learning methods. We extend the scope of melody extraction research by working with a varied dataset and multiple definitions of melody. We first present an overview of the state of the art, and perform an evaluation focused on a novel symphonic music dataset. We then propose melody extraction methods based on a source-filter model and pitch contour characterisation and evaluate them on a wide range of music genres. Finally, we explore novel timbre, tonal and spatial features for contour characterisation, and propose a method for estimating multiple melodic lines. The combination of supervised and unsupervised approaches leads to advancements on melody extraction and shows a promising path for future research and applications.
La identificación de la melodía en una grabación musical es una tarea relativamente fácil para seres humanos, pero muy difícil para sistemas computacionales. Esta tarea se conoce como "extracción de melodía", más formalmente definida como la estimación automática de la secuencia de alturas correspondientes a la melodía de una grabación de música polifónica. Esta tesis investiga los beneficios de utilizar conocimiento derivado automáticamente de datos para extracción de melodía, combinando procesado digital de la señal y métodos de aprendizaje automático. Ampliamos el alcance de la investigación en este campo, al trabajar con un conjunto de datos variado y múltiples definiciones de melodía. En primer lugar presentamos un extenso análisis comparativo del estado de la cuestión y realizamos una evaluación en un contexto de música sinfónica. A continuación, proponemos métodos de extracción de melodía basados en modelos de fuente-filtro y la caracterización de contornos tonales, y los evaluamos en varios géneros musicales. Finalmente, investigamos la caracterización de contornos con información de timbre, tonalidad y posición espacial, y proponemos un método para la estimación de múltiples líneas melódicas. La combinación de enfoques supervisados y no supervisados lleva a mejoras en la extracción de melodía y muestra un camino prometedor para futuras investigaciones y aplicaciones.
7

Rosenthal, Paul, Vladimir Molchanov, and Lars Linsen. "A Narrow Band Level Set Method for Surface Extraction from Unstructured Point-based Volume Data." Universitätsbibliothek Chemnitz, 2011. http://nbn-resolving.de/urn:nbn:de:bsz:ch1-qucosa-70373.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Level-set methods have become a valuable and well-established field of visualization over the last decades. Different implementations addressing different design goals and different data types exist. In particular, level sets can be used to extract isosurfaces from scalar volume data that fulfill certain smoothness criteria. Recently, such an approach has been generalized to operate on unstructured point-based volume data, where data points are not arranged on a regular grid nor are they connected in form of a mesh. Utilizing this new development, one can avoid an interpolation to a regular grid which inevitably introduces interpolation errors. However, the global processing of the level-set function can be slow when dealing with unstructured point-based volume data sets containing several million data points. We propose an improved level-set approach that performs the process of the level-set function locally. As for isosurface extraction we are only interested in the zero level set, values are only updated in regions close to the zero level set. In each iteration of the level-set process, the zero level set is extracted using direct isosurface extraction from unstructured point-based volume data and a narrow band around the zero level set is constructed. The band consists of two parts: an inner and an outer band. The inner band contains all data points within a small area around the zero level set. These points are updated when executing the level set step. The outer band encloses the inner band providing all those neighbors of the points of the inner band that are necessary to approximate gradients and mean curvature. Neighborhood information is obtained using an efficient kd-tree scheme, gradients and mean curvature are estimated using a four-dimensional least-squares fitting approach. Comparing ourselves to the global approach, we demonstrate that this local level-set approach for unstructured point-based volume data achieves a significant speed-up of one order of magnitude for data sets in the range of several million data points with equivalent quality and robustness.
8

López, Massaguer Oriol 1972. "Development of informatic tools for extracting biomedical data from open and propietary data sources with predictive purposes." Doctoral thesis, Universitat Pompeu Fabra, 2017. http://hdl.handle.net/10803/471540.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Hem desenvolupat noves eines de software per tal d’obtenir informació de fonts publiques i privades per tal de desenvolupar models de toxicitat in silico. La primera eina es Collector, una aplicació de programari lliure que genera series de compostos preparats per fer modelat QSAR anotats amb bioactivitats extretes de la plataforma Open PHACTS usant tecnologies de la web semàntica. Collector ha estat utilitzada dins el projecte eTOX per desenvolupar models predictius sobre endpoints de toxicitat. Addicionalment hem concebut, desenvolupat i implementat un mètode per derivar scorings de toxicitat apropiats per modelatge predictiu que utilitza les dades obtingudes de informes d’estudis amb dosis repetides in vivo de la industria farmacèutica. El nostre mètode ha estat testejant aplicant-lo al modelat de hepatotoxicitat obtenint les dades corresponents per 3 endpoints: ‘degenerative lesions’, ‘inflammatory liver changes’ and ‘non-neoplasic proliferative lesions’. S’ha validat la idoneïtat d’aquestes dades obtingudes comparant-les amb els valors de point of departure obtinguts experimentalment i també desenvolupant models QSAR de prova obtenint resultats acceptables. El nostre mètode es basa en la inferència basada en ontologies per extreure informació de la nostra base de dades on tenim dades anotades basades en ontologies. El nostre mètode també es pot aplicar a altres bases de dades amb informació preclínica per generar scorings de toxicitat. Addicionalment el nostre mètode d’inferència basat en ontologies es pot aplicar a d’altre bases de dades relacionals anotades amb ontologies.
We developed new software tools to obtain information from public and private data sources to develop in silico toxicity models. The first of these tools is Collector, an Open Source application that generates “QSAR-ready” series of compounds annotated with bioactivities, extracting the data from the Open PHACTS platform using semantic web technologies. Collector was applied in the framework of the eTOX project to develop predictive models for toxicity endpoints. Additionally, we conceived, designed, implemented and tested a method to derive toxicity scorings suitable for predictive modelling starting from in vivo preclinical repeated-dose studies generated by the pharmaceutical industry. This approach was tested by generating scorings for three hepatotoxicity endpoints: ‘degenerative lesions’, ‘inflammatory liver changes’ and ‘non-neoplasic proliferative lesions’. The suitability of these scores was tested by comparing them with experimentally obtained point of departure doses as well as by developing tentative QSAR models, obtaining acceptable results. Our method relies on ontology-based inference to extract information from our ontology annotated data stored in a relational database. Our method, as a whole, can be applied to other preclinical toxicity databases to generate toxicity scorings. Moreover, the ontology-based inference method on its own is applicable to any relational databases annotated with ontologies.
9

Luis, Peña Christian Jair. "Diseño de la arquitectura de un extractor de endmembers de imágenes hiperespectrales sobre un FPGA en tiempo real." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/13046.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
El presente trabajo consiste en el dise˜no hardware de un extractor de endmembers para im´agenes hiperespectrales en tiempo real empleando el algoritmo N-FINDR. Para comprobar la efeciencia de la arquictectura se utiliz´o la imagen hiperespectral Cuprite la cual tiene un tama˜no de 350 350 y fue capturada por el sensor aerotransportado AVIRIS, el cual escanea una columna de 512 p´ıxeles en 8.3ms. Por ende, el procesamiento de la referida imagen se realizar´a en menos de 1.98 segundos para alcanzar el tiempo real. En primer lugar, el algoritmo fue analizado por medio del entorno de programaci´on MATLAB® con el fin de identificar los procesos m´as costosos computacionalmente para optimizarlos. Adem´as, se realiz´o el estudio de una nueva forma de eliminaci´on de pixeles en el an´alisis por medio de un pre-procesamiento con la intenci´on de reducir el tiempo de ejecuci´on del algoritmo. Posteriormente, se analiz´o el proceso m´as costoso computacionalmente y se propuso un dise˜no algor´ıtmico para mejorar la velocidad del proceso. En segundo lugar, se realiz´o la s´ıntesis comportamental de la aplicaci´on software con la finalidad de obtener una arquitectura hardware del sistema. La arquitectura fue descrita utilizando el lenguaje de descripci´on de hardware Verilog. Finalmente, el dise˜no se verific´o y valid´o mediante la herramienta ISim de Xilinx, a trav´es del uso de testbenches, realizando la sintesis de la arquitectura dise˜nada sobre un FPGA Virtex 4 utilizado el software ISE de la empresa Xilinx obteniendo una frecuencia de operaci´on estimada de 69.4Mhz, que representa un 64% de mejora, respecto de la referencia [1], llegando a procesar una imagen hiperespectral en 17.98 segundos. Sin embargo, con esta frecuencia no es posible alcanzar el procesamiento en tiempo real esperado utilizando la familia Virtex 4. La arquitectura dise˜nada, fue optimizada utilizando paralelismo de operaciones, lo cual hace que se incremente el ´area de dise˜no, excediendo el l´ımite de slices disponibles en el modelo Virtex 4 utilizando en la referencia [1], por ello se identific´o mediante las hojas de datos de la familia Virtex que el FPGA m´as id´oneo para soportar la arquitectura dise˜nada es la Virtex 7 modelo XC7VX980T que supera los 71,096 slices que requiere la presente arquitectura, obteniendo una frecuencia de operaci´on de 112.819MHz.
Tesis
10

Danilova, Vera. "Linguistic support for protest event data collection." Doctoral thesis, Universitat Autònoma de Barcelona, 2015. http://hdl.handle.net/10803/374232.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
sta tesis aborda el problema de la cualidad de recopilación automática de datos sobre protestas y propone herramientas de extracción multilíngüe de atributos del evento de protesta para mejorar la calidad de la unidad de análisis. El trabajo incluye la exploración del estado de arte en los dominios de la recopilación automática de datos sobre protestas y la extracción multilíngüe de eventos. En la ausencia de una colección de datos multilíngües sobre protestas anotados por expertos para el aprendizaje supervisado nos enfocamos en el tratamiento de noticias multilíngües basado en patrones lingüísticos conectados a una jerarquía de conceptos relacionados con el evento de protesta. Las gramáticas y lexicones han sido elaborados según los estándares de GATE 8.0, y la jerarquía de conceptos ha sido formalizada en Protégé - 4.3. El presenta trabajo contribuye al tratamiento automático de bases de datos sobre protestas con lo siguiente: colección automática de un corpus de noticias relacionadas con el evento de protesta; descripción formalizada del evento de protesta basada en un estudio detallado de un corpus de noticias multilíngües (en búlgaro, francés, polaco, ruso, español y sueco); elaboración de patrones genéricos y lexicones multilíngües conectados a la jerarquía de conceptos que resuelve el problema de la ausencia de una colección de datos preanotados por expertos; Los datos obtenidos pueden aplicarse, entre otros, en el monitoreo y análisis de protestas y la relacionada comunicación de usuarios en las redes sociales.
This thesis addresses the problem of automatic protest event collection quality and proposes the tools for multilingual protest feature extraction to improve the quality of analysis unit. This work includes the exploration of the state of the art in protest event data collection and multilingual event extraction. In the absence of a multilingual training dataset for supervised learning we focus on the rule-based approach to multilingual event extraction and connection of a domain concept hierarchy. Grammars and gazetteers have been elaborated in accordance with the standards of GATE 8.0, and the protest event hierarchy has been formalized using Protégé - 4.3. The present work contributes to the automatic protest event data collection and coding by the following: construction of a multilingual corpus of texts related to protest events; a formalized description of the protest event concept on the basis of a detailed examination of a multilingual corpus of news headlines (Bulgarian, French, Polish, Russian, Spanish, Swedish); elaboration of generic patterns and gazetteers for multilingual text processing, which helps to deal with the absence of a multilingual training set. The obtained data can be applied among others for the monitoring and analysis of event-specific social networks’ response.
11

Basurto, Contreras César Marino, and Contreras César Marino Basurto. "Modelo “Cebaco” aplicado al control de procesos en el circuito de Molienda-Clasificación en una planta concentradora de minerales mediante el software LabVIEW." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2011. http://cybertesis.unmsm.edu.pe/handle/cybertesis/377.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
El control de procesos en una planta concentradora se presenta como un problema desde el mismo momento que el mineral bruto cae a las trompas del molino, el proceso es continuo y solo cesa esta continuidad cuando el producto finalmente emerge para descansar en las canchas de almacenamiento de los concentrados y las canchas de relave de las colas. El material en proceso no puede ser pesado sin interrumpir tal continuidad; consecuentemente, el control de la planta dependerá mucho del muestreo adecuado del material tratado que se encuentra en forma de pulpa. De estas muestras se obtendrá la información esencial y útil por medio del análisis, en cuanto al contenido del metal, distribución del tamaño de partículas y contenido de agua u otros ingredientes en la pulpa del mineral. Con tal información a mano, se cálcula la eficiencia y por ende la efectividad del trabajo que se efectúa mediante el uso de fórmulas y tabulaciones. Pero por lo tedioso que es el trabajo de obtener información de los datos, más que todo por la demora de las pruebas en laboratorio, y por lo tanto no se pueden tomar decisiones al instante para mejorar el proceso de producción. En el presente trabajo se propone una metodología de control de procesos llamado “Cebaco”que consiste básicamente de tres partes pricipales, primero, el diseño de el método de control del proceso que se propone, el control de las variables operativas en el circuito de molienda-clasificación en una planta concentradora que se fundamenta en un mallaje en húmedo en el mismo sitio de muestreo, para la cual solamente se necesitan 2 mallas, éstas pueden ser las No.60 y 200 que son los más recomendables y también contar con un densímetro (balanza MARCY) con su respectivo nomograma, un pesapulpa de 1 litro de capacidad, conociendo la gravedad específica del mineral, la densidad de la pulpa con estos datos se puede calcular al instante el porcentaje de sólidos en cada flujo del clasificador, y con lo cual se cálcula los porcentajes acumulados negativos y positivos de las mallas mencionadas, con dichos datos obtenidos utilizando los modelos matemáticos de Gaudín-Schuhmann[64] y de Rosín-Rammler[61], los más usados en procesamiento de minerales, con los cuales se obtienen los perfiles granulométricos casi al instante, el segundo aporte es la elaboración y propuesta del modelo matemático que se basa en función de las densidades de la pulpa tomadas estas en cada flujo del clasificador y de las densidades obtenidas al hacer el mallaje en húmedo respectivamenter en las mallas ya mencionadas y el tercero es la implementación de el software Goliat 0.2 en el lenguaje de programación LabVIEW con los modelos matemáticos que se propone donde se puede visualizar en el ordenador los resultados obtenidos al instante. Las pruebas de aplicación y comprobación se realizarón, en las plantas concentradoras de “Austria Duvaz” en Morococha, “Corona” de Chumpe en Yauricocha, Yauyos y “Huari” ubicada en La Oroya perteneciente a la UNCP. Cuyos resultados fueron muy halagadores, coincidiendo casi en forma total con la hipótesis planteada. Como demostración de que la metodología funciona óptimamente, tanto en el control de procesos como en la simulación , se puede verificar con los siguientes resultados obtenidos, el tamaño de corte (d50) calculado[51]; con los datos tomados del libro del Ms.Cs. Juan Rivera Zevallos[58] en las páginas 307-324, es de 77.31 micrones y la eficiencia de clasificación es de 42.32% y haciendo los cálculos con la métodologia propuesta el d50 es de 77.32 micrones y la eficiencia de clasificación da un valor de 42.71 %, se puede notar claramente que casi no hay diferencia, en el segundo caso en la comparación de los resultados de los datos obtenidos en la planta concentradora de “Chumpe” Yauricocha, al hacer el control de procesos y los cálculos respectivos por la metodología tradicional, como se realiza en la mayoría de las plantas, da un valor del d50 de 81.31 micrones y la eficiencia de clasificación da un valor de 57.93% y al hacer el control y sus respectivos cálculos con la métodología“Cebaco” da como resultado el d50 de 83.56 micrones y la eficiencia de clasificación de 53.18% se puede también notar sobre todo en esta última que la diferencia no es significativa, siendo el nivel de significancia de 0,08 y con una confidencia de 92%, en el tercer caso también al evaluar otra prueba de los datos tomados de la planta concentradora mencionada al hacer los cálculos con el método tradicional da una eficiencia de clasificación de 48.49% y con la métodología“Cebaco” la eficiencia de clasificación resulta de 48.02 % que en la práctica casi son similares, en el cuarto caso al hacer la evaluación de los resultados obtenidos en la planta concentradora “Austria Duvaz” ubicada en Morococha, el d50 calculado por la metodología tradicional da un valor de 88.3061 y el d50 calculado con la metodología “Cebaco” da un valor de 85.2559 existiendo una diferencia de tan solamente 3.45% y el valor de la eficiencia de clasificación por la metodología tradicional da un valor de 51.8102 y el calculado con la metodología “Cebaco” da un valor de 51.6255 existiendo una diferencia de 0.36% y la razón de carga circulante calculada por la metodología tradicional da un valor de 1.903 y la calculada con la metodología “Cebaco” da un valor de 1.887 cuya diferencia es de tan solamente 0.84% . Y la demostración más importante , donde se comprueba que el método“Cebaco” es una propuesta adecuada, se da con el incremento de las ganancias para la planta concentradora y ésto se obtuvo de las valorizaciones de los concentrados en ambos casos , uno con el balance metalúrgico obtenido con el método tradicional y el otro con el balance metalúrgico obtenido de los trabajos realizados con el método propuesto y ésto se fundamenta en el tiempo de control, ya que el tiempo con el método tradicional en el mejor de los casos es de 4 horas y con el método propuesto es de tan solamente 5 minutos esto implica que las correcciones se hacen casi al instante por lo tanto trae como consecuencia la mejora de las leyes y de las recuperaciones de los concentrados y por ende de la productividad, por los cálculos hecho se determino una ganancia de 11.53 dólares americanos más por tonelada de mineral tratado al realizar el control con el método propuesto.
-- The process control in a concentrating plant appears like a problem of imponderable from the moment that the gross mineral falls to the tubes of the mill, the process is continuous and this continuity only stops when the product finally emerges to rest in the fields of storage of the concentrates and the fields of re-wash of the tails. The material in process cannot be weighed without interrupting such continuity; consequently, the control of the plant will depend much on the suitable sampling of the treated material that is like pulp. From these samples the essential and useful information of the analysis will be obtained, as far as the content of the metal, distribution as large as particles and water Content or other ingredients of the mineral pulp. With such information by hand, we can calculate the efficiency and the effectiveness of the work that takes place by means of the use of formulas and tabulations. But by the tedious that is the work to obtain information of the fact, more than everything by delay of the tests in laboratory, so, decisions cannot be taken right away to improve the production process. in the present work a methodology of process control, sets out called “cebaco” that consists basically of three parts main, first, the control method that set out, these are the operative variables in the circuit of milling-classification in a concentrating plant that is based on a humid malla in the same site of sampling, for which 2 are only needed, these can be No.60 and 200 that are the most recommendable and also to have a Densimeter (balance MARCY) with their respective monogram, we can weight pulp of 1litro of Capacity, knowing the mineral specific gravity, the pulp density with these data the solids percentage can be calculated in an instant in each flow of the filing cabinet, and with this data it calculates the negative accumulated percentage and positive of you enmesh mentioned, with these data collected using the mathematical models Gaudin-Schuhmann[64] and Rosin-Rammler [61], but used in mineral processing, with which the grain sized profiles are obtained almost right away and in an instant, the second contribution is the proposal of the mathematical model that is based on the density of the pulp taken these on each flow from the filing cabinet and of the density obtained when doing the humid mallaje respectively in you enmesh already mentioned; and the third party is I elaboration of software Goliat 0,2 in the programming language LabVIEW with the mathematical models that sets out where the obtained results is possible to be visualized in a computer. The tests of application and verification were realized, in Plants Concentrating of “Austria Duvaz” in Morococha, “Crown” of Chumpe in Yauricocha, Yauyos and “Huari” located in UNCP. Whish results were very flattering, agreeing almost in total with the proposition hypothesis. Like demonstration of which the methodology works optimally, as much in the process control like in the simulation, we can verify with the following obtained results, the size of cuts (d50) calculated [51]; with the data taken from the book of Juan Rivera Zevallos[58] in pages 307-324, is 77,31 microns and the classification efficiency is of 42,32 and making the calculations with the methodology, it gives that d50 is 77,32 microns and the classification efficiency gives a value of 42,71, is possible to be clearly noticed that almost there is no difference, In the second case in the comparison of the results of the data collected in the concentrating plant of “Chumpe” Yauricocha, when doing the process control and the respective calculations by the traditional methodology, as it is realized in the majority of the plants, it gives a value of d50 of 81,31 microns and the classification efficiency gives a value of 57,93% and when doing the control and its respective calculations with the methodology “Cebaco” give as result d50 of 83,56 microns and the efficiency of classification of 53,18% can also be noticed mainly in this completes that the difference is not significant, being the level of significance of 0.08 and with a approximation of 92%, in the third case also when evaluating another test of the data taken from the concentrating plant mentioned when doing the calculations with the traditional method, it gives an efficiency of classification of 48,49% and with the methodology “Cebaco” the classification efficiency is about 48,02%, also almost are similar, in the fourth case when doing the evaluation of the results obtained in the concentrating plant “Austria located Duvaz” in Morococha, the d50 calculated by the traditional methodology gives a value of 88,3061 and d50 calculated with the methodology “Cebaco” gives a value of 85,2559 existing a difference of so only 3,45 and the value of the efficiency of classification by the traditional methodology gives a value of 51,8102 and the calculated with the methodology “Cebaco” gives a value of 51,6255 existing an insignificant difference of 0,36 and the reason of circulating load calculated by the traditional methodology gives a value of 1.903 and the calculated one with the methodology “Cebaco” gives a value of 1,887 whose difference is of so only 0.84. So, the demonstration more important, where it is verified that the method “Cebaco” is an suitable proposal, occurs with the increase of the utility for the concentrating plant and this was obtained from valuations of the concentrates in both cases, first with the obtained metallurgical balance with the traditional method and the other with the metallurgical balance obtained of the works carried out with the proposed method, this is based on a better time of control, as for the time with the traditional method in the best cases is of 4 hours and with the proposed method is of so only 5 minutes, this implies that the corrections are made right away and in an instant, so it brings consequently theimprovement of the recoveries laws of the concentrates and therefore increase of the productivity. By the calculations done I determine a utility of 11. 53 dollars American more by ton of mineral treated, when realizing the control with the proposed method.
Tesis
12

Basurto, Contreras César Marino. "Modelo “Cebaco” aplicado al control de procesos en el circuito de Molienda-Clasificación en una planta concentradora de minerales mediante el software LabVIEW." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2011. https://hdl.handle.net/20.500.12672/377.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
El control de procesos en una planta concentradora se presenta como un problema desde el mismo momento que el mineral bruto cae a las trompas del molino, el proceso es continuo y solo cesa esta continuidad cuando el producto finalmente emerge para descansar en las canchas de almacenamiento de los concentrados y las canchas de relave de las colas. El material en proceso no puede ser pesado sin interrumpir tal continuidad; consecuentemente, el control de la planta dependerá mucho del muestreo adecuado del material tratado que se encuentra en forma de pulpa. De estas muestras se obtendrá la información esencial y útil por medio del análisis, en cuanto al contenido del metal, distribución del tamaño de partículas y contenido de agua u otros ingredientes en la pulpa del mineral. Con tal información a mano, se cálcula la eficiencia y por ende la efectividad del trabajo que se efectúa mediante el uso de fórmulas y tabulaciones. Pero por lo tedioso que es el trabajo de obtener información de los datos, más que todo por la demora de las pruebas en laboratorio, y por lo tanto no se pueden tomar decisiones al instante para mejorar el proceso de producción. En el presente trabajo se propone una metodología de control de procesos llamado “Cebaco”que consiste básicamente de tres partes pricipales, primero, el diseño de el método de control del proceso que se propone, el control de las variables operativas en el circuito de molienda-clasificación en una planta concentradora que se fundamenta en un mallaje en húmedo en el mismo sitio de muestreo, para la cual solamente se necesitan 2 mallas, éstas pueden ser las No.60 y 200 que son los más recomendables y también contar con un densímetro (balanza MARCY) con su respectivo nomograma, un pesapulpa de 1 litro de capacidad, conociendo la gravedad específica del mineral, la densidad de la pulpa con estos datos se puede calcular al instante el porcentaje de sólidos en cada flujo del clasificador, y con lo cual se cálcula los porcentajes acumulados negativos y positivos de las mallas mencionadas, con dichos datos obtenidos utilizando los modelos matemáticos de Gaudín-Schuhmann[64] y de Rosín-Rammler[61], los más usados en procesamiento de minerales, con los cuales se obtienen los perfiles granulométricos casi al instante, el segundo aporte es la elaboración y propuesta del modelo matemático que se basa en función de las densidades de la pulpa tomadas estas en cada flujo del clasificador y de las densidades obtenidas al hacer el mallaje en húmedo respectivamenter en las mallas ya mencionadas y el tercero es la implementación de el software Goliat 0.2 en el lenguaje de programación LabVIEW con los modelos matemáticos que se propone donde se puede visualizar en el ordenador los resultados obtenidos al instante. Las pruebas de aplicación y comprobación se realizarón, en las plantas concentradoras de “Austria Duvaz” en Morococha, “Corona” de Chumpe en Yauricocha, Yauyos y “Huari” ubicada en La Oroya perteneciente a la UNCP. Cuyos resultados fueron muy halagadores, coincidiendo casi en forma total con la hipótesis planteada. Como demostración de que la metodología funciona óptimamente, tanto en el control de procesos como en la simulación , se puede verificar con los siguientes resultados obtenidos, el tamaño de corte (d50) calculado[51]; con los datos tomados del libro del Ms.Cs. Juan Rivera Zevallos[58] en las páginas 307-324, es de 77.31 micrones y la eficiencia de clasificación es de 42.32% y haciendo los cálculos con la métodologia propuesta el d50 es de 77.32 micrones y la eficiencia de clasificación da un valor de 42.71 %, se puede notar claramente que casi no hay diferencia, en el segundo caso en la comparación de los resultados de los datos obtenidos en la planta concentradora de “Chumpe” Yauricocha, al hacer el control de procesos y los cálculos respectivos por la metodología tradicional, como se realiza en la mayoría de las plantas, da un valor del d50 de 81.31 micrones y la eficiencia de clasificación da un valor de 57.93% y al hacer el control y sus respectivos cálculos con la métodología“Cebaco” da como resultado el d50 de 83.56 micrones y la eficiencia de clasificación de 53.18% se puede también notar sobre todo en esta última que la diferencia no es significativa, siendo el nivel de significancia de 0,08 y con una confidencia de 92%, en el tercer caso también al evaluar otra prueba de los datos tomados de la planta concentradora mencionada al hacer los cálculos con el método tradicional da una eficiencia de clasificación de 48.49% y con la métodología“Cebaco” la eficiencia de clasificación resulta de 48.02 % que en la práctica casi son similares, en el cuarto caso al hacer la evaluación de los resultados obtenidos en la planta concentradora “Austria Duvaz” ubicada en Morococha, el d50 calculado por la metodología tradicional da un valor de 88.3061 y el d50 calculado con la metodología “Cebaco” da un valor de 85.2559 existiendo una diferencia de tan solamente 3.45% y el valor de la eficiencia de clasificación por la metodología tradicional da un valor de 51.8102 y el calculado con la metodología “Cebaco” da un valor de 51.6255 existiendo una diferencia de 0.36% y la razón de carga circulante calculada por la metodología tradicional da un valor de 1.903 y la calculada con la metodología “Cebaco” da un valor de 1.887 cuya diferencia es de tan solamente 0.84% . Y la demostración más importante , donde se comprueba que el método“Cebaco” es una propuesta adecuada, se da con el incremento de las ganancias para la planta concentradora y ésto se obtuvo de las valorizaciones de los concentrados en ambos casos , uno con el balance metalúrgico obtenido con el método tradicional y el otro con el balance metalúrgico obtenido de los trabajos realizados con el método propuesto y ésto se fundamenta en el tiempo de control, ya que el tiempo con el método tradicional en el mejor de los casos es de 4 horas y con el método propuesto es de tan solamente 5 minutos esto implica que las correcciones se hacen casi al instante por lo tanto trae como consecuencia la mejora de las leyes y de las recuperaciones de los concentrados y por ende de la productividad, por los cálculos hecho se determino una ganancia de 11.53 dólares americanos más por tonelada de mineral tratado al realizar el control con el método propuesto.
-- The process control in a concentrating plant appears like a problem of imponderable from the moment that the gross mineral falls to the tubes of the mill, the process is continuous and this continuity only stops when the product finally emerges to rest in the fields of storage of the concentrates and the fields of re-wash of the tails. The material in process cannot be weighed without interrupting such continuity; consequently, the control of the plant will depend much on the suitable sampling of the treated material that is like pulp. From these samples the essential and useful information of the analysis will be obtained, as far as the content of the metal, distribution as large as particles and water Content or other ingredients of the mineral pulp. With such information by hand, we can calculate the efficiency and the effectiveness of the work that takes place by means of the use of formulas and tabulations. But by the tedious that is the work to obtain information of the fact, more than everything by delay of the tests in laboratory, so, decisions cannot be taken right away to improve the production process. in the present work a methodology of process control, sets out called “cebaco” that consists basically of three parts main, first, the control method that set out, these are the operative variables in the circuit of milling-classification in a concentrating plant that is based on a humid malla in the same site of sampling, for which 2 are only needed, these can be No.60 and 200 that are the most recommendable and also to have a Densimeter (balance MARCY) with their respective monogram, we can weight pulp of 1litro of Capacity, knowing the mineral specific gravity, the pulp density with these data the solids percentage can be calculated in an instant in each flow of the filing cabinet, and with this data it calculates the negative accumulated percentage and positive of you enmesh mentioned, with these data collected using the mathematical models Gaudin-Schuhmann[64] and Rosin-Rammler [61], but used in mineral processing, with which the grain sized profiles are obtained almost right away and in an instant, the second contribution is the proposal of the mathematical model that is based on the density of the pulp taken these on each flow from the filing cabinet and of the density obtained when doing the humid mallaje respectively in you enmesh already mentioned; and the third party is I elaboration of software Goliat 0,2 in the programming language LabVIEW with the mathematical models that sets out where the obtained results is possible to be visualized in a computer. The tests of application and verification were realized, in Plants Concentrating of “Austria Duvaz” in Morococha, “Crown” of Chumpe in Yauricocha, Yauyos and “Huari” located in UNCP. Whish results were very flattering, agreeing almost in total with the proposition hypothesis. Like demonstration of which the methodology works optimally, as much in the process control like in the simulation, we can verify with the following obtained results, the size of cuts (d50) calculated [51]; with the data taken from the book of Juan Rivera Zevallos[58] in pages 307-324, is 77,31 microns and the classification efficiency is of 42,32 and making the calculations with the methodology, it gives that d50 is 77,32 microns and the classification efficiency gives a value of 42,71, is possible to be clearly noticed that almost there is no difference, In the second case in the comparison of the results of the data collected in the concentrating plant of “Chumpe” Yauricocha, when doing the process control and the respective calculations by the traditional methodology, as it is realized in the majority of the plants, it gives a value of d50 of 81,31 microns and the classification efficiency gives a value of 57,93% and when doing the control and its respective calculations with the methodology “Cebaco” give as result d50 of 83,56 microns and the efficiency of classification of 53,18% can also be noticed mainly in this completes that the difference is not significant, being the level of significance of 0.08 and with a approximation of 92%, in the third case also when evaluating another test of the data taken from the concentrating plant mentioned when doing the calculations with the traditional method, it gives an efficiency of classification of 48,49% and with the methodology “Cebaco” the classification efficiency is about 48,02%, also almost are similar, in the fourth case when doing the evaluation of the results obtained in the concentrating plant “Austria located Duvaz” in Morococha, the d50 calculated by the traditional methodology gives a value of 88,3061 and d50 calculated with the methodology “Cebaco” gives a value of 85,2559 existing a difference of so only 3,45 and the value of the efficiency of classification by the traditional methodology gives a value of 51,8102 and the calculated with the methodology “Cebaco” gives a value of 51,6255 existing an insignificant difference of 0,36 and the reason of circulating load calculated by the traditional methodology gives a value of 1.903 and the calculated one with the methodology “Cebaco” gives a value of 1,887 whose difference is of so only 0.84. So, the demonstration more important, where it is verified that the method “Cebaco” is an suitable proposal, occurs with the increase of the utility for the concentrating plant and this was obtained from valuations of the concentrates in both cases, first with the obtained metallurgical balance with the traditional method and the other with the metallurgical balance obtained of the works carried out with the proposed method, this is based on a better time of control, as for the time with the traditional method in the best cases is of 4 hours and with the proposed method is of so only 5 minutes, this implies that the corrections are made right away and in an instant, so it brings consequently theimprovement of the recoveries laws of the concentrates and therefore increase of the productivity. By the calculations done I determine a utility of 11. 53 dollars American more by ton of mineral treated, when realizing the control with the proposed method.
Tesis
13

Diedhiou, Djibril. "Fractionnement analytique de la graine de neem (Azadirachta indica A. Juss.) et de la graine de dattier du désert (Balanites aegyptiaca L.) - Valorisation des constituants de la graine de neem par bioraffinage." Thesis, Toulouse, INPT, 2017. http://www.theses.fr/2017INPT0135/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les graines de neem et de dattier du désert ont été caractérisées et leurs perspectives de fractionnement orientées. Un procédé de fractionnement des graines de neem en extrudeur bi-vis a été étudié en vue d’une production et d’une valorisation intégrée de ses fractions: huile, coextrait d’azadirachtine, protéines et lipides, et raffinat d’extrusion. La mise en oeuvre de l’eau et des mélanges hydroéthanoliques (jusqu’à 75% d’éthanol) comme solvants d’extraction avec une configuration de l’extrudeur bi-vis définissant quatre zones (une zone d’alimentation, une zone de broyage, une zone d’extraction solide-liquide et une zone de séparation solide/liquide), permet d’extraire au filtrat 83 à 86% de l’azadirachtine, 86 à 92% des lipides et 44 à 74% des protéines de la graine et de produire un raffinat essentiellement fibreux, contenant au plus 8% de lipides, 12% de protéines et 0,82 g/kg d’azadirachtine. Une des meilleures voies de traitement de la suspension que constitue le filtrat brut est la séparation solide-liquide par centrifugation. Ce procédé de séparation permet d’obtenir une émulsion diluée contenant 42 à 64% des lipides et jusqu’à 41% des protéines de la graine. La décantation centrifuge permet de le réaliser efficacement, mais elle peut présenter des inconvénients pour le traitement de grands volumes. Considérée comme sous-produit du traitement du filtrat brut, la phase insoluble peut contenir 24 à 48% des lipides, 32,9 à 47% des protéines et 10 à 13% de l’azadirachtine de la graine. L’eau s’est avérée être le meilleur solvant de ce procédé de fractionnement. Le pressage des graines de neem suivi de l’extraction aqueuse ou hydroalcoolique dans le même extrudeur bi-vis permettent d’exprimer jusqu’à 32% de l’huile de la graine et de récupérer 20% de l’huile de la graine sous forme claire, avec très peu d’azadirachtine, en assurant de meilleurs rendements en azadirachtine et en protéines au filtrat brut. Deux voies de traitement des filtrats ont été étudiées : celle conduisant à une émulsion d’azadirachtine et celle conduisant à l’obtention d’une poudre lyophilisée d’azadirachtine. La valorisation du raffinat d’extrusion, fibreux, a été orientée vers la production d’agromatériaux par thermopressage. Un schéma de bioraffinage de la graine de neem pour la valorisation de ses constituants a été ainsi mis en place
Neem and desert date seeds were characterized and their fractionation perspectives oriented. A process of fractionation of neem seeds in twin-screw extruder has been studied for the purpose of production and integrated valorization of its fractions: oil, co-extract of azadirachtin, proteins and lipids, and extrusion raffinate. The use of water and water/ethanol mixtures (up to 75% ethanol) with a twin-screw extruder configuration defining four zones (a feed zone, a grinding zone, a solidliquid extraction zone and a solid / liquid separation zone), allows to extract from the filtrate 83 to 86% of the azadirachtin, 86 to 92% of the lipids and 44 to 74% of the proteins of the seed thereby producing a raffinate essentially fibrous containing at most 8% lipids, 12% proteins and 0.82 g/kg azadirachtin. One of the best ways of processing the suspension that is the crude filtrate, is a solid-liquid separation by centrifugation. This separation process makes it possible to obtain a diluted emulsion containing 42 to 64% of the lipids and up to 41% of the proteins of the seed. A centrifugation achieves it effectively, but this separation process can have disadvantages in the treatment of large volumes. Considered as a by-product of the treatment of crude filtrate, the insoluble phase can contain 42 to 64% of the lipids, 32.9 to 47% of the proteins and 10 to 13% of the azadirachtin of the seed. Water has proven to be the best solvent in this fractionation process. The pressing of the neem seeds followed by the aqueous or hydroalcoholic extraction in the same twin-screw extruder makes it possible to extract up to 32% of the oil of the seeds and to recover 20% of the seed oil in clear form, with very little azadirachtin, ensuring better extraction yields of azadirachtin and proteins to the crude filtrate. Two treatment pathways of the filtrates were studied: one leading to an emulsion of azadirachtin and another to a freeze-dried powder of azadirachtin. The valorization of the fibrous extrusion raffinate has been oriented towards the production of agromaterials by thermopressing. A biorefinery scheme of the neem seed for the valorization of its constituents has thus be implemented
14

Şentürk, Sertan. "Computational analysis of audio recordings and music scores for the description and discovery of Ottoman-Turkish Makam music." Doctoral thesis, Universitat Pompeu Fabra, 2017. http://hdl.handle.net/10803/402102.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
This thesis addresses several shortcomings on the current state of the art methodologies in music information retrieval (MIR). In particular, it proposes several computational approaches to automatically analyze and describe music scores and audio recordings of Ottoman-Turkish makam music (OTMM). The main contributions of the thesis are the music corpus that has been created to carry out the research and the audio-score alignment methodology developed for the analysis of the corpus. In addition, several novel computational analysis methodologies are presented in the context of common MIR tasks of relevance for OTMM. Some example tasks are predominant melody extraction, tonic identification, tempo estimation, makam recognition, tuning analysis, structural analysis and melodic progression analysis. These methodologies become a part of a complete system called Dunya-makam for the exploration of large corpora of OTMM. The thesis starts by presenting the created CompMusic Ottoman- Turkish makam music corpus. The corpus includes 2200 music scores, more than 6500 audio recordings, and accompanying metadata. The data has been collected, annotated and curated with the help of music experts. Using criteria such as completeness, coverage and quality, we validate the corpus and show its research potential. In fact, our corpus is the largest and most representative resource of OTMM that can be used for computational research. Several test datasets have also been created from the corpus to develop and evaluate the specific methodologies proposed for different computational tasks addressed in the thesis. The part focusing on the analysis of music scores is centered on phrase and section level structural analysis. Phrase boundaries are automatically identified using an existing state-of-the-art segmentation methodology. Section boundaries are extracted using heuristics specific to the formatting of the music scores. Subsequently, a novel method based on graph analysis is used to establish similarities across these structural elements in terms of melody and lyrics, and to label the relations semiotically. The audio analysis section of the thesis reviews the state-of-the-art for analysing the melodic aspects of performances of OTMM. It proposes adaptations of existing predominant melody extraction methods tailored to OTMM. It also presents improvements over pitch-distribution-based tonic identification and makam recognition methodologies. The audio-score alignment methodology is the core of the thesis. It addresses the culture-specific challenges posed by the musical characteristics, music theory related representations and oral praxis of OTMM. Based on several techniques such as subsequence dynamic time warping, Hough transform and variable-length Markov models, the audio-score alignment methodology is designed to handle the structural differences between music scores and audio recordings. The method is robust to the presence of non-notated melodic expressions, tempo deviations within the music performances, and differences in tonic and tuning. The methodology utilizes the outputs of the score and audio analysis, and links the audio and the symbolic data. In addition, the alignment methodology is used to obtain score-informed description of audio recordings. The scoreinformed audio analysis not only simplifies the audio feature extraction steps that would require sophisticated audio processing approaches, but also substantially improves the performance compared with results obtained from the state-of-the-art methods solely relying on audio data. The analysis methodologies presented in the thesis are applied to the CompMusic Ottoman-Turkish makam music corpus and integrated into a web application aimed at culture-aware music discovery. Some of the methodologies have already been applied to other music traditions such as Hindustani, Carnatic and Greek music. Following open research best practices, all the created data, software tools and analysis results are openly available. The methodologies, the tools and the corpus itself provide vast opportunities for future research in many fields such as music information retrieval, computational musicology and music education.
Esta tesis aborda varias limitaciones de las metodologías más avanzadas en el campo de recuperación de información musical (MIR por sus siglas en inglés). En particular, propone varios métodos computacionales para el análisis y la descripción automáticas de partituras y grabaciones de audio de música de makam turco-otomana (MMTO). Las principales contribuciones de la tesis son el corpus de música que ha sido creado para el desarrollo de la investigación y la metodología para alineamiento de audio y partitura desarrollada para el análisis del corpus. Además, se presentan varias metodologías nuevas para análisis computacional en el contexto de las tareas comunes de MIR que son relevantes para MMTO. Algunas de estas tareas son, por ejemplo, extracción de la melodía predominante, identificación de la tónica, estimación de tempo, reconocimiento de makam, análisis de afinación, análisis estructural y análisis de progresión melódica. Estas metodologías constituyen las partes de un sistema completo para la exploración de grandes corpus de MMTO llamado Dunya-makam. La tesis comienza presentando el corpus de música de makam turcootomana de CompMusic. El corpus incluye 2200 partituras, más de 6500 grabaciones de audio, y los metadatos correspondientes. Los datos han sido recopilados, anotados y revisados con la ayuda de expertos. Utilizando criterios como compleción, cobertura y calidad, validamos el corpus y mostramos su potencial para investigación. De hecho, nuestro corpus constituye el recurso de mayor tamaño y representatividad disponible para la investigación computacional de MMTO. Varios conjuntos de datos para experimentación han sido igualmente creados a partir del corpus, con el fin de desarrollar y evaluar las metodologías específicas propuestas para las diferentes tareas computacionales abordadas en la tesis. La parte dedicada al análisis de las partituras se centra en el análisis estructural a nivel de sección y de frase. Los márgenes de frase son identificados automáticamente usando uno de los métodos de segmentación existentes más avanzados. Los márgenes de sección son extraídos usando una heurística específica al formato de las partituras. A continuación, se emplea un método de nueva creación basado en análisis gráfico para establecer similitudes a través de estos elementos estructurales en cuanto a melodía y letra, así como para etiquetar relaciones semióticamente. La sección de análisis de audio de la tesis repasa el estado de la cuestión en cuanto a análisis de los aspectos melódicos en grabaciones de MMTO. Se proponen modificaciones de métodos existentes para extracción de melodía predominante para ajustarlas a MMTO. También se presentan mejoras de metodologías tanto para identificación de tónica basadas en distribución de alturas, como para reconocimiento de makam. La metodología para alineación de audio y partitura constituye el grueso de la tesis. Aborda los retos específicos de esta cultura según vienen determinados por las características musicales, las representaciones relacionadas con la teoría musical y la praxis oral de MMTO. Basada en varias técnicas tales como deformaciones dinámicas de tiempo subsecuentes, transformada de Hough y modelos de Markov de longitud variable, la metodología de alineamiento de audio y partitura está diseñada para tratar las diferencias estructurales entre partituras y grabaciones de audio. El método es robusto a la presencia de expresiones melódicas no anotadas, desviaciones de tiempo en las grabaciones, y diferencias de tónica y afinación. La metodología utiliza los resultados del análisis de partitura y audio para enlazar el audio y los datos simbólicos. Además, la metodología de alineación se usa para obtener una descripción informada por partitura de las grabaciones de audio. El análisis de audio informado por partitura no sólo simplifica los pasos para la extracción de características de audio que de otro modo requerirían sofisticados métodos de procesado de audio, sino que también mejora sustancialmente su rendimiento en comparación con los resultados obtenidos por los métodos más avanzados basados únicamente en datos de audio. Las metodologías analíticas presentadas en la tesis son aplicadas al corpus de música de makam turco-otomana de CompMusic e integradas en una aplicación web dedicada al descubrimiento culturalmente específico de música. Algunas de las metodologías ya han sido aplicadas a otras tradiciones musicales, como música indostaní, carnática y griega. Siguiendo las mejores prácticas de investigación en abierto, todos los datos creados, las herramientas de software y los resultados de análisis está disponibles públicamente. Las metodologías, las herramientas y el corpus en sí mismo ofrecen grandes oportunidades para investigaciones futuras en muchos campos tales como recuperación de información musical, musicología computacional y educación musical.
Aquesta tesi adreça diverses deficiències en l’estat actual de les metodologies d’extracció d’informació de música (Music Information Retrieval o MIR). En particular, la tesi proposa diverses estratègies per analitzar i descriure automàticament partitures musicals i enregistraments d’actuacions musicals de música Makam Turca Otomana (OTMM en les seves sigles en anglès). Les contribucions principals de la tesi són els corpus musicals que s’han creat en el context de la tesi per tal de dur a terme la recerca i la metodologia de alineament d’àudio amb la partitura que s’ha desenvolupat per tal d’analitzar els corpus. A més la tesi presenta diverses noves metodologies d’anàlisi computacional d’OTMM per a les tasques més habituals en MIR. Alguns exemples d’aquestes tasques són la extracció de la melodia principal, la identificació del to musical, l’estimació de tempo, el reconeixement de Makam, l’anàlisi de la afinació, l’anàlisi de la estructura musical i l’anàlisi de la progressió melòdica. Aquest seguit de metodologies formen part del sistema Dunya-makam per a la exploració de grans corpus musicals d’OTMM. En primer lloc, la tesi presenta el corpus CompMusic Ottoman- Turkish makam music. Aquest inclou 2200 partitures musicals, més de 6500 enregistraments d’àudio i metadata complementària. Les dades han sigut recopilades i anotades amb ajuda d’experts en aquest repertori musical. El corpus ha estat validat en termes de d’exhaustivitat, cobertura i qualitat i mostrem aquí el seu potencial per a la recerca. De fet, aquest corpus és el la font més gran i representativa de OTMM que pot ser utilitzada per recerca computacional. També s’han desenvolupat diversos subconjunts de dades per al desenvolupament i evaluació de les metodologies específiques proposades per a les diverses tasques computacionals que es presenten en aquest tesi. La secció de la tesi que tracta de l’anàlisi de partitures musicals se centra en l’anàlisi estructural a nivell de secció i de frase musical. Els límits temporals de les frases musicals s’identifiquen automàticament gràcies a un metodologia de segmentació d’última generació. Els límits de les seccions s’extreuen utilitzant un seguit de regles heurístiques determinades pel format de les partitures musicals. Posteriorment s’utilitza un nou mètode basat en anàlisi gràfic per establir semblances entre aquest elements estructurals en termes de melodia i text. També s’utilitza aquest mètode per etiquetar les relacions semiòtiques existents. La següent secció de la tesi tracta sobre anàlisi d’àudio i en particular revisa les tecnologies d’avantguardia d’anàlisi dels aspectes melòdics en OTMM. S’hi proposen adaptacions dels mètodes d’extracció de melodia existents que s’ajusten a OTMM. També s’hi presenten millores en metodologies de reconeixement de makam i en identificació de tònica basats en distribució de to. La metodologia d’alineament d’àudio amb partitura és el nucli de la tesi. Aquesta aborda els reptes culturalment específics imposats per les característiques musicals, les representacions de la teoria musical i la pràctica oral particulars de l’OTMM. Utilitzant diverses tècniques tal i com Dynamic Time Warping, Hough Transform o models de Markov de durada variable, la metodologia d’alineament esta dissenyada per enfrontar les diferències estructurals entre partitures musicals i enregistraments d’àudio. El mètode és robust inclús en presència d’expressions musicals no anotades en la partitura, desviacions de tempo ocorregudes en les actuacions musicals i diferències de tònica i afinació. La metodologia aprofita els resultats de l’anàlisi de la partitura i l’àudio per enllaçar la informació simbòlica amb l’àudio. A més, la tècnica d’alineament s’utilitza per obtenir descripcions de l’àudio fonamentades en la partitura. L’anàlisi de l’àudio fonamentat en la partitura no només simplifica les fases d’extracció de característiques d’àudio que requeririen de mètodes de processament d’àudio sofisticats, sinó que a més millora substancialment els resultats comparat amb altres mètodes d´ultima generació que només depenen de contingut d’àudio. Les metodologies d’anàlisi presentades s’han utilitzat per analitzar el corpus CompMusic Ottoman-Turkish makam music i s’han integrat en una aplicació web destinada al descobriment musical de tradicions culturals específiques. Algunes de les metodologies ja han sigut també aplicades a altres tradicions musicals com la Hindustani, la Carnàtica i la Grega. Seguint els preceptes de la investigació oberta totes les dades creades, eines computacionals i resultats dels anàlisis estan disponibles obertament. Tant les metodologies, les eines i el corpus en si mateix proporcionen àmplies oportunitats per recerques futures en diversos camps de recerca tal i com la musicologia computacional, la extracció d’informació musical i la educació musical. Traducció d’anglès a català per Oriol Romaní Picas.
15

Tai, Wen-Hui, and 邰文暉. "The Study of Auto Extraction of Dates from Chinese Web Pages in Taiwan Area." Thesis, 2010. http://ndltd.ncl.edu.tw/handle/68609583336853599211.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
碩士
輔仁大學
圖書資訊學系
98
With the popularization of Internet services, the online resource from the Internet is more plentiful nowadays. ‘Date’ is one of the most important fields of metadata in web pages. Due to the special date displaying formats using in Taiwan, it has made the automatic cataloging on date for webpage more difficult. The major purpose of this research is to thoroughly analyze the different types of date displaying format using in Chinese webpage. These findings will be used to increase the precision on the date auto extraction of webpage. The procedures of experiment are as follows. Firstly, the sample is randomly from Internet. Secondly, the statistic analysis on the date displaying format of each webpage is conducted. Lastly, Regular Expression is used to abstract the dates of each webpage and the accuracy ratio is calculated. The difficulties and feasibility of auto date extraction are discussed in the end of this work. The results of the experiment suggest the accuracy ratio of web pages with date information is 61%. On the other hand, the accuracy ratio of web pages without date information is 62%. The average error of those web pages with date information is 0.62 year. The results of this research suggest that the auto date extraction mechanism can be used to improve the efficiency on webpage information retrieval.
16

Chen, Mei-Fen, and 陳梅芬. "The Extraction of Characters on Dated Color Postcards." Thesis, 2003. http://ndltd.ncl.edu.tw/handle/02708156348565075519.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
碩士
淡江大學
資訊工程學系
91
In this study, we propose a scheme to extract characters from color postcards published around 1930 during the time Japan occupied Taiwan as one of its colonies. These postcards, reproduced in the book “台灣紀行” [1], possibly the earliest postcards in Taiwan, contained photographs of beautiful mountains, rivers, farms, country view, famous buildings…etc of earlier Taiwan. As they are precious but fragile historical documents, it is very meaningful if these postcards can be kept in a digital library via key words searching engine, with helps of characters extraction, then these documents not only are available to researchers as well as to the general public. The illustrations printed on postcards usually are located either on the upper or lower positions of the postcards with various backgrounds. Characters may appear in black, white, or red with underneath backgrounds of blue sky and/or white clouds, dark mountains, brownish rocks, trees with leaves and/or branches, rocky or muddy country roads, ponds, etc. These characters also suffered problem of uneven illuminations. It will be a very difficult task if we want to find a global criterion for locating these characters for all postcards. To solve this problem, we use a morphological operation, reconstruction by erosion or dilation, followed by image subtraction to remove backgrounds connecting to borders of the postcards. As a result, characters become the most obvious objects in the image for most of irrelevant backgrounds being removed. Next, by vertical and horizontal projections and connected components analysis to remove noises, we can find the exact locations of the characters. Finally, back to the corresponding positions of the characters on color postcards, color contrast enhancement and sharpening are done as the post processing. The proposed algorithm has been executed on a set of color images of postcards and proved its efficacy.
17

Montamat, Ignacio Adolfo. "Combinador de información primaria y secundaria para extractor digital de datos de radar en sistemas de vigilancia." Master's thesis, 2015. http://hdl.handle.net/11086/3282.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Tesis (Magister en Sistemas de Radar e Instrumentación)--Universidad Nacional de Córdoba, Facultad de Matemática, Astronomía y Física, 2015.
Maestría conjunta con el Instituto Universitario Aeronáutico
Un extractor digital de datos de radar (E.D.D.R.) es un subsistema -de hardware y software- del Sistema de Radar, que permite la representación visual de las aero-naves detectadas. A nivel de software, puede considerarse al E.D.D.R. compuesto de una serie de aplicaciones interactuantes: los procesadores de información primaria y secundaria, la aplicación de asociación primaria y secundaria (o Combinador) y la aplicación de seguimiento de objetivos o Tracker, en inglés. En el presente trabajo se muestra el proceso de rediseño, implementación y validación de la aplicación de software de asociación de información primaria y secundaria de un E.D.D.R. perteneciente a un Sistema de Radar militar de vigilancia de largo alcance de la Fuerza Aérea Argentina (FAA).
18

Ould, Biha Ahmedou. "Le choix de la date optimale des investissements irréversibles dans les projets pétroliers avec asymétrie d'information et incertitude : l'approche des options réelles." Mémoire, 2006. http://www.archipel.uqam.ca/3169/1/M9455.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail vise à contribuer à l'élargissement de l'approche des options réelles dans l'examen du choix de la date optimale des investissements irréversibles, en présence d'un côté, du problème d'agence, dû à l'information privée, et de l'autre côté, d'un remboursement préétabli de la firme au principal. Nous introduisons un jeu entre un gouvernement et un agent dans lequel, le gouvernement (le principal) délègue à un agent (la firme) la décision concernant le choix de la date optimale d'un investissement en vue d'extraire ses réserves pétrolières. En contrepartie, la firme verse un remboursement préétabli (taxe) au propriétaire (gouvernement). L'agent détient une information privée sur une partie de coût constant de l'investissement, tandis que le principal connaît seulement sa fonction de distribution. Quant à l'autre partie du coût constant de l'investissement, elle est supposée connue par les deux agents. L'information privée dont dispose la firme est par hypothèse constante. De plus, la firme produit une quantité de pétrole fixe jusqu'à épuisement de ressources. Elle rembourse au propriétaire un pourcentage constant de cette quantité extraite sous forme de Royalty (taxe) et celui-ci dépend de l'information privée de la firme. La seule source de l'incertitude provient du prix de l'actif sous-jacent qui varie stochastiquement selon un Mouvement Brownien géométrique (MBG). Nous ignorons toute présence des coûts autre que le coût de l'investissement. Nous supposons que la firme a l'option d'attendre avant de se lancer dans le projet. Son problème est de choisir la date optimale de l'investissement, étant donné son information privée et l'incertitude sur le prix. Tandis que le problème du principal est de concevoir le contrat optimal qui incite la firme à révéler la vraie valeur de son information privée, afin d'optimiser la valeur de son opportunité d'investissement. En plus, nous faisons l'hypothèse que le gouvernement a le pouvoir de s'engager, d'une manière crédible à ne pas renégocier sa politique de révélation, une fois la firme révèle son coût jusqu'à la fin du projet. Nous montrons, que le principal, sous information parfaite choisira la même date optimale d'investissement que celle choisie par la firme sans intervention du gouvernement. De plus, nous montrons, en utilisant l'approche des options réelles, que la présence d'asymétrie d'information retarde le choix de la date optimale de l'investissement ce qui cause une distorsion qui entraîne un sous-investissement. Le niveau efficace de l'investissement social ne peut pas être atteint en présence d'une asymétrie d'information. Enfin, nous montrons que pour des valeurs élevées de coût de l'investissement, la rente de la firme est nulle. En revanche, pour un coût d'investissement minimal, la rente du principal est maximale. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Option réelle, Contrats pétroliers, Asymétrie d'information, Irréversibilité, Incertitude, Valeur d'option, Prix critique, Royalty.
19

Iglesias, Martínez Miguel Enrique. "Development of algorithms of statistical signal processing for the detection and pattern recognitionin time series. Application to the diagnosis of electrical machines and to the features extraction in Actigraphy signals." Doctoral thesis, 2020. http://hdl.handle.net/10251/145603.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
[ES] En la actualidad, el desarrollo y aplicación de algoritmos para el reconocimiento de patrones que mejoren los niveles de rendimiento, detección y procesamiento de datos en diferentes áreas del conocimiento resulta un tema de gran interés. En este contexto, y específicamente en relación con la aplicación de estos algoritmos en el monitoreo y diagnóstico de máquinas eléctricas, el uso de señales de flujo es una alternativa muy interesante para detectar las diferentes fallas. Asimismo, y en relación con el uso de señales biomédicas, es de gran interés extraer características relevantes en las señales de actigrafía para la identificación de patrones que pueden estar asociados con una patología específica. En esta tesis, se han desarrollado y aplicado algoritmos basados en el procesamiento estadístico y espectral de señales, para la detección y diagnóstico de fallas en máquinas eléctricas, así como su aplicación al tratamiento de señales de actigrafía. Con el desarrollo de los algoritmos propuestos, se pretende tener un sistema dinámico de indicación e identificación para detectar la falla o la patología asociada que no depende de parámetros o información externa que pueda condicionar los resultados, sólo de la información primaria que inicialmente presenta la señal a tratar (como la periodicidad, amplitud, frecuencia y fase de la muestra). A partir del uso de los algoritmos desarrollados para la detección y diagnóstico de fallas en máquinas eléctricas, basados en el procesamiento estadístico y espectral de señales, se pretende avanzar, en relación con los modelos actualmente existentes, en la identificación de fallas mediante el uso de señales de flujo. Además, y por otro lado, mediante el uso de estadísticas de orden superior, para la extracción de anomalías en las señales de actigrafía, se han encontrado parámetros alternativos para la identificación de procesos que pueden estar relacionados con patologías específicas.
[CAT] En l'actualitat, el desenvolupament i aplicació d'algoritmes per al reconeixement de patrons que milloren els nivells de rendiment, detecció i processament de dades en diferents àrees del coneixement és un tema de gran interés. En aquest context, i específicament en relació amb l'aplicació d'aquests algoritmes a la monitorització i diagnòstic de màquines elèctriques, l'ús de senyals de flux és una alternativa molt interessant per tal de detectar les diferents avaries. Així mateix, i en relació amb l'ús de senyals biomèdics, és de gran interés extraure característiques rellevants en els senyals d'actigrafia per a la identificació de patrons que poden estar associats amb una patologia específica. En aquesta tesi, s'han desenvolupat i aplicat algoritmes basats en el processament estadístic i espectral de senyals per a la detecció i diagnòstic d'avaries en màquines elèctriques, així com la seua aplicació al tractament de senyals d'actigrafia. Amb el desenvolupament dels algoritmes proposats, es pretén obtindre un sistema dinàmic d'indicació i identificació per a detectar l'avaria o la patologia associada, el qual no depenga de paràmetres o informació externa que puga condicionar els resultats, només de la informació primària que inicialment presenta el senyal a tractar (com la periodicitat, amplitud, freqüència i fase de la mostra). A partir de l'ús dels algoritmes desenvolupats per a la detecció i diagnòstic d'avaries en màquines elèctriques, basats en el processament estadístic i espectral de senyals, es pretén avançar, en relació amb els models actualment existents, en la identificació de avaries mitjançant l'ús de senyals de flux. A més, i d'altra banda, mitjançant l'ús d'estadístics d'ordre superior, per a l'extracció d'anomalies en els senyals d'actigrafía, s'han trobat paràmetres alternatius per a la identificació de processos que poden estar relacionats amb patologies específiques.
[EN] Nowadays, the development and application of algorithms for pattern recognition that improve the levels of performance, detection and data processing in different areas of knowledge is a topic of great interest. In this context, and specifically in relation to the application of these algorithms to the monitoring and diagnosis of electrical machines, the use of stray flux signals is a very interesting alternative to detect the different faults. Likewise, and in relation to the use of biomedical signals, it is of great interest to extract relevant features in actigraphy signals for the identification of patterns that may be associated with a specific pathology. In this thesis, algorithms based on statistical and spectral signal processing have been developed and applied to the detection and diagnosis of failures in electrical machines, as well as to the treatment of actigraphy signals. With the development of the proposed algorithms, it is intended to have a dynamic indication and identification system for detecting the failure or associated pathology that does not depend on parameters or external information that may condition the results, but only rely on the primary information that initially presents the signal to be treated (such as the periodicity, amplitude, frequency and phase of the sample). From the use of the algorithms developed for the detection and diagnosis of failures in electrical machines, based on the statistical and spectral signal processing, it is intended to advance, in relation to the models currently existing, in the identification of failures through the use of stray flux signals. In addition, and on the other hand, through the use of higher order statistics for the extraction of anomalies in actigraphy signals, alternative parameters have been found for the identification of processes that may be related to specific pathologies.
Iglesias Martínez, ME. (2020). Development of algorithms of statistical signal processing for the detection and pattern recognitionin time series. Application to the diagnosis of electrical machines and to the features extraction in Actigraphy signals [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/145603
TESIS

До бібліографії