Academic literature on the topic 'Qualità dei dati'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Qualità dei dati.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Qualità dei dati"

1

Bauer, Roland. "L'informatizzazione dell'Atlante Linguistico Sonoro ALD I (Atlante Linguistico del ladino centrale e dialetti limitrofi I)." Linguistica 32, no. 2 (December 1, 1992): 197–212. http://dx.doi.org/10.4312/linguistica.32.2.197-212.

Full text
Abstract:
L’ALD sonoro rappresenta, all'interno del progetto di ricerca ALD I, il settore più innovativo in merito alle strutture informatiche. Si tratta infatti dell'incorporazio­ ne di tutti i dati acustici (raccolti sul campo) in una delle varie catene di pubblicazione. Ciò comporta non solo notevoli vantaggi materiali (conservazione della qualità dei dati sonori a lungo termine, accesso rapido alla realta acustica e facile duplificazione dei risp. dati), ma anche un considerevole incremento delle attuali possibilità di tratta­ mento strettamente linguistico dei dati, oltre al valore generale dell'intera base docu­ mentaria messa a disposizione della ricerca diacronica dei secoli futuri.
APA, Harvard, Vancouver, ISO, and other styles
2

Mannoni, Tiziano, and Anna Boato. "Archeologia e storia del cantiere di costruzione." Arqueología de la Arquitectura, no. 1 (December 30, 2002): 39. http://dx.doi.org/10.3989/arq.arqt.2002.5.

Full text
Abstract:
La storia dell’architettura per più di duecento anni ha cercato di capire la costruzione attraverso le fonti scritte, raggiungendo in ciò una notevole specializzazione. La assai più recente archeologia dell’architettura sta cercando di far parlare il costruito stesso sulla sua storia, ivi compresa quella del cantiere di costruzione. I dati archeologici (sequenze stratigrafiche, datazioni archeologiche, materiali e tecniche costruttive), fatti dialogare con i dati archeometrici (orologi naturali, provenienze, caratteristiche e rarità dei materiali), secondo le regole della cultura materiale (apprendimento e trasmissione del saper fare empirico), permettono di affrontare la conoscenza delle scelte effettuate dai costruttori, le loro possibilità e le loro motivazioni (critica archeologica). E’ a questo punto che la ricerca fa un vero salto di qualità e di quantità se si rileggono con l’occhio dell’archeologo i dati scritti provenienti dai contratti di costruzione, dai permessi pubblici, dalla contabilità del cantiere e dalle stime e perizie delle opere compiute.
APA, Harvard, Vancouver, ISO, and other styles
3

Pegoraro, M. "La qualità di vita dei pazienti in emodialisi: dati raccolti dallo studio DOPPS." Giornale di Tecniche Nefrologiche e Dialitiche 23, no. 4 (October 2011): 56–59. http://dx.doi.org/10.1177/039493621102300413.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Pegoraro, M. "La qualità di vita dei pazienti in emodialisi: dati raccolti dallo studio DOPPS." Giornale di Clinica Nefrologica e Dialisi 23, no. 4 (January 24, 2018): 56–59. http://dx.doi.org/10.33393/gcnd.2011.1502.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Cavalli, A., and G. Pontoriero. "Qualità della vita dei pazienti emodializzati alla luce dello studio DOPPS." Giornale di Clinica Nefrologica e Dialisi 23, no. 4 (January 24, 2018): 60–65. http://dx.doi.org/10.33393/gcnd.2011.1503.

Full text
Abstract:
Il DOPPS (Dialysis Outcomes and Practice Patterns Study) - ampio studio internazionale, prospettico, osservazionale – è iniziato nel 1996 per raccogliere i dati di un vasto campione di pazienti emodializzati con l'obiettivo di migliorare la terapia, la pratica dialitica ed ovviamente la loro qualità di vita. Lo studio DOPPS ha mostrato come i pazienti emodializzati presentino una qualità di vita molto inferiore rispetto ai soggetti di pari età, in tutte le sue diverse componenti (fisica, mentale e legata alla malattia renale cronica), oltre che una maggior prevalenza di sintomatologia depressiva. È inoltre emerso come alcuni fattori socioeconomici (tra cui la disoccupazione, un ridotto livello di formazione, uno scarso supporto sociale familiare e di staff dialitico) e medici (quali l'utilizzo di un catetere venoso centrale, bassi livelli di emoglobina ed albumina, una scarsa qualità del sonno) siano associati a una più bassa qualità della vita. Il DOPPS ha messo in evidenza l'associazione tra più bassi indici di qualità della vita e peggiori outcome clinici, in termini di ospedalizzazione e mortalità, permettendo pertanto di individuare i soggetti “più fragili” dal punto di vista fisico, sociale e clinico su cui intervenire in maniera specifica. Oggigiorno il DOPPS rappresenta, anche nel campo della valutazione della qualità della vita, un importante riferimento scientifico, che dimostra come uno studio osservazionale, eseguito in accordo ad adeguati criteri metodologici, possa diventare uno strumento informativo, credibile e capace di suggerire nuove ipotesi da testare in successivi studi clinici controllati.
APA, Harvard, Vancouver, ISO, and other styles
6

Reinhard, Wolfgang. "Hat Papstgeschichte Zukunft?" Quellen und Forschungen aus italienischen Archiven und Bibliotheken 97, no. 1 (December 1, 2017): 353–71. http://dx.doi.org/10.1515/qufiab-2017-0019.

Full text
Abstract:
Riassunto Sembra che almeno in Germania si stia esaurendo l’attività editoriale che riguarda i rapporti mandati dai nunzi alla segreteria di Stato. Nella digitalizzazione delle fonti si può ravvisare una valida alternativa compensatoria, tanto più che essa consentirebbe di creare una vasta banca dati che, raccogliendo i dati di tutte le persone e tutti gli uffici della curia, offrirebbe un’ottima base per ulteriori ricerche. In ogni caso è possibile raccordare la storia dei papi al nuovo approccio decostruttivista della storia politica e culturale, se si pone al centro dell’attenzione il papato nella sua qualità di singolare potenza culturale che coltiva una sua singolare cultura del potere. Decisiva è la constatazione che la chiesa papale non solo funse da modello per la formazione degli Stati europei, ma sarebbe diventata Stato essa stessa. In questo senso sarebbero auspicabili studi a lungo termine sul personale e sulle istituzioni. Accanto a questa storia materiale sarebbero utili sia l’indagine della devozione personale dei papi, e in particolare del culto mariano, che l’esplorazione del culto del papa e di altre pratiche premoderne, ma tuttora vive, nei credenti.
APA, Harvard, Vancouver, ISO, and other styles
7

Cardillo, Eleonora, and Silvia Molina. "IAS-IFRS e rendicontazione socio-ambientale: una verifica della estendibilità dei principi generali del Framework alla valutazione della qualità dei documenti volontari." FINANCIAL REPORTING, no. 1 (February 2011): 37–72. http://dx.doi.org/10.3280/fr2011-001003.

Full text
Abstract:
Obiettivo del presente lavoro è investigare sull'osservanza delle caratteristiche qualitative individuate dal Framework IASB nella predisposizione dei bilanci sociali e di sostenibilità, evidenziando al contempo la necessità di introdurre l'obbligatorietà del rispetto dei medesimi, in quanto elementi ritenuti imprescindibili per la produzione di documenti socio-ambientali attendibili. Nello specifico, lo studio empirico è fondato sull'analisi dei report pubblicati da un campione di imprese quotate nel periodo 2004-2008, con l'intento di verificare, attraverso un'indagine quali-quantitativa l'"utilità" dei bilanci socio-ambientali, la quale dipende dalla comprensibilità, significatività, attendibilità e comparabilità delle informazioni in essi contenute. I dati rilevati, statisticamente elaborati, rappresentano l'atteggiamento qualitativo di risposta delle società alle caratteristiche individuate dal Framework, quale scelta consapevole o inconsapevole di allineamento ad esse.
APA, Harvard, Vancouver, ISO, and other styles
8

Gainotti, Sabina, and Antonio G. Spagnolo. "Test genetici: a che punto siamo in Europa? A margine del Rapporto e delle Raccomandazioni della Commissione Europea sugli aspetti etici, giuridici e sociali dei test genetici." Medicina e Morale 53, no. 4 (August 31, 2004): 737–66. http://dx.doi.org/10.4081/mem.2004.631.

Full text
Abstract:
Il 6 e 7 maggio 2004 a Bruxelles ha avuto luogo un congresso organizzato dalla Commissione Europea per stimolare la riflessione sulle implicazioni etiche, sociali e giuridiche legate allo sviluppo e all’utilizzo dei test genetici. Gli Autori riferiscono sulle conclusioni di quelle due giornate, dedicate alla lettura ed alla discussione di 25 raccomandazioni proposte da un gruppo di lavoro multidisciplinare composto da politici, accademici, rappresentanti dell’industria e di organizzazioni volontarie di pazienti di vari paesi dell’Unione. La qualità dei test genetici disponibili, l’accuratezza dei loro risultati, le condizioni di accesso ai test e ai trattamenti (soprattutto per le persone con malattie rare), l’utilizzo appropriato dei campioni e dei dati, il consenso informato ed il rispetto della privacy, il counselling genetico pre e post test, il rischio di discriminazioni sulla base del genere e dell’etnia: questi sono solo alcuni dei problemi emersi in sede congressuale. Le 25 raccomandazioni della Commissione Europea si differenziano per certi versi da altri documenti e dichiarazioni internazionali, soprattutto per quanto riguarda lo “statuto” assegnato ai dati genetici (“eccezionalità” genetica); secondo il Gruppo di lavoro che ha scritto le raccomandazioni l’informazione genetica non è diversa dagli altri dati medici, e dunque dovrebbe essere trattata allo stesso modo. È pur vero però, che i test genetici offrono nuove informazioni e conoscenze che potranno complicare non solo il rapporto tra medico e paziente, ma anche quello tra paziente e familiari. Con l’aumento dei test genetici ci sarà bisogno di riferimenti chiari ed accettabili per tutte le parti coinvolte: medici, pazienti e familiari avranno bisogno di riferimenti per risolvere problemi pratici, per conciliare i vari diritti dei pazienti (ad es. i diritti di sapere o di non sapere, di condividere le informazioni o meno), e doveri dei medici (dovere di mantenere il segreto professionale e proteggere la privacy, ma talvolta anche il dovere di avvertire). Il consenso informato dovrà aiutare le persone a comprendere in modo adeguato tutte le implicazioni di un test, dalle sue possibili conseguenze a livello familiare e sociale, alla classificazione e all’uso dei suoi dati clinici e genetici per le ricerche future. Quando poi l’ “oggetto” di studio non è più il singolo individuo, ma gruppi ristretti di persone (ad es., negli screening genetici), sarà necessario un “consenso di gruppo”, mentre gli studi sulle popolazioni riguarderanno le società in senso lato. Infine rimane un interrogativo importante: tutti questi cambiamenti aumenteranno il livello di costo della sanità? Molti sono gli scenari e gli sviluppi possibili, ma questi non dipendono solo dai progressi della scienza. Per far si che i benefici di queste innovazioni superino i rischi corsi dagli individui e dalla società, sarà importante creare un quadro normativo responsabile, che sappia accompagnare e misurare le varie attività di implementazione dei test genetici, sia a livello dei singoli Stati, sia a livello dell’Unione Europea.
APA, Harvard, Vancouver, ISO, and other styles
9

Di Spigna, E., M. Salesi, G. Cossu, and F. Fregoso. "Monitoraggio del liquor dopo esame mielografico in pazienti portatori di catetere spinale subdurale a permanenza." Rivista di Neuroradiologia 1, no. 2 (August 1988): 191–95. http://dx.doi.org/10.1177/197140098800100211.

Full text
Abstract:
In alcuni pazienti portatori di catetere spinale subdurale a parmanenza, impiantato per la somministrazione iterativa di oppioidi a scopo antalgico, si è eseguito il monitoraggio di alcuni parametri biologici del liquor dopo esame mielografico eseguito con contrasto organoiodato idrosolubile non ionico, iniettato attraverso il catetere medesimo. Tale monitoraggio nel tempo è stato reso possibile grazie alla presenza del sistema impiantato a permanenza, che ha consentito di eseguire i ripetuti prelievi di liquor necessari allo studio, il quale ha evidenziato la assenza di importanti fenomeni irritativi a livello delle strutture nervose intratecali dopo indagine mielografica eseguita con Iopamiro 300. I risultati ottenuti dalla valutazione dei dati bioumorali dei vari campioni di liquor confermano le qualità del mezzo di contrasto impiegato, fatto già osservato dal punto di vista clinico, come è riportato in letteratura.
APA, Harvard, Vancouver, ISO, and other styles
10

Niccolucci, Franco. "ARIADNEplus: l’avventura continua." DigItalia 15, no. 2 (December 2020): 88–95. http://dx.doi.org/10.36181/digitalia-00016.

Full text
Abstract:
L’articolo descrive il progetto europeo ARIADNEplus, continuazione del precedente progetto ARIADNE. Questo nuovo progetto ha, come il precedente, l’obiettivo di superare la frammentazione degli archivi digitali di dati archeologici europei disponibili online attraverso la creazione di un catalogo. Rispetto al precedente progetto, ARIADNEplus ne estende significativamente la copertura geografica, tematica e temporale. I dati sono forniti da autorevoli istituzioni nazionali che ne garantiscono la qualità. Il catalogo permette di effettuare ricerche sui metadati, che sono conformi a standard internazionali, con vari criteri, e quindi di accedere ai dati direttamente presso l’archivio del proprietario dei dati stessi. Questi possono poi essere ulteriormente rielaborati con vari strumenti software forniti nel sistema. Tutti gli strumenti informatici utilizzati si avvalgono delle tecnologie più recenti. Una parte importante delle risorse del progetto è dedicata alla formazione degli utenti sia all’uso del sistema ARIADNEplus sia, in generale, all’applicazione in campo archeologico delle politiche e delle strategie europee riguardo alla open science.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Qualità dei dati"

1

Morlini, Gabriele. "Analisi della qualità dei dati in un’enterprise architecture utilizzando un sistema d’inferenza." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amslaurea.unibo.it/3398/.

Full text
Abstract:
Lo scopo della tesi è definire un modello e identificare un sistema d’inferenza utile per l’analisi della qualità dei dati. Partendo da quanto descritto in ambito accademico e business, la definizione di un modello facilita l’analisi della qualità, fornendo una descrizione chiara delle tipologie di problemi a cui possono essere soggetti i dati. I diversi lavori in ambito accademico e business saranno confrontati per stabilire quali siano i problemi di qualità più diffusi, in modo da realizzare un modello che sia semplice e riutilizzabile. I sistemi d’inferenza saranno confrontati a livello teorico e pratico per individuare lo strumento più adatto nell’analisi della qualità dei dati in un caso applicativo. Il caso applicativo è caratterizzato da requisiti funzionali e non; il principale requisito funzionale è l’individuazione di problemi di qualità nei dati, mentre quello non funzionale è l’ usabilità dello strumento, per permettere ad un qualunque utente di esprimere dei controlli sulla qualità. Il caso applicativo considera dati di un’enterprise architecture reale ed è stato fornito dall’azienda Imola Informatica.
APA, Harvard, Vancouver, ISO, and other styles
2

Cristofaro, Roberta. "Analisi dell'effetto della qualità dei dati meteorologici sulla simulazione a lungo raggio della dispersione in atmosfera di inquinanti radioattivi." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Find full text
Abstract:
Una delle sfide scientifiche degli ultimi anni è avere dei modelli matematici più raffinati per simulare al meglio la dispersione di inquinanti in atmosfera. Il caso studiato affronta il problema di simulare la dispersione in atmosfera a lungo raggio di inquinanti radioattivi. Nel mondo ci sono centinaia di applicazioni mediche, industriali e accademiche che utilizzano potenti fonti radioattive, a cui si aggiunge anche il terrorismo radiologico, così cresce l’interesse da parte delle autorità internazionali competenti ad approfondire la tematica per stabilire maggiore sicurezza. Considerando un range di dispersione a lunga scala, per ricoprire anche aree intercontinentali è necessario che i dati meteo di input nei modelli siano accurati. I modelli invece prevedono dei sistemi di riferimento Lagrangiani. Nel seguente lavoro sono state analizzate le variazioni dovute all’utilizzo di due diversi dataset meteo su una simulazione di un avvenuto caso di emissione di Ru-106 già analizzato in ENEA. L’analisi ha evidenziato il peso della qualità dei dati meteo per la valutazione delle concentrazioni e della dispersione del plume radioattivo. Nel primo capitolo è stato trattato in modo generale l’inquinamento atmosferico per poi approfondire l’inquinamento radioattivo, analizzando le principali cause ed effetti. Nel secondo capitolo sono stati esposti i modelli matematici di dispersione in atmosfera, analizzando anche gli aspetti metereologici da parametrizzare e i modelli Lagrangiani. Nel terzo capitolo è stato approfondito il modello di dispersione Lagrangiano a particelle Flexpart, utilizzato per il calcolo delle simulazioni. Nel quarto capitolo è stato esposto il caso studio, analizzando attentamente le differenze tra i due dati meteo di input utilizzati nelle simulazioni. Nel quinto capitolo sono stati inseriti e analizzati i risultati ottenuti dalle simulazioni e nel sesto ed ultimo capitolo sono state redatte delle conclusioni del lavoro svolto.
APA, Harvard, Vancouver, ISO, and other styles
3

Zucchi, Erica. "La qualità del binario nelle linee AV/AC: studio dei dati rilevati dai treni diagnostici di RFI e analisi degli interventi manutentivi in previsione dell'aumento di velocità a 360 km/h." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/6767/.

Full text
Abstract:
Dal punto di vista geometrico, il tracciato delle linee AV/AC è determinato in funzione delle velocità di progetto, attualmente variabili tra 250 e 300 km/h, e in modo da limitare i parametri cinematici. In questa maniera è assicurata la corretta qualità di marcia dei treni ad alta velocità. La sovrastruttura ferroviaria è realizzata in modo da sopportare i carichi dinamici trasmessi dai convogli transitanti a elevate velocità, e da garantire la sicurezza della circolazione e il comfort di marcia. In particolare, la qualità del binario ferroviario è determinata attraverso una serie di parametri geometrici fondamentali, definiti da Rete Ferroviaria Italiana. A seconda dei valori assunti da tali parametri, il binario rientra in un livello di qualità geometrica: sono definiti tre livelli per i quali la circolazione ferroviaria avviene senza limitazioni e un livello che richiede l’imposizione di vincoli all’esercizio (rallentamenti o interruzioni). L’introduzione dei parametri geometrici e dei rispettivi valori di riferimento ha lo scopo di mantenere elevati livelli qualitativi e di sicurezza per l’infrastruttura ferroviaria, in materia di geometria dell’armamento. Infatti, il superamento di certe soglie da parte dei parametri, implica l’intervento manutentivo sul binario, al fine di ripristinare la corretta geometria e di garantire così la qualità della marcia dei treni. La politica è quella d’intervento prima del raggiungimento del quarto livello di qualità, per il quale sono necessarie restrizioni alla circolazione e interventi correttivi immediati.
APA, Harvard, Vancouver, ISO, and other styles
4

Cacchi, Alberto. "Valutazione dell'attività fisica tramite l'uso del Global Positioning System." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Find full text
Abstract:
Questo elaborato è stato strutturato in 3 diversi capitoli, nel capitolo 1 sono presentate informazioni generali su: che cosa sia un sistema GPS, come funzioni, i suoi principali errori e alcune implementazioni. Il capitolo 2 riguarda i sistemi GPS indoor di nuova tecnologia e le loro applicazioni. Mentre il capitolo 3 racchiude una analisi di alcuni studi, che riguarda l'utilità della raccolta dati, tramite sistemi GPS nell'ambito sportivo. In particolare nella prima parte si studia la validità e l'affidabilità delle misure GPS considerando l'evoluzione delle unità GPS stesse con l'aumento di frequenza di campionamento. Una volta verificati questi parametri, sono stati presi in considerazione nella seconda parte la raccolta di alcuni studi, riguardanti il monitoraggio dell'attività fisica di individui comuni in relazione all'ambiente in cui si trovano. Verificandone la qualità dei dati tramite lo studio della quantità dei dati persi. Infine nell'ultima parte viene focalizzata la ricerca sulle diverse variabili misurabili con il GPS: distanza totale, distanza relativa, velocità e carico sul corpo degli atleti, e come esse cambiano in relazione ai ruoli, alla competitività e all'età. Quest'ultima analisi è sviluppata nel contesto di vari sport di squadra.
APA, Harvard, Vancouver, ISO, and other styles
5

Kara, Madjid. "Data quality for the decision of the ambient systems." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLV009.

Full text
Abstract:
La qualité des données est une condition commune à tous les projets de technologie de l'information, elle est devenue un domaine de recherche complexe avec la multiplicité et l’expansion des différentes sources de données. Des chercheurs se sont penchés sur l’axe de la modélisation et l’évaluation des données, plusieurs approches ont été proposées mais elles étaient limitées à un domaine d’utilisation bien précis et n’offraient pas un profil de qualité nous permettant d’évaluer un modèle de qualité de données global. L’évaluation basée sur les modèles de qualité ISO a fait son apparition, néanmoins ces modèles ne nous guident pas pour leurs utilisation, le fait de devoir les adapter à chaque cas de figure sans avoir de méthodes précises. Notre travail se focalise sur les problèmes de la qualité des données d'un système ambiant où les contraintes de temps pour la prise de décision sont plus importantes par rapport aux applications traditionnelles. L'objectif principal est de fournir au système décisionnel une vision très spécifique de la qualité des données issues des capteurs. Nous identifions les aspects quantifiables des données capteurs pour les relier aux métriques appropriées de notre modèle de qualité de données spécifique. Notre travail présente les contributions suivantes : (i) création d’un modèle de qualité de données générique basé sur plusieurs standards de qualité existants, (ii) formalisation du modèle de qualité sous forme d’une ontologie qui nous permet l’intégration de ces modèles (de i), en spécifiant les différents liens, appelés relations d'équivalence, qui existent entre les critères composant ces modèles, (iii) proposition d’un algorithme d’instanciation pour extraire le modèle de qualité de données spécifique à partir du modèle de qualité de données générique, (iv) proposition d’une approche d’évaluation globale du modèle de qualité de données spécifique en utilisant deux processus, le premier processus consiste à exécuter les métriques reliées aux données capteurs et le deuxième processus récupère le résultat de cette exécution et utilise le principe de la logique floue pour l’évaluation des facteurs de qualité de notre modèle de qualité de données spécifique. Puis, l'expert établie des valeurs représentant le poids de chaque facteur en se basant sur la table d'interdépendance pour prendre en compte l'interaction entre les différents critères de données et on utilisera la procédure d'agrégation pour obtenir un degré de confiance. En ce basant sur ce résultat final, le composant décisionnel fera une analyse puis prendra une décision
Data quality is a common condition to all information technology projects; it has become a complex research domain with the multiplicity and expansion of different data sources. Researchers have studied the axis of modeling and evaluating data, several approaches have been proposed but they are limited to a specific use field and did not offer a quality profile enabling us to evaluate a global quality model. The evaluation based on ISO quality models has emerged; however, these models do not guide us for their use, having to adapt them to each scenario without precise methods. Our work focuses on the data quality issues of an ambient system where the time constraints for decision-making is greater compared to traditional applications. The main objective is to provide the decision-making system with a very specific view of the sensors data quality. We identify the quantifiable aspects of sensors data to link them to the appropriate metrics of our specified data quality model. Our work presents the following contributions: (i) creating a generic data quality model based on several existing data quality standards, (ii) formalizing the data quality models under an ontology, which allows integrating them (of i) by specifying various links, named equivalence relations between the criteria composing these models, (iii) proposing an instantiation algorithm to extract the specified data quality model from the generic data quality models, (iv) proposing a global evaluation approach of the specified data quality model using two processes, the first one consists in executing the metrics based on sensors data and the second one recovers the result of the first process and uses the concept of fuzzy logic to evaluate the factors of our specified data quality model. Then, the expert defines weight values based on the interdependence table of the model to take account the interaction between criteria and use the aggregation procedure to get a degree of confidence value. Based on the final result, the decisional component makes an analysis to make a decision
APA, Harvard, Vancouver, ISO, and other styles
6

Korcari, William. "Analisi del segnale temporale del sistema a tempo di volo dell'esperimento ALICE a LHC per le procedure di controllo di qualita dei dati." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/14607/.

Full text
Abstract:
Come migliorare l'algoritmo di Quality Assurance per il rivelatore TOF dell'esperimento ALICE ad LHC? Nel corso di questo elaborato si passerà attraverso una breve introduzione del Modello Standard e della fisica di cui si occupa l'esperimento ALICE a LHC, che illustrerà secondo quali principi l'apparato è stato costruito e quali sono i fenomeni di cui si va alla ricerca: il QGP, mostrato attraverso le sue molteplici conseguenze, da "Quarkonia" al "Jet Quenching". Verrà introdotto l'acceleratore di particelle LHC che ospita l'esperimento ALICE e i suoi rivelatori, protagonisti assoluti nello studio sul QGP e si porterà il focus sulla descrizione del rivelatore a tempo di volo TOF, dei suoi principi di funzionamento e delle sue caratteristiche significative per questo lavoro di tesi. Quindi si entrerà nel vivo della ottimizzazione dell'algoritmo di Quality Assurance, se ne vedrà lo stato attuale e la sua evoluzione nel tentativo di produrre una sua versione migliorata e più efficiente. Infine si confronteranno i risultati del nuovo algoritmo con la sua versione iniziale per valutare l'entità del miglioramento apportato.
APA, Harvard, Vancouver, ISO, and other styles
7

Peralta, Veronika. "Data Quality Evaluation in Data Integration Systems." Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2006. http://tel.archives-ouvertes.fr/tel-00325139.

Full text
Abstract:
Les besoins d'accéder, de façon uniforme, à des sources de données multiples, sont chaque jour plus forts, particulièrement, dans les systèmes décisionnels qui ont besoin d'une analyse compréhensive des données. Avec le développement des Systèmes d'Intégration de Données (SID), la qualité de l'information est devenue une propriété de premier niveau de plus en plus exigée par les utilisateurs. Cette thèse porte sur la qualité des données dans les SID. Nous nous intéressons, plus précisément, aux problèmes de l'évaluation de la qualité des données délivrées aux utilisateurs en réponse à leurs requêtes et de la satisfaction des exigences des utilisateurs en terme de qualité. Nous analysons également l'utilisation de mesures de qualité pour l'amélioration de la conception du SID et de la qualité des données. Notre approche consiste à étudier un facteur de qualité à la fois, en analysant sa relation avec le SID, en proposant des techniques pour son évaluation et en proposant des actions pour son amélioration. Parmi les facteurs de qualité qui ont été proposés, cette thèse analyse deux facteurs de qualité : la fraîcheur et l'exactitude des données. Nous analysons les différentes définitions et mesures qui ont été proposées pour la fraîcheur et l'exactitude des données et nous faisons émerger les propriétés du SID qui ont un impact important sur leur évaluation. Nous résumons l'analyse de chaque facteur par le biais d'une taxonomie, qui sert à comparer les travaux existants et à faire ressortir les problèmes ouverts. Nous proposons un canevas qui modélise les différents éléments liés à l'évaluation de la qualité tels que les sources de données, les requêtes utilisateur, les processus d'intégration du SID, les propriétés du SID, les mesures de qualité et les algorithmes d'évaluation de la qualité. En particulier, nous modélisons les processus d'intégration du SID comme des processus de workflow, dans lesquels les activités réalisent les tâches qui extraient, intègrent et envoient des données aux utilisateurs. Notre support de raisonnement pour l'évaluation de la qualité est un graphe acyclique dirigé, appelé graphe de qualité, qui a la même structure du SID et contient, comme étiquettes, les propriétés du SID qui sont relevants pour l'évaluation de la qualité. Nous développons des algorithmes d'évaluation qui prennent en entrée les valeurs de qualité des données sources et les propriétés du SID, et, combinent ces valeurs pour qualifier les données délivrées par le SID. Ils se basent sur la représentation en forme de graphe et combinent les valeurs des propriétés en traversant le graphe. Les algorithmes d'évaluation peuvent être spécialisés pour tenir compte des propriétés qui influent la qualité dans une application concrète. L'idée derrière le canevas est de définir un contexte flexible qui permet la spécialisation des algorithmes d'évaluation à des scénarios d'application spécifiques. Les valeurs de qualité obtenues pendant l'évaluation sont comparées à celles attendues par les utilisateurs. Des actions d'amélioration peuvent se réaliser si les exigences de qualité ne sont pas satisfaites. Nous suggérons des actions d'amélioration élémentaires qui peuvent être composées pour améliorer la qualité dans un SID concret. Notre approche pour améliorer la fraîcheur des données consiste à l'analyse du SID à différents niveaux d'abstraction, de façon à identifier ses points critiques et cibler l'application d'actions d'amélioration sur ces points-là. Notre approche pour améliorer l'exactitude des données consiste à partitionner les résultats des requêtes en portions (certains attributs, certaines tuples) ayant une exactitude homogène. Cela permet aux applications utilisateur de visualiser seulement les données les plus exactes, de filtrer les données ne satisfaisant pas les exigences d'exactitude ou de visualiser les données par tranche selon leur exactitude. Comparée aux approches existantes de sélection de sources, notre proposition permet de sélectionner les portions les plus exactes au lieu de filtrer des sources entières. Les contributions principales de cette thèse sont : (1) une analyse détaillée des facteurs de qualité fraîcheur et exactitude ; (2) la proposition de techniques et algorithmes pour l'évaluation et l'amélioration de la fraîcheur et l'exactitude des données ; et (3) un prototype d'évaluation de la qualité utilisable dans la conception de SID.
APA, Harvard, Vancouver, ISO, and other styles
8

Peralta, Costabel Veronika del Carmen. "Data quality evaluation in data integration systems." Versailles-St Quentin en Yvelines, 2006. http://www.theses.fr/2006VERS0020.

Full text
Abstract:
This thesis deals with data quality evaluation in Data Integration Systems (DIS). Specifically, we address the problems of evaluating the quality of the data conveyed to users in response to their queries and verifying if users’ quality expectations can be achieved. We also analyze how quality measures can be used for improving the DIS and enforcing data quality. Our approach consists in studying one quality factor at a time, analyzing its impact within a DIS, proposing techniques for its evaluation and proposing improvement actions for its enforcement. Among the quality factors that have been proposed, this thesis analyzes two of the most used ones: data freshness and data accuracy
Cette thèse porte sur la qualité des données dans les Systèmes d’Intégration de Données (SID). Nous nous intéressons, plus précisément, aux problèmes de l’évaluation de la qualité des données délivrées aux utilisateurs en réponse à leurs requêtes et de la satisfaction des exigences des utilisateurs en terme de qualité. Nous analysons également l’utilisation de mesures de qualité pour l’amélioration de la conception du SID et la conséquente amélioration de la qualité des données. Notre approche consiste à étudier un facteur de qualité à la fois, en analysant sa relation avec le SID, en proposant des techniques pour son évaluation et en proposant des actions pour son amélioration. Parmi les facteurs de qualité qui ont été proposés, cette thèse analyse deux facteurs de qualité : la fraîcheur et l’exactitude des données
APA, Harvard, Vancouver, ISO, and other styles
9

Issa, Subhi. "Linked data quality : completeness and conciseness." Electronic Thesis or Diss., Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1274.

Full text
Abstract:
La large diffusion des technologies du Web Sémantique telles que le Resource Description Framework (RDF) permet aux individus de construire leurs bases de données sur le Web, d'écrire des vocabulaires et de définir des règles pour organiser et expliquer les relations entre les données selon les principes des données liées. En conséquence, une grande quantité de données structurées et interconnectées est générée quotidiennement. Un examen attentif de la qualité de ces données pourrait s'avérer très critique, surtout si d'importantes recherches et décisions professionnelles en dépendent. La qualité des données liées est un aspect important pour indiquer leur aptitude à être utilisées dans des applications. Plusieurs dimensions permettant d'évaluer la qualité des données liées sont identifiées, telles que la précision, la complétude, la provenance et la concision. Cette thèse se concentre sur l'évaluation de la complétude et l'amélioration de la concision des données liées. En particulier, nous avons d'abord proposé une approche de calcul de complétude fondée sur un schéma généré. En effet, comme un schéma de référence est nécessaire pour évaluer la complétude, nous avons proposé une approche fondée sur la fouille de données pour obtenir un schéma approprié (c.-à-d. un ensemble de propriétés) à partir des données. Cette approche permet de distinguer les propriétés essentielles des propriétés marginales pour générer, pour un ensemble de données, un schéma conceptuel qui répond aux attentes de l'utilisateur quant aux contraintes de complétude des données. Nous avons implémenté un prototype appelé "LOD-CM" pour illustrer le processus de dérivation d'un schéma conceptuel d'un ensemble de données fondé sur les besoins de l'utilisateur. Nous avons également proposé une approche pour découvrir des prédicats équivalents afin d'améliorer la concision des données liées. Cette approche s'appuie, en plus d'une analyse statistique, sur une analyse sémantique approfondie des données et sur des algorithmes d'apprentissage. Nous soutenons que l'étude de la signification des prédicats peut aider à améliorer l'exactitude des résultats. Enfin, un ensemble d'expériences a été mené sur des ensembles de données réelles afin d'évaluer les approches que nous proposons
The wide spread of Semantic Web technologies such as the Resource Description Framework (RDF) enables individuals to build their databases on the Web, to write vocabularies, and define rules to arrange and explain the relationships between data according to the Linked Data principles. As a consequence, a large amount of structured and interlinked data is being generated daily. A close examination of the quality of this data could be very critical, especially, if important research and professional decisions depend on it. The quality of Linked Data is an important aspect to indicate their fitness for use in applications. Several dimensions to assess the quality of Linked Data are identified such as accuracy, completeness, provenance, and conciseness. This thesis focuses on assessing completeness and enhancing conciseness of Linked Data. In particular, we first proposed a completeness calculation approach based on a generated schema. Indeed, as a reference schema is required to assess completeness, we proposed a mining-based approach to derive a suitable schema (i.e., a set of properties) from data. This approach distinguishes between essential properties and marginal ones to generate, for a given dataset, a conceptual schema that meets the user's expectations regarding data completeness constraints. We implemented a prototype called “LOD-CM” to illustrate the process of deriving a conceptual schema of a dataset based on the user's requirements. We further proposed an approach to discover equivalent predicates to improve the conciseness of Linked Data. This approach is based, in addition to a statistical analysis, on a deep semantic analysis of data and on learning algorithms. We argue that studying the meaning of predicates can help to improve the accuracy of results. Finally, a set of experiments was conducted on real-world datasets to evaluate our proposed approaches
APA, Harvard, Vancouver, ISO, and other styles
10

Heguy, Xabier. "Extensions de BPMN 2.0 et méthode de gestion de la qualité pour l'interopérabilité des données." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0375/document.

Full text
Abstract:
Business Process Model and Notation (BPMN) est en train de devenir le standard le plus utilisé pour la modélisation de processus métiers. Une des principales améliorations de BPMN 2.0 par rapport à BPMN 1.2 est le fait que les objets de données comportent maintenant des éléments sémantiques. Toutefois, BPMN ne permet pas la représentation des mesures de la performance dans le cadre de l'interopérabilité liée aux échanges de données. Ceci représente une lacune dans l'utilisation de BPMN quand on veut représenter les problèmes entrainés par un manque d'interopérabilité dans les processus métiers. Nous proposons d'étendre le méta-modèle Meta-Object Facility meta-model et le XML Schema Definition de BPMN ainsi que sa représentation graphique dans le but de combler ce manque. L'extension, nommée performanceMeasurement, est définie en utilisant le mécanisme d'extension de BPMN. Ce nouvel élément permettra de représenter les mesures de performance dans le cadre de problèmes d'interopérabilité ainsi que dans celui où ces problèmes ont été résolus. L'utilisation de cette extension est illustrée dans un cas d'étude industriel réel
Business Process Model and Notation (BPMN) is being becoming the most used standard for business process modelling. One of the important upgrades of BPMN 2.0 with respect to BPMN 1.2 is the fact that Data Objects are now handling semantic elements. Nevertheless, BPMN doesn't enable the representation of performance measurement in the case of interoperability problems in the exchanged data object, which remains a limitation when using BPMN to express interoperability issues in enterprise processes. We propose to extend the Meta-Object Facility meta-model and the XML Schema Definition of BPMN as well as the notation in order to fill this gap. The extension, named performanceMeasurement, is defined using the BPMN Extension Mechanism. This new element will allow to represent performance measurement in the case of interoperability problems as well as interoperability concerns which have been solved. We illustrate the use of this extension with an example from a real industrial case
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Qualità dei dati"

1

Batini, Carlo, and Monica Scannapieco. Qualità dei Dati. Milano: Springer Milan, 2008. http://dx.doi.org/10.1007/978-88-470-0734-5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Monica, Scannapieco, and SpringerLink (Online service), eds. Qualità dei Dati: Concetti, Metodi e Tecniche. Milano: Springer-Verlag Italia, Milano, 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Beretta, Giovanni Pietro. Il trattamento e l'interpretazione dei dati ambientali: Qualità dei suoli e delle acque sotterranee nella bonifica dei siti contaminati. Bologna: Pitagora, 2004.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Garrino, Lorenza, ed. Strumenti per una medicina del nostro tempo. Florence: Firenze University Press, 2015. http://dx.doi.org/10.36253/978-88-6655-837-8.

Full text
Abstract:
Il contributo fornito da questa pubblicazione rappresenta una iniziativa innovativa nell’ambito della formazione per i progetti di miglioramento della qualità delle cure. Nei contesti sempre più si delinea la necessità di modelli teorici, di strumenti e metodologie che favoriscano la compartecipazione della persona e della sua famiglia alle cure. La sinergia tra Medicina narrativa, Metodologia Pedagogia dei Genitori e ICF permette di dare valore alle storie ed alle esperienze dei pazienti, alle competenze educative genitoriali all’interno del patto educativo scuola, sanità e famiglia con un focus sul grado di funzionamento della persona sia essa in condizione di salute o di malattia. In questa nuova prospettiva le azioni di cura mirano a stabilire un rapporto di fiducia che non è più basato su un’adesione acritica a saperi o interventi dati per acquisiti e indiscussi, ma su una concertazione che tiene conto delle competenze situate, concrete e quotidiane del cittadino e delle competenze formalizzate, generali e specifiche dei curanti.
APA, Harvard, Vancouver, ISO, and other styles
5

Cipriani, Alberto, Alessio Gramolati, and Giovanni Mari, eds. Il lavoro 4.0. Florence: Firenze University Press, 2018. http://dx.doi.org/10.36253/978-88-6453-649-1.

Full text
Abstract:
Le ricerche del presente volume si fondano sul nesso tra lavoro e Quarta Rivoluzione industriale. Su questo piano le domande sono numerose. Qual è la natura del lavoro 4.0? Qual è il rapporto tra rivoluzione tecnologica e occupazione? Quali sono i diritti del lavoro nell’epoca dei nuovi modelli di business? L’innovazione può essere implementata senza il superamento della subalternità novecentesca e l’approdo a nuove forme di libertà e responsabilità del lavoro? La digitalizzazione e le nuove forme di organizzazione dell’impresa mutano i rapporti di lavoro e favoriscono nuove forme di collaborazione e di conflitto? La formazione, la qualità e la libertà nel lavoro sono più importanti del salario? La progettazione e il design dell’impresa come si pongono nei confronti della tecnologia e del lavoro? La digitalizzazione spinge l’economia della conoscenza a determinare nuove forme di lavoro? Quali progetti da parte dei soggetti coinvolti, a cominciare dai lavoratori, perché queste trasformazioni siano un passo avanti nelle condizioni di lavoro e nelle relazioni industriali? Queste e molte altre domande sono alla base dei saggi raccolti nel volume cui hanno collaborato autori di diversa formazione ed esperienza: accademici, giornalisti, imprenditori, manager, operatori, sindacalisti e rappresentanti sindacali.
APA, Harvard, Vancouver, ISO, and other styles
6

Zajczyk, Francesca. La conoscenza sociale del territorio: Fonti e qualità dei dati. Milano, Italy: FrancoAngeli, 1991.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Megale, Teresa, ed. Contesti teatrali universitari. Florence: Firenze University Press, 2014. http://dx.doi.org/10.36253/978-88-6655-606-0.

Full text
Abstract:
Il volume è il rendiconto dell’attività teatrale della Compagnia universitaria e in specie del progetto di residenza artistica Ri_Nascite che, finanziato dal Dipartimento della Gioventù_Presidenza del Consiglio dei Ministri e dall'Associazione Nazionale Comuni Italiani, realizzato in collaborazione con il Comune di Prato, ha esplorato nuove dinamiche e rinsaldato il rapporto tra l’istituzione universitaria e la città di Prato per il tramite della compagnia universitaria ‘Binario di Scambio’, che proprio agli ex-Macelli debuttò nel 2007. Il libro a più voci raccoglie contributi originali di autori, attori e registi e riflette sull’esperienza collettiva che ha portato ad Officina, spazio nodale per la creatività giovanile, un programma articolato in diverse attività, per ragionare sulla pluralità dei punti di vista, sulle aree di intervento e sugli obiettivi intorno ai quali si sviluppano le possibilità del linguaggio teatrale oggi. La residenza artistica della compagnia teatrale ‘Binario di Scambio’, estesa tra ottobre 2012 e marzo 2013, ha prodotto quattro nuove produzioni della giovane formazione universitaria, un cartellone di incontri, e tre laboratori di carattere più strettamente formativo, dai quali sono scaturite occasioni sicure di crescita e di consapevolezza collettiva. Premio nazionale 'Cultura di gestione' di Federculture
APA, Harvard, Vancouver, ISO, and other styles
8

Bertuccelli, Fulvio, ed. Soggettività, identità nazionale, memorie. Florence: Firenze University Press, 2018. http://dx.doi.org/10.36253/978-88-6453-668-2.

Full text
Abstract:
Questo volume si propone di indagare le ragioni per cui in Turchia la memoria individuale e la costruzione della soggettività, intese in senso lato, debordino così spesso dai confini dell'individuo per inglobare le problematiche dell'identità nazionale. Le "scritture del sé", che siano confessioni, memorie, romanzi autobiografici e biografici, sono state scelte quali strumenti per giungere a comprendere i meccanismi di costruzione della memoria individuale e collettiva. Le problematiche relative alla costruzione della moderna nazione turca con i suoi eventi storici traumatici, gli approcci al tema della memoria da parte dei segmenti esclusi dal discorso dominante ed egemone, costituiscono i nuclei tematici centrali attorno a cui si sviluppa la riflessione degli autori.
APA, Harvard, Vancouver, ISO, and other styles
9

Barr, Richard S. Predicting bank failure using DEA to quantify management quality. [Dallas: Federal Reserve Bank of Dallas, 1994.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Barr, Richard S. Predicting bank failure using DEA to quantify management quality. [Dallas: Federal Reserve Bank of Dallas, 1994.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Book chapters on the topic "Qualità dei dati"

1

Batini, Carlo, and Monica Scannapieco. "Introduzione alla Qualità dei Dati." In UNITEXT, 1–19. Milano: Springer Milan, 2008. http://dx.doi.org/10.1007/978-88-470-0734-5_1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Batini, Carlo, and Monica Scannapieco. "Dimensioni della Qualità dei Dati." In UNITEXT, 21–53. Milano: Springer Milan, 2008. http://dx.doi.org/10.1007/978-88-470-0734-5_2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Batini, Carlo, and Monica Scannapieco. "Modelli per la Qualità dei Dati." In UNITEXT, 55–74. Milano: Springer Milan, 2008. http://dx.doi.org/10.1007/978-88-470-0734-5_3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Batini, Carlo, and Monica Scannapieco. "Strumenti per la Qualità dei Dati." In UNITEXT, 217–36. Milano: Springer Milan, 2008. http://dx.doi.org/10.1007/978-88-470-0734-5_8.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Batini, Carlo, and Monica Scannapieco. "Problemi Inerenti la Qualità dei Dati nei Sistemi di Integrazione dei Dati." In UNITEXT, 141–71. Milano: Springer Milan, 2008. http://dx.doi.org/10.1007/978-88-470-0734-5_6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Batini, Carlo, and Monica Scannapieco. "Attività e Tecniche Inerenti la Qualità dei Dati: Generalità." In UNITEXT, 75–102. Milano: Springer Milan, 2008. http://dx.doi.org/10.1007/978-88-470-0734-5_4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Batini, Carlo, and Monica Scannapieco. "Metodologie per la Misurazione e il Miglioramento della Qualità dei Dati." In UNITEXT, 173–215. Milano: Springer Milan, 2008. http://dx.doi.org/10.1007/978-88-470-0734-5_7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Wagner, Astrid. "Qualität in der Betriebsmarktforschung." In Qualität und Data Science in der Marktforschung, 101–16. Wiesbaden: Springer Fachmedien Wiesbaden, 2018. http://dx.doi.org/10.1007/978-3-658-19660-8_7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Bosnjak, Michael. "Mixed-Mode Surveys and Data Quality." In Methodische Probleme von Mixed-Mode-Ansätzen in der Umfrageforschung, 11–25. Wiesbaden: Springer Fachmedien Wiesbaden, 2016. http://dx.doi.org/10.1007/978-3-658-15834-7_1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Scheffler, Hartmut. "Qualität in der Marktforschung – Ein Überblick." In Qualität und Data Science in der Marktforschung, 3–13. Wiesbaden: Springer Fachmedien Wiesbaden, 2018. http://dx.doi.org/10.1007/978-3-658-19660-8_1.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Qualità dei dati"

1

Dammann, Maximilian Peter, Wolfgang Steger, and Ralph Stelzer. "Automatisierung des Datenaufbereitungsprozesses für AR/VR-Anwendungen im Engineering." In Entwerfen Entwickeln Erleben - EEE2021. Prof. Dr.-Ing. habil Ralph H. Stelzer, Prof. Dr.-Ing. Jens Krzywinski, 2021. http://dx.doi.org/10.25368/2021.63.

Full text
Abstract:
Die Produktvisualisierung in AR/VR-Anwendungen erfordert einen weitgehend manuellen Prozess der Datenaufbereitung. Bisherige Veröffentlichungen konzentrieren sich auf die fehlerfreie Triangulation oder Transformation von Produktstrukturdaten und Anzeigeattributen für AR/VR-Anwendungen. Diese Arbeit konzentriert sich auf die Aufbereitung der benötigten Geometriedaten. In diesem Zusammenhang kann durch Automatisierung eine deutliche Aufwandsreduzierung erreicht werden. Die Schritte der Geometrieaufbereitung werden identifiziert und auf ihr Automatisierungspotenzial hin untersucht. Darüber hinaus werden mögliche Kopplungen von Teilschritten diskutiert. Es wird eine Struktur für den Geometrieaufbereitungsprozess vorgeschlagen. Mit diesem strukturierten Prozess wird es möglich, die verfügbare Rechenleistung der Zielplattform bei der Geometrieaufbereitung zu berücksichtigen. Die Anzahl der zu rendernden Objekte, die Qualität der Tesselierung und der Detailgrad können durch die automatisierte Wahl der Transformationsparameter gesteuert werden. Es wird ein Software-Tool vorgestellt, in dem Teile der automatischen Aufbereitung bereits implementiert sind. Nach einer Analyse der Produktstruktur einer CAD-Datei wird die Transformation für jede Komponente (Bauteil oder Baugruppe) durchgeführt. Bisher implementierte Funktionen erlauben z.B. die Auswahl von Komponenten anhand von Filteroptionen, die Transformation im Batch-Modus, das Entfernen bestimmter Details und die Erstellung von UV-Maps. Flexibilität, Transformationsqualität und Zeitersparnis werden beschrieben und diskutiert.
APA, Harvard, Vancouver, ISO, and other styles
2

"Data Quality Artificial Intelligence for Data Classification." In Dec. 26-27, 2019 Bangkok (Thailand). Eminent Association of Pioneers, 2019. http://dx.doi.org/10.17758/eares9.p1219011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Ruiz Sánchez, Tomás, María del Lidón Mars Aicart, María Rosa Arroyo López, and Ainhoa Serna Nocedal. "SOCIAL NETWORKS, BIG DATA AND TRANSPORT PLANNING." In CIT2016. Congreso de Ingeniería del Transporte. Valencia: Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/cit2016.2016.4251.

Full text
Abstract:
The characteristics of people who are related or tied to each individual affects her activitytravel behavior. That influence is especially associated to social and recreational activities, which are increasingly important. Collecting high quality data from those social networks is very difficult, because respondents are asked about their general social life, which is most demanding to remember that specific facts. On the other hand, currently there are different potential sources of transport data, which is characterized by the huge amount of information available, the velocity with it is obtained and the variety of format in which is presented. This sort of information is commonly known as Big Data. In this paper we identify potential sources of social network related big data that can be used in Transport Planning. Then, a review of current applications in Transport Planning is presented. Finally, some future prospects of using social network related big data are highlighted.DOI: http://dx.doi.org/10.4995/CIT2016.2016.4251
APA, Harvard, Vancouver, ISO, and other styles
4

Ali, Mujahid, Nadir Shah, and Muazzam A. Khan Khattak. "DAI: Dynamic ACL Policy Implementation for Software-Defined Networking." In 2020 IEEE 17th International Conference on Smart Communities: Improving Quality of Life Using ICT, IoT and AI (HONET). IEEE, 2020. http://dx.doi.org/10.1109/honet50430.2020.9322835.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Herrero Tomás, María Dolores, and Emilio González Viosca. "ANALYSIS OF THE QUALITY OF THE WHOLE JOURNEY (DOOR-TO-DOOR) PASSENGER EXPERIENCE." In CIT2016. Congreso de Ingeniería del Transporte. Valencia: Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/cit2016.2016.4083.

Full text
Abstract:
European cities increasingly face problems caused by transport and traffic. A key factor for all transport operators is the quality of the passenger experience as this particularly, affects the uptake of the service. A comprehensive study (METPEX FP7 EU project - www.metpex.eu) developed by a consortium of 16 European partners has analysed the quality of the whole journey (door-to-door) passenger experience, including private or individual forms transport and attending to specific need of users’ groups. For this purpose, a tool with a technological basis was used to collect data from 8 trial cities: Bucharest (Romania), Coventry (United Kingdom), Dublin (Ireland), Grevena (Greece), Rome (Italy), Stockholm (Sweden), Valencia (Spain) and Vilnius (Lithuania); and five FIA motorist networks countries. For a correct evaluation of quality experience, it was deployed a subset of key variables derived from the comprehensive set of potential satisfaction factors that were studied for each pilot city. In this paper, results of the travel experience are showed, including analysis of variables affecting behavior and feelings of passengers.DOI: http://dx.doi.org/10.4995/CIT2016.2016.4083
APA, Harvard, Vancouver, ISO, and other styles
6

Echaniz Beneitez, Eneko, Luigi Dell'Olio, and Angel Ibeas Portilla. "MODELLING PERCEIVED QUALITY FOR URBAN TRANSPORT SYSTEMS USING WEIGHTED VARIABLES AND RANDOM PARAMETERS." In CIT2016. Congreso de Ingeniería del Transporte. Valencia: Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/cit2016.2016.4072.

Full text
Abstract:
In this article, an Ordered Logit model is proposed considering systematic and random variations in tastes. The methodology followed for the creation of this model consisted, in first place, in obtaining data using a revelled preferences survey. In the survey, each user had to evaluate, following a qualitative scale, each one of the attributes of the analysed transport system. The variables evaluated in the survey had been grouped into six groups, and for each group, users had to order the attributes belonging to the group, using a ranking based method, from the most important to de least important, and, in the same way, with the groups itself. Once the database is formed, a generic model have been created, establishing this model as a comparative base for the rest. Next, two more models have been estimated one considering systematic users variations and the other one combining the systematic variations with weighted variables. Additionally, three new models have been calculated as an evolution of the previous ones using random variables as representation of systematic and random variations in user’s tastes. The results shows that as model’s complexity increase, an improvement in model fit is achieved.DOI: http://dx.doi.org/10.4995/CIT2016.2016.4072
APA, Harvard, Vancouver, ISO, and other styles
7

RUIZ-RIPOLL, LIDIA, ANA RIVAS, INMACULADA GALLEGO, SANTOS SÁNCHEZ-CAMBRONERO, and ROSA M. BARBA. "A Continuous Dynamic Traffic Assignment Model From Plate Scanning Technique." In CIT2016. Congreso de Ingeniería del Transporte. Valencia: Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/cit2016.2016.4215.

Full text
Abstract:
This paper presents a methodology for the dynamic estimation of traffic flows on all links of a network from observable field data assuming the first-in-first-out (FIFO) hypothesis. The traffic flow intensities recorded at the exit of the scanned links are propagated to obtain the flow waves on unscanned links. For that, the model calculates the flow-cost functions through information registered with the plate scanning technique. The model also responds to the concern about the parameter quality of flow-cost functions to replicate the real traffic flow behaviour. It includes a new algorithm for the adjustment of the parameter values to link characteristics when its quality is questionable. For that, it is necessary the a priori study of the location of the scanning devices to identify all path flows and to measure travel times in all links. A synthetic network is used to illustrate the proposed method and to prove its usefulness and feasibility.DOI: http://dx.doi.org/10.4995/CIT2016.2016.4215
APA, Harvard, Vancouver, ISO, and other styles
8

Berardi, Rita Cristina Galarraga, and Duncan Dubugras Alcoba Ruiz. "Fuzzy-Provenance Architecture for Effort Metric Data Quality Assessment." In Simpósio Brasileiro de Qualidade de Software. Sociedade Brasileira de Computação - SBC, 2009. http://dx.doi.org/10.5753/sbqs.2009.15500.

Full text
Abstract:
Software companies rely on stored metric data in order to track and manage their projects, through analyzing, monitoring and estimating software metrics. If managers cannot believe the metrics data, the product that is being developed is fated to fail. Currently, the assessment of software effort is subjective and derived mainly through managers’ assumptions, which is fundamentally an error-prone process. We present an architecture for assessing data quality of software effort metric based on data provenance associated with a mechanism of logical inference (fuzzy logic). The contribution is to provide an assessment to search evident reasons for a low quality in order to ensure that the metrics can be used with sufficient reliability.
APA, Harvard, Vancouver, ISO, and other styles
9

LOIS GARCÍA, DAVID, ANDRÉS MONZÓN DE CÁCERES, and SARA HERNÁNDEZ DEL OLMO. "Analysis of satisfaction factors at urban transport interchanges: Measuring travelers’ attitudes to information, security and waiting." In CIT2016. Congreso de Ingeniería del Transporte. Valencia: Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/cit2016.2016.4207.

Full text
Abstract:
Transport interchanges can be considered as a node, where people transfer from one mode to another, and as a place to stay, using facilities and services as well as waiting areas. Reducing disruption of transfer in multimodal trips is a key element for assuring seamless mobility in big cities. Based on previous research (Hernández & Monzón, 2016) this paper aims to explore the predictive capacity of attitudes towards several service factors on general satisfaction with transport interchange. Complementary, it was analyzing how personal and trip characteristics are related to evaluation of some variables, and examining the influence of waiting time on the perceived quality. To that end, a two steps methodology was conducted (personal and on-line interview) in a representative sample of 740 users (54% female, 55% work purpose trip). We performed path analysis to test the model showing a satisfactory statistical fit. The model developed show good performance for predicting general satisfaction at Moncloa Transport Interchange (Madrid, Spain). The outputs of the model indicate that Information and Safety and Security factors predicted 49% of general satisfaction. Furthermore, the results showed also a strong association between evaluation of Design and Environmental quality, factors that not affect directly general satisfaction but do so through Information and Safety & Security perception, acting the last as mediator variables. Nevertheless, spending time queuing inside the interchange show a negative influence on Information and Safety & Security, while age of participants affect negatively to Information, which mean that elder have some cognitive accessibility problems. Moreover, our data shows gender differences in safety perception, since women feel less safe (particularity the youngest) inside the interchange. The results indicate a number of priority measures to enhance perceived quality and efficiency of interchanges.DOI: http://dx.doi.org/10.4995/CIT2016.2016.4207
APA, Harvard, Vancouver, ISO, and other styles
10

van Dyck-Hemming, Annette, Jan Eberhardt, and Melanie Wald-Fuhrmann. "Ansätze zur Analyse historischer Netzwerke mit Neo4j® – Aus der Projekt-Werkstatt der Datenbank zur Fachgeschichte der Musikwissenschaft." In Jahrestagung der Gesellschaft für Musikforschung 2019. Paderborn und Detmold. Musikwissenschaftliches Seminar der Universität Paderborn und der Hochschule für Musik Detmold, 2020. http://dx.doi.org/10.25366/2020.107.

Full text
Abstract:
The dichotomy Carl Dahlhaus-Hans Heinrich Eggebrecht appears to be legendary for West German musicology. It has been quite common to assume that since the 1960s and even after Dahlhaus’ death in 1989, musicologists have been very strongly oriented towards these two persons, but actually only either Dahlhaus or Eggebrecht. But can such a legend be verified in information technology? How, if necessary, can one grasp and make understandable academic networks? We have searched the entire MGG-Online for references to the names of Dahlhaus and Eggebrecht, we looked at Festschriften dedicated to Dahlhaus or Eggebrecht with regard to the persons who are marked in the texts/books as important for the two professors (also ‘pupils’, assistants, students etc.). All professional cooperations manifested through publications were also considered, including persons whose texts were edited by Dahlhaus or Eggebrecht. These data were converted into the format of a graph database and visualized. The resulting graph shows a polarized network but a small group with connections to both lead figures, too. Eggebrecht’s network reveals a remarkable gap regarding connections to members of his own generation. Dahlhaus’ personal network seems to be significantly bigger but less intense regarding the relation quality. The findings exemplify the possibilities and limitations of the evaluation of historical data by graph database technologies.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Qualità dei dati"

1

Chapman, Ray, Phu Luong, Sung-Chan Kim, and Earl Hayter. Development of three-dimensional wetting and drying algorithm for the Geophysical Scale Transport Multi-Block Hydrodynamic Sediment and Water Quality Transport Modeling System (GSMB). Engineer Research and Development Center (U.S.), July 2021. http://dx.doi.org/10.21079/11681/41085.

Full text
Abstract:
The Environmental Laboratory (EL) and the Coastal and Hydraulics Laboratory (CHL) have jointly completed a number of large-scale hydrodynamic, sediment and water quality transport studies. EL and CHL have successfully executed these studies utilizing the Geophysical Scale Transport Modeling System (GSMB). The model framework of GSMB is composed of multiple process models as shown in Figure 1. Figure 1 shows that the United States Army Corps of Engineers (USACE) accepted wave, hydrodynamic, sediment and water quality transport models are directly and indirectly linked within the GSMB framework. The components of GSMB are the two-dimensional (2D) deep-water wave action model (WAM) (Komen et al. 1994, Jensen et al. 2012), data from meteorological model (MET) (e.g., Saha et al. 2010 - http://journals.ametsoc.org/doi/pdf/10.1175/2010BAMS3001.1), shallow water wave models (STWAVE) (Smith et al. 1999), Coastal Modeling System wave (CMS-WAVE) (Lin et al. 2008), the large-scale, unstructured two-dimensional Advanced Circulation (2D ADCIRC) hydrodynamic model (http://www.adcirc.org), and the regional scale models, Curvilinear Hydrodynamics in three dimensions-Multi-Block (CH3D-MB) (Luong and Chapman 2009), which is the multi-block (MB) version of Curvilinear Hydrodynamics in three-dimensions-Waterways Experiments Station (CH3D-WES) (Chapman et al. 1996, Chapman et al. 2009), MB CH3D-SEDZLJ sediment transport model (Hayter et al. 2012), and CE-QUAL Management - ICM water quality model (Bunch et al. 2003, Cerco and Cole 1994). Task 1 of the DOER project, “Modeling Transport in Wetting/Drying and Vegetated Regions,” is to implement and test three-dimensional (3D) wetting and drying (W/D) within GSMB. This technical note describes the methods and results of Task 1. The original W/D routines were restricted to a single vertical layer or depth-averaged simulations. In order to retain the required 3D or multi-layer capability of MB-CH3D, a multi-block version with variable block layers was developed (Chapman and Luong 2009). This approach requires a combination of grid decomposition, MB, and Message Passing Interface (MPI) communication (Snir et al. 1998). The MB single layer W/D has demonstrated itself as an effective tool in hyper-tide environments, such as Cook Inlet, Alaska (Hayter et al. 2012). The code modifications, implementation, and testing of a fully 3D W/D are described in the following sections of this technical note.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography