To see the other types of publications on this topic, follow the link: Elaborazione dati.

Dissertations / Theses on the topic 'Elaborazione dati'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Elaborazione dati.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Faedi, Alberto. "Elaborazione di dati da sensori inerziali per monitoraggio strutturale." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/14247/.

Full text
Abstract:
In questa relazione viene presentata una tecnica di analisi non lineare per il monitoraggio strutturale, denominata RQA, “recurrence quantification analysis”, che permette di rilevare il danno della struttura sotto osservazione attraverso una tecnica grafica e attraverso metriche da essa generate; questa tecnica è implementata in un algoritmo nell'ambiente di lavoro Matlab, e successivamente applicata ad una struttura di test. L'applicazione pratica cerca di ottenere risultati che siano in accordo con quanto detto sul piano teorico, sia per quanto riguarda informazioni di carattere generale sul monitoraggio di salute strutturale, sia per il particolare metodo di analisi applicato.
APA, Harvard, Vancouver, ISO, and other styles
2

Giannini, Simone. "Strumenti statistici per elaborazione dati su sequenziamenti di genoma umano." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/12059/.

Full text
Abstract:
L'analisi del DNA è una delle chiavi per la comprensione della vita e dei suoi funzionamenti. Le tecniche di sequenziamento di nuova generazione NGS permettono una analisi parallela di molte sequenze che hanno reso possibili i sequenziamenti di genomi interi e l'impiego di questi dati in una vasta gamma di studi. In questa tesi verranno descritte le principali tecniche di sequenziamento NGS. Per quanto riguarda il genoma umano si tratteranno alcune tematiche di studio di varianti affrontate dal gruppo 1000Genomes. Nella fase conclusiva si introdurranno definizioni di statistica utili nell'affrontare l'elaborazione dei dati. Inoltre vengono descritti alcuni strumenti che permettono di svolgere questo tipo di analisi.
APA, Harvard, Vancouver, ISO, and other styles
3

Bruno, Angela. "Analisi comparativa di soluzioni per la post-elaborazione di dati sperimentali." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/10945/.

Full text
Abstract:
Durante l’esecuzione di prove al banco su motori a combustione interna vengono acquisiti dati contenenti le caratteristiche del motore testato al regime di funzionamento scelto, sotto l’azione di alcuni o numerosi parametri variabili in base ai risultati che si vogliono ottenere dalla prova stessa ed in determinate condizioni ambientali. Per questo motivo è di fondamentale importanza disporre di uno strumento che consenta una rapida, ma allo stesso tempo precisa e quanto più possibile completa visualizzazione ed elaborazione di tali dati. A tale scopo con questo elaborato si vogliono valutare diverse soluzioni, in termini di software, per l’analisi di dati sperimentali, con particolare attenzione rivolta agli ambienti NI LabVIEW, The MathWorks MATLAB e NI DIAdem, e ad alcuni strumenti attualmente in uso, cercando sempre il giusto compromesso tra necessità riscontrate in ambito visualizzazione ed analisi dati ed il contenimento dei costi. Vengono, in seguito, esposte le motivazioni che hanno portato alla scelta di DIAdem per implementare le procedure di post-elaborazione dei dati.
APA, Harvard, Vancouver, ISO, and other styles
4

Tripone, Daniele <1978&gt. "Tecniche di elaborazione di dati macrosismici per la definizione di sorgenti sismogenetiche." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2009. http://amsdottorato.unibo.it/1518/1/tripone_daniele_tesi.pdf.

Full text
Abstract:
La valutazione dell’intensità secondo una procedura formale trasparente, obiettiva e che permetta di ottenere valori numerici attraverso scelte e criteri rigorosi, rappresenta un passo ed un obiettivo per la trattazione e l’impiego delle informazioni macrosismiche. I dati macrosismici possono infatti avere importanti applicazioni per analisi sismotettoniche e per la stima della pericolosità sismica. Questa tesi ha affrontato il problema del formalismo della stima dell’intensità migliorando aspetti sia teorici che pratici attraverso tre passaggi fondamentali sviluppati in ambiente MS-Excel e Matlab: i) la raccolta e l’archiviazione del dataset macrosismico; ii), l’associazione (funzione di appartenenza o membership function) tra effetti e gradi di intensità della scala macrosismica attraverso i principi della logica dei fuzzy sets; iii) l’applicazione di algoritmi decisionali rigorosi ed obiettivi per la stima dell’intensità finale. L’intera procedura è stata applicata a sette terremoti italiani sfruttando varie possibilità, anche metodologiche, come la costruzione di funzioni di appartenenza combinando le informazioni macrosismiche di più terremoti: Monte Baldo (1876), Valle d’Illasi (1891), Marsica (1915), Santa Sofia (1918), Mugello (1919), Garfagnana (1920) e Irpinia (1930). I risultati ottenuti hanno fornito un buon accordo statistico con le intensità di un catalogo macrosismico di riferimento confermando la validità dell’intera metodologia. Le intensità ricavate sono state poi utilizzate per analisi sismotettoniche nelle aree dei terremoti studiati. I metodi di analisi statistica sui piani quotati (distribuzione geografica delle intensità assegnate) si sono rivelate in passato uno strumento potente per analisi e caratterizzazione sismotettonica, determinando i principali parametri (localizzazione epicentrale, lunghezza, larghezza, orientazione) della possibile sorgente sismogenica. Questa tesi ha implementato alcuni aspetti delle metodologie di analisi grazie a specifiche applicazioni sviluppate in Matlab che hanno permesso anche di stimare le incertezze associate ai parametri di sorgente, grazie a tecniche di ricampionamento statistico. Un’analisi sistematica per i terremoti studiati è stata portata avanti combinando i vari metodi per la stima dei parametri di sorgente con i piani quotati originali e ricalcolati attraverso le procedure decisionali fuzzy. I risultati ottenuti hanno consentito di valutare le caratteristiche delle possibili sorgenti e formulare ipotesi di natura sismotettonica che hanno avuto alcuni riscontri indiziali con dati di tipo geologico e geologico-strutturale. Alcuni eventi (1915, 1918, 1920) presentano una forte stabilità dei parametri calcolati (localizzazione epicentrale e geometria della possibile sorgente) con piccole incertezze associate. Altri eventi (1891, 1919 e 1930) hanno invece mostrato una maggiore variabilità sia nella localizzazione dell’epicentro che nella geometria delle box: per il primo evento ciò è probabilmente da mettere in relazione con la ridotta consistenza del dataset di intensità mentre per gli altri con la possibile molteplicità delle sorgenti sismogenetiche. Anche l’analisi bootstrap ha messo in evidenza, in alcuni casi, le possibili asimmetrie nelle distribuzioni di alcuni parametri (ad es. l’azimut della possibile struttura), che potrebbero suggerire meccanismi di rottura su più faglie distinte.
APA, Harvard, Vancouver, ISO, and other styles
5

Tripone, Daniele <1978&gt. "Tecniche di elaborazione di dati macrosismici per la definizione di sorgenti sismogenetiche." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2009. http://amsdottorato.unibo.it/1518/.

Full text
Abstract:
La valutazione dell’intensità secondo una procedura formale trasparente, obiettiva e che permetta di ottenere valori numerici attraverso scelte e criteri rigorosi, rappresenta un passo ed un obiettivo per la trattazione e l’impiego delle informazioni macrosismiche. I dati macrosismici possono infatti avere importanti applicazioni per analisi sismotettoniche e per la stima della pericolosità sismica. Questa tesi ha affrontato il problema del formalismo della stima dell’intensità migliorando aspetti sia teorici che pratici attraverso tre passaggi fondamentali sviluppati in ambiente MS-Excel e Matlab: i) la raccolta e l’archiviazione del dataset macrosismico; ii), l’associazione (funzione di appartenenza o membership function) tra effetti e gradi di intensità della scala macrosismica attraverso i principi della logica dei fuzzy sets; iii) l’applicazione di algoritmi decisionali rigorosi ed obiettivi per la stima dell’intensità finale. L’intera procedura è stata applicata a sette terremoti italiani sfruttando varie possibilità, anche metodologiche, come la costruzione di funzioni di appartenenza combinando le informazioni macrosismiche di più terremoti: Monte Baldo (1876), Valle d’Illasi (1891), Marsica (1915), Santa Sofia (1918), Mugello (1919), Garfagnana (1920) e Irpinia (1930). I risultati ottenuti hanno fornito un buon accordo statistico con le intensità di un catalogo macrosismico di riferimento confermando la validità dell’intera metodologia. Le intensità ricavate sono state poi utilizzate per analisi sismotettoniche nelle aree dei terremoti studiati. I metodi di analisi statistica sui piani quotati (distribuzione geografica delle intensità assegnate) si sono rivelate in passato uno strumento potente per analisi e caratterizzazione sismotettonica, determinando i principali parametri (localizzazione epicentrale, lunghezza, larghezza, orientazione) della possibile sorgente sismogenica. Questa tesi ha implementato alcuni aspetti delle metodologie di analisi grazie a specifiche applicazioni sviluppate in Matlab che hanno permesso anche di stimare le incertezze associate ai parametri di sorgente, grazie a tecniche di ricampionamento statistico. Un’analisi sistematica per i terremoti studiati è stata portata avanti combinando i vari metodi per la stima dei parametri di sorgente con i piani quotati originali e ricalcolati attraverso le procedure decisionali fuzzy. I risultati ottenuti hanno consentito di valutare le caratteristiche delle possibili sorgenti e formulare ipotesi di natura sismotettonica che hanno avuto alcuni riscontri indiziali con dati di tipo geologico e geologico-strutturale. Alcuni eventi (1915, 1918, 1920) presentano una forte stabilità dei parametri calcolati (localizzazione epicentrale e geometria della possibile sorgente) con piccole incertezze associate. Altri eventi (1891, 1919 e 1930) hanno invece mostrato una maggiore variabilità sia nella localizzazione dell’epicentro che nella geometria delle box: per il primo evento ciò è probabilmente da mettere in relazione con la ridotta consistenza del dataset di intensità mentre per gli altri con la possibile molteplicità delle sorgenti sismogenetiche. Anche l’analisi bootstrap ha messo in evidenza, in alcuni casi, le possibili asimmetrie nelle distribuzioni di alcuni parametri (ad es. l’azimut della possibile struttura), che potrebbero suggerire meccanismi di rottura su più faglie distinte.
APA, Harvard, Vancouver, ISO, and other styles
6

Schipilliti, Luca. "Progetto del software di acquisizione ed elaborazione dei dati di un Sonar multibeam." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/21608/.

Full text
Abstract:
L'obiettivo del progetto noto come SUSHI DROP è quello di realizzare un drone sottomarino AUV dotato di MBES con il relativo software di acquisizione ed altre tipologie di sistemi per la caratterizzazione geofisica, biologica e biomarina dell'ambiente subacqueo. In questo contesto il presente lavoro di tesi è volto in particolar modo allo sviluppo del software di acquisizione ed elaborazione dei dati in uscita dal sonar multibeam. Tali dati dovranno essere letti, riorganizzati, interpretati ed elaborati al fine di poter ottenere informazioni utili relative a ciò che si trova sul fondale del mar Adriatico ed alla sua morfologia tramite acquisizioni batimetriche. Inoltre sarà possibile ricavare informazioni su ciò che sta all'interno della colonna d'acqua sottostante il drone tramite acquisizioni Water Column. Questa tesi sarà quindi focalizzata sullo sviluppo del codice che dovrà effettuare tutte queste operazioni, andando a rispettare quelli che sono i vincoli imposti dal tipo di dati che vengono forniti dal dispositivo di acquisizione e le non idealità dello stesso nello svolgimento della propria funzione. Una prima parte di questo elaborato andrà descrivere il processo di lettura ed interpretazione dei dati forniti dal MBES Sonic2020, in modo da avere un modello iniziale su cui poter lavorare per scrivere i primi algoritmi che si occuperanno della correzione dei dati e di una semplice quanto immediata rappresentazione degli stessi. Successivamente si passerà ad una fase di generazione e simulazione di dati fittizi, per poter esser certi della validità di quanto definito in precedenza. Infine verrà descritto il processo seguito per rappresentare in maniera completa i dati ottenuti dalle precedenti elaborazioni, valutando e confrontando le prestazioni di due diversi algoritmi,IDW e Kriging.
APA, Harvard, Vancouver, ISO, and other styles
7

Chiarelli, Rosamaria. "Elaborazione ed analisi di dati geomatici per il monitoraggio del territorio costiero in Emilia-Romagna." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/19783/.

Full text
Abstract:
La tesi analizza nel dettaglio, attraverso dati topo-batimetrici ripetuti nel tempo, quale sia stato il comportamento di alcuni litorali emiliano-romagnoli, valutando anche l’influenza della modalità di gestione del dato a posteriore, nella creazione dei modelli digitali del terreno e nell'uso delle tecniche interpolative. Nello specifico, introduce il problema dell’erosione costiera, descrive le tipologie di opere di difesa da poter adoperare per fronteggiare il fenomeno, esplicita l’importanza del monitoraggio e quindi del sistema di riferimento, e illustra le tecniche di rilievo per il litorale. Inoltre, mostra sia i metodi utilizzati per l’analisi dei dati, che i risultati ottenuti in termini di mappe e grafici, grazie all'utilizzo di specifici software. Le elaborazioni prodotte riguardano la "Macrocella 1" del litorale emiliano-romagnolo, con particolare attenzione alle spiagge di Misano e Riccione che rientrano tra quelle coinvolte dal Progettone 2 nel 2007 e dal Progettone 3 nel 2016, dell'Arpae. L'attività di tesi termina con lo sviluppo di un argomento legato all'ambito della ricerca. Infatti, per la stessa area di indagine, sono state confrontate delle mappe di accumulo-erosione e dei grafici relativi all'andamento dei profili di spiaggia, ottenuti con metodi di post-elaborazione differenti. Quindi è stato valutato come i punti interpolati con un certo tipo di algoritmo, producano risultati diversi sia a livello visivo che di volume stimato, a seconda della densità di punti, della posizione che essi occupano e della densità del grid cercato.
APA, Harvard, Vancouver, ISO, and other styles
8

Toschi, Francesco. "Elaborazione di un programma di acquisizioni dati e studio di fotomoltiplicatori al silicio per l'esperimento XENON." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/9130/.

Full text
Abstract:
Le numerose osservazioni compiute a partire dagli anni `30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande a causa della piccola probabilità di interazione e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Nell'ottica di migliorare la sensibilità del rivelatore diminuendo l'energia di soglia sono in fase di ricerca e sviluppo soluzioni alternative a quelle adottate attualmente. Una di tali soluzioni prevede l'utilizzo di fotorivelatori di tipo SiPM da affiancare ai normali PMT in uso. I fotorivelatori al silicio devono lavorare ad una temperatura di (circa 170 K) e devono rivelare fotoni di lunghezza d'onda di circa 175 nm. Il presente lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo di tale lavoro è stato la scrittura di un programma DAQ in ambiente LabVIEW per acquisire dati per caratterizzare in aria fotorivelatori di tipo SiPM. In seguito con tale programma sono state effettuate misure preliminari di pedestallo da cui è stato possibile determinare l'andamento di guadagno e di dark rate al variare della tensione di alimentazione del SiPM. L'analisi dati è stata effettuata impiegando un programma scritto in C++ in grado di analizzare le forme d'onda acquisite dal programma LabVIEW.
APA, Harvard, Vancouver, ISO, and other styles
9

Sanzani, David. "Progetto di un circuito di elaborazione dati per l'analisi reologica di singoli oggetti in tempo reale." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amslaurea.unibo.it/4039/.

Full text
Abstract:
Questo elaborato propone lo studio di un sistema ed il conseguente sviluppo di un’architettura elettronica versatile, capace di effettuare analisi reologiche in tempo reale su singoli oggetti di varia natura, sfruttando diversi metodi e tecnologie elettroniche a disposizione. Un caso particolare su cui ci si è soffermati per sviluppare il sistema riguarda l’implementazione di tecniche innovative di produzione e selezione dei prodotti agricoli. L'elaborato presenta dunque un sistema elettronico capace di effettuare l’analisi reologica con tecniche acustiche di singoli oggetti. Il sistema è stato progettato e costruito per essere versatile ed adattabile a diverse tipologie di applicazioni, mantenendo costi ridotti per renderlo adatto ad eventuali applicazioni industriali.
APA, Harvard, Vancouver, ISO, and other styles
10

Sorge, Alberto. "Analisi di sensibilità di strumentazione GNSS a basso costo ed elaborazione dati mediante software libero GoGPS." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/13994/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Ricci, Thomas. "Individuazione di punti salienti in dati 3D mediante rappresentazioni strutturate." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amslaurea.unibo.it/3968/.

Full text
Abstract:
Questa tesi si inserisce nel filone di ricerca dell'elaborazione di dati 3D, e in particolare nella 3D Object Recognition, e delinea in primo luogo una panoramica sulle principali rappresentazioni strutturate di dati 3D, le quali rappresentano una prerogativa necessaria per implementare in modo efficiente algoritmi di processing di dati 3D, per poi presentare un nuovo algoritmo di 3D Keypoint Detection che è stato sviluppato e proposto dal Computer Vision Laboratory dell'Università di Bologna presso il quale ho effettuato la mia attività di tesi.
APA, Harvard, Vancouver, ISO, and other styles
12

Fioravanti, Matteo. "Sviluppo di tecniche di elaborazione di dati elettroanatomici per l'analisi dei pattern di attivazione elettrica in fibrillazione atriale." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Find full text
Abstract:
Per quanto risulti chiaro come l'innesco della fibrillazione atriale (principalmente parossistica) sia da attribuire a sorgenti focali collocate prevalentemente in prossimità delle vene polmonari (nel 94% dei casi), risulta tutt'ora estremamente dibattuto quali siano i meccanismi di mantenimento di tale anomalia del ritmo cardiaco. Fra le varie teorie riportate in letteratura, una delle più accreditate risulta essere la teoria dei rotori, secondo la quale il mantenimento della FA sarebbe da attribuire a pattern di rotazione spiraliformi, in grado di persistere, come osservato nel celebre studio CONFIRM, per tempi superiori ai 10 minuti. Il presente lavoro di tesi ha quindi l'obiettivo di dare un contributo alla teoria dei rotori, attraverso la realizzazione di mappe di fase ottenute elaborando segnali endocavitari acquisiti durante procedure di ablazione transcatetere con il sistema di mappaggio elettroanatomico CARTO 3 e l'elettrocatetere diagnostico PentaRay, della Biosense Webster. Dopo aver introdotto la fisiopatologia della fibrillazione atriale, soffermandosi particolarmente sulla teoria dei rotori, nel Capitolo 1, e aver introdotto la procedura di ablazione transcatetere, focalizzandosi sull'ausilio del CARTO 3 come sistema di mappaggio real-time, nel Capitolo 2, è stata infatti presentata l'elaborazione eseguita per poter ottenere dai segnali unipolari intracardiaci prelevati, le mappe di fase dalle quali è stata indagata l'eventuale presenza di rotori in 6 pazienti affetti principalmente da FA persistente (Capitolo 3). In conclusione, nell'ultimo capitolo è stata eseguita un'analisi dei risultati, valutando non solamente l'eventuale presenza di rotori nelle regioni della camera atriale in cui sono stati maggiormente osservati in letteratura, ma soffermandosi anche sulla validità dell'elettrocatetere Pentaray nell'indagare la dinamica alla base dei pattern di rotazione spiraliformi.
APA, Harvard, Vancouver, ISO, and other styles
13

Guidetti, Mattia. "Ricostruzione di flussi veicolari su scala regionale: analisi dei dati disponibili." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/5957/.

Full text
Abstract:
Si mostra l’evoluzione di un modello fisico-matematico atto alla ricostruzione dei fussi nell’intera regione Emilia Romagna partendo da due sorgenti di dati: dati sparsi con bassa risoluzione spaziale senza errore e dati distribuiti in tutta la regione con percentuale rispetto alla totalità di autoveicoli ignota. Si descrive l’elaborazione dei dati e l’evoluzione del modello nella sua storicità fino ad ottenere un buon risultato nella ricostruzione dei fussi. Inoltre si procede ad analizzare la natura dei dati e la natura del problema per ottenere una buona soluzione in grado di descrivere il sistema e per essere facilmente estesa ad altre regioni. Dopo aver definito un metodo di validazione si confrontano svariati risultati di modelli differenti mostrando un’evoluzione nella ricerca di un modello che risolva il problema con tempi computazionali accettabili in modo da ottenere un sistema real-time.
APA, Harvard, Vancouver, ISO, and other styles
14

Matrone, Erika. "Elaborazione dei dati inerenti alla raccolta dei rifiuti della Regione Emilia Romagna finalizzata all'individuazione dei più performanti sistemi di raccolta." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/12934/.

Full text
Abstract:
La Legge Regionale 16 del 2015 è il fulcro della seguente tesi. Seguendone i criteri e le definizioni, sono stati definiti i sistemi di raccolta dei 337 Comuni dell'Emilia Romagna, individuandone il più performante dal punto di vista ambientale ed economico. La Legge che mira alla minimizzazione dei rifiuti, stabilisce 4 obiettivi fondamentali: a) scendere sotto il 150 kg di rifiuti non inviati a riciclo; b) diminuire del 20-25% la produzione pro-capite di rifiuti rispetto l'anno di riferimento del 2011; c) raggiungere una percentuale di raccolta differenziate del 73%; d) portare il quantitativo di riciclato al 70%. I dati inerenti la raccolta dei rifiuti sono stati forniti da Arpae e si riferiscono all'anno 2015, i dati economici sono quelli ufficiali forniti dai PEF ed approvati dai Comuni e da Atersir. L'analisi è stata condotta a livello regionale, secondo aree omogenee, per distribuzione demografica, per abitanti residenti ed equivalenti. Individuati i principali sistemi di raccolta (senza raccolta di umido, misto, stradale e porta a porta), ne sono stati analizzati i loro relativi sottosistemi (stradale con calotta e porta a porta con tariffazione puntuale).
APA, Harvard, Vancouver, ISO, and other styles
15

Baietta, Alessia. "Preparazione dei dati e generazione delle mappe di TC perfusionale nel cancro al polmone." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/9279/.

Full text
Abstract:
L’introduzione della tomografia computerizzata nelle applicazioni oncologiche è stata rivoluzionaria per la diagnostica delle immagini di molti organi e apparati, superando i limiti della radiologia convenzionale. Questa tecnica rappresenta, infatti, un efficace strumento nella diagnosi e caratterizzazione di numerosi tumori, in quanto questo tipo di applicazione perfusionale amalgama informazioni di natura morfologica, tipiche della TC tradizionale, con studi funzionali sui tessuti in esame. Tuttavia, diversi problemi, tra cui la mancanza di un protocollo standard sia durante la fase di acquisizione dei dati, sia durante la fase di elaborazione dei dati, costituiscono un ostacolo per la trasposizione in clinica della TCp. In questo lavoro di Tesi si è trattato principalmente della modalità di analisi dei dati: ad oggi, infatti, non è ancora stato formulato un protocollo che stabilisca in modo univoco una tecnica di analisi delle mappe perfusionali risultanti dall’elaborazione delle immagini TCp. In particolare, si è tentato di affiancare ai classici metodi di analisi di immagini noti in letteratura un ulteriore tecnica che si basa sull’analisi voxel-by-voxel della regione d’interesse su più slice e non solo su quella di riferimento. Questo studio è stato fortemente motivato dall’elevato grado di eterogeneità che caratterizza molti tessuti neoplastici. A tal proposito, l’elaborato mira ad analizzare in modo qualitativo le mappe perfusionali di slice adiacenti a quella di riferimento e a verificare se queste possano restituire informazioni aggiuntive che risultino indispensabili ai fini della formulazione di una corretta diagnosi e scelta del piano terapeutico da applicare al paziente.
APA, Harvard, Vancouver, ISO, and other styles
16

Lardaro, Gaetano. "Progettazione e sviluppo di un'unità di acquisizione ed elaborazione dati provenienti da giroscopi mems triassiali per lo studio della cinematica cardiaca." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/6974/.

Full text
Abstract:
La rotazione dell’apice del cuore è una delle espressioni della complessa cinematica del miocardio e rappresenta un importante indice di funzionalità cardiaca. Disporre di un sensore impiantabile che permetta un monitoraggio continuo di tale parametro consentirebbe di individuare precocemente un deterioramento della performance cardiaca e di adattare tempestivamente la terapia. L’obiettivo del lavoro di tesi è la realizzazione di un sistema di acquisizione dati per segnali provenienti da un giroscopio MEMS triassiale da utilizzarsi per lo studio della cinematica cardiaca, in particolare della rotazione del cuore. Per leggere e decodificare i segnali digitali in uscita dal giroscopio MEMS triassiale utilizzato (CMR3100, VTI Technologies) è stata progettata e sviluppata un’unità di condizionamento composta da una board Arduino ADK, associata ad un adattatore di tensione PCA9306 e a 3 convertitori digitali/analogici MCP4921, che ha richiesto lo sviluppo di software per la gestione del protocollo di comunicazione e della decodifica del segnale digitale proveniente dal sensore. Per caratterizzare e validare il sistema realizzato sono state effettuate prove di laboratorio, che hanno permesso di individuare i parametri di lavoro ottimali del sensore. Una prima serie di prove ha dimostrato come l’unità di condizionamento realizzata consenta di acquisire i segnali con una velocità di processo elevata (1 kHz) che non comporta perdita di dati in uscita dal sensore. Successivamente, attraverso un banco prova di simulazione appositamente assemblato allo scopo di riprodurre rotazioni cicliche nel range dei valori fisio-patologici, è stato quantificato lo sfasamento temporale (St) tra il segnale rilevato dal CMR3100 e decodificato dall'unità di condizionamento e un segnale analogico in uscita da un giroscopio analogico, ottenendo un valore medio St=4 ms. Attraverso lo stesso banco di simulazione, è stata infine dimostrata una buona accuratezza (errore percentuale <10%) nella misura dell'angolo di rotazione derivato dal segnale di velocità angolare rilevato direttamente dal sensore CRM300.
APA, Harvard, Vancouver, ISO, and other styles
17

Marra, Matteo. "Sviluppo di un modulo di acquisizione dati ad elevato throughput da amplificatori per elettrofisiologia." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/8860/.

Full text
Abstract:
Lo scopo dell'elaborato di tesi è la progettazione e lo sviluppo di alcuni moduli di un software per la lettura ad elevato throughput di dati da particolari dispositivi per elettrofisiologia sviluppati dall'azienda Elements s.r.l. Elements produce amplificatori ad alta precisione per elettrofisiologia, in grado di misurare correnti a bassa intensità prodotte dai canali ionici. Dato il grande sviluppo che l'azienda sta avendo, e vista la previsione di introdurre sul mercato nuovi dispositivi con precisione e funzionalità sempre migliori, Elements ha espresso l'esigenza di un sistema software che fosse in grado di supportare al meglio i dispositivi già prodotti, e, soprattutto, prevedere il supporto dei nuovi, con prestazioni molto migliori del software già sviluppato da loro per la lettura dei dati. Il software richiesto deve fornire una interfaccia grafica che, comunicando con il dispositivo tramite USB per leggere dati da questo, provvede a mostrarli a schermo e permette di registrarli ed effettuare basilari operazioni di analisi. In questa tesi verranno esposte analisi, progettazione e sviluppo dei moduli di software che si interfacciano direttamente con il dispositivo, quindi dei moduli di rilevamento, connessione, acquisizione ed elaborazione dati.
APA, Harvard, Vancouver, ISO, and other styles
18

Del, Vecchio Davide. "Un sistema di raccolta ed elaborazione dati per il tracciamento e monitoraggio di imbarcazioni nell'ambito di internet delle cose applicato alla nautica." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/14338/.

Full text
Abstract:
Il presente lavoro ha come oggetto la progettazione e lo sviluppo di due sottosistemi che vanno a comporre un sistema più grande “One Mile”, utile per la digitalizzazione del processo di noleggio e per l’automatizzazione del monitoraggio di imbarcazioni leggere. Uno degli obiettivi è quello di progettare e sviluppare un nodo centrale, Collettore, all’interno di una rete di dispositivi installati sulle imbarcazioni. Questo collettore avrà il compito di gestire le comunicazioni e di collezionare e distribuire i dati ricevuti dai dispositivi ad esso collegati. Sono stati quindi analizzati strumenti appartenenti all’ambito dell’Internet of Things come big data, schede embedded e single-board computers. Il secondo obiettivo è lo sviluppo di un’interfaccia utente utile a visua- lizzare i dati raccolti e monitorare lo stato delle imbarcazioni.
APA, Harvard, Vancouver, ISO, and other styles
19

FACCHINETTI, Dario (ORCID:0000-0001-7534-6055). "Tecnologie per la raccolta, la sanitizzazione, l'elaborazione e il rilascio sicuro di dati." Doctoral thesis, Università degli studi di Bergamo, 2022. http://hdl.handle.net/10446/212691.

Full text
Abstract:
Nell'ultima decade si è verificato un grande aumento nell'offerta dei servizi cloud. Il trend è facilitato dai bassi costi, l'alta affidabilità, e dalla riduzione dei rischi associati alla perdita dati. Sebbene caricare dati in cloud comporti dei vantaggi, ci sono anche molte sfide legate alla sicurezza e alla privacy. L'esperienza della comunità di ricerca testimonia che non è sufficiente cambiare la visibilità del dato per ottenere un livello di protezione adeguato. Piuttosto, è necessario organizzare meticolosamente l'intero ciclo di vita del dato, dalla raccolta e sanitizzazione, alla memorizzazione ed elaborazione, e infine il rilascio. Questa tesi analizza ciascuno di questi stadi, proponendo soluzioni Open Source innovative. La prima parte di tesi studia la raccolta dati, in particolare in ambiente mobile. Si tratta di un ambiente importante, in quanto è caratterizzato da dispositivi con limitata memoria, connessi alla rete, e con la possibilità di rilevare informazioni sensibili. Per accedere a queste informazioni, un'app deve ottenere i permessi opportuni. Malgrado ciò, tutti i componenti al suo interno condividono lo stesso ambiente d'esecuzione, quindi hanno la stessa visibilità e restrizioni d'accesso. Si tratta di una limitazione degli attuali OS. Focalizzandoci su Android, che è Open Source, proponiamo una serie di modifiche per compartimentalizzare internamente l'app sfruttando il livello MAC. Con questo approccio, lo sviluppatore può caricare un policy module in app per confinare ogni suo componente, limitando l'accesso alla memoria interna e ai servizi. In seguito alla raccolta, un utente può sanitizzare i dati prima di caricarli in cloud. La sanitizzazione è un processo che altera irreversibilmente i dati, in modo tale che ciascun soggetto referenziato dai essi non possa essere identificato, entro certi parametri di sicurezza, evitando che i dati siano resi inutilizzabili. Nella seconda parte della tesi viene presentato un approccio basato su k-anonimity e l-diversity per sanitizzare grandi collezioni di dati. L'approccio descritto è parallelizzabile ed è caratterizzato da una limitata perdita d'informazione. La terza parte di tesi investiga gli stadi di memorizzazione ed elaborazione. In questo scenario, il cloud provider viene considerato honest-but-curious, si assume cioè che esso eseguirà sempre le richieste dell'utente, ma potrebbe abusare dell'accesso alle informazioni. L'obiettivo è consentire l'esecuzione di interrogazioni su dati caricati in cloud, senza che il gestore ne abbia accesso in chiaro. Sfortunatamente, l'uso di cifratura deterministica non offre una protezione adeguata, dato che le informazioni cifrate mantengono la stessa distribuzione di quelle in chiaro. La soluzione proposta si applica a dati relazionali, e consente l'esecuzione di interrogazioni con predicati di uguaglianza e intervallo. Le tuple vengono salvate su server in blocchi di uguali dimensioni. I blocchi vengono gestiti dal server come unità atomiche inintelliggibili, e sono acceduti per mezzo di un indice cifrato multidimensionale, anch'esso caricato sul server. Mappe locali vengono invece salvate dal client per eseguire ricerche nell'indice in modo efficiente. L'approccio proposto garantisce perfetta indistinguibilità ad un attaccante con accesso alla memoria. Ciò si ottiene applicando crittografia non deterministica e distruggendo le frequenze dell'indice. L'indice è costruito con un'evoluzione della tecnica presentata nella seconda parte della tesi. L'ultima parte della tesi si occupa della fase di rilascio dei dati. L'assunzione di onestà è confutata, in quanto in un ambiente decentralizzato le parti non si fidano reciprocamente. Le parti sono invece modellate come razionali. Sotto questa assunzione, viene proposta una soluzione utilizzabile per schedulare il rilascio dati senza la necessità di una parte fidata.
The last decade has seen a significant increase in usage of cloud services. This trend is facilitated by the low cost, the high reliability, and the reduced risks linked to data loss. Albeit there are advantages in uploading data to the cloud, there are also several security and privacy challenges. The experience gained by the Research community attest that it is not enough to just change data visibility to ensure an adequate level of protection. Rather, it is required to pay attention to the whole data lifecycle, from data collection and sanitization, to storage and processing, and finally the release. This thesis analyzes each of these stages, proposing Open Source solutions pushing forward the current state of the art. The first part of the thesis deals with the collection of data, in particular in the mobile scenario. The mobile environment is especially relevant as smartphones are devices with limited storage, that are connected to the network, and with the ability to log confidential data. To access this information, an app must be granted the proper permission. Yet, all the components running inside it share the same execution environment, thus have the same visibility and access constraints. This is a limitation of the current OS. Focusing on the Android, which is Open Source, we propose a set of modifications to achieve internal app compartmentalization leveraging the MAC layer. With this approach, the developer can add a policy module to the app to confine each component, effectively restricting access to the internal storage and to services. After the data are collected, a user may apply to it sanitization before being uploaded to the cloud. Sanitization is a process by which data are irreversibly altered so that a subject (referenced within the data) cannot be identified, given a certain security parameter, while the data remain practically useful. The second part of the thesis presents an approach based on k-anonymity and l-diversity to apply sanitization over large collections of data. The approach described can be applied in a distributed environment and is characterized by a limited information loss. The third part of the thesis investigates the storage and processing stages. In this scenario, the cloud provider is considered honest-but-curious, which assumes that it complies with the requests issued by the user, but may abuse the access to the information provided. Hence, the goal is to support the execution of queries over outsourced data with a guarantee that the cloud provider does not have access to the data content. Unfortunately, the use of deterministic encryption does not offer protection, as the encrypted data maintain the same distribution of the original data. The approach we present is applicable to relational data, and enables the execution of queries involving equality and range conditions. Data is saved encrypted to the server into equally large blocks of tuples. The blocks are managed by the server as atomic units, and accessed through an encrypted multidimensional index also stored by the server. The cloud provider is then unable to identify the single items stored within each block. Local maps are saved by the client to search the index efficiently. The approach provides perfect indistinguishability to an attacker with access to the stored data. This is achieved applying non-deterministic encryption, and by destroying the frequencies of the index. The index is built as an evolution of the technique presented in part two of the thesis. The last part of the thesis addresses the data release stage. As we move to a decentralized environment in which the parties are mutually distrusting, the honesty assumption is refuted. The parties are instead modeled as rational. In this setting, we propose a solution that can be used to schedule the release of data without the need for a Trusted Party. The approach is based on economic incentives and penalties, enforced by a smart contract.
APA, Harvard, Vancouver, ISO, and other styles
20

Merante, Brunella. "Sviluppo e validazione sperimentale di un software di acquisizione ed elaborazione dati provenienti da un sistema di eye tracking per lo studio dei movimenti oculari." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7941/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Franzoni, Alice. "Fully Homomorphic Encryption e Possibili Applicazioni." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/13568/.

Full text
Abstract:
L'argomento di cui tratta questa tesi è il modello proposto da Craig Gentry per ottenere uno schema di crittografia fully homomorphic, ovvero uno schema di crittografia che permetta di eseguire operazioni arbitrarie sui dati cifrati senza essere prima costretti a decifrarli. L'idea è quella di prendere uno schema somewhat homomorphic, cioè in grado di eseguire solo operazioni di complessità molto limitata sui dati cifrati, e renderlo bootstrappable, ovvero capace di valutare circuiti più complessi del proprio circuito di decrittazione. Saranno esaminate le caratteristiche che deve possedere uno schema somewhat homomorphic per poterlo rendere bootstrappable e i passaggi necessari per diminuire la complessità della decrittazione senza ridurre la sua capacità di valutazione dei circuiti. Infine saranno proposte alcune possibili applicazioni.
APA, Harvard, Vancouver, ISO, and other styles
22

Lo, Piccolo Salvatore. "La digestione anaerobica dei fanghi prodotti dal depuratore di Savignano sul Rubicone: elaborazione dei dati sperimentali di impianto e simulazione del processo tramite il modello ADM1." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Find full text
Abstract:
Nel presente lavoro di tesi è stata analizzata la digestione anaerobica dei fanghi di depurazione prodotti nell'impianto di Savignano sul Rubicone. Sono state effettuate delle analisi sullo stato di fatto dell'impianto per inquadrare il funzionamento del sistema, poi è stato modellizzato il comportamento della digestione tramite il modello ADM1 implementato in AQUASIM e in fine sono state proposte delle modifiche per ottimizzare le prestazione della digestione anaerobica dell'impianto e sono state simulate le prestazioni dell'impianto in condizioni di progetto.
APA, Harvard, Vancouver, ISO, and other styles
23

Amaini, Chiara. "Indagini di tomografia geoelettrica sulle dune costiere della Provincia di Ravenna." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/8440/.

Full text
Abstract:
Questa tesi Magistrale è frutto di un'attività di ricerca, che consiste nella realizzazione di un'indagine geofisica di tipo geoelettrico (ERT Electrical Resistivity Tomography). Lo scopo è quello di caratterizzare l'idrogeologia di una porzione limitata dell'acquifero freatico costiero ravennate, situato nella Pineta Ramazzotti di Lido di Dante, cercando di apportare nuove conoscenze sulle dinamiche che favoriscono l'ingressione marina (problema di forte attualità)che potrebbero contribuire a migliorare la gestione e la tutela delle risorse idriche. In questo contesto la tesi si pone come obiettivo quello di valutare l'applicabilità del metodo geoelettrico verificando se questo è in grado d'individuare efficacemente l'interfaccia acqua dolce-salata e le strutture presenti nel sottosuolo, in due tipologie di ambiente, con e senza un sistema di dune. I risultati dimostrano che dal punto di vista scientifico, il metodo geoelettrico ha verificato il principio di Ghyben-Herzberg, il quale suppone che vi sia una relazione inversa tra quota topografica e limite superiore della zona satura con acqua salata, inoltre si è riscontrata una certa stagionalità tra i profili acquisiti in momenti diversi (influenzati dalla piovosità). Mentre dal punto di vista tecnologico, il metodo, è di difficile utilizzo negli ambienti di transizione tanto ché chi si occupa professionalmente di questi rilievi preferisce non eseguirli. Questo è dovuto alla mancanza di un protocollo per le operazioni di acquisizione e a causa dell'elevato rumore di fondo che si riscontra nelle misurazioni. Con questo studio è stato possibile calibrare e sviluppare un protocollo, utilizzabile con diverse spaziature tra gli elettrodi, che è valido per l'area di studio indagata. Si è riscontrato anche che l'utilizzo congiunto delle informazioni delle prospezioni e quelle dei rilievi classici (monitoraggio della superficie freatica, parametri chimico-fisici delle acque sotterranee, rilievo topografico e sondaggi geognostici), generino un prodotto finale di semplice interpretazione e di facile comprensione per le dinamiche in atto.
APA, Harvard, Vancouver, ISO, and other styles
24

La, Ferrara Massimiliano. "Elaborazione di Big Data: un’applicazione dello Speed Layer di Lambda Architecture." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Find full text
Abstract:
I Big Data hanno forgiato nuove tecnologie che migliorano la qualità della vita utilizzando la combinazione di rappresentazioni eterogenee di dati in varie discipline. Occorre, quindi, un sistema realtime in grado di computare i dati in tempo reale. Tale sistema viene denominato speed layer, come si evince dal nome si è pensato a garantire che i nuovi dati siano restituiti dalle query funcions con la rapidità in cui essi arrivano. Il lavoro di tesi verte sulla realizzazione di un’architettura che si rifaccia allo Speed Layer della Lambda Architecture e che sia in grado di ricevere dati metereologici pubblicati su una coda MQTT, elaborarli in tempo reale e memorizzarli in un database per renderli disponibili ai Data Scientist. L’ambiente di programmazione utilizzato è JAVA, il progetto è stato installato sulla piattaforma Hortonworks che si basa sul framework Hadoop e sul sistema di computazione Storm, che permette di lavorare con flussi di dati illimitati, effettuando l’elaborazione in tempo reale. A differenza dei tradizionali approcci di stream-processing con reti di code e workers, Storm è fault-tolerance e scalabile. Gli sforzi dedicati al suo sviluppo da parte della Apache Software Foundation, il crescente utilizzo in ambito di produzione di importanti aziende, il supporto da parte delle compagnie di cloud hosting sono segnali che questa tecnologia prenderà sempre più piede come soluzione per la gestione di computazioni distribuite orientate agli eventi. Per poter memorizzare e analizzare queste moli di dati, che da sempre hanno costituito una problematica non superabile con i database tradizionali, è stato utilizzato un database non relazionale: HBase.
APA, Harvard, Vancouver, ISO, and other styles
25

Ciandrini, Giovanni. "Elaborazione del linguaggio naturale nell'IA e tecnologie moderne: Sentiment Analysis come caso di studio." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/8966/.

Full text
Abstract:
L'informatica e le sue tecnologie nella società moderna si riassumono spesso in un assioma fuorviante: essa, infatti, è comunemente legata al concetto che ciò che le tecnologie ci offrono può essere accessibile da tutti e sfruttato, all'interno della propria quotidianità, in modi più o meno semplici. Anche se quello appena descritto è un obiettivo fondamentale del mondo high-tech, occorre chiarire subito una questione: l'informatica non è semplicemente tutto ciò che le tecnologie ci offrono, perchè questo pensiero sommario fa presagire ad un'informatica "generalizzante"; l'informatica invece si divide tra molteplici ambiti, toccando diversi mondi inter-disciplinari. L'importanza di queste tecnologie nella società moderna deve spingerci a porre domande, riflessioni sul perchè l'informatica, in tutte le sue sfaccettature, negli ultimi decenni, ha portato una vera e propria rivoluzione nelle nostre vite, nelle nostre abitudini, e non di meno importanza, nel nostro contesto lavorativo e aziendale, e non ha alcuna intenzione (per fortuna) di fermare le proprie possibilità di sviluppo. In questo trattato ci occuperemo di definire una particolare tecnica moderna relativa a una parte di quel mondo complesso che viene definito come "Intelligenza Artificiale". L'intelligenza Artificiale (IA) è una scienza che si è sviluppata proprio con il progresso tecnologico e dei suoi potenti strumenti, che non sono solo informatici, ma soprattutto teorico-matematici (probabilistici) e anche inerenti l'ambito Elettronico-TLC (basti pensare alla Robotica): ecco l'interdisciplinarità. Concetto che è fondamentale per poi affrontare il nocciolo del percorso presentato nel secondo capitolo del documento proposto: i due approcci possibili, semantico e probabilistico, verso l'elaborazione del linguaggio naturale(NLP), branca fondamentale di IA. Per quanto darò un buono spazio nella tesi a come le tecniche di NLP semantiche e statistiche si siano sviluppate nel tempo, verrà prestata attenzione soprattutto ai concetti fondamentali di questi ambiti, perché, come già detto sopra, anche se è fondamentale farsi delle basi e conoscere l'evoluzione di queste tecnologie nel tempo, l'obiettivo è quello a un certo punto di staccarsi e studiare il livello tecnologico moderno inerenti a questo mondo, con uno sguardo anche al domani: in questo caso, la Sentiment Analysis (capitolo 3). Sentiment Analysis (SA) è una tecnica di NLP che si sta definendo proprio ai giorni nostri, tecnica che si è sviluppata soprattutto in relazione all'esplosione del fenomeno Social Network, che viviamo e "tocchiamo" costantemente. L'approfondimento centrale della tesi verterà sulla presentazione di alcuni esempi moderni e modelli di SA che riguardano entrambi gli approcci (statistico e semantico), con particolare attenzione a modelli di SA che sono stati proposti per Twitter in questi ultimi anni, valutando quali sono gli scenari che propone questa tecnica moderna, e a quali conseguenze contestuali (e non) potrebbe portare questa particolare tecnica.
APA, Harvard, Vancouver, ISO, and other styles
26

Gallinucci, Enrico <1988&gt. "Business Intelligence on Non-Conventional Data." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amsdottorato.unibo.it/7863/1/Phd%20thesis%20Gallinucci%20Enrico.pdf.

Full text
Abstract:
The revolution in digital communications witnessed over the last decade had a significant impact on the world of Business Intelligence (BI). In the big data era, the amount and diversity of data that can be collected and analyzed for the decision-making process transcends the restricted and structured set of internal data that BI systems are conventionally limited to. This thesis investigates the unique challenges imposed by three specific categories of non-conventional data: social data, linked data and schemaless data. Social data comprises the user-generated contents published through websites and social media, which can provide a fresh and timely perception about people’s tastes and opinions. In Social BI (SBI), the analysis focuses on topics, meant as specific concepts of interest within the subject area. In this context, this thesis proposes meta-star, an alternative strategy to the traditional star-schema for modeling hierarchies of topics to enable OLAP analyses. The thesis also presents an architectural framework of a real SBI project and a cross-disciplinary benchmark for SBI. Linked data employ the Resource Description Framework (RDF) to provide a public network of interlinked, structured, cross-domain knowledge. In this context, this thesis proposes an interactive and collaborative approach to build aggregation hierarchies from linked data. Schemaless data refers to the storage of data in NoSQL databases that do not force a predefined schema, but let database instances embed their own local schemata. In this context, this thesis proposes an approach to determine the schema profile of a document-based database; the goal is to facilitate users in a schema-on-read analysis process by understanding the rules that drove the usage of the different schemata. A final and complementary contribution of this thesis is an innovative technique in the field of recommendation systems to overcome user disorientation in the analysis of a large and heterogeneous wealth of data.
APA, Harvard, Vancouver, ISO, and other styles
27

Alberoni, Riccardo. "Elaborazione di uno strumento di preventivazione e pianificazione delle commesse per impianti automatizzati: il caso UNITEC." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Find full text
Abstract:
Le aziende operanti su commessa, in cui l’interno processo di realizzazione parte a seguito di un ordine del cliente, sono caratterizzate generalmente da elevata complessità tecnologica e gestionale e da incertezza nella domanda. In tali contesti, definiti Engineer-to-order (ETO), il prodotto è fortemente personalizzato sulla base delle esigenze del cliente. All’interno di realtà di questo tipo è spesso difficile applicare modelli e metodi di stima del carico di lavoro e pianificazione della produzione che sono validi per produzioni in serie o a lotti, ricorrendo quindi ad approcci ad hoc. Al fine di essere competitivi in questi scenari, la stima della data di consegna e del fabbisogno di risorse per la realizzazione della commessa è fondamentale fin dalle prime fasi di offerta al cliente. L’elaborato presenta il caso del gruppo UNITEC, azienda con sede a Lugo (RA) che produce impianti automatizzati per la selezione e confezione di prodotti ortofrutticoli. Gli impianti realizzati sono fortemente orientati alle esigenze del cliente, unici tra loro per caratteristiche e modalità di funzionamento. Durante l’esperienza di tirocinio svolta all’interno dell’azienda è stato sviluppato uno strumento di calcolo per la stima dei tempi preventivi di realizzazione di una commessa già in fase di offerta, al fine di fornire al cliente una data di messa in funzione dell’impianto in maniera rapida ed efficiente, mantenendo l’affidabilità della stima. L’obiettivo del progetto è quello di automatizzare il processo di stima dei tempi di realizzazione e renderlo quanto più oggettivo possibile, utilizzando per la stima parametri caratteristici della commessa da realizzare. Inoltre, si è cercato di automatizzare il processo di calcolo della disponibilità di risorse, al fine di valutare la relazione tra fabbisogno e disponibilità ed effettuare un bilanciamento del carico produttivo.
APA, Harvard, Vancouver, ISO, and other styles
28

Gallegati, Mattia. "Generazione di isocrone ed elaborazione di indicatori statistici con strumenti NoSql in ambiente BigData." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Find full text
Abstract:
L'elaborato propone l'analisi e la riprogettazione di un'applicazione di calcolo di dati statistici inferiti sulla base di mappe geografiche isocrone, isometriche e circolari tramite l'utilizzo di strumenti non relazionali (NoSQL). L'informatica e l'analisi del tessuto morfologico,economico e geografico del territorio si troveranno qui a stretto contatto ed entrambi risulteranno elementi imprescindibili ai fini dello sviluppo dell'applicativo finale. Il lavoro espone una lunga analisi di molti strumenti NoSQL attualmente disponibili e l'utilizzo approfondito di Neo4j e MongoDb leader nel mondo non relazionale. Durante lo sviluppo apparirà necessaria l'implementazione di un nuovo algoritmo per il calcolo delle isocrone che si aggiungerà all'insieme di strumenti già disponibili nel mondo non relazionale. Il risultato finale sarà un applicativo in grado di migliorare del 80% le prestazioni proposte dal precedente strumento, sviluppato con strumenti relazionali. Saranno garantite completezza, flessibilità, scalabilità e facilità di integrazione all'interno di qualsiasi contesto.
APA, Harvard, Vancouver, ISO, and other styles
29

Zama, Ramirez Pierluigi <1992&gt. "Deep Scene Understanding with Limited Training Data." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amsdottorato.unibo.it/9815/1/zamaramirez_pierluigi_tesi.pdf.

Full text
Abstract:
Scene understanding by a machine is a challenging task due to the profound variety of nature. Nevertheless, deep learning achieves impressive results in several scene understanding tasks such as semantic segmentation, depth estimation, or optical flow. However, these kinds of approaches need a large amount of labeled data, leading to massive manual annotations, which are incredibly tedious and expensive to collect. In this thesis, we will focus on understanding a scene through deep learning with limited data availability. First of all, we will tackle the problem of the lack of data for semantic segmentation. We will show that computer graphics come in handy to our purpose, both to create a new, efficient tool for annotation as well to render synthetic annotated datasets quickly. However, a network trained only on synthetic data suffers from the so-called domain-shift problem, i.e. unable to generalize to real data. Thus, we will show that we can mitigate this problem using a novel deep image to image translation technique. In the second part of the thesis, we will focus on the relationship between scene understanding tasks. We argue that building a model aware of the connections between tasks is the first building stone to create more robust, efficient, performant models that need less annotated training data. In particular, we demonstrate that we can decrease the need for labels by exploiting the relationship between visual tasks. Finally, in the last part, we propose a novel unified framework for comprehensive scene understanding, which exploits the synergies between tasks to be more robust, efficient, and performant.
APA, Harvard, Vancouver, ISO, and other styles
30

RAJABI, HANIEH. "Secure conditional cross-domain data sharing." Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2013. http://hdl.handle.net/2108/204177.

Full text
Abstract:
Defensive techniques against Internet-scale attacks can signicantly benet from sharing network security data among dierent domains. However, cross-domain collaborative security is aected by a native dichotomy. On one side, sharing of monitoring data across domains may signicantly help in detecting large scale threats and attacks; on the other side, data sharing con icts with the need to protect network customers' privacy and condentiality of business and operational information. In this thesis, we address the challenges through sharing network security data and we propose two distinct approaches enable what we call conditional data sharing, i.e., permit cross-domain sharing of ne-grained organized subsets of network security data, only when a global attack is ongoing in the network and multiple of the domain contributors are ready to reveal their data for the same incident. In the rst so called threshold-based approach, we propose a cryptographic construction devised to permit disclosure of cross-domain shared ne-grained organized subsets of network monitoring data, only when a threshold number of domains are determined for the data closure. The proposed approach revolves on a careful combination of distributed threshold based cryptography with identity-based encryption. Protection is accomplished by \simply" using dierent cryptographic keys per monitoring feed, and automatically permitting per-feed key reconstruction upon the occurrence of independent and asynchronous per-domain/per-feed alerts. Due to the rigid limitation of threshold-based approach for data disclosure, we signicantly extend the underlying cryptographic approach so as to support disclosure not only for threshold-based policies, but for more general (monotone) access structures. We further show that both solutions appear scalable and easy to deploy, not requiring neither a-priori monitoring data feeds identication, nor explicit coordination among domains. We cast such technique to a realistic scenario of whitelist sharing for DDoS mitigation. Therefore, in the case of whitelists for DDoS mitigation, where domains broadcast, for each possible DDoS target, the set of legitimate customers (client IP addresses) whose trac should not be blocked while a DDoS attack is in progress. However, such a ne-grained whitelist sharing approach appears hardly appealing (to say the least) to operators; not only the indiscriminate sharing of customers' addresses raises privacy concerns, but also it discloses, to competitor domains, business critical information on the identity and activity of customers. In Appendix A, there is a list of my publications related to the three contributions of this PhD thesis
APA, Harvard, Vancouver, ISO, and other styles
31

Pirini, Tommaso <1986&gt. "Distributed Information Systems and Data Mining in Self-Organizing Networks." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amsdottorato.unibo.it/7284/1/pirini_tommaso_tesi.pdf.

Full text
Abstract:
The diffusion of sensors and devices to generate and collect data is capillary. The infrastructure that envelops the smart city has to react to the contingent situations and to changes in the operating environment. At the same time, the complexity of a distributed system, consisting of huge amounts of components fixed and mobile, can generate unsustainable costs and latencies to ensure robustness, scalability, and reliability, with type architectures middleware. The distributed system must be able to self-organize and self-restore adapting its operating strategies to optimize the use of resources and overall efficiency. Peer-to-peer systems (P2P) can offer solutions to face the requirements of managing, indexing, searching and analyzing data in scalable and self-organizing fashions, such as in cloud services and big data applications, just to mention two of the most strategic technologies for the next years. In this thesis we present G-Grid, a multi-dimensional distributed data indexing able to efficiently execute arbitrary multi-attribute exact and range queries in decentralized P2P environments. G-Grid is a foundational structure and can be effectively used in a wide range of application environments, including grid computing, cloud and big data domains. Nevertheless we proposed some improvements on the basic structure introducing a bit of randomness by using Small World networks, whereas are structures derived from social networks and show an almost uniform traffic distribution. This produced huge advantages in efficiency, cutting maintenance costs, without losing efficacy. Experiments show how this new hybrid structure obtains the best performance in traffic distribution and it a good settlement for the overall performance on the requirements desired in the modern data systems.
APA, Harvard, Vancouver, ISO, and other styles
32

Pirini, Tommaso <1986&gt. "Distributed Information Systems and Data Mining in Self-Organizing Networks." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amsdottorato.unibo.it/7284/.

Full text
Abstract:
The diffusion of sensors and devices to generate and collect data is capillary. The infrastructure that envelops the smart city has to react to the contingent situations and to changes in the operating environment. At the same time, the complexity of a distributed system, consisting of huge amounts of components fixed and mobile, can generate unsustainable costs and latencies to ensure robustness, scalability, and reliability, with type architectures middleware. The distributed system must be able to self-organize and self-restore adapting its operating strategies to optimize the use of resources and overall efficiency. Peer-to-peer systems (P2P) can offer solutions to face the requirements of managing, indexing, searching and analyzing data in scalable and self-organizing fashions, such as in cloud services and big data applications, just to mention two of the most strategic technologies for the next years. In this thesis we present G-Grid, a multi-dimensional distributed data indexing able to efficiently execute arbitrary multi-attribute exact and range queries in decentralized P2P environments. G-Grid is a foundational structure and can be effectively used in a wide range of application environments, including grid computing, cloud and big data domains. Nevertheless we proposed some improvements on the basic structure introducing a bit of randomness by using Small World networks, whereas are structures derived from social networks and show an almost uniform traffic distribution. This produced huge advantages in efficiency, cutting maintenance costs, without losing efficacy. Experiments show how this new hybrid structure obtains the best performance in traffic distribution and it a good settlement for the overall performance on the requirements desired in the modern data systems.
APA, Harvard, Vancouver, ISO, and other styles
33

Francia, Matteo <1992&gt. "Augmenting the Knowledge Pyramid with Unconventional Data and Advanced Analytics." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amsdottorato.unibo.it/9753/1/francia_matteo_tesi.pdf.

Full text
Abstract:
The volume, variety, and high availability of data backing decision support systems have impacted on business intelligence, the discipline providing strategies to transform raw data into decision-making insights. Such transformation is usually abstracted in the "knowledge pyramid", where data collected from the real world are processed into meaningful patterns. In this context, volume, variety, and data availability have opened for challenges in augmenting the knowledge pyramid. On the one hand, the volume and variety of unconventional data (i.e., unstructured non-relational data generated by heterogeneous sources such as sensor networks) demand novel and type-specific data management, integration, and analysis techniques. On the other hand, the high availability of unconventional data is increasingly attracting data scientists with high competence in the business domain but low competence in computer science and data engineering; enabling effective participation requires the investigation of new paradigms to drive and ease knowledge extraction. The goal of this thesis is to augment the knowledge pyramid from two points of view, namely, by including unconventional data and by providing advanced analytics. As to unconventional data, we focus on mobility data and on the privacy issues related to them by providing (de-)anonymization models. As to analytics, we introduce a higher abstraction level than writing formal queries. Specifically, we design advanced techniques that allow data scientists to explore data either by expressing intentions or by interacting with smart assistants in hand-free scenarios.
APA, Harvard, Vancouver, ISO, and other styles
34

Pestarino, Luca <1992&gt. "Challenges and Opportunities of Machine Learning for Clinical and Omics Data." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2022. http://amsdottorato.unibo.it/10091/1/PhD_Thesis_Pestarino_Luca.pdf.

Full text
Abstract:
Clinical and omics data are a promising field of application for machine learning techniques even though these methods are not yet systematically adopted in healthcare institutions. Despite artificial intelligence has proved successful in terms of prediction of pathologies or identification of their causes, the systematic adoption of these techniques still presents challenging issues due to the peculiarities of the analysed data. The aim of this thesis is to apply machine learning algorithms to both clinical and omics data sets in order to predict a patient's state of health and get better insights on the possible causes of the analysed diseases. In doing so, many of the arising issues when working with medical data will be discussed while possible solutions will be proposed to make machine learning provide feasible results and possibly become an effective and reliable support tool for healthcare systems.
APA, Harvard, Vancouver, ISO, and other styles
35

Mazzieri, Mauro. "Uncertainty in web data fuzzy knowledge and ontology evolution." Doctoral thesis, Università Politecnica delle Marche, 2008. http://hdl.handle.net/11566/242356.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

BARTOLOMEO, GIOVANNI. "On the likelihood of an equivalence in linked data." Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2013. http://hdl.handle.net/2108/204181.

Full text
Abstract:
A number of standards, specifications and techniques that have major significance in the field of data-centric networks are described throughout this work. The fundamental simplicity of many of these standards has allowed them to be built upon in both hierarchical and evolutionary ways. So, for example, the most widely exploited Hypertext Transfer Protocol (HTTP) is reliant on the TCP/IP protocol for routing messages and establishing connections, and on DNS for domain name resolution. Many other specifications apply the structures and techniques inherent in HTTP to other contexts than the one for which HTTP was designed. Noticeably, the Linked Data on the Web, combining HTTP and RDF, has provided an extremely simple and efficient paradigm to publish and connect datasets from all over the world. The number of published datasets has increased exponentially from 2007 to 2011, when the total amount of RDF statements in the “Linking Open Data Cloud” was about 31 billion. However, poor data quality, mistakenly connected resources and wrongly stated equivalences are today’s major challenges for the Linked Data community. In this work we introduce a method to rank equivalences in Linked Data. The rank provides an estimation of the likelihood of each equivalence and may help information engineers to better understand and “debug” co-references, i.e., references to entities supposed to be equivalent. Major contributions of this work include: i) a novel method to rank equivalences, based on the contextual knowledge of the topology of RDF graphs; ii) a pioneering application of recently introduced energy models for graph clustering to Linked Data; iii) a formal probabilistic approach to equivalence mining derived from classic Fellegi – Sunter’s record linkage theory.
APA, Harvard, Vancouver, ISO, and other styles
37

CASTELLAN, SILVIA. "I big data nell’analisi previsionale: sfide, opportunità e implicazioni." Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2013. http://hdl.handle.net/2108/203143.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Domeniconi, Giacomo <1986&gt. "Data and Text Mining Techniques for In-Domain and Cross-Domain Applications." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amsdottorato.unibo.it/7494/1/domeniconi_giacomo_tesi.pdf.

Full text
Abstract:
In the big data era, a wide amount of data has been generated in different domains, from social media to news feeds, from health care to genomic functionalities. When addressing a problem, we usually need to harness multiple disparate datasets. Data from different domains may follow different modalities, each of which has a different representation, distribution, scale and density. For example, text is usually represented as discrete sparse word count vectors, whereas an image is represented by pixel intensities, and so on. Nowadays plenty of Data Mining and Machine Learning techniques are proposed in literature, which have already achieved significant success in many knowledge engineering areas, including classification, regression and clustering. Anyway some challenging issues remain when tackling a new problem: how to represent the problem? What approach is better to use among the huge quantity of possibilities? What is the information to be used in the Machine Learning task and how to represent it? There exist any different domains from which borrow knowledge? This dissertation proposes some possible representation approaches for problems in different domains, from text mining to genomic analysis. In particular, one of the major contributions is a different way to represent a classical classification problem: instead of using an instance related to each object (a document, or a gene, or a social post, etc.) to be classified, it is proposed to use a pair of objects or a pair object-class, using the relationship between them as label. The application of this approach is tested on both flat and hierarchical text categorization datasets, where it potentially allows the efficient addition of new categories during classification. Furthermore, the same idea is used to extract conversational threads from an unregulated pool of messages and also to classify the biomedical literature based on the genomic features treated.
APA, Harvard, Vancouver, ISO, and other styles
39

Domeniconi, Giacomo <1986&gt. "Data and Text Mining Techniques for In-Domain and Cross-Domain Applications." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amsdottorato.unibo.it/7494/.

Full text
Abstract:
In the big data era, a wide amount of data has been generated in different domains, from social media to news feeds, from health care to genomic functionalities. When addressing a problem, we usually need to harness multiple disparate datasets. Data from different domains may follow different modalities, each of which has a different representation, distribution, scale and density. For example, text is usually represented as discrete sparse word count vectors, whereas an image is represented by pixel intensities, and so on. Nowadays plenty of Data Mining and Machine Learning techniques are proposed in literature, which have already achieved significant success in many knowledge engineering areas, including classification, regression and clustering. Anyway some challenging issues remain when tackling a new problem: how to represent the problem? What approach is better to use among the huge quantity of possibilities? What is the information to be used in the Machine Learning task and how to represent it? There exist any different domains from which borrow knowledge? This dissertation proposes some possible representation approaches for problems in different domains, from text mining to genomic analysis. In particular, one of the major contributions is a different way to represent a classical classification problem: instead of using an instance related to each object (a document, or a gene, or a social post, etc.) to be classified, it is proposed to use a pair of objects or a pair object-class, using the relationship between them as label. The application of this approach is tested on both flat and hierarchical text categorization datasets, where it potentially allows the efficient addition of new categories during classification. Furthermore, the same idea is used to extract conversational threads from an unregulated pool of messages and also to classify the biomedical literature based on the genomic features treated.
APA, Harvard, Vancouver, ISO, and other styles
40

Pagliarani, Andrea <1990&gt. "Big Data mining and machine learning techniques applied to real world scenarios." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amsdottorato.unibo.it/8904/1/Pagliarani_Andrea_tesi.pdf.

Full text
Abstract:
Data mining techniques allow the extraction of valuable information from heterogeneous and possibly very large data sources, which can be either structured or unstructured. Unstructured data, such as text files, social media, mobile data, are much more than structured data, and grow at a higher rate. Their high volume and the inherent ambiguity of natural language make unstructured data very hard to process and analyze. Appropriate text representations are therefore required in order to capture word semantics as well as to preserve statistical information, e.g. word counts. In Big Data scenarios, scalability is also a primary requirement. Data mining and machine learning approaches should take advantage of large-scale data, exploiting abundant information and avoiding the curse of dimensionality. The goal of this thesis is to enhance text understanding in the analysis of big data sets, introducing novel techniques that can be employed for the solution of real world problems. The presented Markov methods temporarily achieved the state-of-the-art on well-known Amazon reviews corpora for cross-domain sentiment analysis, before being outperformed by deep approaches in the analysis of large data sets. A noise detection method for the identification of relevant tweets leads to 88.9% accuracy in the Dow Jones Industrial Average daily prediction, which is the best result in literature based on social networks. Dimensionality reduction approaches are used in combination with LinkedIn users' skills to perform job recommendation. A framework based on deep learning and Markov Decision Process is designed with the purpose of modeling job transitions and recommending pathways towards a given career goal. Finally, parallel primitives for vendor-agnostic implementation of Big Data mining algorithms are introduced to foster multi-platform deployment, code reuse and optimization.
APA, Harvard, Vancouver, ISO, and other styles
41

Al, Jawarneh Isam Mashhour Hasan <1981&gt. "Quality of Service Aware Data Stream Processing for Highly Dynamic and Scalable Applications." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amsdottorato.unibo.it/9402/1/PhD-Thesis-ALJAWARNEH.pdf.

Full text
Abstract:
Huge amounts of georeferenced data streams are arriving daily to data stream management systems that are deployed for serving highly scalable and dynamic applications. There are innumerable ways at which those loads can be exploited to gain deep insights in various domains. Decision makers require an interactive visualization of such data in the form of maps and dashboards for decision making and strategic planning. Data streams normally exhibit fluctuation and oscillation in arrival rates and skewness. Those are the two predominant factors that greatly impact the overall quality of service. This requires data stream management systems to be attuned to those factors in addition to the spatial shape of the data that may exaggerate the negative impact of those factors. Current systems do not natively support services with quality guarantees for dynamic scenarios, leaving the handling of those logistics to the user which is challenging and cumbersome. Three workloads are predominant for any data stream, batch processing, scalable storage and stream processing. In this thesis, we have designed a quality of service aware system, SpatialDSMS, that constitutes several subsystems that are covering those loads and any mixed load that results from intermixing them. Most importantly, we natively have incorporated quality of service optimizations for processing avalanches of geo-referenced data streams in highly dynamic application scenarios. This has been achieved transparently on top of the codebases of emerging de facto standard best-in-class representatives, thus relieving the overburdened shoulders of the users in the presentation layer from having to reason about those services. Instead, users express their queries with quality goals and our system optimizers compiles that down into query plans with an embedded quality guarantee and leaves logistic handling to the underlying layers. We have developed standard compliant prototypes for all the subsystems that constitutes SpatialDSMS.
APA, Harvard, Vancouver, ISO, and other styles
42

ROSA, Marco. "Data-at-Rest Protection and Efficient Access Control in the Cloud." Doctoral thesis, Università degli studi di Bergamo, 2020. http://hdl.handle.net/10446/181509.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Ciatto, Giovanni <1992&gt. "On the role of Computational Logic in Data Science: representing, learning, reasoning, and explaining knowledge." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2022. http://amsdottorato.unibo.it/10192/1/phd-thesis-1.1.0%2B2022-04-17-10-08.pdf.

Full text
Abstract:
In this thesis we discuss in what ways computational logic (CL) and data science (DS) can jointly contribute to the management of knowledge within the scope of modern and future artificial intelligence (AI), and how technically-sound software technologies can be realised along the path. An agent-oriented mindset permeates the whole discussion, by stressing pivotal role of autonomous agents in exploiting both means to reach higher degrees of intelligence. Accordingly, the goals of this thesis are manifold. First, we elicit the analogies and differences among CL and DS, hence looking for possible synergies and complementarities along 4 major knowledge-related dimensions, namely representation, acquisition (a.k.a. learning), inference (a.k.a. reasoning), and explanation. In this regard, we propose a conceptual framework through which bridges these disciplines can be described and designed. We then survey the current state of the art of AI technologies, w.r.t. their capability to support bridging CL and DS in practice. After detecting lacks and opportunities, we propose the notion of logic ecosystem as the new conceptual, architectural, and technological solution supporting the incremental integration of symbolic and sub-symbolic AI. Finally, we discuss how our notion of logic ecosys- tem can be reified into actual software technology and extended towards many DS-related directions.
APA, Harvard, Vancouver, ISO, and other styles
44

CAPONI, ALBERTO. "Towards Data-Centric Security: security into information: from techniques to applications and implications." Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2015. http://hdl.handle.net/2108/203126.

Full text
Abstract:
In last years it became clear how traditional infrastructure-centric security has failed to provide the expected security levels required for both personal and enterprise data protection. In fact in most of the cases the solution implemented establishes a security perimeter, designed to avoid un-authorized access respecting the simple principle that everything inside the security perimeter is considered to be more-or-less safe while everything outside the perimeter is considered insecure and suspect. Traditional security mechanisms are intended to prevent un-authorized access to data but still keep failing to reach such ambitious" target: there are regular daily abuses by domestic and foreign attackers to either home PCs but, with more severe consequences, to critical nodes and networks across the Internet. Indeed, using basic security mechanisms such as network rewalls is just that: "basic". In more details, what systematically happens is that the pursued secure perimeter principle is avoided by exploiting sophisticated and unpredictable cyber-attacks, made possible by the presence of unavoidable software bugs, platform misconguration and scenarios not considered during the setup phase of systems. The obvious consequence is that, not only the malicious attacker can get access inside the secure perimeter - potentially aecting the normal intended operations within the secure perimeter - but even more dangerously that he/she can deal with condential data, which may be compromised or exported. Even by using protocols designed to share and store data in a secure" traditional way, it is thus impossible to prevent the leak of information, due to the unexpected and intrinsic weakness of all the systems involved, paired with the false security feeling of the security perimeter, which is tied with error-prone nature of implementation and human errors. To overcome part of these limitations, this work presents a data-centric security paradigm. It does not rely on infrastructure security and traditional mechanism to protect a connection, but rather deals with the security of information that needs to be protected. Identity-Based and Attribute-Based concept are discussed and exploited to bring data-centric security (or part of it) into real-world scenarios such as Network Monitoring Data Sharing and Information Centric Networks.
APA, Harvard, Vancouver, ISO, and other styles
45

La, Mura Francesco. "Tecniche di Preparazione di Dataset da Immagini Satellitari di Siti Archeologici per Elaborazioni con Deep Learning." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20428/.

Full text
Abstract:
Questa tesi riporta il contributo dato ad un progetto di applicazione di deep learning al remote sensing nell’ambito dell’archeologia. Il progetto ha come obiettivo quello di sviluppare una rete neurale, che sia in grado di analizzare una zona di interesse degli archeologi data in input, per dare come output una serie di possibili siti archeologici. L’area da cui provengono le immagini che verranno usate nella creazione del dataset è il governatorato di al-Q ̄adisiyya, che si trova in Iraq. Il progetto si inserisce come una delle tante iniziative portate avanti dall’Università di Bologna nel medioriente, infatti in ambito archeologico l’Alma Mater porta avanti due progetti molto importanti: Eduu dedicato alla divulgazione del patrimonio archeologico e culturale iracheno, e Qadis, pensato per la ricognizione mirata di siti archeologici con tecnologie avanzate. Per gli archeologi la ricerca dei siti di scavo tramite l’uso di tecniche di remote sensing, è un’attività dispendiosa a livello temporale. Da qui nasce il desiderio di tentare l’automazione di questo processo, o per lo meno di fornire un supporto automatizzato all’umano,così da poter meglio spendere tempo ed energie su altre attività relative alla professione di archeologo. In questo contesto, lo scopo del lavoro di tesi è quello di collaborare al progetto con la creazione di un dataset, che sia adatto per l’allenamento di un modello direte neurale, che sarà poi usato per automatizzare il processo di individuazione, si presume che automatizzare questo processo possa aiutare gli archeologi a migliorare ancora di più la loro produttività con un risparmio di tempo e risorse. Un altro obiettivo è quello di abbattere la barriera di significato tra archeologi e data scientist, permettendo ad entrambi di collaborare nella creazione di un modello di rete neurale, che sfrutti le conoscenze umane per ottenere risultati migliori rispetto ad un modello allenato senza alcun interazione con gli esperti del settore.
APA, Harvard, Vancouver, ISO, and other styles
46

FELICETTI, ANDREA. "Artificial Intelligence approaches for spatial data processing." Doctoral thesis, Università Politecnica delle Marche, 2021. http://hdl.handle.net/11566/289699.

Full text
Abstract:
I ricercatori hanno esplorato i benefici e le applicazioni degli algoritmi di intelligenza artificiale (IA) in diversi scenari. Per l'elaborazione dei dati spaziali, l'IA offre enormi opportunità. Le domande fondamentali, la ricerca si inclina a capire come l'IA può essere applicata o deve essere creata specificamente per i dati spaziali. Questo cambiamento sta avendo un impatto significativo sui dati spaziali. Il Machine Learning (ML) è stato un componente importante per l'analisi dei dati spaziali e per la loro classificazione, clustering e previsione. Inoltre, il deep learning (DL) viene integrato per estrarre automaticamente informazioni utili per la classificazione, il rilevamento di oggetti, la segmentazione semantica, ecc. L'integrazione di AI, ML e DL in geomatica ha introdotto il concetto di Geospatial Artificial Intelligence (GeoAI), che è un nuovo paradigma per la scoperta della conoscenza geospaziale e oltre. Partendo da tale premessa, questa tesi affronta il tema dello sviluppo di tecniche basate sull'IA per l'analisi e l'interpretazione di dati spaziali complessi. L'analisi ha coperto diverse lacune, per esempio la definizione delle relazioni tra gli approcci basati sull'IA e i dati spaziali. Considerando la natura multidisciplinare dei dati spaziali, gli sforzi maggiori sono stati fatti per quanto riguarda i dati dei social media, le immagini termografiche a infrarossi (IRT), le ortofoto e le nuvole di punti. Inizialmente, è stata condotta una revisione della letteratura per capire le principali tecnologie di acquisizione dei dati e se e come i metodi e le tecniche di IA potrebbero aiutare in questo campo. Un'attenzione specifica è data allo stato dell'arte dell'IA, che è stata importante per affrontare quattro diversi problemi: la gestione delle destinazioni turistiche utilizzando la sentiment analysis e le informazioni di geo-localizzazione; il rilevamento automatico delle anomalie negli impianti fotovoltaici; la segmentazione dei mosaici basata sul deep learning; il rilevamento di punti del viso per la modellazione 3D della testa in ambito medico. Le applicazioni IA proposte aprono nuove e importanti opportunità per la comunità geomatica. I nuovi dataset raccolti, così come i dati complessi presi in esame, rendono la ricerca sfidante. Infatti, è fondamentale valutare le prestazioni dei metodi allo stato dell'arte per dimostrare la loro forza e debolezza e aiutare a identificare la ricerca futura per la progettazione di algoritmi IA più robusti. Per una valutazione completa delle prestazioni, è di grande importanza sviluppare una libreria di benchmark per valutare lo stato dell'arte, perché i metodi di progettazione che sono sintonizzati su un problema specifico non funzionano correttamente su altri problemi. Un'intensa attenzione è stata dedicata all'esplorazione di modelli e algoritmi specifici. I metodi di IA adottati per lo sviluppo delle applicazioni proposte, hanno dimostrato di essere in grado di estrarre caratteristiche statistiche complesse e di apprendere in modo efficiente le loro rappresentazioni, permettendo di generalizzare bene su un'ampia varietà di compiti di IA, tra cui la classificazione delle immagini, il riconoscimento del testo e così via. Le limitazioni puntano verso aree inesplorate per indagini future, servendo come utili linee guida per le future direzioni di ricerca.
Researchers have explored the benefits and applications of artificial intelligence (AI) algorithms in different scenario. For the processing of spatial data, AI offers overwhelming opportunities. Fundamental questions include how AI can be specifically applied to or must be specifically created for spatial data. This change is also having a significant impact on spatial data. Machine learning (ML) has been an important component for spatial analysis for classification, clustering, and prediction. In addition, deep learning (DL) is being integrated to automatically extract useful information for classification, object detection, semantic and instance segmentation, etc. The integration of AI, ML, and DL in geomatics has lead the concept of Geospatial Artificial Intelligence (GeoAI), which is a new paradigm for geo-information knowledge discovery and beyond. Starting from such a premise, this thesis addresses the topic of developing AI-based techniques for analysing and interpreting complex spatial data. The analysis has covered several gaps, for instance defining relationships between AI-based approaches and spatial data. Considering the multidisciplinary nature of spatial data, major efforts have been undertaken in regard to social media data, infrared thermographic (IRT) images, orthophotos, and point clouds. Initially, a literature review was conducted to understand the main data acquisition technologies and if and how AI methods and techniques could help in this field. More in deep, specific attention is given to the state of the art in AI with the selected data type mentioned above, which is important to deal with four different problem: tourism destination management using sentiment analysis and geo-location information; automatic faults detection on photovoltaic farms; mosaic segmentation based on deep cascading learning; face landmarks detection for head 3D modelling for medical applications. The proposed AI applications open up a wealth of novel and important opportunities for both geomatics and computer science community. The newly collected datasets, as well as the complexity of data taken into exam, make the research challenging. In fact, it is crucial to evaluate the performance of state of the art methods to demonstrate their strength and weakness and help identifying future research for designing more robust AI algorithms. For comprehensive performance evaluation, it is of great importance developing a library and benchmarks to gauge the state of the art, because the design methods tuned to a specific problem do not work properly on other problems. Intensive attention has been drawn to the exploration of tailored learning models and algorithms. The tailored AI methods, adopted for the development of the proposed applications, have shown to be capable of extracting complex statistical features and efficiently learning their representations, allowing it to generalize well across a wide variety of AI tasks, including image classification, text recognition and so on. Limitations point towards unexplored areas for future investigations, serving as useful guidelines for future research directions.
APA, Harvard, Vancouver, ISO, and other styles
47

LICIOTTI, Daniele. "Human Behaviour Understanding using Top-View RGB-D Data." Doctoral thesis, Università Politecnica delle Marche, 2018. http://hdl.handle.net/11566/252901.

Full text
Abstract:
I moderni sistemi di visione sono in grado di individuare in maniera automatica gli spostamenti delle persone in modo da poterne comprendere i comportamenti. Questa tesi si focalizza sullo sviluppo di algoritmi di visione e di modelli matematici basati su dati provenienti da sensori RGB-D posti in modalità top-view. Dopo uno studio approfondito sullo stato dell'arte, verranno presentate due tipologie di approcci per l'individuazione delle persone all'interno delle immagini di profondità. Esse sfruttano algoritmi che si basano su tecniche di image processing e su recenti metodi di deep learning. Ulteriori informazioni presenti nell'immagine a colori verranno usate per identificare i soggetti anche in un secondo momento e per individuare eventuali interazioni che questi hanno con l'ambiente circostante. Infine, gli algoritmi verranno testati in diversi casi d'uso reali al fine di valutarne le prestazioni.
The capability of automatically detecting people and understanding their behaviours is an important functionality of intelligent video systems. The interest in behaviour understanding has effectively increased in recent years, motivated by a societal needs. This thesis is focused on the development of algorithms and solutions for different environments exploiting top-view RGB-D data. In particular, the addressed topics refer to HBU in different research areas. The first goal is to implement people detection algorithms in order to monitor the people activities. To this aim, a thorough study of the state of the art has been conducted to identify the advantages and weakness. An initial approach, proposed in this thesis, is based on CV techniques, it regards the extraction the head of each person using depth data. Another approach is based on deep learning and is proposed to simplify the heads detection implementation in chaotic environments and in the presence of people with different heights. These solutions are validated with a specific dataset. The second goal is to extract several feature from subject and to identify possible interactions that they have with the surrounding environment. Finally, in order to demonstrate the actual contribution of algorithms for understanding the human behaviour in different environments, several use cases have been realized and tested.
APA, Harvard, Vancouver, ISO, and other styles
48

STURARI, MIRCO. "Processing and visualization of multi-source data in next-generation geospatial applications." Doctoral thesis, Università Politecnica delle Marche, 2018. http://hdl.handle.net/11566/252596.

Full text
Abstract:
Le applicazioni geospaziali di nuova generazione come dati non usano semplicemente punti, linee e poligoni, ma oggetti complessi o evoluzioni di fenomeni che hanno bisogno di tecniche avanzate di analisi e visualizzazione per essere compresi. Le caratteristiche di queste applicazioni sono l'uso di dati multi-sorgente con diverse dimensioni spaziali, temporali e spettrali, la visualizzazione dinamica e interattiva con qualsiasi dispositivo e quasi ovunque, anche sul campo. L'analisi dei fenomeni complessi ha utilizzato fonti dati eterogenee per formato/tipologia e per risoluzione spaziale/temporale/spettrale, che rendono problematica l'operazione di fusione per l'estrazione di informazioni significative e immediatamente comprensibili. L'acquisizione dei dati multi-sorgente può avvenire tramite diversi sensori, dispositivi IoT, dispositivi mobili, social media, informazioni geografiche volontarie e dati geospaziali di fonti pubbliche. Dato che le applicazioni geospaziali di nuova generazione presentano nuove caratteristiche, per visualizzare i dati grezzi, i dati integrati, i dati derivati e le informazioni è stata analizzata l'usabilità di tecnologie innovative che ne consentano la visualizzazione con qualsiasi dispositivo: dashboard interattive, le viste e le mappe con dimensioni spaziali e temporali, le applicazioni di Augmented e Virtual Reality. Per l'estrazione delle informazioni in modo semi-automatico abbiamo impiegato varie tecniche all'interno di un processo sinergico: segmentazione e identificazione, classificazione, rilevamento dei cambiamenti, tracciamento e clustering dei percorsi, simulazione e predizione. All'interno di un workflow di elaborazione, sono stati analizzati vari scenari e implementate soluzioni innovative caratterizzate dalla fusione di dati multi-sorgente, da dinamicità e interattivà. A seconda dell'ambito applicativo le problematiche sono differenziate e per ciascuno di questi sono state implementate le soluzioni più coerenti con suddette caratteristiche. In ciascuno scenario presentato sono state trovate soluzioni innovative che hanno dato buoni risultati, alcune delle quali in nuovi ambiti applicativi: (i) l'integrazione di dati di elevazione e immagini multispettrali ad alta risoluzione per la mappatura Uso del Suolo / Copertura del Suolo, (ii) mappatura con il contributo volontario per la protezione civile e la gestione delle emergenze (iii) la fusione di sensori per la localizzazione e il tracciamento in ambiente retail, (iv) l'integrazione dei dati in tempo reale per la simulazione del traffico nei sistemi di mobilità, (v) la combinazione di informazioni visive e di nuvole di punti per la rilevazione dei cambiamenti nell'applicazione della sicurezza ferroviaria. Attraverso questi esempi, i suggerimenti potranno essere applicati per realizzare applicazioni geospaziali anche in ambiti diversi. Nel futuro sarà possibile aumentare l'integrazione per realizzare piattaforme data-driven come base per sistemi intelligenti: un'interfaccia semplice per l'utente che metta a disposizione funzionalità avanzate di analisi costruite su algoritmi affidabili ed efficienti.
Next-generation geospatial applications as data do not simply use dots, lines, and polygons, but complex objects or evolution of phenomena that need advanced analysis and visualization techniques to be understood. The features of these applications are the use of multi-source data with different spatial, temporal and spectral dimensions, dynamic and interactive visualization with any device and almost anywhere, even in the field. Complex phenomena analysis has used heterogeneous data sources for format/typology and spatial/temporal/spectral resolution, which challenging combining operation to extract meaningful and immediately comprehensible information. Multi-source data acquisition can take place through various sensors, IoT devices, mobile devices, social media, voluntary geographic information and geospatial data from public sources. Since next-generation geospatial applications have new features to view raw data, integrated data, derived data, and information, wh have analysed the usability of innovative technologies to enable visualization with any device: interactive dashboards, views and maps with spatial and temporal dimensions, Augmented and Virtual Reality applications. For semi-automatic data extraction we have used various techniques in a synergistic process: segmentation and identification, classification, change detection, tracking and path clustering, simulation and prediction. Within a processing workflow, various scenarios were analysed and implemented innovative solutions characterized by the fusion of multi-source data, dynamism and interactivity. Depending on the application field, the problems are differentiated and for each of these the most coherent solutions have been implemented with the aforementioned characteristics. Innovative solutions that have yielded good results have been found in each scenario presented, some of which are in new applications: (i) integration of elevation data and multispectral high-resolution images for Land Use/Land Cover mapping, (ii) crowd-mapping for civil protection and emergency management, (iii) sensor fusion for indoor localization and tracking, (iv) integration real-time data for traffic simulation in mobility systems, (v) mixing visual and point cloud informations for change detection on railways safety and security application. Through these examples, given suggestions can be applied to create geospatial applications even in different areas. In the future, integration can be enhanced to build data-driven platforms as the basis for intelligent systems: a user-friendly interface that provides advanced analysis capabilities built on reliable and efficient algorithms.
APA, Harvard, Vancouver, ISO, and other styles
49

GALDELLI, ALESSANDRO. "Applied Artificial Intelligence for Precision Fishing: identification and classification of fishing activities." Doctoral thesis, Università Politecnica delle Marche, 2021. http://hdl.handle.net/11566/289710.

Full text
Abstract:
Il costante incremento delle attività di pesca e del traffico marittimo in generale hanno reso il monitoraggio e la classificazione delle attività delle navi una sfida aperta nello scenario marino. Il continuo sfruttamento delle risorse ittiche ha ridotto drasticamente l’abbondanza di queste risorse con conseguenze negative sullo stesso settore della pesca. Nel corso degli anni sono stati introdotti degli strumenti che inizialmente però erano impiegati solamente per migliorare la sicurezza del traffico marittimo. La necessità di risolvere il problema del monitoraggio e della classificazione delle attività delle navi nella nuova era dell’Intelligenza Artificiale (IA) ha portato allo sviluppo e all’applicazione di nuovi metodi nel campo del Machine Learning (ML). In particolare, l’applicazione della IA in questo contesto definisce un nuovo concetto che prende il nome di Precision Fishing. Il lavoro svolto in questa tesi è stato sviluppato in collaborazione con l’Istituto per le Risorse Biologiche e le Biotecnologie Marine del CNR (CNR-IRBIM). L’obiettivo della tesi è incrementare il controllo delle attività di pesca analizzando dati provenienti dal Sistema di Identificazione Automatica (AIS) ed integrandoli ad esempio con le immagini satellitari “Synthetic Aperture RADAR” (SAR). Gli obiettivi della presente tesi hanno riguardato (i) l’identificazione e (ii) la classificazione delle attività di pesca e (iii) l’individuazione delle attività illegali, non dichiarate e non regolamentate (INN), mediante approcci di Intelligenza Artificiale. Nel primo tema di ricerca si presenta un algoritmo in grado di individuare ogni singola sessione di pesca, ossia tutto ciò che accade da quando la nave lascia il porto di partenza fino al porto di destinazione. Per ottenere questo risultato, la prima operazione svolta è quella del filtraggio degli outliers (dati AIS anomali o errati), che è stato ottenuto grazie ad un processo di interpolazione. L’algoritmo sviluppato utilizza un insieme di regole per identificare ciascuna sessione di pesca. Un altro aspetto innovativo dell’algoritmo rispetto allo stato dell’arte è quello di ricostruire sessioni di pesca incomplete, ossia quando quest’ultime non hanno una distribuzione temporalmente uniforme dei dati AIS. L’affidabilità del metodo proposto è stata valutata su un dataset validato da esperti nel settore, ed i risultati ottenuti hanno dimostrato che l’efficacia del metodo è superiore rispetto allo stato dell’arte. Nella seconda tematica si propone una serie di algoritmi basati sulle tecnologie dell’IA al fine di classificare le attività di pesca. In dettaglio vengono realizzati diversi algoritmi di classificazione utilizzando diverse tecniche di Machine Learning e di Deep Learning. L’innovazione apportata allo stato dell’arte rispetto agli obiettivi sopra riportati è nello sviluppo di algoritmi basati su IA che automatizzano processi di analisi dati per supportare decision maker nell’ambito della Precision Fishing. L’affidabilità dei metodi proposti è stata indagata utilizzando dataset validati da esperti nel settore e dallo studio dei comportamenti delle navi su diversi anni. I risultati ottenuti sono superiori allo stato dell’arte e questo fa si che alcuni algoritmi proposti si candidano ad essere considerati come gold standard. Nel terzo tema di ricerca si presenta un algoritmo per l’identificazione delle attività di pesca INN. In questo caso l’utilizzo del solo sistema AIS è insufficiente perché nella maggior parte dei casi, quando la nave è impegnata in questo tipo di attività, i sistemi di bordo vengono spenti in modo da non poter essere rintracciati. La soluzione proposta è quella di integrare i dati AIS con le immagini satellitari SAR in modo da ricostruire l’informazione mancante, e grazie all’algoritmo di classificazione delle attività di pesca, vengono rilevate tutte quelle che sono ritenute sospette. Il metodo proposto è stato validato da esperti nel settore e dall’analisi dei registri di bordo integrando la conoscenza dei sistemi di pesca.
The constant increasing of fishing activities and marine traffic have made the monitoring and the classification of the ships activities an open challenge in marine scenario. Continued exploitation of fish resources has drastically reduced the abundance of these resources, with negative consequences on the fisheries sector itself. Over the years, some tools have been introduced, but initially they were only used to improve the safety of maritime traffic. The necessity of solving the problem of the monitoring and the classification of the ships activities in the new era of Artificial Intelligence (AI) leads to the development and to the implementation of new methods in Machine Learning (ML). In particular, the application of AI in this context defines a new concept called Precision Fishing. The work of this thesis has been developed in collaboration with “Istituto per le Risorse Biologiche e le Biotecnologie Marine” of the CNR (CNR-IRBIM). The aim of this research is to increase fisheries control by analysing Automatic Identification System (AIS) data and integrating them with additional data such as “Synthetic Aperture RADAR” (SAR) images. The objectives of this thesis regarded (i) the identification and (ii) the classification of fishing activities; (iii) the identification of illegal, unreported and unregulated (IUU) fishing activities through AI approaches. In the first topic, it is described an algorithm able to identify every single fishing session, meaning everything that happens from when the ship leaves the port of departure to the port of destination. In order to obtain this result, the first operation carried out is the filtering of outliers (on-land or erroneous AIS data), which has been achieved through a process of interpolation. The algorithm developed uses a rule set to identify each fishing session. Another innovative aspect of the algorithm compared to the state of the art is that it reconstructs incomplete fishing sessions, meaning those that do not have a temporally uniform distribution of AIS data. The reliability of the proposed method was evaluated on a dataset validated by experts in the field, and the results obtained showed that the effectiveness of the method outperformed the state of the art. In the second research topic, it is proposed a set of algorithms based on AI technologies in order to classify fishing activities. In detail, several classification algorithms are implemented using different Machine Learning and Deep Learning techniques. The innovation of this thesis over the state of the art is the design and the development of AI algorithms to support decision makers in the Precision Fishing field using AIS and satellite data. The reliability of the proposed methods was investigated using datasets validated by experts in the field and by studying the behaviour of ships over the years. The results obtained are better than the state of the art and this makes some of the proposed algorithms candidates to be considered as gold standard. In the third topic, it is presented an algorithm for the identification of IUU fishing activities. In this case the use of the AIS system alone is insufficient because in most cases, when the ship is engaged in this type of activity, the on-board systems are switched off so that the vessel cannot be located. The solution proposed is to integrate AIS data with SAR satellite images in order to recover the missing information, and thanks to the classification of fishing activities algorithm all those that are considered suspicious are detected. The proposed method has been validated by experts in the field and by the analysis of logbooks integrating knowledge of fishing systems.
APA, Harvard, Vancouver, ISO, and other styles
50

BERNARDINI, MICHELE. "Machine Learning approaches in Predictive Medicine using Electronic Health Records data." Doctoral thesis, Università Politecnica delle Marche, 2021. http://hdl.handle.net/11566/289622.

Full text
Abstract:
L' approccio tradizionale in medicina per gestire le patologie può essere ridotto al concetto di “one-size-fits all”, in cui l'effetto di una cura rispecchia l'intero campione. Però, la medicina di precisione può rappresentare l'estensione e l'evoluzione della medicina tradizionale perché risulta principalmente preventiva e proattiva piuttosto che prettamente reattiva. Questa evoluzione può portare a una Sanità predittiva, personalizzata, preventiva, partecipativa e psicocognitiva. Tra tutte queste caratteristiche, la tesi si focalizza sulla medicina predittiva. Quindi, si può introdurre un nuovo emergente paradigma di Sanità, chiamato medicina di precisione predittiva (PPM), che può beneficiare da tecniche di Machine Learning (ML) e da una enorme quantità di informazioni racchiuse nelle cartelle cliniche elettroniche (EHRs). L'ecosistema sanitario della tesi, costituito dai 3 punti chiave interconnessi (PPM, EHR, ML), offre un contributo al campo dell'informatica medica proponendo metodologie di ML con lo scopo di affrontare e superare le sfide dello stato dell'arte che emergono dagli EHR dataset, come: dati eterogenei e molto numerosi, sbilanciamento tra classi, labeling sparso, ambiguità temporale, interpretabilità, capacità di generalizzazione. Le seguenti metodologie di ML sviluppate per specifici task clinici nello scenario della PM sono adatte a costituire il nucleo principale di nuovi sistemi clinici di supporto alle decisioni, utilizzabili dai medici per scopi di prevenzione, screening, diagnosi e follow-up: i) un approccio sparse-balanced Support Vector Machine con lo scopo di predire il diabete di tipo 2 (T2D), utilizzando le informazioni estratte da un nuovo EHR dataset di un medico di medicina generale; ii) un approccio Regression Forest ensemble ad alta interpretabilità con lo scopo di identificare fattori clinici non di routine nei dati EHR per determinare dove sia racchiusa la condizione di insulino-resistenza; iii) un approccio di Multiple Instance Learning boosting applicato ai dati EHR volto a predire precocemente un peggioramento dell'insulino-resistenza (basso vs alto rischio di T2D) in termini di TyG index; iv) un nuovo approccio multitasking semi-supervisionato con lo scopo di predire l'evoluzione a breve termine della patologie renale (cioè il profilo di rischio del paziente) sui dati EHR di un cluster di medici di medicina generale; v) un approccio XGBoosting con lo scopo di predire il SOFA score al quinto giorno, utilizzando solo i dati EHR del giorno di ammissione in unità di terapia intensiva (ICU). Il SOFA score descrive le complicazioni del paziente COVID-19 in ICU e aiuta i medici a creare profili di rischio dei pazienti COVID-19. La tesi ha anche contribuito alla pubblicazione di nuovi EHR datasets open access (FIMMG dataset, FIMMG_obs dataset, FIMMG_pred dataset, mFIMMG dataset).
Traditional approaches in medicine to manage diseases can be briefly reduced to the “one-size-fits all” concept (i.e., the effect of treatment reflects the whole sample). On the contrary, precision medicine may represent the extension and the evolution of traditional medicine because is mainly preventive and proactive rather than reactive. This evolution may lead to a predictive, personalized, preventive, participatory, and psycho-cognitive healthcare. Among all these characteristics, the predictive medicine (PM), used to forecast disease onset, diagnosis, and prognosis, is the one this thesis emphasizes. Thus, it is possible to introduce a new emerging healthcare area, named predictive precision medicine (PPM), which may benefit from a huge amount of medical information stored in Electronic Health Records (EHRs) and Machine Learning (ML) techniques. The thesis ecosystem, which consists of the previous 3 inter-connected key points (i.e., PPM, EHR, ML), contributes to the biomedical and health informatics by proposing meaningful ML methodologies to face and overcome the state-of-the-art challenges, that emerge from real-world EHR datasets, such as high-dimensional and heterogeneous data; unbalanced setting; sparse labeling; temporal ambiguity; interpretability/explainability; and generalization capability. The following ML methodologies designed from specific clinical objectives in PM scenario are suitable to constitute the main core of any novel clinical Decision Support Systems usable by physicians for prevention, screening, diagnosis, and treatment purposes: i) a sparse-balanced Support Vector Machine (SB-SVM) approach aimed to discover type 2 diabetes (T2D) using features extracted from a novel EHR dataset of a general practitioner (GP); ii) a high-interpretable ensemble Regression Forest (TyG-er) approach aimed to identify non-trivial clinical factors in EHR data to determine where the insulin-resistance condition is encoded; iii) a Multiple Instance Learning boosting (MIL-Boost) approach applied to EHR data aimed to early predict an insulin resistance worsening (low vs high T2D risk) in terms of TyG index; iv) a novel Semi-Supervised Multi-task Learning (SS-MTL) approach aimed to predict short-term kidney disease evolution (i.e., patient’s risk profile) on multiple GPs’ EHR data; v) A XGBoosting (XGBoost) approach aimed to predict the sequential organ failure assessment score (SOFA) score at day 5, by utilising only EHR data at the admission day in the Intensive Care Unit (ICU). The SOFA score describes the COVID-19 patient’s complications in ICU and helps clinicians to create COVID-19 patients' risk profiles. The thesis also contributed to the publication of novel publicly available EHR datasets (i.e., FIMMG dataset, FIMMG_obs dataset, FIMMG_pred dataset, mFIMMG dataset).
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography