To see the other types of publications on this topic, follow the link: Sistim database.

Dissertations / Theses on the topic 'Sistim database'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Sistim database.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Nardon, Fabiane Bizinella. "Estudo e construção de um sistema gerenciador de banco de dados dedutivo." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 1996. http://hdl.handle.net/10183/24105.

Full text
Abstract:
Este trabalho apresenta o estudo e a construção de um Sistema Gerenciador de Bancos de Dados Dedutivos. Um Banco de Dados Dedutivo (BDD) é um Banco de Dados que, alem de sua parte tradicional, ou seja, as informações contidas nas relações básicas, que são explicitamente inseridas, possui um conjunto de regras dedutivas que permite derivar novas informações a partir das relações básicas. Neste trabalho, as deficiências da linguagem de consulta Datalog foram identificadas e, com o objetivo de obter uma linguagem que atenda melhor algumas das necessidades de aplicações do mundo real, foram propostas extensões ao Datalog, que deram origem a linguagem DEDALO. As atualizações sobre Bancos de Dados Dedutivos também foram estudadas, sendo identificados dois problemas: o primeiro se refere a necessidade de propagar modificações sobre as relações básicas para as relações derivadas materializadas; o segundo problema diz respeito as atualizações sobre as relações derivadas, que devem ser traduzidas em atualizações sobre as relações básicas, para que a atualização pretendida se tome visível na relação derivada. Para o primeiro problema, métodos de propagação foram estudados, analisados e implementados. Para o segundo, foram estudados, analisados, propostos e implementados métodos que realizam a tradução das atualizações. Restrições de integridade em Bancos de Dados Dedutivos tamb6m foram estudadas, sendo propostos métodos eficientes de detecção de violações de integridade e de reparos de transações que violam as restrições definidas no sistema. Os estudos realizados deram origem ao Sistema Gerenciador de Banco de Dados Dedutivo DEDALO, um protótipo que implementa a nova linguagem proposta Como uma extensão do Datalog, os métodos de propagação de atualizações para relações derivadas materializadas, as técnicas de tradução de atualizações sobre relações derivadas, os métodos de detecção de violação de restrições de integridade e as técnicas de reparo das transações que as violam. 0 Sistema DEDALO é composto de quatro ferramentas: o Gerenciador de Regras, onde as regras de derivação e as restrições de integridade são definidas; a Interface Interativa, utilizada para submeter consultas ad hoc e solicitações de atualização sobre o sistema; dois novos Componentes Delphi, que são duas novas classes criadas para o ambiente de desenvolvimento de aplicações Delphi, que foi utilizado na implementação do protótipo, e são utilizadas para a criação das aplicações sobre o Sistema DEDALO; e o Tradutor de Sentenças DEDALOISQL-ANSI, que traduz as sentenças da linguagem proposta para sentenças SQL-ANSI que serão submetidas ao Sistema Gerenciador do Banco de Dados. A adequabilidade das soluções estudadas e implementadas no sistema desenvolvido pode ser comprovada através da implementação de uma aplicação real utilizando o Sistema DEDALO.<br>This work presents the study and construction of a Deductive Database Management System. A Deductive Database (BDD) is a Database that; besides the traditional part, where the informations are contained in basic relations, explicitly introduced, has a deductive rules set, which permits to derive new informations from the basic relations. In this work, the deficiencies of Datalog language were identified and, with the goal of obtaining a language which could better support some real world applications requirements, extensions to Datalog were proposed, which originate the DEDALO language. Deductive Databases updates were also studied and two problems were identified: the first one refers to the need of propagating updates over basic relations to the materialized derived relations; the second problem refers to the updates over derived relations, which must be translated in updates over basic relations, in order that the requested update become visible in the derived relation. For the first problem, propagation methods were studied, analyzed and implemented. For the second, methods for carrying out updates translation were studied, analyzed, proposed and implemented. Integrity Constraints in Deductive Database Systems were also studied and methods were proposed in order to detect and repair system defined integrity constraints violations. Through the studies related above was created DEDALO Deductive Database Management System, a prototype that implements the new language, proposed as a Datalog extension. The prototype also contains the implementation of updates propagation methods for materialized derived relations, the translation techniques of updates over derived relations, the integrity constraints violation detection methods and the repairing techniques for the transactions that violate the constraints. The DEDALO System is composed of four tools: the Rules Manager, where derivation rules and integrity constraints are defined; the Interactive Interface, used for submit ad hoc queries and updates request to the system; two new Delphi Components, which are two new classes created for the application development environment Delphi, which was used in the prototype implementation, and are used in the applications creation over the DEDALO System; and the DEDALO/SQL-ANSI Statements Translator, which translate the statements of the proposed language to SQL-ANSI statements, which will be submitted to the Database Management System. The adequacy of the solutions studied and implemented in the prototype system was verified by the implementation of an application using the DEDALO System.
APA, Harvard, Vancouver, ISO, and other styles
2

Chen, Min. "Knowledge assisted data management and retrieval in multimedia database sistems." FIU Digital Commons, 2007. http://digitalcommons.fiu.edu/etd/2139.

Full text
Abstract:
With the proliferation of multimedia data and ever-growing requests for multimedia applications, there is an increasing need for efficient and effective indexing, storage and retrieval of multimedia data, such as graphics, images, animation, video, audio and text. Due to the special characteristics of the multimedia data, the Multimedia Database management Systems (MMDBMSs) have emerged and attracted great research attention in recent years. Though much research effort has been devoted to this area, it is still far from maturity and there exist many open issues. In this dissertation, with the focus of addressing three of the essential challenges in developing the MMDBMS, namely, semantic gap, perception subjectivity and data organization, a systematic and integrated framework is proposed with video database and image database serving as the testbed. In particular, the framework addresses these challenges separately yet coherently from three main aspects of a MMDBMS: multimedia data representation, indexing and retrieval. In terms of multimedia data representation, the key to address the semantic gap issue is to intelligently and automatically model the mid-level representation and/or semi-semantic descriptors besides the extraction of the low-level media features. The data organization challenge is mainly addressed by the aspect of media indexing where various levels of indexing are required to support the diverse query requirements. In particular, the focus of this study is to facilitate the high-level video indexing by proposing a multimodal event mining framework associated with temporal knowledge discovery approaches. With respect to the perception subjectivity issue, advanced techniques are proposed to support users’ interaction and to effectively model users’ perception from the feedback at both the image-level and object-level.
APA, Harvard, Vancouver, ISO, and other styles
3

Martella, Massimiliano. "Progettazione e realizzazione di un sistema di Workflow Management." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/4975/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Scarinci, Rui Gureghian. "SES : sistema de extração semântica de informações." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 1997. http://hdl.handle.net/10183/18398.

Full text
Abstract:
Entre as áreas que mais se desenvolvem na informática nos últimos anos estão aquelas relacionadas ao crescimento da rede Internet, que interliga milhões de usuários de todo o mundo. Esta rede disponibiliza aos usuários uma a enorme variedade e quantidade de informações, principalmente dados armazenados de forma não estruturada ou semi estruturada. Contudo, tal volume e heterogeneidade acaba dificultando a manipulação dos dados recuperados a partir da Internet. Este problema motivou o desenvolvimento deste trabalho. Mesmo com o auxílio de várias ferramentas de pesquisa na Internet, buscando realizar pesquisas sobre assuntos específicos, o usuário ainda tem que manipular em seu computador pessoal uma grande quantidade de informação, pois estas ferramentas não realizam um processo de seleção detalhado. Ou seja, são recuperados muitos dados não interessantes ao usuário. Existe, também, uma grande diversidade de assuntos e padrões de transferência e armazenamento da informação criando os mais heterogêneos ambientes de pesquisa e consulta de dados. Esta heterogeneidade faz com que o usuário da rede deva conhecer todo um conjunto de padrões e ferramentas a fim de obter a informação desejada. No entanto, a maior dificuldade de manipulação esta ligada aos formatos de armazenamento não estruturados ou pouco estruturados, como, por exemplo: arquivos textos, Mails (correspondência eletrônica) e artigos de News (jornais eletrônicos). Nestes formatos, o entendimento do documento exige a leitura do mesmo pelo usuário, o que muitas vezes acarreta em um gasto de tempo desnecessário, pois o documento, por exemplo, pode não ser de interesse deste ou, então, ser de interesse, mas sua leitura completa só seria útil posteriormente. Várias informações, como chamadas de trabalhos para congressos, preços de produtos e estatísticas econômicas, entre outras, apresentam validade temporal. Outras informações são atualizadas periodicamente. Muitas dessas características temporais são explicitas, outras estão implícitas no meio de outros tipos de dados. Isto torna muito difícil a recuperação de tal tipo de informação, gerando, várias vezes, a utilização de informações desatualizadas, ou a perda de oportunidades. Desta forma, o grande volume de dados em arquivos pessoais obtidos a partir da Internet criou uma complexa tarefa de gerenciamento dos mesmos em conseqüência da natureza não estruturada dos documentos recuperados e da complexidade da análise do tempo de validade inerente a estes dados. Com o objetivo de satisfazer as necessidades de seleção e conseqüente manipulação das informações existentes a nível local (computador pessoal), neste trabalho, é descrito um sistema para extração e sumarização destes dados, utilizando conceitos de IE (Information Extraction) e Sistemas Baseados em Conhecimento. Os dados processados são parcialmente estruturados ou não estruturados, sendo manipulados por um extrator configurado a partir de bases de conhecimento geradas pelo usuário do sistema. O objetivo final desta dissertação é a implementação do Sistema de Extração Semântica de Informações, o qual permite a classificação dos dados extraídos em classes significativas para o usuário e a determinação da validade temporal destes dados a partir da geração de uma base de dados estruturada.<br>One of the most challenging area in Computer Science is related to Internet technology. This network offers to the users a large variety and amount of information, mainly, data storage in unstructured or semi-structured formats. However, the vast data volume and heterogeneity transforms the retrieved data manipulation a very arduous work. This problem was the prime motivation of this work. As with many tools for data retrieval and specific searching, the user has to manipulate in his personal computer an increasing amount of information, because these tools do not realize a precise data selection process. Many retrieval data are not interesting for the user. There are, also, a big diversity of subjects and standards in information transmission and storage, creating the most heterogeneous environments in data searching and retrieval. Due to this heterogeneity, the user has to know many data standards and searching tools to obtain the requested information. However, the fundamental problem for data manipulation is the partially or fully unstructured data formats, as text, mail and news data structures. For files in these formats, the user has to read each of the files to filter the relevant information, originating a loss of time, because the document could be not interesting for the user, or if it is interesting, its complete reading may be unnecessary at the moment. Some information as call-for-papers, product prices, economic statistics and others, has associated a temporal validity. Other information are updated periodically. Some of these temporal characteristics are explicit, others are implicitly embedded in other data types. As it is very difficult to retrieve the temporal data automatically, which generate, many times, the use of invalid information, as a result, some opportunities are lost. On this paper a system for extraction and summarizing of data is described. The main objective is to satisfy the user's selection needs and consequently information manipulation stored in a personal computer. To achieve this goal we are employed the concepts of Information Extraction (IE) and Knowledge Based Systems. The input data manipulation is done by an extraction procedure configured by a user who defined knowledge base. The objective of this paper is to develop a System of Semantic Extraction of Information which classifies the data extracted in meaningful classes for the user and to deduce the temporal validity of this data. This goal was achieved by the generation of a structured temporal data base.
APA, Harvard, Vancouver, ISO, and other styles
5

Colombini, Giulio. "Entropic measures in human mobility: the BellaMossa database in Bologna." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/16950/.

Full text
Abstract:
Uno dei campi d'interesse della Fisica dei Sistemi Complessi è lo studio quantitativo della mobilità umana. Lo scopo di questa tesi è lo sviluppo e l'applicazione di un algoritmo per il calcolo di entropie a partire da traiettorie sperimentali, per permettere un approccio al problema tramite la Fisica Statistica. É stato scelto un approccio basato su un algoritmo di compressione lossless di tipo Lempel-Ziv 78, adattato alla stima di entropie. Utilizzando dati dal database BellaMossa 2017, si calcolano le distribuzioni di entropia di traiettorie ciclistiche e pedonali raccolte a Bologna durante l'estate 2017. Il calcolo delle distribuzioni d'entropia viene svolto al variare della durata temporale dei viaggi, e si discute una possibile correlazione con la domanda di mobilità realizzata dai dati registrati.
APA, Harvard, Vancouver, ISO, and other styles
6

Blažukienė, Dovilė. "Maitinimo įstaigos veiklos duomenų analizės sistema." Master's thesis, Lithuanian Academic Libraries Network (LABT), 2009. http://vddb.library.lt/obj/LT-eLABa-0001:E.02~2009~D_20090831_153320-27377.

Full text
Abstract:
Maitinimo įstaigų veikla yra gana specifinė, todėl jų veikloje kylančioms problemoms spręsti reikia specializuotos programinės įrangos. Lietuvoje yra galingų programinių paketų, skirtų stambių maitinimo įmonių verslui kompiuterizuoti. Tačiau smulkios įmonės nepanaudoja visų tokios programinės įrangos galimybių, be to, ji nėra tiksliai pritaikyta tokių įmonių specifiniams poreikiams, tačiau jos kaina yra gana aukšta ir ne visada prieinama smulkioms įmonės. . Taigi šio magistro darbo tikslas - Sukurti specializuotą sistemą, kuri būtų pritaikyta konkrečioms užduotims spręsti, t.y. sukurti smulkios maitinimo įmonės veiklos duomenų analizės IS (informacinę sistemą), maksimaliai panaudojant esamą techninę ir programinę įrangą ir neinvestuojant daugiau materialinių išteklių. . Taikant šiuolaikines technologijas, ji leistų palengvinti maitinimo įmonės vadovaujančiam personalui jų veiklos baro apskaitos, duomenų analizės ir kontrolės funkcijas. Programinės įrangos pagalba darbuotojai galėtų žymiai greičiau ir paprasčiau: 1. vesti kasdieninę maitinimo įmonės produktų bei grynųjų pinigų apyvartos apskaitą; 2. užpildyti reikiamus atskaitomybės dokumentus, 3. paskaičiuoti patiekalų savikainą bei pardavimo kainą; 4. sudaryti ir naudotis receptų aprašų ir produktų normų jiems pagaminti duomenų bazę, 5. gauti ataskaitas apie produktų ir grynųjų pinigų apyvartą per norimą laikotarpį, 6. parengti atskaitomybės dokumentus kontroliuojančioms organizacijoms. Taigi bendras šio darbo tikslas -... [toliau žr. visą tekstą]<br>Catering service is rather specific, that‘s why to solve arising problems special software is needed. In Lithuania there are powerful software packets, assigned to computerize business of big catering enterprises. However, small enterprises don‘t apply such software, besides it isn‘t adapted to specific needs of such enterprises. What is more, the price of it is rather high and not always affordable to small enterprises. Therefore, the aim of this graduation dissertation is to create a specialized system , adopted to solve specific tasks, that is to create data analysis IS (information system) of a small catering enterprise, maximizing the usage of available hardware and software and not investing any more material resources. Applying modern technologies would allow to ease the brief accounting, data analysis and control functions for the leading executives of the enterprise. With the help of the software, workers could more quickly and easily: 1. keep the everyday count of products of the catering facility and cash circulation; 2. fill in the documents of accountability; 3. calculate the base and sale price ; 4. make and use recipe and product norm database; 5. get reports about product and cash circulation during the desirable period; 6. get ready the documents of accountability for supervisory organizations; therefore the general aim of this work is to create work record and analysis software for a catering enterprise.
APA, Harvard, Vancouver, ISO, and other styles
7

Marconi, Fabrizio. "Progettazione e realizzazione di un benchmark di test per il sistema shiatsu." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/5816/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Linari, Alessandro <1977&gt. "Models and techniques for approximate similarity search in large databases." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/398/1/PhD_Alessandro_Linari.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Linari, Alessandro <1977&gt. "Models and techniques for approximate similarity search in large databases." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2007. http://amsdottorato.unibo.it/398/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Dene, Hamado. "Progettazione e implementazione di un sistema di verifica della consistenza dei dati in un database distribuito - HerdDB." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20607/.

Full text
Abstract:
Questa tesi ha come obiettivo di progettare e di un sviluppare un sistema per la verifica della consistenza in un database distribuito. In particolare l'implementazione è stata effettuata sul database openSource HerdDB. Uno degli aspetti fondamentali di un database distribuito è quello della consistenza dei dati, in quanto quest'ultimo deve garantire che i dati siano sempre coerenti in tutti i nodi. Abbiamo studiato quali sono le tecniche maggiornamente utilizzate per la distribuzione dei dati, quali la replicazione e la frammentazione. In particolare abbiamo analizzato più approfondamente il concetto di replicazione e dei problemi legati ad esso. Infine abbiamo implementato un algoritmo su HerdDB che ha la scopo di verificare la coerenza dei dati in tutte le repliche del sistema distribuito.
APA, Harvard, Vancouver, ISO, and other styles
11

Rosati, Bruno. "Gestione delle preferenze nei sistemi informativi." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/10290/.

Full text
Abstract:
Database preferences La tesi passa in rassegna i principali approcci alla formulazione e risoluzione di query su database relazionali con preferenza, di tipo sia qualitativo sia quantitativo. Verranno inoltre studiati gli algoritmi per il calcolo di skyline.
APA, Harvard, Vancouver, ISO, and other styles
12

Kučiukas, Tomas. "Lituanistikos informacinė sistema." Master's thesis, Lithuanian Academic Libraries Network (LABT), 2010. http://vddb.laba.lt/obj/LT-eLABa-0001:E.02~2010~D_20100826_144003-53203.

Full text
Abstract:
Šio darbo tyrimo sritis – programinės įrangos projektavimo metodai, leidžiantys išplėsti egzistuojančias sistemas, ir jų taikymas bibliotekų informacinei sistemai. Tyrimo objektas – mokslo publikacijų, atitinkančių lituanistikos sampratą, bibliografinės duomenų bazės projektavimas ir kūrimas. Darbo tikslas – pagerinti lituanistikos sampratą atitinkančių mokslo publikacijų vertinimo bei sklaidos galimybes, automatizuoti šių publikacijų pateikimo, ekspertavimo bei sklaidos procesus.<br>International social and humanitarian science and abstract bibliographic databases includes the most important and most significant of these documents in scientific fields. Databases developed thematically (eg, MLA International Bibliography, Sociological Abstracts CSA) and / or regional basis (eg, British Humanities Index). Search of international databases are a great tool for quickly and efficiently find information about the world of the studies performed and published scholarly works in the social and humanitarian sciences publications. Lithuanian academic journals and research publications in international databases is increasing in recent years, but in Lithuania the tests and researchers work to develop international databases is only fragmentary. International social and humanitarian sciences databases of lithuanistic ensure the development of Lithuanian scientists work visibility in national and international level and at the same scientists laid down in recognition of excellence. This database should be based on best international social and humanitarian experience of databases.
APA, Harvard, Vancouver, ISO, and other styles
13

Babrauskas, Dainius. "Lengvaatlečio sportininko pasiekimų kaupimo sistema." Bachelor's thesis, Lithuanian Academic Libraries Network (LABT), 2010. http://vddb.laba.lt/obj/LT-eLABa-0001:E.02~2010~D_20100907_094825-10601.

Full text
Abstract:
Darbo tikslas – sukurti lengvosios atletikos klubo informacinę sistemą su sportininko pasiekimų kaupimo sistema. Padaryta sporto klubo naujienos, galerija, rekordų paieškos sistema, sportininkų aprašymai. Kiekvienas sportininkas gali kaupti savo asmeninius rezultatus.<br>Raised objective – create athletics club information system with athlete’s achievement storing system. It is athletics club information system with capability to store athletes results.
APA, Harvard, Vancouver, ISO, and other styles
14

Falconieri, Stefano. "Una applicazione web per l'analisi e la presentazione di dati relativi al mercato immobiliare italiano." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7342/.

Full text
Abstract:
Questa tesi è il risultato dell’attività di sviluppo di una applicazione Web per l’analisi e la presentazione di dati relativi al mercato immobiliare italiano, svolta presso l’azienda responsabile del portale immobiliare all’indirizzo www.affitto.it. L'azienda commissiona lo sviluppo di un sistema software che generi uno storico e descriva l'andamento del mercato immobiliare nazionale. In questa tesi verrà presentato il processo di sviluppo software che ha portato alla realizzazione del prodotto, che è costituito da un applicativo Web-based implementato col supporto di tecnologie quali PHP,HTML,MySQL,CSS.
APA, Harvard, Vancouver, ISO, and other styles
15

Žuklys, Edgaras. "Kompiuterizuota apskaitos sistema, skirta organizacijoms, kurių pagrindinė veikla - transporto paslaugos bei darbai." Master's thesis, Lithuanian Academic Libraries Network (LABT), 2004. http://vddb.library.lt/obj/LT-eLABa-0001:E.02~2004~D_20040920_021713-60392.

Full text
Abstract:
The purpose of this work lies in modeling, designing and development of the computer supported work place, adjusting for stocktaking of any kind of transport. The software intended for express and other companies. In this work the computer supported work place is created where the users can create and modify data in a database all over the local area network. Under the influence of implementing of functionality, user can easily get useful and straight information. By using this software, the managers can effectively schedule the resources of technical, human and material.
APA, Harvard, Vancouver, ISO, and other styles
16

Bartolucci, Filippo. "Sviluppo di un sistema di ricerca per AI4EU." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23033/.

Full text
Abstract:
L’utilizzo di tecnologie basate su intelligenza artificiale crea nuove opportunità e questo ha portato a una grande crescita della domanda per questo tipo di applicazioni. AI4EU è un consorzio nato con lo scopo di creare la prima piattaforma europea on-demand dedicata all’intelligenza artificiale. La piattaforma è giovane, ma in crescita. A supportarla c’è il contributo di università ed enti europei e questo progetto di tesi si inserisce in questo contesto. Il catalogo di risorse offerto è vasto e include progetti di vario tipo, ma non ha un sistema che permetta di ricercarli. L’unico modo per conoscere queste risorse è scorrere il lungo elenco in cui sono raccolte. Questo è un ostacolo per la scoperta di questi strumenti da parte di quegli utenti-consumatori che hanno bisogno di soluzione per loro problemi e conoscono poco questo mondo. L’obiettivo di questa tesi è provare a sviluppare un sistema di ricerca che permetta ad un utente qualsiasi di navigare il catalogo AI4EU e trovare quello che riesce meglio a soddisfare le sue richieste. Faremo ciò in più passaggi. Per prima cosa dovremo raccogliere tutti i dati delle risorse disponibili, poi ci occuperemo della trasformazione di questi dati in un formato utile al nostro scopo, insieme al decidere come conservare e strutturare ricerche su di essi. Infine, valuteremo delle possibili soluzioni per il problema della scoperta e ricerca degli elementi del catalogo, presentando dei prototipi utili a testare tali soluzioni sull’audience target.
APA, Harvard, Vancouver, ISO, and other styles
17

Bacolini, Raffaele. "Sistema per la gestione di basi di dati relazionali da XML." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2010. http://amslaurea.unibo.it/1206/.

Full text
Abstract:
Nello sviluppo di sistemi informatici si sono affermate numerose tecnologie, che vanno utilizzate in modo combinato e, possibilmente sinergico. Da una parte, i sistemi di gestione di basi di dati relazionali consentono una gestione efficiente ed efficace di dati persistenti, condivisi e transazionali. Dall'altra, gli strumenti e i metodi orientati agli oggetti (linguaggi di programmazione, ma anche metodologie di analisi e progettazione) consentono uno sviluppo efficace della logica applicativa delle applicazioni. E’ utile in questo contesto spiegare che cosa s'intende per sistema informativo e sistema informatico. Sistema informativo: L'insieme di persone, risorse tecnologiche, procedure aziendali il cui compito è quello di produrre e conservare le informazioni che servono per operare nell'impresa e gestirla. Sistema informatico: L'insieme degli strumenti informatici utilizzati per il trattamento automatico delle informazioni, al fine di agevolare le funzioni del sistema informativo. Ovvero, il sistema informatico raccoglie, elabora, archivia, scambia informazione mediante l'uso delle tecnologie proprie dell'Informazione e della Comunicazione (ICT): calcolatori, periferiche, mezzi di comunicazione, programmi. Il sistema informatico è quindi un componente del sistema informativo. Le informazioni ottenute dall'elaborazione dei dati devono essere salvate da qualche parte, in modo tale da durare nel tempo dopo l'elaborazione. Per realizzare questo scopo viene in aiuto l'informatica. I dati sono materiale informativo grezzo, non (ancora) elaborato da chi lo riceve, e possono essere scoperti, ricercati, raccolti e prodotti. Sono la materia prima che abbiamo a disposizione o produciamo per costruire i nostri processi comunicativi. L'insieme dei dati è il tesoro di un'azienda e ne rappresenta la storia evolutiva. All'inizio di questa introduzione è stato accennato che nello sviluppo dei sistemi informatici si sono affermate diverse tecnologie e che, in particolare, l'uso di sistemi di gestione di basi di dati relazionali comporta una gestione efficace ed efficiente di dati persistenti. Per persistenza di dati in informatica si intende la caratteristica dei dati di sopravvivere all'esecuzione del programma che li ha creati. Se non fosse cosi, i dati verrebbero salvati solo in memoria RAM e sarebbero persi allo spegnimento del computer. Nella programmazione informatica, per persistenza si intende la possibilità di far sopravvivere strutture dati all'esecuzione di un programma singolo. Occorre il salvataggio in un dispositivo di memorizzazione non volatile, come per esempio su un file system o su un database. In questa tesi si è sviluppato un sistema che è in grado di gestire una base di dati gerarchica o relazionale consentendo l'importazione di dati descritti da una grammatica DTD. Nel capitolo 1 si vedranno più in dettaglio cosa di intende per Sistema Informativo, modello client-server e sicurezza dei dati. Nel capitolo 2 parleremo del linguaggio di programmazione Java, dei database e dei file XML. Nel capitolo 3 descriveremo un linguaggio di analisi e modellazione UML con esplicito riferimento al progetto sviluppato. Nel capitolo 4 descriveremo il progetto che è stato implementato e le tecnologie e tools utilizzati.
APA, Harvard, Vancouver, ISO, and other styles
18

Boretti, Gabriele. "Sistemi cloud per l'analisi di big data: BigQuery, la soluzione proposta da Google." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/18613/.

Full text
Abstract:
Lo scopo della tesi è̀ quello di analizzare il servizio BigQuery di Google Cloud, strumento utilizzato per l’archiviazione, l’analisi e il monitoring di grandi database. Per fare ciò̀ vengono prima descritte le componenti che lo circondano, offrendo una panoramica completa sul Cloud Computing, partendo dai requisiti minimi per il suo funzionamento, come Internet, fino ad arrivare ai più complessi utilizzi di quest’ultimo, come le intelligenze artificiali. Viene fornito un quadro di riferimento sullo sviluppo e utilizzo dei Big Data, per porre così le basi per una migliore comprensione di quello che verrà di seguito approfondito. Tutta la tesi è genericamente improntata in ambito biomedico. Gli argomenti affrontati sono tutti ricollegabili all’ambito sanitario, a partire dalle fondamenta della tesi riguardo Internet, collegato con l’Internet of Things (IoT) e con la Telemedicina, dei quali viene mostrato lo stretto collegamento con il Cloud Computing. Anche l’utilizzo delle intelligenze artificiali verrà affrontato in ambito clinico, vedendo i vari utilizzi e vantaggi, fino ad arrivare all’argomento dei data set di carattere medico. La tesi quindi analizza le varie possibilità offerte dall’analisi di dati e per quanto riguarda l’ambito sanitario affronta inevitabilmente l’argomento della privacy e della sicurezza. A questo punto si viene a chiudere il ciclo Internet-Database-Cloud con BigQuery. Dopo una generica descrizione degli altri servizi di offerti dal Google Cloud, necessaria per comprendere come BigQuery possa integrarsi con questi ultimi, la tesi si addentra nell’analisi del suo funzionamento. Viene fornita una descrizione della struttura e dei metodi di analisi disponibili, riportando inoltre alcuni casi d’uso, citando vari articoli e fonti. L’ultima parte della tesi fornisce i risultati derivati dalla sperimentazione dello strumento su diversi dataset, sia contenti dati clinici, che forniti da Google.
APA, Harvard, Vancouver, ISO, and other styles
19

Kulieša, Remigijus. "Kompiuterinės ir biuro technikos apskaitos sistema." Master's thesis, Lithuanian Academic Libraries Network (LABT), 2006. http://vddb.library.lt/obj/LT-eLABa-0001:E.02~2006~D_20060108_203343-52160.

Full text
Abstract:
The information system created performs the following functions: standardizes the process of failure registration and management; allows monitoring and receiving information in different sections adapted for certain groups; provides opportunity to evaluate the existing situation of provision with equipment and plan future investments within time scale; allows service of a whole group of users in one time. The information system has been created by using open source software – which enables to avoid additional investments.
APA, Harvard, Vancouver, ISO, and other styles
20

COCCA, Enzo. "Il GIS nell’ambito di sistemi innovativi per la gestione del dato archeologico. Sviluppo e implementazione di un sistema gestionale e analitico con strumenti open source di banche dati archeologiche. Caso studio Grotta di Fumane." Doctoral thesis, Università degli studi di Ferrara, 2015. http://hdl.handle.net/11392/2389090.

Full text
Abstract:
In this project was been created and implemented an archaeological GIS system, called PyArchInit, which allows to manage and organize data in one geodatabase with open source software (Mandolesi, Cocca 2013). Therefore the data organized, classified and themed allow quick management of archaeological data. These data analyzed and processed are made accessible through a system that allows webGIS sharing and publishing. The research is subdivided into two parts. The first part of research concerns the informatics aspect and this implements the second part of research: the archaeological aspect. The informatics aspect allow the management and communication of archaeological data. The second line of research, which concerns the archaeological aspect, takes as a case study the Grotta of Fumane. The first chapters of this work introduce the archaeoinformatics concept. Starting history of the studies in this area, through the role of information technology in archeology and motivating because make "open source" system adopted. These assumptions are necessary to understand the purpose of this research, especially in a time when technological development is strongly active. Probably at the end of this work, the system will be made subject to new technical changes that will lead to further changes and improvements in treatment, acquisition, management and analysis of data. The second part of this work instead describes the entire physical structure of PyArchInit. It then goes on to analyze the case study with the various issues from the point of view that statistics on stratigraphic elements analyzed. Finally it is important to stress that the statistical analysis and geostatistical performed experiments are considered from the point of view from both the informatics aspect and methodological/archaeological point of view, where the results are used to a greater understanding of the data and of the site that you analyze and also as a kit of basic documentation. These experiments are constantly changing in order to seek the best methodology to be adopted.
APA, Harvard, Vancouver, ISO, and other styles
21

Slavica, Aleksić. "Metode transformacija šema baza podataka u obezbeđenju reinženjeringa informacionih sistema." Phd thesis, Univerzitet u Novom Sadu, Fakultet tehničkih nauka u Novom Sadu, 2013. http://www.cris.uns.ac.rs/record.jsf?recordId=85599&source=NDLTD&language=en.

Full text
Abstract:
Cilj istraživanja realizovanih u ovom radu, bio je je da se formalno opišu mogući pristupi transformacijama različitih opisa baza podataka iz jednog modela podataka u drugi i praktično provere kroz njihovu implementaciju u okviru jednog CASE alata, namenjenog projektovanju informacionih sistema i baza podataka. U skladu sa postavljenim ciljem definisan je metodološki pristup i softversko okruženje IIS*Ree koje omogućava visok nivo automatizacije procesa reinženjeringa informacionih sistema. Okruženje IIS*Ree, zasnovano na MDSD principima, kao krajnji rezultat generiše šemu baze podataka u izabranom ciljnom, konceptualnom ili implementacionom modelu podataka, kao i prototip aplikacije.<br>The goal of the research presented in this paper is to formally specify approaches to transformation of database specifications between different data models. The transformations are then to be implemented and tested using a CASE tool for modelling information systems and databases. Following this goal, a methodological approach is defined together with a software named IIS*Ree that provides a high level of automation of the information system reengineering process. The IIS*Ree software, developed in accordance to MDSD principles, generates database schemas specified in a target, conceptual or implementation data model, as well as application prototypes.
APA, Harvard, Vancouver, ISO, and other styles
22

Šeirys, Tomas. "REST architektūra paremta MySQL duomenų bazių valdymo sistema." Bachelor's thesis, Lithuanian Academic Libraries Network (LABT), 2014. http://vddb.library.lt/obj/LT-eLABa-0001:E.02~2014~D_20140716_111456-56732.

Full text
Abstract:
Sukurti MySQL duomenų bazių valdymo sistemos duomenų bazių duomenų valdymo sistemą, kuri duomenų perdavimui naudotų REST architektūros principus. REST architektūra gali būti naudojama padidinti įvairių sistemų integravimo galimybes, nes suteikia patogiai prieinamą sąsają prie sistemos funkcionalumo ir duomenų. Tad sukūrus sistemą MySQL DBVS valdymui REST architektūros pagalba, būtų galima kurti sistemas, kurios naudojasi kitų tiekėjų duomenimis.<br>REST architecture allows easier collaboration between two systems, as provided an easy way to call necessary functions in remote system and to get desired results. Such systems as Amazon, eBay, Twitter have their own API with support of REST architecture. However the REST architecture is not provided by default in MySQL, therefore additional tools have to be used. The purpose of this work is to design and implement a system, which could be used as a database management tool in REST architecture. Therefore in this thesis a requirement and architecture specifications are provided for such a system. The implemented system is tested and install and configuration manuals are provided.
APA, Harvard, Vancouver, ISO, and other styles
23

Castilho, Priscilla Bessa. "A utilização do sistema nacional de informação da educação profissional e tecnológica (SISTEC) como dispositivo governamental para a formulação de políticas públicas de ensino profissionalizante." Universidade Federal de Juiz de Fora, 2013. https://repositorio.ufjf.br/jspui/handle/ufjf/942.

Full text
Abstract:
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-03-03T17:24:44Z No. of bitstreams: 1 priscillabessacastilho.pdf: 1960767 bytes, checksum: ae964821685324f0cd66b2617d29b55a (MD5)<br>Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-04-24T01:47:36Z (GMT) No. of bitstreams: 1 priscillabessacastilho.pdf: 1960767 bytes, checksum: ae964821685324f0cd66b2617d29b55a (MD5)<br>Made available in DSpace on 2016-04-24T01:47:36Z (GMT). No. of bitstreams: 1 priscillabessacastilho.pdf: 1960767 bytes, checksum: ae964821685324f0cd66b2617d29b55a (MD5) Previous issue date: 2013-08-14<br>O Sistema Nacional de Informação da Educação Profissional e Tecnológica - SISTEC é o primeiro sistema informatizado federal de banco de dados da educação profissional que permite a geração de diversos indicadores educacionais neste segmento. Esses indicadores tem se tornado cada vez mais uma importante ferramenta para a construção de políticas públicas seja no âmbito municipal, estadual ou federal. Entretanto, seja por falta de conhecimento ou inacessibilidade dos dados, muitos atores deixam de produzir excelentes materiais de estudo e pesquisa com base nos indicadores bem como deixam de formular políticas públicas para o desenvolvimento da educação profissional. Considerando a importância desses indicadores nas atividades relacionadas à gestão e formulação de políticas públicas, realizou-se uma pesquisa qualitativa com o intuito de analisar como os Órgãos Validadores enxergam a importância destes indicadores, se utilizam esta base de dados e, ainda, verificar se o sistema está contribuindo para o desenvolvimento da educação profissional no que se refere à elaboração de políticas voltadas ao ensino profissionalizante. Com base nos resultados levantados pela pesquisa, verificou-se a necessidade de se propor um Plano de Ação Educacional - PAE visando à melhoria no processo de formulação e gerenciamento dos dados disponibilizados pelo SISTEC.<br>The National Information System of Professional and Technological Education - SISTEC is the first federal computerized database of professional education that allows the generation of many educational indicators in this segment. These indicators have become an increasingly important tool for building political policies at the municipal, state or federal scope. However, either for lack of knowledge or inaccessibility of data, many actors fail to produce excellent material for study and research based on the indicators and fail to formulate policies for the development of vocational education. Considering the importance of these indicators in the activities related to the management and policy-making, there was a qualitative study aiming to investigate how Organs Validators sighted the importance of these indicators, if this database used and also check if the system is contributing to the development of vocational education in relation to policies aiming at vocational. Based on the results collected by the survey, there were the need to propose an Action Plan Educational - PAE in order to improve the formulation and management of the data provided by SISTEC.
APA, Harvard, Vancouver, ISO, and other styles
24

Canti, Michael. "Analisi di un Sistema di Stoccaggio. L’attività di Customer Service. Il caso Due Torri S.p.A." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Find full text
Abstract:
Si è analizzato un sistema di stoccaggio rivolgendo l'attenzione all'attività del Customer Service. Dopo il primo periodo di raccolta dati è stato popolato un database che rappresentasse al meglio la realtà osservata. Il database ci ha permesso, attraverso la manipolazione dei dati, di calcolare delle statistiche circa gli eventi più significativi in termini di tempo.
APA, Harvard, Vancouver, ISO, and other styles
25

Grasso, Nicolò. "Eat@ Gestione ristoranti e catering con sistema d'asta tramite un servizio REST e client Android." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/12355/.

Full text
Abstract:
La tesi tratta la messa in opera di Eat@, un sistema per la gestione di ristoranti e dei loro pasti sottoposti ad asta al ribasso. Vengono discussi lo stato dell'arte dell'ambito delle aste e degli strumenti utilizzati, l'architettura del server che implementa le funzionalità di Eat@, l'implementazione del server stesso, le due App Android che costituiscono la parte client, le sue prestazioni sotto carico e in confronto a servizi similari, e un'estensione di tutto il sistema tramite database distribuiti.
APA, Harvard, Vancouver, ISO, and other styles
26

Freire, Henrique Jota de Paula. "Proposta de um sistema de banco de dados para tomografia por ressonância magnética nuclear." Universidade de São Paulo, 1997. http://www.teses.usp.br/teses/disponiveis/76/76132/tde-15032007-102153/.

Full text
Abstract:
Este trabalho é uma proposta e uma implementação de um sistema de banco de dados para ser utilizado no armazenamento e gerenciamento dos dados resultantes da operação de tomógrafos de ressonância magnética nuclear. O objetivo é obter tecnologia na área de sistemas de arquivamento e comunicação de imagens médicas. O trabalho insere-se em um esforço maior do grupo de ressonância do IFSC/USP-São Carlos na pesquisa e desenvolvimento de tecnologias na área de imagens por ressônancia magnética. A motivação para a utilização de sistemas digitais de bancos de dados para o armazenamento e gerenciamento de imagens médicas é o crescente aumento do volume gerado deste tipo de imagem nas instalações médicas. Quando comparado com o sistema de armazenamento tradicional, baseado em filmes, os sistemas digitais prometem ser mais seguros, eficientes e eficazes, além de proporcionar novas possibilidades na área de diagnóstico médico. Os principais resultados do trabalho são um modelo de dados conceitual elaborado com o modelo Entidade-relacionamento Estendido; um modelo de implementação relacional; e um sistema de banco de dados desenvolvido para uma plataforma computacional baseada em microcomputador e sistema operacional da família Windows. A metodologia utilizada no desenvolvimento do trabalho é baseada em conceitos básicos da disciplina de engenharia de programação. O sistema de banco de dados foi desenvolvido utilizando um sistema de gerenciamento de banco de dados comercial, o Microsoft Acess Versão 2.0. O trabalho também apresenta o padrão industrial DICOM 3,0 e destaca as partes que são específicas para a modalidade de imagens médicas por ressonância magnética e que foram implementadas neste trabalho.<br>This work is a proposal and an implementation of a database system for archiving and management of data related to the operation of magnetic resonance imaging systems. The objective is to acquire technology in the area of medical image archiving and communication systems. This work is part of a broader effort of the IFSC/USP-São Carlos magnetic resonance group in the research and development of technologies in the area of magnetic resonance imaging. The reason for using digital database systems to archive and manage medical images is the growing volume of this kind of images in medical institutions. When compared to the traditional film based archiving systems, digital systems claim to be more secure, efficient and effective, besides giving place to new possibilities in medical diagnoses. The main results of this work are: a conceptual data model built with the Enhanced Entity-relationship model; a relational implementation model; and a database system to run in a PC-Windows computational platform and operational system. The methodology used throughout the development of this work is based on some basic concepts of the software engineering discipline. The database system was developed using a commercial database management system, the Microsoft® Access® Version 2.0. This work also presents the industrial standard DICOM 3.0 and highlights those parts that are specific for the magnetic resonance imaging modality and were implemented in this work.
APA, Harvard, Vancouver, ISO, and other styles
27

Krugiškis, Mantas. "Ryšių su klientais valdymo sistema metaduomenų pagrindu." Master's thesis, Lithuanian Academic Libraries Network (LABT), 2008. http://vddb.library.lt/obj/LT-eLABa-0001:E.02~2008~D_20080128_134758-89163.

Full text
Abstract:
Pagrindinis projekto tikslas – sukurti informacinę sistemą, paremtą metaduomenų lygiu, nes išanalizavus esamų portalų rinką Lietuvoje buvo pastebėta, kad šie portalai neturi tam tikrų funkcionalumo galimybių: sudėtingas portalo valdymas bei duomenų įkėlimas į portalus, sunkus ir brangus perprojektavimas, lėtas veikimas, didelės eksploatacinės išlaidos. Buvo suprojektuota loginė portalo architektūra, sistemos elgsenos modelis (naudojantis sekų diagramomis), reliacinės duomenų bazės schema, sistemos testavimo modelis ir metabazės lygis. Ištestuotas sistemos modelis, paruošta vartotojo instrukcija. Šis portalas „Būsto portalas“ leidžia lengviau keisti duomenų struktūrą ir ją praplėsti, patogiau įkelti naują informaciją, lengviau keisti vartotojo galimybes bei pačiam vartotojui naudotis portalu. Dėka metabazės lygio greičiau pasiekiami duomenys. Portalo administratoriui lengviau ir paprasčiau perprojektuoti visą portalą kitam tikslui (pasikeitus portalo informacijos sričiai). Esant paprastai turinio valdymo sistemai – lengviau neįgudusiam administratoriui prižiūrėti portalą, nes atskirta portalo veikimo logika nuo naudojamų duomenų.<br>The main goal of this project is to create an informative system based on metadata level due to the research done on existing sites in Lithuania, which has shown that those sites don‘t have some functional possibilities: they are difficult to manage, loading data is complicated, redesigning is expensive and hard, slow operation, high financial maintenance. Logical site architecture has been designed as well as the model of system behaviour (using diagrams of sequences), scheme of relative data base, model of system testing and meta-base level. System model has been tested, maintenance and user‘s instruction documents have been prepared, any logical and other mistakes have been corrected. This site ‚The dwelling site‘lets easily change the structure of data and widen it, it has become more convenient to change user‘s possibilities and load new data and use the site itself. The data is quicker to reach because of the metadata level. It is also easier for site administrator to redesign the whole site for the different purpose when the range of information changes. When managing of content is easy to maintain it is also easier for a less experienced administrator to look after the site, because the logic of site operation is separated from data being used.
APA, Harvard, Vancouver, ISO, and other styles
28

Ivan, Luković. "Integracija šema modula baze podataka informacionog sistema." Phd thesis, Univerzitet u Novom Sadu, Fakultet tehničkih nauka u Novom Sadu, 1996. http://dx.doi.org/10.2298/NS1996LUKOVICIVAN.

Full text
Abstract:
Paralelan i nezavisan rad vi&scaron;e projektanata na različitim modulima (podsistemima) nekog informacionog sistema, identifikovanim saglasno početnoj funkcionalnoj dekompoziciji realnog sistema, nužno dovodi do međusobno nekonzistentnih re&scaron;enja &scaron;ema modula baze podataka. Rad se bavi pitanjima identifikacije i razre&scaron;avanja problema, vezanih za automatsko otkrivanje kolizija, koje nastaju pri paralelnom projektovanju različitih &scaron;ema modula i problema vezanih za integraciju &scaron;ema modula u jedinstvenu &scaron;emu baze podataka informacionog sistema.Identifikovani su mogući tipovi kolizija &scaron;ema modula, formulisan je i dokazan potreban i dovoljan uslov stroge i intenzionalne kompatibilnosti &scaron;ema modula, &scaron;to je omogućilo da se, u formi algoritama, prikažu postupci za ispitivanje&nbsp;stroge i intenzionalne kompatibilnosti &scaron;ema modula. Formalizovan je i postupak integracije kompatibilnih &scaron;ema u jedinstvenu (strogo pokrivajuću) &scaron;emu baze podataka. Dat je, takođe, prikaz metodologije primene algoritama za testiranje kompatibilnosti i integraciju &scaron;ema modula u jedinstvenu &scaron;emu baze podataka informacionog sistema.<br>Parallel and independent work of a number of designers on different information system modules (i.e. subsystems), identified by the initial real system functional decomposition, necessarily leads to mutually inconsistent database (db) module schemas. The thesis considers the problems concerning automatic detection of collisions, that can appear during the simultaneous design of different db module schemas, and integration of db module schemas into the unique information system db schema.All possible types of db module schema collisions have been identified. Necessary and sufficient condition of strong and intensional db module schema compatibility has been formu-lated and proved. It has enabled to formalize the process of&nbsp;db module schema strong and intensional compatibility checking and to construct the appropriate algorithms. The integration process of the unique (strong covering) db schema, on the basis of compatible db module schemas, is formalized, as well. The methodology of applying the algorithms for compatibility checking and unique db schema integration is also presented.
APA, Harvard, Vancouver, ISO, and other styles
29

Mormone, Giovanni. "Sistemi NoSQL:motivazioni, tecnologie e possibili impieghi." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/15724/.

Full text
Abstract:
Per oltre quarant'anni il modello relazionale è stato il punto di riferimento per la gestione dei dati all'interno dei sistemi informatici. Con lo sviluppo di internet ed il successivo avvento del web 2.0, è cresciuta esponenzialmente la necessità di gestire grandi moli di dati in rete, in un ambiente dinamico ed in cui ogni utente diventa, oltre che fruitore, anche generatore di contenuti. Le richieste di flessibilità e indipendenza dagli schemi, favorite dalla mancanza di struttura e coerenza dei dati generati in rete hanno messo a nudo le difficoltà, che saranno approfondite nel corso di questo elaborato, dei sistemi relazionali ad adattarsi alle moderne applicazioni distribuite in cui è necessario garantire una grande disponibilità del sistema per permettere l'accesso ai dati a milioni di utenti. Per venire incontro a queste richieste sono nati i DBMS NoSQL, che si offrono come alternativa ai classici sistemi relazionali e tentano di risolvere problemi quali disponibilità e partizionamento dei dati in rete sfruttando a pieno l'avanzamento tecnologico che stiamo sperimentando negli ultimi anni, che ha ridotto notevolmente i costi di gestione e produzione di hardware ed ha incrementato esponenzialmente le capacità di calcolo da parte delle macchine riducendone i costi di produzione e sviluppo. Nel corso di questo elaborato saranno analizzate le varie tipologie di DBMS NoSQL disponibili al momento, esaminandone caratteristiche e possibili scenari di utilizzo e presentando i concetti fondamentali dell'approccio non relazionale alla gestione dei dati.
APA, Harvard, Vancouver, ISO, and other styles
30

Shibata, Henrique Yanaguibashi. "SISTEMA GERENCIADOR DE INFORMAÇÕES PARA A SÍNTESE DE NANOTUBOS DE CARBONO." Universidade Franciscana, 2011. http://tede.universidadefranciscana.edu.br:8080/handle/UFN-BDTD/262.

Full text
Abstract:
Made available in DSpace on 2018-06-27T18:56:14Z (GMT). No. of bitstreams: 3 Henrique Yanaguibashi Shibata.pdf: 2539306 bytes, checksum: 875b8a3828671047df2a2eb2be28e2de (MD5) Henrique Yanaguibashi Shibata.pdf.txt: 99379 bytes, checksum: c69a9dd7dd24ed8a49fd0b854f09c056 (MD5) Henrique Yanaguibashi Shibata.pdf.jpg: 3367 bytes, checksum: 5171aa072f85b55a0606ef9bab9fa090 (MD5) Previous issue date: 2011-08-19<br>Coordenação de Aperfeiçoamento de Pessoal de Nível Superior<br>The nanotecnology is an area with high growth in research, which covers many areas of knowledge and works with nanometers scale structures (10-9m). The applications are so diverse like the cure of diseases, resistant materials, computer processors and others one. Carbon nanotubes (CNT) are on eminence in this area and have been explored in researches due to their physical, chemical, magnetic and mechanical properties. These properties make possible a large numbers of applications in health, material, computer, electronic and technology fields. Because of it, the synthesis of CNT took an extreme importance. The main methods of production of CNT are: arc discharge, laser ablation and chemical deposition methods (CVD). The objectives of this paper were to build a database of CVD&#8223;s synthesis parameters and the implementation and customization of web pages using a CMS (Content Management System) tool to show and collect information by web. This work presents an interdisciplinary character for the interaction between the computer, materials and chemistry fields. The quality of CNT synthesizes depends on parameters like catalyst, hydrocarbon, growth temperature, time of synthesis and inert atmosphere. The portal would help to access in orderly manner to the information, providing researches or people, which are interest in this subject, to start future studies about the production of this nanomaterial.<br>A nanotecnologia é uma área com alto crescimento em pesquisas, abrangendo diversas áreas do conhecimento e que trabalha com estruturas em escalas nanométricas (10-9m). As suas aplicações são as mais diversas como na cura de doenças, em materiais mais resistentes, processadores de computadores, entre outras. Uma das estruturas nanométricas com destaque são os nanotubos de carbono (NTC), devido as suas propriedades físicas, químicas, magnéticas e mecânicas. Essas propriedades possibilitam um grande número de aplicações nas áreas da saúde, dos materiais, da computação, da eletrônica e da tecnológica. Dentre os principais métodos de produção de NTC destacam-se: o método de descarga por arco, a ablação a laser e a deposição química a vapor (CVD). O objetivo desse trabalho foi à construção de um banco de dados com os parâmetros utilizados pelo método CVD, e a implementação e customização de um portal, utilizando uma ferramenta CMS (Content Management System), para divulgar e reunir essas informações via web. Este estudo apresenta caráter interdisciplinar, pela interação entre as áreas de computação, de materiais e da química. A qualidade dos NTC formados depende de parâmetros como catalisador, fonte de carbono, temperatura, tempo de síntese e atmosfera inerte. Tendo acesso, de uma forma ordenada, a essas informações, pesquisadores ou interessados no assunto poderão utilizar o portal, como ponto de partida, em futuras pesquisas para a produção deste nanomaterial.
APA, Harvard, Vancouver, ISO, and other styles
31

Ferioli, Luca. "Analisi ed ottimizzazione del sistema di movimentazione merci in un impianto industriale. Il caso Magni Telescopic Handlers." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/19805/.

Full text
Abstract:
Lo scopo principale di questa tesi svolta presso l’azienda Magni è stato quello di analizzare il sistema di movimentazione, che oggi si basa sui carrelli a forche, e cercare un nuovo handling system che fosse in grado di migliorare le prestazioni e diminuire i tempi di asservimento della linea. Questa necessità è dovuta all’imminente apertura di un nuovo capannone produttivo che a causa delle sue dimensioni non potrà essere gestito con dei carrelli a forche. Per raggiungere questo obiettivo si è partiti analizzando l'attuale stabilimento, con particolare attenzione ai magazzini e al flusso di materiali all'interno dell'azienda. Dopo aver valutato il sistema di approvvigionamento della linea, sono state fatte delle prove in cui si sono osservati i vantaggi relativi all'introduzione nuovo mezzo, chiamato liftrunner, che permette una riduzione dei tempi e una diminuzione dei flussi. Dimostrate le potenzialità, si sono studiate le varie attività necessarie all’introduzione di questo nuovo mezzo, come l’acquisto di alcune attrezzature e l’analisi dei materiali non compatibili, che andranno standardizzati. Attraverso un modello basata su calcoli statici ed una simulazione dinamica in cui è stato utilizzato il programma Automod, si è valutato il numero e la configurazione ottimale di liftrunner che saranno necessari per l’asservimento della linea di assemblaggio nel nuovo stabilimento. Oltre allo studio del sistema di movimentazione, si sono svolti due lavori con l’obiettivo di migliorare la gestione logistica del sistema produttivo. Il primo progetto riguarda la creazione di un database che unisce le esigenze di vari uffici, riducendo i tempi di consultazione, in particolare per i responsabili del bilanciamento della linea e della logistica. Il secondo studio si è concentrato sull’ottimizzazione del magazzino kanban, che presentava disallineamenti e sovradimensionamenti delle cassette.
APA, Harvard, Vancouver, ISO, and other styles
32

Scarlino, Alberto. "Un sistema location-based per la mappatura degli Access Point su Android." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7902/.

Full text
Abstract:
un' applicazione in grado di memorizzare e mappare tutti i punti dove è possibile collegarsi, in modo gratuito, ad internet usando il nostro Smartphone. Per tenere traccia di questi punti si utilizza un meccanismo in grado di determinare la posizione geografica del dispositivo mediante il quale l’utente si connette alla rete. Inoltre è possibile la condivisione di tutti i punti registrati su un database online per rendere pubbliche le proprie registrazioni.
APA, Harvard, Vancouver, ISO, and other styles
33

Marrone, Davide. "Implementazione di un sistema di sincronizzazione dati sicuro per dispositivi portatili." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Find full text
Abstract:
Il progetto prevede l'implementazione di un sistema di sincronizzazione dati per il database di un'applicazione gestionale in cui si vuole introdurre la possibilità di utilizzare dispositivi portatili. Questi dispositivi consentiranno l'utilizzo dell'applicazione da qualunque luogo, e le modifiche effettuate dagli utenti dovranno essere sincronizzate con il server centrale. Alcuni dei punti fondamentali sono la sicurezza nella trasmissione dei dati e il tracciamento dei singoli utenti che utilizzano l'applicazione.
APA, Harvard, Vancouver, ISO, and other styles
34

Netto, Diogo dos Santos. "Development of a database for classification and analysis of type IV secretion systems." Laboratório Nacional de Computação Científica, 2008. http://www.lncc.br/tdmc/tde_busca/arquivo.php?codArquivo=198.

Full text
Abstract:
The type IV secretion system can be classified as a large family of macromolecule transporters divided in three recognized sub-families involved in different bacterial functions. The major sub-family of T4SS is the conjugation system, which allows transfer of genetic material as a nucleoprotein via cell contact among bacteria. Analogously to bacterial conjugation, the T4SS can transfer genetic material from bacteria to eukaryotic cells; such is the case of T-DNA transfer of Agrobacterium tumefaciens to host plant cells. The system of effector proteins transport constitutes the second sub-family, being indispensable for infection processes of several mammalian and plants pathogens. The third sub-family corresponds to the DNA uptake/release system involved in genetic transformation competence, independently of cell contact, as it was described to the systems VirB/D4 from Campylobacter jejuni and ComB form Helicobacter pylori. Several essential features of T4SS are well known, but the knowledge in support of an uncomplicated classification or proper protein annotation of system subunits remains confusing, which in same cases can avoid making inferences about evolution of the system in bacterial species. The purpose of this work was to organize, classify and integrate the knowledge about T4SS through building a database devoted to this bacterial secretion system. The T4SS database was created using the SGBD MySQL and Perl programming language and with a web interface (HTML/CGI) that gives access to the database. Currently, this database hold genomic data from 43 bacteria and 10 plasmids acquired from the GenBank NCBI, these organisms comprise groups from Actionobacteria to Gram-negative Proteobacteria including symbiotic and pathogenic bacteria. By applying Bidirectional Best-Hits method was possible to get a core set of 75 clusters with 974 proteins involved in the T4SS. Also, during this procedure BlastP, Muscle e ClustalW algorithms were applied. The database was manually annotated supported by cross references built-in the T4SS annotation pages, such as the UniProtKB/Swiss-Prot, COG, InterPro and TCDB as well as by the methods for signal peptide and transmembrane regions prediction. All T4SS protein records scattered into 75 ortholog clusters were organized into five different classes of type IV secretion system proteins: (i) Type IVA Mpf/T4CP; (ii) Type IVA Dtr; (iii) F-type plasmid; (iv) IncP-1-type plasmid; (v) Type IVB Icm/Dot. All 974 proteins were annotated into 68 well-known families, which can be involved in conjugation, effector translocator, DNA uptake/release or even can be bifunctional proteins. Also, by using the Maximum Likelihood method were built 70 unrooted phylogenetic trees that represents just 70 clusters instead of 75, this is due to five clusters had only two protein sequences, five unrooted phylogenetic trees were built for each group of first hierarchical classification, one unrooted phylogenetic trees including proteins from archetype systems of all groups, one unrooted phylogenetic trees from 16S sequence of each organism and one rooted tree including a sequence from a Gram-positive bacteria as an external group. The phylogenetic analyses show that some proteins of T4SS are more divergent than others, which indicate that for a particular function few sequence mutations were needed, but other proteins required many sequence mutations to get another functions. Thus, these results proved that proteins belong to the same cluster show different functions: conjugation, DNA uptake/release or effector translocator. Consequently, it was possible verify that similar functions were grouped together within phylogenetic tree, which allowed to annotate a probable function of some uncharacterized proteins, that is possibly due to the sequence similarity may reveal a similar evolution to get the same function. Thus, the phylogenetic trees allowed confirming the protein annotation as well as inferring whether uncharacterized proteins would encompass a known function. The T4SS database will be an open access, given to the users searching and submission sequence tools, which will permit to get insights about classification and phylogeny of T4SS sequence of interest. T4SS Database is accessible at the URL http://www.t4ss.lncc.br.<br>O T4SS pode ser classificado como uma família de transportadores de macromoléculas envolvidos em diferentes funções bacterianas. A maior subfamília do T4SS é a do sistema de conjugação, o qual permite a transferência de material genético entre bactérias. Analogamente à conjugação, o sistema pode transferir material genético entre bactérias e eucariotos, tal como a transferência de T-DNA de Agrobacterium tumefaciens. O sistema de transporte de proteínas efetoras constitui uma segunda subfamília do T4SS, sendo indispensável nos processos de infecção de vários patógenos de mamíferos e plantas. A última subfamília corresponde ao sistema DNA-uptake/release" que funciona independente de contato com uma célula alvo, representado pelos sistemas VirB/D4 de Campylobacter jejuni e ComB de Helicobacter pylori. Muitas características básicas do T4SS são bem conhecidas, entretanto o conhecimento para a classificação simples e intuitiva ou a anotação apropriada das proteínas ainda não está claro, impedindo em alguns casos estabelecer correlações evolutivas deste sistema em bactérias. O objetivo deste trabalho foi o de organizar, classificar e integrar o conhecimento do T4SS através da construção de um banco de dados especializado para este sistema secretório bacteriano. O banco de dados T4SS foi criado utilizando o SGBD MySQL e a linguagem de programação Perl e com uma interface web (HTML/CGI) que fornece acesso ao banco. Este banco consta atualmente com 43 genomas bacterianos e 10 plasmídeos obtidos do GenBank NCBI, estes organismos vão desde Actinobactérias até Proteobactérias Gram-negativas, incluindo simbiontes e patogênicos. Foi utilizada a metodologia do Bidirectional Best-Hits", com a qual foi possível obter um conjunto mínimo de 75 clusters" com 974 proteínas envolvidas no T4SS. Também, durante este procedimento foram utilizados os algoritmos BlastP, Muscle e ClustalW. O banco foi anotado manualmente utilizando referências cruzadas incluídas nas páginas de anotação do T4SS, tais como UniProtKB/Swiss-Prot, COG, InterPro e TCDB e métodos para predição de regiões de peptídeos sinal e transmembrana. As análises do banco T4SS permitiram criar uma classificação hierárquica e funcional para as proteínas do T4SS, consistindo em cinco grupos: (i) Type IVA Mpf/T4CP; (ii) Type IVA Dtr; (iii) F-type plasmid; (iv) IncP-1-type plasmid; (v) Type IVB Icm/Dot). As 974 proteínas foram anotadas em 68 famílias conhecidas, as quais podem estar envolvidas em conjugação, transferência de T-DNA, transferência de proteínas efetoras, DNA-uptake/release" ou bem serem proteínas bifuncionais. Também, através do método de máxima verossimilhança foram geradas 70 árvores filogenéticas não enraizadas (NR) representando apenas 70 clusters, já que cinco clusters apresentaram apenas duas seqüências de proteínas, cinco árvores filogenéticas NR foram criadas para cada grupo da primeira categoria hierárquica, uma árvore NR com representantes de todos os grupos, uma árvore NR gerada a partir das seqüências 16S de cada organismo e uma árvore de um cluster incluindo uma seqüência de bactéria Gram-positiva como grupo externo. As análises filogenéticas mostram que determinadas proteínas do sistema são mais divergentes que outras, indicando que para uma determinada função poucas mutações de seqüências foram necessárias, já outras proteínas precisaram de maiores mutações para adquirir outras funções. Por isso, verifica-se que proteínas de um mesmo cluster apresentam diferentes funções: conjugação, DNA-uptake/release", traslocadores de proteínas efetoras. Conseqüentemente, foi possível verificar que funções semelhantes se agruparam juntas nas árvores filogenéticas, permitindo anotar uma função provável das proteínas ainda não caracterizadas (unknown"), isto possivelmente devido a que em virtude de sua semelhança de seqüências, possivelmente evoluíram para realizar a mesma função. Assim, as arvores possuíram a finalidade de confirmar a anotação e contribuíram permitindo inferir se os unknown" ou probable" podem ser de uma determinada classificação funcional. O banco T4SS será de uso público, oferecendo ao usuário ferramentas de buscas e submissão de seqüências, as quais permitirão inferir respostas sobre a classificação e filogenia da seqüência T4SS de interesse. O banco de dados T4SS pode ser acessado na URL: http://www.t4ss.lncc.br.
APA, Harvard, Vancouver, ISO, and other styles
35

VERDIANI, GIULIA. "Sviluppo di un Sistema Informativo Territoriale per la caratterizzazione dell’impatto ambientale di piani e opere attraverso l’analisi delle direttive comunitarie e del recepimento dei loro principi nella normativa italiana." Doctoral thesis, Università di Siena, 2017. http://hdl.handle.net/11365/1012796.

Full text
Abstract:
This thesis describe the development of a database to support the environmental impact assessment procedure. This subject was addressed through an initial analysis of the regulations governing the environment protection and the environmental impact assessment of a work or project, analyzing first the framework at a community level, and then the various laws and directives regulating this issue in Italy, and particularly in Tuscany. Subsequently, the usefulness of the application of Geographical Information Systems to the procedure of environmental impact assessment was examined, identifying the strengths and limitations. Then, the theme of the design of a database was analyzed in dept and described in detail, analyzing in particular the usefulness of a database in the various phases that make up the environmental impact assessment procedure. The methodological approach used was based on the identification of the potential and the abilities of a territory to incorporate the realization of a project or a work , determining the constraints and the limiting factors in relation to its characteristics and the state of its resources. In agreement with this method of evaluation, a series of themes were identified for a specific area, from which to draw the relevant information for the purpose of the assessment procedure and for draw up a specific database for the area of interest. The project chosen for the development of the database and for its application concerns the morphological restoration of the former lignite mine of S. Barbara a Cavriglia (AR), in order to make it useful again for production and residential purposes. The Centre for GeoTechnologies of University of Siena and Enel society both collaborate to the project. To project the database, a requirements analysis was necessary in order to identify the properties and functionality of the database, identifying the types of information needed for a first design. Then, the areas characterized by the Environmental Impact Study were schematized (for example Soil and Subsoil Theme, Water Theme, Cultural Heritage Theme…), relating to the reorganization plan of the former mine of S. Barbara and, for each area, the types of information needed have been identified. The design of the database was performed through a first conceptual design phase, which was followed by a phase of logical and physical design. In the three steps of the design, only entirely open source software have been used. For conceptual design the Open Model Sphere tool was used, which also allowed a first translation of the conceptual model to a logical scheme. The database was then implemented, from a physical point of view, using PostgreSQl with spatial extention PostGIS, in order to interface with spatial data. The database was then implemented exclusively for the territorial area corresponding to the area affected by the project of rehabilitation of the former mine. On the basis of the previously identified areas, and especially after the analysis of the Environmental Impact Study of the project, all the map data, freely distributed by various agencies (authorization to the free consultation, extraction and reproduction after the source is acknowledged), were collected. These data are considered to be necessary for a Environmental Impact Study regardless of the type of project subjected to study. After the implementation of the database, a methodology to be able to classify the territory of interest on the basis of the environmental sensitivity criterion was identified, in relation to the different areas identified in the Environmental Impact Study. The procedures have been developed by interfacing the database designed with the use of GIS open source software Quantum GIS. In particular, considering the consistent availability of freely distributed map data relating to the cultural heritage, a methodology for the classification of area based on the environmental sensitivity related to its archaeological risk has been identified.
APA, Harvard, Vancouver, ISO, and other styles
36

Sanchi, Martina. "Progettazione di un'applicazione web-oriented per la gestione di un sistema informativo aziendale." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/5878/.

Full text
Abstract:
L’azienda committente vuole ampliare la possibilità di accedere al suo database, sia dall’esterno che dall’interno, non solamente da parte di un unico utente amministratore, ma anche da tutti gli agenti distribuiti sul territorio nazionale e tutti gli impiegati degli uffici. Si vuole inoltre creare un sistema di notifiche via email che permetta a tutti gli utenti (agenti) registrati di avere in tempo reale informazioni sempre aggiornate riguardo i propri clienti. La ditta si chiama Tropical Lane S.p.A. e vuole realizzare questo progetto per rendere maggiormente accessibili le informazioni per i propri agenti, distribuiti nelle varie regioni italiane, direttamente tramite un loro dispositivo mobile, come smartphone o tablet, senza dover necessariamente telefonare continuamente in ditta dove è presente una segretaria che svolge solamente questa mansione. In questo modo si cerca di velocizzare la procedura di accesso ai dati così da liberare una risorsa utile per lo svolgimento di altre funzioni interne. Si è deciso quindi di creare un sito web, basato su tecnologia Active Server Pages e interfacciato al database aziendale, che sia fruibile dall’esterno della rete aziendale e sul quale vengono mostrati i dati, organizzati in modo da essere facilmente comprensibili e visualizzabili da tutti. La realizzazione del sito è stata effettuata utilizzando notepad++ sia per le pagine ASP che per le poche pagine di HTML statico presenti. Gli script sono stati realizzati in linguaggio Javascript, compatibile con le specifiche dei browser più diffusi. Il sito è supportato da un unico database realizzato in precedenza con Microsoft SQL ed integrato.
APA, Harvard, Vancouver, ISO, and other styles
37

Bottan, Giulia. "Progettazione del Sistema di Gestione dei Risultati Elettorali del Comune di Cesena." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Find full text
Abstract:
Nel Comune di Cesena è presente un sistema di gestione dei risultati elettorali che si avvale di una base di dati per memorizzare le informazioni sui seggi, sui partiti, sui candidati, e sui risultati da loro ottenuti, ma il software in uso manca di funzionalità avanzate che permettano di eseguire correttamente raffronti fra diverse elezioni, di tenere traccia di cambiamenti nelle parti più statiche dei dati, di identificare univocamente un soggetto anche se è presente più volte con nomi diversi. In questo contesto si inserisce la progettazione del nuovo Sistema di Gestione dei Risultati Elettorali; in primo luogo è stata necessaria una fase di analisi del sistema attuale per capirne le funzionalità e caratteristiche a livello di database, quali fossero le sue mancanze e quali dati venivano memorizzati da usare come base concettuale di partenza per il nuovo sistema. Si è poi passati alla fase di progettazione vera e propria del nuovo sistema perciò è stato prima necessario strutturare la nuova base di dati; con l’aiuto di diagrammi ER si è stabilito quali fossero le entità necessarie al funzionamento del database, siamo passati poi attraverso una normalizzazione dei diagrammi fino ad ottenere uno schema fisico che indicasse tutte le tabelle e abbiamo scelto di utilizzare la suite DBMS Oracle per la creazione del database. Si è poi scelto di utilizzare il linguaggio di scripting PHP per realizzare l’interfaccia per consentire l’accesso al sistema da parte di molteplici client, prestando particolare attenzione al procedimento di inserimento dei dati preliminari di un’elezione, cioè tutti quei dati che vengono inseriti prima del giorno della votazione che includono i seggi che verranno utilizzati, i partiti e i candidati che si contenderanno il voto degli elettori. Anche in questo caso, al termine dell’implementazione, si è eseguita un’ampia fase di test per assicurarsi che l’utente inserisca in maniera corretta solo ed esclusivamente i dati necessari.
APA, Harvard, Vancouver, ISO, and other styles
38

Cellini, Jessica. "Studio e implementazione di un KDDBroker per il browsing ed il discovering di servizi di knowledge discovering in databases." Doctoral thesis, Università Politecnica delle Marche, 2009. http://hdl.handle.net/11566/242328.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Mendonça, Bruno Soares Pacheco. "Contributo para um sistema de informação agrícola. Caso de estudo da vinha e do trigo no Alentejo." Master's thesis, ISA, 2013. http://hdl.handle.net/10400.5/6333.

Full text
Abstract:
Mestrado em Engenharia Agronómica - Instituto Superior de Agronomia<br>In Portugal information about the costs of agricultural enterprises is scarce, complicating the decision-making process of the farm manager who needs this information to manage the farm in a context of constant change in policies, agri-environmental measures and regulations of agricultural products. This dissertation proposes an information system based on enterprise accounts, able to report costs and income from agricultural activities. Thus a database named ACC was developed, together with an interface named GITEAgro to facilitate the construction of enterprise accounts and use their data to calculate useful indicators, plus an operation schedule to ascertain the occurrence of costs over time. For this purpose overheads and variable costs per unit, revenues and gross margins were calculated in two examples of activities: rainfed milling wheat and vineyards for quality wine, representing, respectively, an annual and a perennial crop. The result was facilitating the creation of enterprise accounts and improving the display of the information through interactive graphs. Inserted in an information system this information could simplify farmers' control over their activities, while generating data for the publication of the indicators
APA, Harvard, Vancouver, ISO, and other styles
40

Sapignoli, Michele. "Sistema Bluetooth-based di remarketing pervasivo." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Find full text
Abstract:
Il progetto si propone di dotare la realta fisica di un estensione digitale. Sensori, attuatori e tecnologie embedded hanno cambiato il nostro modo di lavorare, allenarci e seguire i nostri interessi. Il mondo del commercio non e rimasto a guardare ed ha dovuto adattarsi alla metamorfosi high-tech del settore dei servizi. Il sistema proposto costituisce un promotore per acquisti ed un raccoglitore intelligente di abitudini sullo shopping e si compone di applicazione mobile, microcontroller e web server. Caratteristica prima e principale del progetto e sicuramente la pervasivita. All'utente ed utilizzatore dell'app dello shopping center deve essere certamente resa nota la collaborazione al fine di raccogliere dati statistici sulle sue abitudini, tuttavia sono le modalita di tale operazione a dover rimanere velate, in modo da non appesantire il cliente con tediose operazioni di invio di feedback e valutazioni ed allo stesso tempo permettere una raccolta capillare delle informazioni. Parallelamente alla raccolta di dati funzionali al producer, sono state implementate features per il consumatore, come notifiche promozionali place-triggered e pubblicita mirata. Tra tutte le tecnologie adibite allo scambio di informazioni, si e scelto l'utilizzo del Bluetooth e del piu recente Bluetooth Low Energy (BLE) per permettere ai dispositivi di comunicare tra loro.
APA, Harvard, Vancouver, ISO, and other styles
41

Carmo, Samuel Sullivan. "Sistema de gerenciamento da informação: alterações neurológicas em chagásicos crônicos não-cardíacos." Universidade de São Paulo, 2010. http://www.teses.usp.br/teses/disponiveis/17/17140/tde-26052010-105637/.

Full text
Abstract:
O presente trabalho ocupa-se no desenvolvimento de um sistema computacional de gerenciamento da informação para auxiliar os estudos científicos sobre o sistema nervoso de chagásicos crônicos não-cardíacos. O objetivo é desenvolver o sistema requerido, pelo pressuposto de praticidade nas análises decorrentes da investigação. O método utilizado para desenvolver este sistema computacional, dedicado ao gerenciamento das informações da pesquisa sobre as alterações neurológicas de seus sujeitos, foi; compor o arquétipo de metas e a matriz de levantamento de requisitos das variantes do sistema; listar os atributos, domínios e qualificações das suas variáveis; elaborar o quadro de escolha de equipamentos e aplicativos necessários para sua implantação física e lógica e; implantá-lo mediante uma modelagem de base de dados, e uma programação lógica de algoritmos. Como resultado o sistema foi desenvolvido. A discussão de análise é; a saber, que a informatização pode tornar mais eficaz as operações de cadastro, consulta e validação de campo, além da formatação e exportação de tabelas pré-tratadas para análises estatísticas, atuando assim como uma ferramenta do método científico. Ora, a argumentação lógica é que a confiabilidade das informações computacionalmente registradas é aumentada porque o erro humano é diminuído na maioria dos processamentos. Como discussão de cerramento, estudos dotados de razoável volume de variáveis e sujeitos de pesquisa são mais bem geridos caso possuam um sistema dedicado ao gerenciamento de suas informações.<br>This is the development of a computer information management system to support scientific studies about the nervous system of non-cardiac chronic chagasic patients. The goal is to develop the required system, by assumption of the convenience in the analysis of research results. The method used to develop this computer system, dedicated to information management of research about the neurological disorders of their human subject research, were; compose the archetypal matrix of targets and requirements elicitation of the system variants; list the attributes, qualifications and domains of its variables; draw up the choice framework of equipment and required applications for its physical and logic implementation, and; deploying it through a data modeling, an adapted entity-relationship diagram and programmable logic algorithms. As a result the required system was developed. The analytical discussion is that the computerization makes the data processing faster and safer. The more practical information management processes are: the operations of registration, queries and fields\' validations, as well as the advanced and basic queries of records, in addition to table formatting and exporting of pre-treated for statistical analysis. The logical argument is that the reliability of the recorded computationally information is increased because is insured that bias of human error is absent from most of the steps, including several the data processing operations. As end discussion, scientific studies with reasonable amount of variables and research subjects are better managed if they have a dedicated system to managing their information.
APA, Harvard, Vancouver, ISO, and other styles
42

Leone, Marco. "Efficient indexing and retrieval from large moving object databases through dynamic spatio-temporal queries." Doctoral thesis, Universita degli studi di Salerno, 2012. http://hdl.handle.net/10556/987.

Full text
Abstract:
2010 - 2011<br>Intelligent Transportatin Systems have gained a great importance in the last decades given the growing need for security in many public environments, with particular attention for traffic scenarios, which are daily interested by accidents, traffic queues, highway code violations, driving in the wrong lane or on the wrong side, and so on. In the context of camera-based traffic analysis systems, in this thesis I will present a novel indexing scheme for the design of a system for the extraction, the storage and retrieval of moving objects' trajectories from surveillance cameras... [edited by author]<br>X n.s.
APA, Harvard, Vancouver, ISO, and other styles
43

Frisoni, Giacomo. "Progetto e sviluppo di un sistema software per lo studio e la ricerca di malattie rare." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Find full text
Abstract:
Quando si riflette sul concetto di rarità in ambito sanitario, si tende a pensare a un’eventualità remota e riservata a pochi individui. Nel momento in cui questo fenomeno irrompe nella quotidianità di una persona, si realizza come la parola “rara” sia in realtà usata frequentemente in maniera impropria. L’impatto a una diagnosi di malattia rara può dar luogo a una reazione a tratti devastante e inconcepibile, specie sul piano psicologico. La successiva presa di coscienza e la necessità di ricevere informazioni da una società molto spesso non troppo preparata, spingono il soggetto a una ricerca individuale per l’ottenimento di risposte sulla gestione della sua patologia. Allo stato attuale, la reperibilità di questi dati è tutt’altro che semplice a causa delle scarse fonti e della loro disgregazione. Le ultime indagini riconoscono il settore informatico come il principale strumento per l’accesso a tutte le richieste che un malato raro può presentare, tuttavia i progetti oggi disponibili sono incompleti. L’obiettivo di questa tesi è progettare un sistema software capace di supportare un individuo affetto da malattia rara, durante tutto il suo percorso, e realizzare una rete di pazienti in grado di velocizzare il raggiungimento di una soluzione ai quesiti posti quotidianamente da tali persone. Ricordando come per la maggior parte di queste patologie non esista ancora una cura efficace, un’ulteriore esigenza alla quale l’elaborato fa fronte è l’implementazione di apposite funzionalità dedicate ai medici e ai ricercatori. Per affrontare la scarsa attenzione spesso constatata verso i trattamenti di queste malattie, un’ultima caratteristica dell’applicazione riguarda la flessibilità nella gestione di tutti i disturbi (anche quelli meno noti). Partendo da un’iniziale analisi dei requisiti, la tesi affronta lo sviluppo della base di dati, una possibile implementazione cloud, la disamina dei dataset disponibili e la descrizione delle problematiche giuridiche.
APA, Harvard, Vancouver, ISO, and other styles
44

SANO, PAOLO. "The Cloud dynamics and radiation database (CDRD) approach for precipitation retrieval by means of satellite based microwave radiometry." Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2010. http://hdl.handle.net/2108/1329.

Full text
Abstract:
Questa tesi affronta alcuni aspetti della stima delle precipitazioni attraverso misure a microonde effettuate da satellite. Sebbene le tecniche di telerilevamento con radiometri a microonde per la stima delle precipitazioni si siano sviluppate notevolmente negli ultimi anni, ulteriori sviluppi sono apparsi necessari ed alcuni aspetti di queste tecniche costituiscono temi di ricerca attualmente in corso. L’attività svolta in questa tesi ha riguardato, in primo luogo, la costruzione e lo sviluppo dell’algoritmo BAMPR (Bayesian Algorithm for Microwave-based Precipitation Retrieval), basato sulla teoria di Bayes, per la stima della precipitazione attraverso l’elaborazione dei dati (temperature di brillanza) forniti dai radiometri SSM/I, SSMIS e AMSR-E. La prima parte della tesi descrive l’algoritmo completo realizzato, richiamando la teoria di Bayes e descrivendo anche le tecniche di “screening” utilizzate per il corretto trattamento dei dati dei vari “pixel”. Particolare attenzione è stata data inoltre alla descrizione della base di dati usata (CRD - Cloud Radiation Database) e ai test effettuati su di essa. La seconda parte dell’attività ha riguardato l’introduzione, nella procedura di stima della precipitazione, di variabili dinamiche e termodinamiche (“dynamical tags”) da associare alle temperature di brillanza (Cloud Dynamics and Radiation Database (CDRD) approach). Questo sviluppo dell’algoritmo è mirato alla riduzione dei problemi di “ambiguità” (o “non unicità”) che rappresentano attualmente un grave limite della metodologia di stima. I risultati ottenuti con il “nuovo” BAMPR, con l’introduzione delle variabili dinamiche e termodinamiche, in due applicazioni a perturbazioni meteorologiche verificatesi sul Lazio, sono descritti nella seconda parte della tesi. In tale parte è infine presentato un confronto della nuova metodologia sviluppata con le prestazioni dell’algoritmo NESDIS (NOAA).<br>In this thesis we have investigated some important issues regarding the retrieval of precipitation from satellite-based microwave measurements. Although microwave radiometry retrieval techniques for the estimation of rainfall have advanced considerably over the past years, further developments are still necessary and some aspects of these techniques are currently being investigated in research activities. The activity we have carried out in this thesis concerned first the implementation and the development of the complete BAMPR (Bayesian Algorithm for Microwave-based Precipitation Retrieval) algorithm, based on the Bayesian estimation theory, for the SSM/I, SSMIS and AMSR-E data (brightness temperatures) processing. The complete algorithm is described in the first part of the thesis, together with the screening procedures we have selected for the correct processing of pixels. The characteristics of the database used (Cloud Radiation Database), and some tests we have performed on it are also presented. The activity was then focused on the introduction of the “dynamical tags” in the retrieval procedure of BAMPR, to be combined with brightness temperatures (Cloud Dynamics and Radiation Database (CDRD) approach). This development we have carried out on the algorithm is aimed at reducing the “ambiguity” or the “non-uniqueness” of the database that is a severe limit for retrieval methodology. The results obtained with the “new” BAMPR algorithm, using three “dynamical tags”, in two case studies over Lazio, are described in the second part of the thesis. A comparison between the “new” BAMPR algorithm and the operational algorithm NESDIS of NOAA is also presented.
APA, Harvard, Vancouver, ISO, and other styles
45

Boas, José Henrique Vilas. "Bases teóricas e metodológicas da abordagem geográfica do ordenamento territorial, aplicadas para o desenvolvimento de sistema de banco de dados georreferenciáveis. Exemplo da Bacia do Rio Itapecuru." Universidade de São Paulo, 2001. http://www.teses.usp.br/teses/disponiveis/8/8135/tde-23112007-150002/.

Full text
Abstract:
Este trabalho dá as bases para a criação de um sistema computacional, gráfico-interativo, de apoio ao ordenamento territorial. Dada a complexidade e multiplicidade de dados exigidos nesta área, parte do princípio de que a Cartografia Temática, nos seus moldes tradicionais, não tem meios de atender às necessidades das Geociências, na disposição e representação de forma integrada dos resultados de suas análises. Uma plataforma de informações, informatizada, nesta área, vem ao encontro das expectativas das instituições de pesquisa ambiental, posto que proporciona o aproveitamento efetivo de seus estudos aplicados. Da mesma forma, constitui uma importante ferramenta de trabalho para os órgãos ligados ao planejamento, à tomada de decisão e à monitoria. Posiciona o ordenamento territorial quanto à sua definição, como compreendido atualmente, e, quanto a conceitos praticados, quando de seu surgimento, por volta dos anos 60, como conseqüência dos estudos regionais realizados. Uma tentativa de situar seu campo de ação é feita, em meio a novas terminologias, abordagens e conceitos decorrentes da retomada do interesse da Sociedade na utilização ordenada de seu território. Lança as bases para a implantação de um sistema de apoio ao ordenamento territorial, indicando algumas atitudes compreensivas e apontando principais procedimentos. Com a modelagem do sistema, através de diagramas e fluxogramas, chega-se à estruturação dos arquivos de dados, apoiando-se numa simulação de incorporação de subsídios. Utiliza como objeto da simulação, o diagnóstico ambiental realizado pelo Instituto Brasileiro de Geografia e Estatística - IBGE, para a bacia do rio Itapecuru, no Estado do Maranhão. A simulação é encerrada com um teste de funcionalidade da estrutura proposta, por meio de consultas que buscam a agregação dos dados para pesquisas específicas.<br>Establishes the basis for the creation of a computerized, graphics-interactive territorial arrangement support system. Given the complexity and multiplicity of data required in this field, it is based in the fact that Thematic Cartography - in its traditional form - does not fulfill the needs of Geosciences, failing to provide a integrated representation of its analyses\' findings. Such a computerized database, in this field, meets the needs of environmental research institutions, allowing the actual employment of its applied work. At the same time, it also establishes an important working tool for agencies in charge of planning, decision-making and monitoring. Contextualizes territorial arrangement, according to its perception today and in terms of concepts in practice that date back to its appearance, consequence of regional studies conducted during the 1960s. Attempts to assess its action domain, in our time, in the midst of the arrival of new terminology approaches and concepts - as a result of Society\'s interest retrieval in the ordained use of territory. Lays the foundation for the implementation of a territorial arrangement support system, its comprehensive behavior, structure and key procedures. Enables the shaping of the system, through diagrams and flow charts, followed by the database configuration, based on a real-life simulation of information collection. As the replicated matter, it applies the environmental diagnoses of the Itapecuru River basin, in the Brazilian state of Maranhão, prepared by the Brazilian Institute of Geography and Statistics (Instituto Brasileiro de Geografia e Estatística - IBGE). Completes the simulation with an operational test of the proposed system, through research that seeks data integration in specific studies.
APA, Harvard, Vancouver, ISO, and other styles
46

TALEBZADEH, SAEED. "Data Mining in Scientific Databases for Knowledge Discovery, the Case of Interpreting Support Vector Machines via Genetic Programming as Simple Understandable Terms." Doctoral thesis, Università degli Studi di Roma "Tor Vergata", 2015. http://hdl.handle.net/2108/202257.

Full text
Abstract:
Support Vector Machines (SVM) method is a powerful classification technique as a data mining application. This methodology has been applied in many scientific researches in wide variety of fields in the recent decades and has proved its high efficiency, performance, and accuracy. In spite of all the advantages of Support Vector Machines, it has an important drawback that is related to the interpretability difficulty of the produced results which are not easily understandable. This disadvantage highlights more especially for scientific cases in which the main purpose is knowledge discovery from the databases, and not just classifying the data. This research is an attempt to cover this weakness via an innovative and practical technique. In this Methodology, adequate number of points of the decision boundary for classification must be distinguished, afterwards, a Symbolic Regression (SR) technique must be applied on the obtained points. In the current developed method, Genetic Programming (GP), that is an evolutionary algorithm, is being used for the Symbolic Regression part of the procedure. Based on the presented materials, the developed procedure and algorithm in this research was called SVM-GP methodology that is a technique for presenting the results of Support Vector Machines as a simple and easily understandable algebraic mathematical equation. The performance and efficiency of the developed methodology have been tested on several synthetic databases with different conditions which led to produce a versatile code for solving high-dimensional problems. Next, the algorithm have been applied for classification of three real-world cases and interesting knowledge was extracted from them. The discovered information is useful for the related researches, meanwhile, it provides evidence for the importance of SVM-GP methodology and its high performance, efficiency, and accuracy for scientific cases.
APA, Harvard, Vancouver, ISO, and other styles
47

Fumagalli, Junior Edson Machado. "SISTEMA DE RASTREAMENTO DE SEMENTES SEMENTES GEORASTER." Universidade Federal de Santa Maria, 2013. http://repositorio.ufsm.br/handle/1/9580.

Full text
Abstract:
The increasing advance of technological artifacts and new manners of monitoring have become possible to know the origins of the seeds. Using applied technologies and Internet it is possible to store and access data in geographic databases which allow viewing and keeping up with all the accomplished work in the prior years in conjunction with the precision agriculture data and handlings associated to the seeds origin.Web programming tools and databases permit the integration with the data of precise agriculture, resulting in an origin history and production of seeds previously recorded.The application of geotechnologies and the spatial data of sowing places makes possible to verify the existence of agricultural activities in determined area and, at the same time, to use the information stored in the database generated by precise agriculture software of various suppliers. The results of this research can help the initiatives to elaborate projects and full monitoring of agricultural production and seed certification.<br>Com o crescente avanço de artefatos tecnológicos, novas maneiras de acompanhamento e conhecimento das origens das sementes através de tecnologias aplicadas e disponibilidade na rede mundial de computadores, é possivel armazenar e consultar dados em banco de dados geograficos podendo visualizar e acompanhar todo o trabalho realizado nos anos anteriores juntamente com os dados da agricultura de precisão e aplicações, manejos associados a origem das sementes. A utilização de ferramentas de programação web e banco de dados o qual possibilita uma integração com os resultados da aplicação de técnicas de agricultura de precisão possibilita um histórico da origem e produção de sementes anteriormente registradas. A aplicação das geotecnologias e o registro espacializado dos locais de plantio permite verificar a existência de atividades agronomicas em determinado território, podendo utilizar as informações armazenadas no banco de dados atraves de softwares de agricultura de precisão de diversos fornecedores. Os resultados obtidos pela pesquisa poderão auxiliar às iniciativas para elaboração de projetos e acompanhamento de produção agrícola e certificação de sementes.
APA, Harvard, Vancouver, ISO, and other styles
48

Silva, Daniel Dassoler da. "Sistema de informação geo-referenciada na análise geotécnica da área urbana de Novo Hamburgo/RS." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2002. http://hdl.handle.net/10183/143505.

Full text
Abstract:
As características geotécnicas de um local têm grande influência no planejamento de áreas adequadas para a implantação de novos loteamentos e conjuntos habitacionais, dirigindo a expansão urbana para regiões mais favoráveis. Permitem mapear áreas de risco (instabilidade de taludes, inundação, adensamento...) ou então, a avaliação do tipo de fundação a ser utilizado em determinada obra de engenharia. Podem contribuir na seleção de locais apropriados para a exploração de depósitos minerais ou do melhor traçado para uma rodovia visando às características de suporte do subleito. A utilização de sistema de informação geo-referenciada (SIG) permite elaborar um mapa vinculado a um banco de dados. A estruturação de um banco de dados em estudos geotécnicos é de grande importância para armazenar informações e facilitar a comparação entre várias propriedades proporcionando maior compreensão dos solos. A área urbana do município de Novo Hamburgo/RS foi escolhida para este trabalho, onde se realizou o mapeamento geotécnico da região e montagem de um banco de dados de sondagens SPT. Um formulário eletrônico foi desenvolvido para facilitar o cadastro das informações constituindo um banco de dados que tem como principais campos resistência à penetração, nível do lençol freático, descrição do solo e unidade geotécnica. A metodologia empregada nesse trabalho tornou possível a geração de um mapa de estimativas das unidades geotécnicas e um modelo digital do terreno. O mapa geotécnico permitiu avaliar as aptidões e restrições em diferentes aplicações para os universos geotécnicos delimitados. O banco de dados com fotografias de perfis típicos e informações de sondagens SPT e o mapa geotécnico, tem seu acesso viabilizado por meio da tecnologia de SIG permitindo assim que o usuário faça a consulta aos dados diretamente no mapa.<br>The geotechinical features of a specific region have a strong influence on the adequate area’s planning to implement new building lots and residential neighborhoods, conducting the urban expansion to more favorable locations. This allow to map the risk areas (bank instability, inundation, consolidation...) or to evaluate the type of foundation that can be used for engineering constructions and can also to contribute to choose the appropriate area for the mineral deposit exploration or the best traced of a roadway, focusing the support characteristics of the road foundation. The use of geo-referenced information system (GIS) allows to develop a map linked to a database. The structure of a data base in geotechnical studies has a great importance to store information and to compare several properties providing a better understanding of the soils. Novo Hamburgo County – RS was chose to elaborate the geotechinical mapping and to build a SPT database. An electronic spreadsheet was developed to make easier to record the information, which their most important data are: penetration resistance, water fable, soil description and geotechenical units. The metothology used in this work made possible a mapping generation with the estimation of geotechinical units and a digital terrain model. The geotechinical map allow to evaluate the abilities and the restrictions in different applications on the delimitated geotechinical universes. The database with typical profiles images, standard penetration test information (SPT) and the geotechinical map, provide easy access to geotechnical information directly on the map and at the database.
APA, Harvard, Vancouver, ISO, and other styles
49

Milan, Čeliković. "Pristup modelovanju specifikacija informacionog sistema putem namenskih jezika." Phd thesis, Univerzitet u Novom Sadu, Fakultet tehničkih nauka u Novom Sadu, 2018. https://www.cris.uns.ac.rs/record.jsf?recordId=107267&source=NDLTD&language=en.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Leitão, João Pedro Pimenta. "Sistema informático de gestão e análise de genealogias." Master's thesis, Universidade de Évora, 2011. http://hdl.handle.net/10174/19400.

Full text
Abstract:
A selecção do tema e consequente trabalho de que emerge o titulo desta dissertação decorreu do facto de se ter tomado conhecimento da necessidade que os membros do projecto FCOMP-01-0124-FEDER-007360 - Inquirir da Honra: Comissários do Santo Oficio e das Ordens Militares em Portugal (1570 - 1773) tiveram para satisfazer alguns objectivos em particular relacionados com a Genealogia da rede de Comissários. O sistema de trabalho manual que até aqui era utilizado, continha uma quantidade considerável de informação complexa, descrevendo ao pormenor as características não só dos indivíduos, mas também do que estava associado ao mesmo, incluindo quem e como se relacionava com as demais figuras. O principal objectivo consistiu assim em responder à pergunta: "Como será possível efectuar uma gestão de toda a informação genealógica recolhida no papel e permitir a sua análise no computador, recorrendo a tecnologias que, por um lado sejam eficientes, e por outro, fáceis de aprender pelos utilizadores?". Para conseguir responder à questão, foi necessário conhecer em primeira mão, o universo da Genealogia e a forma como opera, para que posteriormente, se desenhasse e moldasse toda uma aplicação às necessidades do utilizador. No entanto, a aplicação não se centra apenas em permitir ao utilizador efectuar uma gestão, recorrendo a um sistema de gestão de bases de dados MySQL e permitir a análise genealógica "tradicional" em programas como o Personal Ancestral File. Pretende-se sobretudo, que o utilizador faça uso e responda às perguntas "do presente" esperando que a própria aplicação sirva de motivação para novas perguntas, com a integração da tecnologia XML e do Sistema de Informação Geográfico, Google Earth, permitindo assim a análise de informação genealógica no mapa-mundo. ABSTRACT: The choice of this essay's work subject is set on the need to accomplish determinate goals related with the Genealogy of the network lnquisition Commissioners on behalf of the project FCOMP-01-0124-FEDER-007360 members - Inquirir da Honra: Comissários do Santo Ofício e das Ordens Militares em Portugal (1570 - 1773)- To Inquire Honor: Inquisition Commissioners and the Military Orders in Portugal. The manual work system used till now presented a considerable amount of complex information, describing in detail characteristics not only of individuals but also of what is associated to it, including whoandhow. The main goal aimed at thus responding to: «How could it be possible to select and examine all the genealogical data registered on paper and allow it to be analyzed on computer, by means of technology that on one hand are efficient and on other hand easy to learn by its users? ». ln order to get to the answer to that matter, it was necessary to acknowledge firstly the Genealogy's universe so afterwards it could be possible to outline and shape an entire application to user needs. Nevertheless, the application does not only focus on allowing the user to carry out the system’s management, using MySQL database management system and allowing the "traditional" genealogical management in programs such as the Personal Ancestral File. Above all the user should get involved with it and answer the key questions of 'the present’ hoping that the application serves by itself as motivation to arouse new questions with the integration of XML technology and Geographic Information System, Google Earth, thus allowing the analysis of genealogical information worldwide.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography