To see the other types of publications on this topic, follow the link: Analiza de informații.

Dissertations / Theses on the topic 'Analiza de informații'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Analiza de informații.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Kwiecień, Andrzej. "Analiza przepływu informacji w komputerowych sieciach przemysłowych." Praca habilitacyjna, Wydawnictwo Politechniki Śląskiej, 2002. https://delibra.bg.polsl.pl/dlibra/docmetadata?showContent=true&id=8808.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Berardi, Antonella. "Integrazione dei flussi informativi nell'automazione del laboratorio analisi." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/8425/.

Full text
Abstract:
In virtù della crescente importanza dell’impiego del software nel settore dei dispositivi medici, come software indipendente (stand-alone) oppure come software incorporato in un altro dispositivo medico, un requisito essenziale per il suo utilizzo è la validazione secondo lo stato dell’arte. La certificazione come dispositivo medico diviene in tal modo fonte di garanzia e di sicurezza per il suo impiego. Il Sistema Informativo di Laboratorio (LIS), supportando il processo operativo dei dispositivi medico-diagnostici in vitro, necessita di una regolamentazione in tale direzione. Il workflow del Laboratorio Analisi, suddiviso in fasi preanalitica, analitica e postanalitica, ha beneficiato dell’introduzione di un sistema informatico in grado di gestire le richieste di esami dei pazienti e di processare e memorizzare le informazioni generate dalle apparecchiature presenti nel laboratorio. Più di ogni altro scenario clinico, il Laboratorio Analisi si presta ad essere organizzato sfruttando un modello di gestione fortemente integrato. Le potenzialità ad esso connesse garantiscono un aumento di produttività, una riduzione degli errori di laboratorio e una maggior sicurezza sia per i professionisti sanitari che per l’intero processo analitico. Per l’importanza clinica affidata al dato di laboratorio, la sua diffusione deve avvenire in maniera veloce e sicura; ciò è possibile se il ritorno elettronico dei risultati al medico richiedente si avvale dello standard HL7, il cui utilizzo è promosso dal modello IHE. La presenza di un unico database sanitario contenente anagrafiche univoche, facilmente aggiornabili, riduce il rischio di errata identificazione del paziente e, in particolare, offre la possibilità di disporre dei risultati di esami precedenti, opportunità particolarmente utile nel delineare il quadro clinico di pazienti cronici. Tale vantaggio e molte altre strategie, in grado di migliorare la qualità dell’assistenza e dell’outcome clinico, permettono di definire il laboratorio clinico come “motore di appropriatezza”.
APA, Harvard, Vancouver, ISO, and other styles
3

Paselli, Andrea <1972&gt. "ForensicStorage. Custodia, gestione e analisi dei reperti informatici." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amsdottorato.unibo.it/7732/1/Paselli_Andrea_Tesi.pdf.

Full text
Abstract:
La tesi svolta tratta la disciplina dell’Informatica Forense, dagli albori sino ai più recenti sviluppi normativi e tecnologici, analizzando lungo la trattazione le principali problematiche giuridiche e tecniche. Nelle pagine di questa ricerca vengono trattate le principali tipologie di reati informatici con particolare riferimento al reato inerente la pedopornografia online. Nella trattazione della materia vengono in risalto anche gli aspetti normativi riguardanti la Privacy fornendo una completa trattazione della vigente normativa inerente il trattamento dei dati sensibili e le misure minime di sicurezza richieste. Vengono inoltre delineate le importanti modifiche portate dal Nuovo Regolamento Privacy di prossima applicazione. La ricerca muovendo dalle novità introdotte con la ratifica della Convenzione di Budapest e dalla Convenzione di Lanzarote, affronta numerose problematiche tecniche e giuridiche, nonché alcune differenze presenti tra le diverse normative europee in materia, analizza lo stato dell’arte della Computer Forensics nei suoi vari aspetti normativi e metodologici, proponendo infine un innovativo progetto di acquisizione, analisi e fruizione delle evidenze informatiche con particolare riferimento alle indagini di polizia giudiziaria, denominato ForensicStorage. Detto progetto basandosi sulle c.d. Best Practices operative e partendo dalle problematiche operative che la Polizia Giudiziaria si trova ad affrontare quotidianamente, suggerisce una importante innovazione introducendo un nuovo ed assolutamente originale modus operandi che permetta di ottimizzare tempistiche e costi delle perizie informatiche. Il progetto ForensicStorage, così come descritto prevede infatti la possibilità di concentrare in ambienti e luoghi idonei i supporti informatici sequestrati dalla Polizia Giudiziaria per poi riversare gli stessi su una piattaforma di storage che mediante l’ausilio di opportuni software e tools forensi uniti alle grandi capacità computazionali dell’hardware preposto permettano in tempo reale, anche da remoto la ricerca della prova informatica da parte degli inquirenti. Partendo da questi presupposti viene infine presentato il Progetto ForensicWeb che rappresenta una applicazione web parte integrante del Progetto ForensicStorage.<br>The thesis develops the discipline of Computer Science Forensics, starting from the beginning to the most recent regulatory and technological developments, by analyzing the discussion along the main legal and technical issues. In the pages of this research are discussed the main types of crimes with particular reference to offenses concerning online child pornography. In the handling of this matter are also highlighted regulatory issues regarding privacy by providing a full discussion of the current regulations concerning the handling of sensitive data and the minimum required safety measures. And the important changes brought by the New Privacy Regulations soon to be applied are also outlined. The research moving from the innovations introduced with the ratification of the Budapest and the Lanzarote Convention, facing numerous technical and legal issues, as well as some differences between the various European rules on the subject, analyzes the state of computer forensics in its various regulatory and methodological aspects, finally proposing an innovative acquisition, analysis and use of computer evidence with particular reference to criminal investigations, called ForensicStorage. This project based on the operational Best Practices and facing the operational issues that the Judicial Police has to deal every day, suggests an important innovation by introducing a new and totally original modus operandi that allows to optimize timing and costs. The ForensicStorage project, as described provides for the possibility of concentrating in suitable areas and places, all the computer media seized by the Judicial Police and then pour the same on a storage platform with the help of appropriate software and forensic tools combined with large capacity computational hardware will enable real-time, even remotely search for the computer evidence by the investigators. Just starting from these assumptions is finally illustrated the ForensicWeb Project which is a web application part of the Project ForensicStorage.
APA, Harvard, Vancouver, ISO, and other styles
4

Paselli, Andrea <1972&gt. "ForensicStorage. Custodia, gestione e analisi dei reperti informatici." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amsdottorato.unibo.it/7732/.

Full text
Abstract:
La tesi svolta tratta la disciplina dell’Informatica Forense, dagli albori sino ai più recenti sviluppi normativi e tecnologici, analizzando lungo la trattazione le principali problematiche giuridiche e tecniche. Nelle pagine di questa ricerca vengono trattate le principali tipologie di reati informatici con particolare riferimento al reato inerente la pedopornografia online. Nella trattazione della materia vengono in risalto anche gli aspetti normativi riguardanti la Privacy fornendo una completa trattazione della vigente normativa inerente il trattamento dei dati sensibili e le misure minime di sicurezza richieste. Vengono inoltre delineate le importanti modifiche portate dal Nuovo Regolamento Privacy di prossima applicazione. La ricerca muovendo dalle novità introdotte con la ratifica della Convenzione di Budapest e dalla Convenzione di Lanzarote, affronta numerose problematiche tecniche e giuridiche, nonché alcune differenze presenti tra le diverse normative europee in materia, analizza lo stato dell’arte della Computer Forensics nei suoi vari aspetti normativi e metodologici, proponendo infine un innovativo progetto di acquisizione, analisi e fruizione delle evidenze informatiche con particolare riferimento alle indagini di polizia giudiziaria, denominato ForensicStorage. Detto progetto basandosi sulle c.d. Best Practices operative e partendo dalle problematiche operative che la Polizia Giudiziaria si trova ad affrontare quotidianamente, suggerisce una importante innovazione introducendo un nuovo ed assolutamente originale modus operandi che permetta di ottimizzare tempistiche e costi delle perizie informatiche. Il progetto ForensicStorage, così come descritto prevede infatti la possibilità di concentrare in ambienti e luoghi idonei i supporti informatici sequestrati dalla Polizia Giudiziaria per poi riversare gli stessi su una piattaforma di storage che mediante l’ausilio di opportuni software e tools forensi uniti alle grandi capacità computazionali dell’hardware preposto permettano in tempo reale, anche da remoto la ricerca della prova informatica da parte degli inquirenti. Partendo da questi presupposti viene infine presentato il Progetto ForensicWeb che rappresenta una applicazione web parte integrante del Progetto ForensicStorage.<br>The thesis develops the discipline of Computer Science Forensics, starting from the beginning to the most recent regulatory and technological developments, by analyzing the discussion along the main legal and technical issues. In the pages of this research are discussed the main types of crimes with particular reference to offenses concerning online child pornography. In the handling of this matter are also highlighted regulatory issues regarding privacy by providing a full discussion of the current regulations concerning the handling of sensitive data and the minimum required safety measures. And the important changes brought by the New Privacy Regulations soon to be applied are also outlined. The research moving from the innovations introduced with the ratification of the Budapest and the Lanzarote Convention, facing numerous technical and legal issues, as well as some differences between the various European rules on the subject, analyzes the state of computer forensics in its various regulatory and methodological aspects, finally proposing an innovative acquisition, analysis and use of computer evidence with particular reference to criminal investigations, called ForensicStorage. This project based on the operational Best Practices and facing the operational issues that the Judicial Police has to deal every day, suggests an important innovation by introducing a new and totally original modus operandi that allows to optimize timing and costs. The ForensicStorage project, as described provides for the possibility of concentrating in suitable areas and places, all the computer media seized by the Judicial Police and then pour the same on a storage platform with the help of appropriate software and forensic tools combined with large capacity computational hardware will enable real-time, even remotely search for the computer evidence by the investigators. Just starting from these assumptions is finally illustrated the ForensicWeb Project which is a web application part of the Project ForensicStorage.
APA, Harvard, Vancouver, ISO, and other styles
5

Král, David. "Informačni bezpečnost podniku." Doctoral thesis, Vysoké učení technické v Brně. Fakulta podnikatelská, 2010. http://www.nusl.cz/ntk/nusl-233734.

Full text
Abstract:
Quality security of sensitive data and key assets becomes now a question of absolute necessity for a company of any size and orientation. History of evolution of information security began particularly in environment of large organizations, that processed a large amount of data. It is logical that it was larger and richer companies which often have sufficient resources to invest in the security of their assets. Moreover, relatively large percentage of small and medium-sized businesses have about the security of its information somehow faulty ideas. More and more attackers are focusing on mid-sized organizations, which are insufficiently protected and they find it much easier to get to their sensitive data. Small and medium-sized companies are often preventing the implementation of certified standards. The reason is the fear of heavy formal administration, which is often required for certification, but is mainly for small businesses unnecessary and burdensome. For medium-sized organizations (50-250 employees), the certain administration associated with information security is a necessity. Employees, as in small businesses, are familiar with each other, but already there is a certain degree of anonymity, which may trigger the fact that some employees will not respect security procedures, especially if they are not precisely defined, and compliance will not be regularly checked. It depends on several circumstances, whether the certification is appropriate for the organization or the establishment of their internal methodology for information security. Methodology of balanced information security, which is the subject of this article is primarily proposed for small and medium-sized businesses. Its aim is to define the most important and absolutely necessary criteria for information security so that the system meets the requirements of a comprehensive solution of the issue. On the other hand, it seeks how to minimize the administrative burden for these organizations, which is, as mentioned above, one of the main reasons, why companies hold a negative attitude to the most widespread certifications. The methodology identifies four main areas of information security management system in a company. It includes an audit which specifies the quality level of particular areas of information security in the organization. If any of the studied areas is found insufficiently protected, effecitve measures are offered to improve the situation. The ultimate solution is a condition of a system where all the key areas of information security management of the organization are at the appropriate level and the system can be considered balanced.
APA, Harvard, Vancouver, ISO, and other styles
6

MARGARUCCI, SILVIA. "Sistemi informativi integrati e dinamiche organizzative. Analisi di un caso aziendale." Doctoral thesis, Università Politecnica delle Marche, 2009. http://hdl.handle.net/11566/242406.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Buccoliero, Lucrezia. "Analisi di aspetti di Security da attacchi informatici su Impianti di Processo." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Find full text
Abstract:
Gli impianti industriali moderni sono di tipo automatizzato, i processi sono cioè pilotati da un’unità di calcolo che fornisce i comandi necessari atti al corretto funzionamento dell’impianto. Queste tecnologie espongono le apparecchiature a problemi di Security, dunque attacchi volontari provenienti dall’esterno, al sistema di controllo. Esso può diventare la variabile manipolabile del terrorista informatico il quale può causare lo shut down del segnale o cambiare l’impostazione dei parametri di processo.Lo studio esposto si propone di identificare le possibili modalità di attacco e di individuare uno strumento sistematico che permetta di valutarne la vulnerabilità ad un possibile atto di sabotaggio. La procedura proposta è la PSC-SHaRP (Process System Cyber-Security Hazard Review Procedure) essa consta di due strutture chiamate rispettivamente Alpha e Beta. La metodologia è volta a individuare i potenziali pericoli posti dagli attacchi informatici piuttosto che a stimarne un profilo di rischio e/o probabilità di successo. La ShaRP Alpha, viene utilizzata per analizzare le conseguenze di deviazioni cyber su singole macchine presenti in impianto o sistemi modulari. La ShaRP Beta viene utilizzata per analizzare le conseguenze di attacchi cyber sul sistema costituito dall’impianto di processo. Essa è quindi in grado di analizzare le ripercussioni che manipolazioni su una o più apparecchiature possono avere sull’impianto nel suo complesso. Nell’ultima parte dell’elaborato sono state trattate le possibilità di accesso da parte del ‘’terrorista’’ al sistema di controllo e sicurezza, dunque i sistemi di gestione del DCS e del SIS e le barriere software e hardware che possono essere presenti.
APA, Harvard, Vancouver, ISO, and other styles
8

Epifani, Bianca. "Sistemi informativi per l'endoscopia digestiva: analisi delle esigenze e progetto di integrazione informativa." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7573/.

Full text
Abstract:
Nella tesi, dopo un'introduzione di carattere generale sull'endoscopia digestiva, vengono analizzate le innovazioni tecnologiche che permettono il miglioramento ed il potenziamento delle immagini endoscopiche tramite elaborazione real-time, al fine di rilevare le lesioni non visibili con la luce bianca. L'elaborato analizza il flusso di lavoro del reparto, preso in carico dal sistema informativo di endoscopia. Lo scambio di informazioni tra i diversi sistemi informativi deve avvenire utilizzando gli standard HL7 e DICOM, secondo le specifiche dettate dai profili di integrazione IHE. Nella parte finale del trattato è descritta l'architettura del sistema informativo di endoscopia e sono esposte le specifiche di integrazione informativa.
APA, Harvard, Vancouver, ISO, and other styles
9

Conti, Laura. "I reati informatici. Analisi critica di alcune fattispecie ed esame di relativi casi giuridici." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/9489/.

Full text
Abstract:
Lo sviluppo tecnologico e la nascita di Internet ha portato alla costituzione di un nuovo canale di comunicazione il quale costituisce, insieme all'uso dei sistemi informatici, un veicolo per la realizzazione di illeciti. Lo scopo di questa tesi di laurea è di presentare e analizzare in modo critico i principali reati informatici. Le ricerche sono state effettuate attraverso diverse banche dati, lettura di libri e vari articoli. La tesi espone al primo capitolo una panoramica storica e generale sui reati informatici. Nel secondo capitolo viene esaminata la Legge 23 dicembre 1993 n. 547. Il terzo capitolo è il cuore della tesi e analizza i principali reati informatici insieme a relativi casi giuridici. Il quarto ed ultimo capitolo, esamina l'esigenza di avere una normativa comune tra i vari stati del mondo. La trattazione fornisce un quadro d'insieme sul dilagante fenomeno dei crimini informatici, seguito da un'analisi approfondita dei singoli reati. La ricerca e lo studio dei casi reali hanno consentito di concretizzare la normativa teorica.
APA, Harvard, Vancouver, ISO, and other styles
10

Valentini, Stefano. "Analisi e sviluppo di progetti informatici per il controllo gestionale di una catena di negozi." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
11

Tufarolo, Yuri. "Il rapporto tra analisi e realizzazione di servizi informatici: il caso della gestione del credito." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/5749/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Pavan, Angela <1991&gt. "La gestione della clientela; strumenti informatici e innovazioni negli ultimi decenni. Analisi di casi concreti." Master's Degree Thesis, Università Ca' Foscari Venezia, 2015. http://hdl.handle.net/10579/7285.

Full text
Abstract:
In questa analisi è stato inizialmente esposta l'evoluzione dei mercati; attraverso una panoramica generale si sono descritti i nuovi approcci dei consumatori e di conseguenza come si sono adattate le imprese. sono state analizzate diverse aziende e si sono descritti,in maniera semplice, i programmi da loro utilizzate per gestire la clientela. In questa analisi si è evidenziato come sia importante un'ottica incentrata sul cliente e di come si siano per questo sviluppati i programmi di CRM e negli ultimi anni il Social CRM.
APA, Harvard, Vancouver, ISO, and other styles
13

Picciotti, Giuseppe. "Gestione dei flussi informativi e analisi di progettazione in un'azienda operante nel campo delle protezioni antinfortunistiche." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019.

Find full text
Abstract:
L’obiettivo del lavoro di Tesi è stato analizzare i flussi informativi e i flussi produttivi interni all’azienda in ottica Lean Production con lo scopo di ottimizzare i tempi di lavorazione e i costi relativi. L’analisi si è focalizzata in particolar modo nella gestione dell’attività di progettazione delle protezioni che viene caratterizzata, anche se a livello amministrativo, da sprechi e perdite di tempo che influiscono poi sul costo finale del prodotto. Si è determinata l’efficienza di ogni singolo operatore dell’Ufficio Tecnico in modo tale da individuare la loro disponibilità, le loro prestazioni e la qualità, fattori determinanti per calcolare il parametro OEE. Lo strumento iniziale per il calcolo dell’OEE è stato il Diagramma di Gantt delle attività di progettazione svolte dagli operatori in un determinato intervallo di tempo, attraverso il quale è stato possibile individuare il numero di ore effettive di progettazione. Sono stati proposti interventi migliorativi con lo scopo di migliorare l’efficienza e la produttività in futuro.
APA, Harvard, Vancouver, ISO, and other styles
14

Schmidt, Sebastian [Verfasser], and Bernd [Akademischer Betreuer] Plietker. "Chemo(und)informatik-getriebene Wirkstoffsynthese : neuartige Macrosphelid-Analoga als potente Mikrotubulistabilisatoren / Sebastian Schmidt. Betreuer: Bernd Plietker." Stuttgart : Universitätsbibliothek der Universität Stuttgart, 2013. http://d-nb.info/1036640531/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Xięski, Tomasz. "Wydobywanie wiedzy z danych złożonych." Doctoral thesis, Katowice : Uniwersytet Śląski, 2014. http://hdl.handle.net/20.500.12128/5492.

Full text
Abstract:
Celem rozprawy jest opracowanie metody wydobywania wiedzy ze złożonych zbiorów danych rzeczywistych o dużej liczebności, uwzględniającej ich specyfikę i dziedzinowy charakter oraz efektywne środki wizualizacji wydobytej wiedzy. Mianem wiedzy, na potrzeby niniejszej pracy, określa się wyrażona w postaci wzorców, trendów czy korelacji "informacje odnośnie otaczającego świata, która umożliwia ekspertowi podejmowanie decyzji" [6]. Badania zostaną oparte na dwóch rzeczywistych zbiorach: pierwszy z nich zawiera dane dotyczące funkcjonowania urządzeń nadawczo-odbiorczych operatora telefonii komórkowej (rozmieszczonych na terenie aglomeracji śląskiej), drugi agreguje statystyki gromadzone w oprogramowaniu AirSync, związane z zarzadzaniem sieciami bezprzewodowymi. Mimo, ze oba zestawy danych wydają się być ze sobą mocno powiązane pod względem tematyki telekomunikacyjnej, to jednak posiadają zupełnie odmienna strukturę i charakterystykę. Spośród wielu technik eksploracji danych zdecydowano się wybrać analizę skupień [7] i to właśnie wszystkie aspekty realizacji tej techniki w odniesieniu do danych złożonych są podstawa niniejszej rozprawy. Wydobywanie wiedzy z rzeczywistych baz wiedzy jest procesem wieloetapowym i stawia szereg wymogów wobec algorytmów grupowania jak: możliwość odkrywania skupień o różnej strukturze, odporność na występowanie wartości izolowanych, posiadanie relatywnie niskiej złożoności obliczeniowej i zajętości pamięci, jasno określone kryteria stopu algorytmu oraz wysoka jakość tworzonych skupień. Niestety klasyczne metody analizy skupień (jak niehierarchiczny algorytm k-średnich) nie spełniają podanych wymagań. Dodatkowo takie rzeczywiste bazy danych najczęściej charakteryzują się występowaniem wartości pustych (brakujących), niezdyskretyzowanych, czy zduplikowanych, co znacząco utrudnia ich przetwarzanie oraz analizę. Zatem w procesie badawczym wykorzystywane są bardziej złożone algorytmy, ale te dla osiągniecia optymalnego rezultatu wymagają zdefiniowania różnej liczby parametrów. Dlatego tez istotnym problemem, omawianym w dalszej części pracy, jest określenie metod: optymalnego doboru parametrów dla procesu grupowania oraz opisu utworzonej struktury złożonych grup. Niniejsza praca odnosi się również do problemu, w jaki sposób wizualizacja danych może funkcjonować jako efektywne i autonomiczne narzędzie analizy, jak również służyć jako technika łącząca wiedze dziedzinowa i zdolności kognitywne człowieka w procesie odkrywania wiedzy. Omawia proces graficznej analizy eksploracyjnej (ang. visual data mining) [3] oraz dokonuje porównania najpopularniejszych technik prezentacji skupień, spotykanych w literaturze przedmiotu, z autorska koncepcja oparta na algorytmie generowania tzw. map prostokątów (ang. treemaps) [11]. Kolejnym istotnym aspektem omawianym w rozprawie jest przegląd i porównanie możliwości obecnie dostępnych systemów analizy danych, wraz z wykazaniem ich wad i zalet, szczególnie w kontekście efektywności zaimplementowanych technik grupowania. Stanowi to jednocześnie motywacje do stworzenia autorskiego systemu wydobywania wiedzy DensGroup.
APA, Harvard, Vancouver, ISO, and other styles
16

Arguimbau, Vivó Llorenç. "La informació científica i tecnològica: Una perspectiva documental per Observar, descriure, analitzar i difondre l'R+D+I." Doctoral thesis, Universitat Autònoma de Barcelona, 2010. http://hdl.handle.net/10803/4852.

Full text
Abstract:
El cicle de la Recerca, el Desenvolupament i la Innovació (R+D+I) ocupa una posició estratègica, ja que promou el coneixement científic i el creixement econòmic en un entorn internacional marcadament dinàmic.<br/>Degut a l'estat actual altament competitiu de l'R+D+I a la major part del món, hi ha una clara necessitat de mesurar, analitzar i avaluar qualsevol sistema d'R+D+I per tal de valorar la seva posició relativa, promoure el seu funcionament eficaç, detectar les seves fortaleses i debilitats, millorar la presa de decisions, realitzar canvis d'orientació en les polítiques científiques, etc.<br/>L'estudi i l'avaluació de qualsevol sistema de recerca o qualsevol àrea científica no és fàcil degut a diferents factors, incloent la transformació constant de l'objecte d'anàlisi, la pluralitat d'agents, la varietat i heterogeneïtat de les fonts d'informació, la dificultat per accedir a les dades, etc.<br/>Aquest estudi adopta la següent hipòtesi: a més de donar suport directament al cicle científic i tecnològic, els especialistes en documentació estan capacitats per gestionar i estudiar la informació científica de manera eficient, ràpida i precisa. En darrera instància, l'objectiu és promoure el progrés en la ciència i la tecnologia.<br/>La tesi se centra a Espanya i més concretament en els territoris de llengua i cultura catalanes (especialment Catalunya, però també el País Valencià, les Illes Balears i Andorra), amb comparacions a nivell internacional. La tesi cobreix un període màxim de dotze anys (1997-2008).<br/>El nucli de la tesi consisteix en un compendi de sis articles publicats en el trienni 2008-2010 a un portal web i cinc revistes científiques. Aquest compendi de publicacions ha estat dissenyat per complir amb els següents objectius:<br/>1. Definir el marc conceptual de l'R+D+I i detectar problemes relacionats amb l'estudi de la informació científica i tecnològica.<br/>2. Estudiar les principals fonts d'informació especialitzada en R+D+I.<br/>3. Descriure la metodologia de disseny i posada en funcionament d'un portal web sobre ciència i tecnologia.<br/>4. Aplicar una perspectiva cienciomètrica (agents, recursos i resultats) a la descripció i anàlisi d'una àrea científica (microbiologia) i un tipus de document (tesis).<br/>En Ciències de la Informació, però, les anàlisis solen limitar-se a les dades bibliomètriques derivades de la producció científica en termes d'articles, mentre que altres elements clau del cicle global d'R+D+I tendeixen a ser descuidats. <br/>Un sistema de recerca està format per agents, recursos humans i econòmics, i la documentació científica i tecnològica resultant, sovint en forma de revistes i articles científics, tesis doctorals i altres documents. Equipats amb aquesta informació, els experts científics i els polítics seran capaços de fer anàlisis significatives i, en conseqüència, prendre les decisions més adequades.<br>The cycle of research, development, and innovation (R&D&I) occupies a strategic position, as these components promote scientific knowledge and economic growth in a markedly dynamic international environment. <br/>Given the current highly competitive state of R&D&I throughout most of the world, there is a clear need to measure, analyze, and estimate any R&D&I system in order to gauge its relative position, promote its effective functioning, detect its strengths and weaknesses, improve decision-making, implement changes of orientation in the scientific policies, etc.<br/>Studying and assessing any research system or any scientific area is not easy due to different factors, including the ongoing transformation of the analysis object; the plurality of agents; the variety and heterogeneity of the information sources; the difficulty in accessing the data, etc. <br/>This study adopts the following hypothesis: in addition to support directly the scientific and technological cycle, documentation specialists are able to manage and study the scientific information efficiently, rapidly, and precisely. Ultimately, the goal is to promote progress in science and technology. <br/>The thesis focuses on Spain and more specifically on the territories of Catalan language and culture (especially Catalonia, but also the Valencian Country, Balearic Islands and Andorra), with comparisons made at international level. The thesis covers a maximum period of twelve years (1997-2008). <br/>The core of the thesis consists of a compendium of six articles published in the 2008-2010 triennium in a web portal, and five scientific journals. This compendium of publications was designed to meet the following objectives: <br/>1. To define the conceptual framework of R&D&I and to detect problems associated with the study of scientific and technological information. <br/>2. To study the main sources of specialized information on R&D&I. <br/>3. To describe the design methodology and implementation of a web portal on science and technology. <br/>4. To apply a scientometric perspective (agents, resources and results) to the description and analysis of a scientific area (microbiology) and a document type (theses). <br/>In Information Science, however, analyses are commonly limited to bibliometric data arising from scientific output in terms of articles, while other key elements of the R&D&I global cycle tend to be neglected. <br/>A research system is made up of: agents; human and economic resources; and the resulting scientific and technological documentation, often in the form of scientific journals and articles, doctoral theses and other documents. Equipped with this information, scientific experts and policy-makers will be able to carry out significant analyses and, thereby, make the most appropriate decisions.
APA, Harvard, Vancouver, ISO, and other styles
17

Petrera, Maria Alessandra. "Analisi e confronto di sistemi informatici per la programmazione operativa dei lavori: il caso del "People Mover" di Bologna." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2011. http://amslaurea.unibo.it/2683/.

Full text
Abstract:
l’analiticità del metodo adottato ha permesso di ottenere una precisa e puntuale conoscenza del processo costruttivo, ottimo esempio per poter analizzare e confrontare i due programmi, Ms-Project 2007 e Primavera Project Planner P6.0, oggetto della presente trattazione; per comprendere quale software aiuta il Project Manager a gestire le complessità di un progetto per soddisfare i bisogni dei clienti, ad avere un controllo più stretto sulle strutture di progetto e sui suoi requisiti di rendicontazione, nonché la comprensione di tutto ciò che può ostacolare il corretto avanzamento del programma. Quale programma aiuta le aziende a pianificare e gestire sia i singoli progetti sia il programma complessivo, a implementare e monitorare i livelli di performance necessari e valutare agevolmente l’impatto delle modifiche di programma sui piani di lavoro, sui budget, sull’utilizzazione delle risorse. Un’efficace visione d’insieme dell’intero programma, combinata con la continua verifica delle metriche di produttività, consente ai program manager di mitigare proattivamente i rischi e ottenere come risultato il puntuale rispetto dei tempi e del budget.
APA, Harvard, Vancouver, ISO, and other styles
18

Crapulli, Ilaria. "Analisi ed ottimizzazione dei flussi informativi e delle attività inerenti alla supply chain in ottica lean: Il caso Marposs S.p.A." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Find full text
Abstract:
Il progetto di tesi riguarda la mappatura ed ottimizzazione dei flussi d'informazioni per i processi legati alla programmazione di produzione e agli acquisti in ambiente SAP. Specificatamente verranno analizzati gli attuali flussi informativi attinenti alla pianificazione di MTS (Make to Stock), ATO (Assembly to Order) ed ETO (Engineering to Order), ridefinendo in ottica Lean le attività e le competenze delle persone coinvolte. Da maggio 2020 l’azienda ha deciso di implementare un nuovo software gestionale: SAP. Tuttavia, demandando su esso il processo di supply chain usato con il software precedente, li ha resi meno efficienti nell'eseguire con le stesse modalità determinate operazioni. Si rende necessario, quindi, un processo di miglioramento continuo all’interno degli uffici programmazione di produzione e acquisti per fare in modo che le attività e le competenze delle risorse umane siano supportate efficientemente dal nuovo sistema. Inizialmente viene condotta un'analisi dello stato attuale per comprenderne le dinamiche, le procedure, le relazioni e i muda. Vengono mappati i flussi informativi, rilevati i tempi e redatte due matrici delle attività monitorando la situazione con dei KPI. Nello scenario TO-BE si ipotizzano delle soluzioni migliorative per ridurre gli sprechi, si stimano i tempi futuri tramite simulazione ed estrazione dei dati da SAP, vengono dimensionate le risorse necessarie e definite le loro capacità. Sulla base di queste informazioni avviene il bilanciamento delle attività negli uffici e l'ottimizzazione dei flussi informativi. Stimando l'impatto positivo sia con i KPI utilizzati nella fase AS-IS sia a livello economico.
APA, Harvard, Vancouver, ISO, and other styles
19

Bengtsson, Erik. "Analoga representationer vid verksamhetsbeskrivningar." Thesis, University of Skövde, Department of Computer Science, 1997. http://urn.kb.se/resolve?urn=urn:nbn:se:his:diva-248.

Full text
Abstract:
<p>Idag påpekas mer och mer att användaren skall vara delaktig vid utvecklandet av in-formationssystem. Ett systemutvecklingsprojekt kan generellt sägas ha ett antal faser: En förstudie, en genomförandedel och någon form av efterarbete. Fokus i denna rap-port riktas mot förstudien där det görs en analys av problemdomänen. Eftersom beslut som tas i senare delar av projektet är väldigt beroende av hur väl problemdomänen är beskriven är det viktigt att mycket tid läggs ned på att se till att denna beskrivning är korrekt. För att kunna beskriva problemdomänen har systemutvecklaren en mängd beskrivningstekniker till sin hjälp. En typiskt beskrivningsteknik är uppbyggd av ett antal rektanglar, cirklar, romboider etc som kan vara svåra för en lekman att lära sig och förstå. När problemdomänen är beskriven måste användaren verifiera att detta är korrekt gjort. Om användaren inte är väl insatt i hur beskrivningsteknikerna är upp-byggda får denne svårt att göra en korrekt verifiering. Denna rapport diskuterar huru-vida en beskrivningsteknik uppbyggd på analoga representationer kan vara mer för-delaktig än en traditionell (symbolisk) beskrivningsteknik. En minnestest har utförts, med målet att undersöka om analoga representationer underlättar förståelse i jämförel-se med symboliska representationer. Innan försöket genomfördes gjordes ett antagan-de att förståelse och minne har ett starkt samband. Testet misslyckades med att visa någon signifikant skillnad mellan symboliska och analoga representationer. Orsaken till försökets utfall diskuteras i de senare delarna av rapporten.</p>
APA, Harvard, Vancouver, ISO, and other styles
20

Gao, Ying. "using decision tree to analyze the turnover of employees." Thesis, Uppsala universitet, Institutionen för informatik och media, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-325113.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Corvi, Matteo. "Strumenti informatici per l'analisi spaziale: Ipotesi di applicazione allo studio della densita e dei tessuti urbani." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/8648/.

Full text
Abstract:
Questa tesi si prepone di indagare quali ricadute positive potrebbe avere, nei confronti della pianificazione urbanistica e il monitoraggio a scala territoriale, l’applicazione delle tecnologie di analisi spaziale assistita dal computer, con particolare riferimento all’analisi tipomorfologica delle forme insediative, sia a scala di quartiere (distinguendo tessuto compatto, a grana fine, grossa, ecc.), che a scala urbana (analisi della densità e delle aggregazioni extraurbane). A tal fine sono state elaborate due ipotesi applicative delle recenti tecnologie di elaborazione object-oriented, sperimentandole sulle principali città romagnole che si collocano sull’asse della via Emilia.
APA, Harvard, Vancouver, ISO, and other styles
22

Trybek, Paulina. "Nieliniowe własności sygnałów elektromiografii powierzchniowej u pacjentów leczonych z powodu raka jelita grubego." Doctoral thesis, Katowice : Uniwersytet Śląski, 2019. http://hdl.handle.net/20.500.12128/12932.

Full text
Abstract:
The subject of this dissertation is the analysis of surface electromyographic signals that characterize the activity of the external rectal sphincter during colorectal cancer treatment. The studied muscle activity can serve as a very valuable source of knowledge about possible neuromuscular dysfunction after surgical removal of the tumor. The methodology of data analysis contained a set of nonlinear methods, including standard multifractal analysis and the techniques based on the study of information carried by the examined time series. The selected techniques have been implemented taking into account a number of factors, i.e. the type of surgical treatment, the time elapsed since the surgery, the state of muscle tension and the signal registration point (the location of the electrodes at different depths of the rectal canal). Based on the Multifractal Detrended Fluctuation Analysis method, the multifractal nature of the signals was identified in the range of short time scales. The focal point of this research is the estimation of the multifractal spectrum. Two main spectrum parameters were analyzed - spectral width and maximum. The results showed statistically significant differences for selected treatment stages and for specific measuring depths. In addition, using the Anova Friedman statistics at the selected significance level, the presence of statistically significant differences between the parameters of the spectra calculated for the series measured before the operation and three times in the postoperative convalescence phase was demonstrated. The second part of the analysis considered the measures derived from information theory. Characterization of average values of information contained in the signal allowed for differentiation of individual stages of muscle tension and indicated a greater complexity of the myographic signal in the state of muscle relaxation. The classical characteristics of the basic measures of information theory in the form of Shannon entropy and spectral entropy did not show significant changes between individual treatment stages. Therefore, it was decided to apply more advanced techniques for extracting information from the signal. The Sample Entropy Analysis and its extension for multiple time scales led to the identify the specific treatment stages and the depths in the rectal canal for which the values of information contained in the signal are most diverse. In addition, it has been shown that in these specific conditions, the stage directly after surgery is distinguished by the highest degree of differentiation with respect to the type of operation, which has also a clinical justification.
APA, Harvard, Vancouver, ISO, and other styles
23

Reschenhofer, Thomas [Verfasser], Florian [Akademischer Betreuer] [Gutachter] Matthes, and Ulrich [Gutachter] Frank. "Empowering End-users to Collaboratively Analyze Evolving Complex Linked Data / Thomas Reschenhofer ; Gutachter: Ulrich Frank, Florian Matthes ; Betreuer: Florian Matthes." München : Universitätsbibliothek der TU München, 2017. http://d-nb.info/1131802349/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Fürstenau, Daniel [Verfasser]. "Standard Diffusion in Networks : A Set of Models to Analyze IT Infrastructure Path Dependence / Daniel Fürstenau." Berlin : Freie Universität Berlin, 2014. http://d-nb.info/1068253835/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Ghiasvand, Siavash [Verfasser], Wolfgang E. [Gutachter] Nagel, and Martin [Gutachter] Schulz. "Toward Resilience in High Performance Computing: : A Prototype to Analyze and Predict System Behavior / Siavash Ghiasvand ; Gutachter: Wolfgang E. Nagel, Martin Schulz." Dresden : Technische Universität Dresden, 2020. http://d-nb.info/1231917180/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Giorgino, Giuseppe. "Analisi di attacchi basati su port scanning." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/8236/.

Full text
Abstract:
Nella tesi vengono presentate le analisi, con le relative considerazioni, di attacchi basati su port scanning, in particolar modo ci si sofferma sull'utilizzo di risorse, come impiego di CPU, di banda, ecc., in relazione alle diverse tecniche adoperate. Gli attacchi sono stati rivolti attraverso l'applicativo Nmap contro una rete di honeypot, gestiti e configurati attraverso il software Honeyd. Inoltre vengono fornite tutta una serie di conoscenze necessarie al lettore, le quali risulteranno essenziali per poter affrontare tutti gli argomenti trattati, senza doversi necessariamente informare da altre fonti.
APA, Harvard, Vancouver, ISO, and other styles
27

Signorini, Manuela. "Analisi ecologica dei flebotomi vettori della leishmaniosi canina in Italia nord-orientale attraverso l'utilizzo di Sistemi Informativi Geografici (GIS) e Modelli di Distribuzione di Specie." Doctoral thesis, Università degli studi di Padova, 2014. http://hdl.handle.net/11577/3423675.

Full text
Abstract:
Since the 1990s, new foci of Canine Leishmaniosis have being detected in northern Italy, previously regarded as non-endemic. The disease has increased gradually in the regions of the Alps and entomological surveys demonstrated the established presence of two vectors of the disease, P. perniciosus and P. neglectus, in several localities of the area. The changing pattern of the disease is mainly due to movement of infected dogs from endemic areas, to the increase in human and animal travels and goods trade and to climatic changes, critical to the establishment of the vectors. The study describes the results of the 12-years entomological survey in Veneto, Friuli Venezia Giulia and Trentino Alto Adige Regions, analysed through the use of GIS tools and Species Distribution Models (SDMs), based on remote sensing environmental data. Several climatic and environmental features were explored in regard to the entomological data, in order to better understand the ecology of the vectors and the epidemiology of the disease, to create a tool in support of surveillance activities. Sandfly trapping was conducted from 2001 to 2012 in 175 sites, using sticky traps (n=114 sites), CDC light traps (n=53) and CO2 traps (n=66). GPS coordinates were acquired for all sites and potential risk factors (altitude, number and species of domestic bait animals, structural characteristics of site and level of urbanization) were identified and registered. The presence/absence of sandflies were compared with the risk factors considered and environmental variables, such as MODIS data (Normalized Difference Vegetation Index and Land Surface Temperature), a land cover map (Corine Land Cover 2006), a Digital Elevation Model (GTOPO30) and a bioclimatic variable taken from the database WorldClim (BIO 18, precipitation of Warmest Quarter). The environmental features resulted more relevant, were used to built a predictive model of presence of P. perniciosus and sandflies in Veneto, Friuli Venezia Giulia and Trentino Alto Adige Regions, using the software MaxEnt (Maximum Entropy Modeling System). Overall, 6.144 sandflies were collected and identified and P. perniciosus was the most abundant species (3.797, 61,8%), with density values comparable to endemic areas of southern and central Italy. The ecological analyses of risk factors identified the altitudinal range between 100 and 300 m as the optimal environment for sandflies. The analyses of eco-climatic variables showed that the species P. perniciosus and the sandflies prefer hilly areas, characterized by temperate climate, high vegetation cover and moderate rainfall. The SDMs developed showed a high predictive power and demonstrated to be realistic, since areas highly suitable for sandflies overlap with Canine Leishmaniosis foci in the study area. Visualisation of patterns of distribution of vector species in ecological space, using SDMs, was a useful tool for the understanding of the ecological requirements of the sandfly vectors. The used approach may be considered a new resource for the proper identification of the surveillance actions for the control of Canine Leishmaniosis.<br>A partire dagli anni '90, sono stati evidenziati nuovi focolai autoctoni di leishmaniosi canina in Italia settentrionale, area fino agli anni precedenti considerata indenne. Gradualmente, la malattia si è diffusa nelle Regioni dell’arco alpino e i monitoraggi entomologici condotti, hanno evidenziato la presenza stabile di due vettori della malattia, P. perniciosus e P. neglectus, in diverse aree del Territorio. Il cambiamento della distribuzione della malattia sembra legato principalmente al movimento dei cani infetti dalle aree endemiche, all’aumento degli spostamenti di merci, animali e persone ed ai cambiamenti climatici, determinanti per la sopravvivenza dei vettori. Lo studio descrive i risultati di 12 anni di campionamenti entomologici, condotti in Veneto, Friuli Venezia Giulia e Trentino Alto Adige, analizzati attraverso l’utilizzo di strumenti GIS e modelli di distribuzione di specie (SDMs) basati su dati ambientali ottenuti tramite remote sensing. Sono state analizzate diverse caratteristiche climatiche ed ambientali, relazionandole con i dati relativi ai monitoraggi, con la finalità di comprendere meglio l’ecologia dei vettori e l’epidemiologia della malattia, per creare uno strumento di supporto alle attività di sorveglianza. Il monitoraggio è stato condotto dal 2001 al 2012 in 175 siti, utilizzando sticky traps (n=114 siti), CDC light traps (n=53 siti) e CO2 traps (n=66 siti). I siti sono stati geo-referenziati ed alcuni possibili fattori di rischio (altitudine, numero e specie di animali esca, tipologia di sito e livello di urbanizzazione) sono stati individuati e registrati sul campo. I dati di presenza/assenza dei flebotomi sono stati analizzati in funzione dei fattori di rischio considerati, di due variabili ambientali ottenute dal sensore MODIS (Normalized Difference Vegetation Index e Land Surface Temperature), di una mappa di uso del suolo (Corine Land Cover 2006), di un modello digitale del terreno (GTOPO30) e di una variabile climatica ottenuta dal data set WorldClim (BIO 18), relativa alle precipitazioni medie registrate nei trimestri più caldi. Le variabili risultate più rilevanti sono state utilizzate per elaborare un modello predittivo della presenza di P. perniciosus e dei flebotomi in Triveneto, utilizzando il software MaxEnt (Maximum Entropy Modeling System). In totale sono stati raccolti e identificati 6.144 flebotomi e P. perniciosus si è dimostrato essere la specie più rappresentata nel territorio (3.797 esemplari, 61,8%), con densità paragonabili a quelle registrate nelle aree endemiche del centro-sud Italia. L’analisi ecologica dei fattori di rischio ha individuato la fascia altitudinale tra i 100 e i 300 m s.l.m. come quella più idonea ai flebotomi. L’analisi delle variabili ambientali ha evidenziato che i flebotomi e P. perniciosus prediligono ambienti collinari, caratterizzati da un clima mite, elevata copertura vegetazionale e precipitazioni non abbondanti. Il modello di distribuzione di specie elaborato, ha mostrato un buon potere predittivo e si è dimostrato realistico, in quanto l’area risultata più idonea alla presenza dei flebotomi nel territorio si sovrappone in modo chiaro con le aree interessate da focolai di leishmaniosi canina. La visualizzazione dei pattern di distribuzione dei flebotomi vettori nello spazio ecologico, attraverso l’utilizzo di modelli di distribuzione di specie, si è dimostrata essere un valido strumento per comprendere quali fattori condizionano maggiormente la presenza degli stessi. Gli strumenti utilizzati possono essere considerati una nuova risorsa da integrare alle azioni di sorveglianza per la prevenzione della leishmaniosi canina, con il fine di destinare le risorse correttamente e di sviluppare strategie sempre più appropriate.
APA, Harvard, Vancouver, ISO, and other styles
28

Sorsa, Nina, and Tobias Hansson. "Att göra analoga objekt digitala : En kvalitativ studie om digitaliseringsprocessen i ett bibliotek." Thesis, Umeå universitet, Institutionen för informatik, 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-74483.

Full text
Abstract:
Contemporary libraries face challenges in transforming their organization to meet the digitalized society. To develop the process of digitization of literature is a natural way for libraries to go when they already have more visitors online than physically. Since the demand for digital material is so sought after, we feel challenged to address the challenges of the Internet as an emerging functional medium for distributing knowledge. These developments will be able to significantly modify the nature of literature as well as the existing system of quality assurance. In this study, we explored and analyzed a digitization project at a research library. We have also examined the relationship between digitization process and its different elements. To view at such a problem from a system-theoretical approach enables boundaries, where we could create a mental model that is useful for our case and us. By originate from a maximum theoretical flow based on the hardware, we hope to see the stages of the process that do not achieve the same capacity as the hardware. To accomplish this and to get a detailed understanding we used a qualitative approach, where we have conducted observations and combined it with participant’s interviews from the examined library.
APA, Harvard, Vancouver, ISO, and other styles
29

Requena, Maisa Aparecida. ""Esse é o legítimo tá pessoal": o discurso dos vendedores informais em situação de trabalho." Pontifícia Universidade Católica de São Paulo, 2009. https://tede2.pucsp.br/handle/handle/14065.

Full text
Abstract:
Made available in DSpace on 2016-04-28T18:24:02Z (GMT). No. of bitstreams: 1 Maisa Aparecida Requena.pdf: 549716 bytes, checksum: e7b3be3f691c87503a9602bc20bdcfdc (MD5) Previous issue date: 2009-05-07<br>Coordenação de Aperfeiçoamento de Pessoal de Nível Superior<br>The study of diversities of creative manifestations in Brazilian people has allowed us to find out personages who discovered an alternative of work to face the unemployment: to produce publicity and selling products inside the Metropolitan trains of São Paulo. It is about the discourses produced by the informal worker whose advertising does not appear in magazines, newspaper, pamphlets, outdoors etc., but have the same goals, which are to publicize, spread ideas and, mainly, to sell products. In this sense, this research has as its objective to analyze the discursive mechanism that characterize the speeches of these informal workers. The research conforms to the theoretical field developed by Dominique Maingueneau, more specifically in the conceptions of Interdiscourse, Scenography and Ethos. From the methodological point of view, we have followed these steps: (i) the observation of the work activities of the workers the discourses produced by them, (ii) field notes about the activity in work circumstances and about the discourses transmitted by the workers and (iii) transcription of some of their speech. The analysis has revealed two groups of discourse: the slogan-discourses and the advertisement-discourse. The first one has showed an enunciative scene compatible with the street market conditions, while in the second one, the developed scene was similar to the auction situation. From the scenography analysis, it has emerged the Ethos of the enunciators of both groups. In the slogan-discourse, the presented Ethos is from an agile, discreet and invisible enunciator, while in the advertisement-discourse, the presented Ethos is from a good-tempered, calm, sympathetic, agile and considerate enunciator. Thus, the workers mobilize many mechanisms in order to create a new model of publicity that aims to legitimate its discourses, generating scenographies and presenting an Ethos<br>A observação das diversas maneiras de manifestações criativas do povo brasileiro nos permitiu localizar pessoas que encontraram um meio diferente de trabalho para enfrentar o problema da falta de emprego: produzir publicidade e vender produtos no interior dos trens metropolitanos de São Paulo. Trata-se de discursos produzidos pelos vendedores informais cuja publicidade não aparece em revistas, jornais, panfletos, outdoors etc., mas que apresentam os mesmos objetivos, o de divulgar, de propagar idéias e, principalmente, o de vender seus produtos. Nesse sentido, a pesquisa tem por objetivo analisar os mecanismos discursivos que caracterizam a fala do vendedor informal. A investigação se enquadra na perspectiva desenvolvida por Dominique Maingueneau, mais precisamente, nas noções de interdiscurso, cenografia e ethos. Do ponto de vista metodológico, foram seguidas as seguintes etapas: (i) observação da atividade de trabalho dos vendedores e dos discursos produzidos por eles, (ii) anotações de campo sobre a atividade em situação de trabalho e sobre os discursos veiculados pelos vendedores e (iii) transcrição de algumas de suas falas. A análise revelou dois grupos de discursos: os discursos-slogans e os discursos-anúncios. Os primeiros apresentam uma cena de enunciação compatível com à de feira livre e os segundos, são semelhantes à cenografia de um leilão. A partir da análise da cenografia, emergiu o ethos dos enunciadores dos dois grupos. No discurso-slogan, o ethos é o de um enunciador ágil, discreto, invisível, enquanto no discursoanúncio, a imagem discursiva é o de um enunciador bem-humorado, calmo, simpático, ágil e atento aos chamados dos clientes
APA, Harvard, Vancouver, ISO, and other styles
30

Johansson, Rickard. "Digitalisering av analoga arbetsmoment : En intervjuestudie av applikationen "Storesprint" vid IKEA Karlstad." Thesis, Karlstads universitet, Handelshögskolan (from 2013), 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kau:diva-73051.

Full text
Abstract:
Digitalisering utav analoga arbetsmoment innebär att man omvandlar en arbetsprocess som tidigare varit utförd manuellt till att göra om den så att den kan utföras enbart via en dator eller en mobil. I denna uppsats har IKEA Karlstad undersökts för att ta reda på hur de implementerat digitaliseringen utav några av sina arbetsprocesser och hur implementeringen har påverkat arbetet för de anställda på IKEA Karlstad. För att ta reda på detta så har sex intervjuer genomförts, tre intervjuer med personal som varit med i implementeringsprocessen samt tre intervjuer med övrig personal på olika avdelningar. Detta för att få både personer som deltagit i implementeringsprocessen och annan personals uppfattning. Resultatet av intervjuerna visar att digitaliseringen av de tidigare analoga arbetsmomenten resulterat i två mycket effektivare arbetsprocess än tidigare. Då denna implementation var en mobil applikation ökade mobiliteten vid utförandet av arbetsuppgifterna, samt sparade kostnader vid inköp utav material som man tidigare använt vid utförandet utav arbetsprocessen. Slutsatsen för denna undersökning är att implementeringen gick väldigt smidigt till och att de anställda är mycket positivt inställda till den förändring som skett.
APA, Harvard, Vancouver, ISO, and other styles
31

Turci, Marco <1990&gt. ""Avevamo in mente interi universi: una analisi socio-culturale del fenomeno del gioco di ruolo analogico contemporaneo tramite etnografia di gruppi informali di gioco nell'area veneziana"." Master's Degree Thesis, Università Ca' Foscari Venezia, 2020. http://hdl.handle.net/10579/16230.

Full text
Abstract:
La tesi offre una esaustiva panoramica storica, sociale e culturale del fenomeno originario degli Stati Uniti e poi diffusosi in tutto il mondo, passando prima dall'Europa occidentale, modificando poi i suoi immaginari culturali di riferimento con il tempo. La parte centrale etnografica, divisa in sotto-sezioni tematiche, offrirà tramite metodologie esplicitate (osservazione partecipante e non, intervista semi-strutturata e analisi semiotica di testi ed oggetti), un quadro comprensivo delle interazioni sociali di gruppi informali, costruito a partire dalla ricerca di campo attuata dal 2016 al 2018 in area veneziana (Musile, Mestre, Venezia e Marghera); verrà poi inserita una triangolazione tramite descrizione di interazioni avvenute online in gruppi e pagine social dedicate (netnography). L'ultima sezione di analisi chiarirà come sia fondamentale ai fini del mantenimento dell'interazione soddisfacente e funzionale al gioco, il controllo del flusso di informazioni e delle interazioni, mediante una cornice retorica strutturata attorno ai concetti di "capitale culturale", "teoria delle pratiche", "cornice narrativa"e "immaginario" e di come questo insieme di informazioni rilevanti muti insieme al contesto economico e ideologico di appartenenza.
APA, Harvard, Vancouver, ISO, and other styles
32

Potleca, Michele. "Il laser scan a supporto delle analisi geologiche e geomorfologiche." Doctoral thesis, Università degli studi di Trieste, 2008. http://hdl.handle.net/10077/2558.

Full text
Abstract:
2006/2007<br>Nel presente lavoro viene presentata una panoramica generale sulla tecnica laserscan, soffermandosi maggiormente sui sistemi utilizzati nell’ambito di questa ricerca, evidenziando le problematiche di carattere fisico, tecnico e applicativo per le analisi di tipo ambientale. In seguito è descritta la metodologia con cui sono stati affrontati i rilievi, le modalità e problematiche nell’elaborazione di dati LIDAR e le loro analisi dal punto di vista geologico applicativo descrivendo alcuni dei numerosi casi studio affrontati nel corso della ricerca. Sono state testate e provate diverse strumentazioni laser scan sia da terra che da elicottero. Si sono descritte le metodologia con cui si sono affrontate le acquisizioni, le procedure e le tecniche di processamento dati, nonché i metodi d’analisi e modellazione delle nuvole di punti. Per l’intera fase di processamento sono state confrontate le tecniche di rilievo terrestre tramite TLS e quelle aeree tramite ALS. Queste sono le principali fasi seguite: 1)Progetto delle prese per i rilievi TLS, o progettazione del volo per i rilievi aviotrasportati; 2)Calibrazione dei sensori; 3)Acquisizione dei dati; 4)Generazione delle nubi di punti; 5)Allineamento e target; 6)Georeferenziazione ; 7)Filtraggio; 8)Classificazione; 9)Ottimizzazione delle nuvole di punti; 10)Produzione dei file e modellazione La maggior attenzione si è posta sulle fasi di trattamento e modellazione dei dati laser in quanto sono passaggi di fondamentale importanza per le successive analisi a fini geologico – geomorfologico. Nei primi 2 anni della presente ricerca si sono affrontati ben 12 rilievi laser a fini geologici, geomorfologi e di modellistica idraulica 11 sul territorio del Friuli Venezia Giulia e 1 in Veneto. L’individuazione e scelta dei siti da è stata in funzione della loro rappresentatività in termini di pericolosità e rischio associato, nonché disponibilità di informazioni pregresse sui fenomeni in atto e sulla base della tipologia dei fenomeni Successivamente, è stato scelto di limitare lo studio solo sulle varie tipologie di frana scegliendo i 5 casi più rappresentativi, di questi è stato condotto uno studio di dettaglio e un adattamento e messa a punto degli strumenti e dei codici di calcolo più idonei agli scenari sotto indagine. Le applicazioni sperimentate sui diversi fenomeni franosi hanno fornito risultati incoraggianti, mostrando comunque che il futuro della tecnica laser è nell’integrazione con le metodologie fotogrammetriche, che forniscono informazioni complementari a quelle ottenute dalle riprese laser. Si è dimostrato come sia possibile la valutazione di spostamenti, modificazioni morfologiche e deformazioni in aree soggette a frane può avvenire attraverso in confronto fra 2 DTM o un DTM e una nuvola di punti anche laddove ci sia un’elevata coperture vegetale o in zone di difficile accesso. L’utilizzo dei rilievi TLS e ALS , ed in particolare l’analisi di serie di DTM multi-temporale, è risultato uno strumento essenziale per il controllo dell’evoluzione temporale di fenomeni franosi complessi. L’approccio digitale ha consentito di produrre in tempi brevi e con continuità modelli della superficie come riportato nei casi studio, eseguire confronti e valutazioni quantitative dei volumi interessati ai fenomeni franosi, seguire l’evoluzione morfologica del versante per fornire parametri di valutazione della stabilità dello stesso.<br>XIX Ciclo<br>1971
APA, Harvard, Vancouver, ISO, and other styles
33

Ala-Häivälä, Anders. "Batch-digitalisering och GIS-anpassning av analoga enkätdata." Thesis, Karlstad University, Faculty of Social and Life Sciences, 2007. http://urn.kb.se/resolve?urn=urn:nbn:se:kau:diva-1234.

Full text
Abstract:
<p>I denna rapport beskrivs arbetet med att tillvarata och anpassa data från en enkätundersökning till digital hantering i GIS. Undersökningen är en besöksstudie utförd av Karlstads kommun och Skogsstyrelsen för att kartlägga människors rörelsemönster i I2-Skogen, ett gammalt militärt övningsfält som numera används som rekreationsområde. Enkäten består av ett antal frågor om exempelvis typ av aktivitet, ålder och åsikter om området, samt en karta på vilken besökaren ritat in var i området han eller hon rört sig. Utgångsmaterialet för arbetet har varit en databas innehållande enkätsvaren, samt originalkartorna med den ritade informationen. Arbetet omfattar dels att undersöka om kartinformationen kan digitaliseras automatiskt genom scanning och vektorisering i batch, och dels att normalisera och strukturera databasen med enkätsvaren.</p><p>En metod för digitalisering har utarbetats och testats på ett urval av kartorna. Metoden består av ett antal steg och innefattar bl a bearbetning av kartorna i bildbehandlingsprogram samt klassning och vektorisering i GIS-programvara. Eftersom batchfunktioner saknas i GIS-programvaran har makron skapats genom programmering i VBA. Metoden har visat sig fungera bra på urvalet och slutsatsen blir att det är fullt möjligt att digitalisera de ritade linjerna med automatik. Dock finns vissa brister avseende noggrannhet och användbarhet. Dessutom är urvalet relativt litet och viss justering av inställningarna för klassning och vektorisering kan vara nödvändig vid tillämpning på större delar av materialet.</p><p>Databasen har normaliserats så långt som ansetts rimligt med tanke på prestanda och användbarhet. För att tillförlitliga sökningar ska kunna utföras har flera attribut tolkats och modifierats genom indelning i kategorier och intervall.</p><p>Arbetet har resulterat i en geodatabas innehållande samtliga enkätsvar samt det utvalda materialet från digitaliseringstestet. För att visa hur databasen kan användas har två enkla analysexempel tagits fram.</p><br><p>This report describes the work with utilizing and adapting data from a visitor poll for use in a GIS. The poll was performed by the Municipality of Karlstad and the Swedish Forest Agency to survey peoples visit patterns in the I2-Forest, a former military training field which is now used as a recreation area. The poll consists of a number of questions about the visitor’s activities, age, opinions etc, and a map on which the visitor has drawn his or her path through the forest. Source data is a database containing poll answers, and the original maps with the drawn information. The task is partly to investigate if the maps can be batch-digitalized through scanning and vectorization, and partly to normalize the database.</p><p>A method for digitalizing has been developed and tested on a selection of the maps. The method consists of a number of steps, including image processing, classification and vectorization. According to lack of batch-possibilities in the used GIS software, macros have been created by programming in VBA. The method works well on the selected maps and the conclusion is that it is possible to digitalize the drawn lines automatically. However, there are some shortages regarding accuracy and usability. Furthermore, the selection is relatively small and some adjustments on the settings for classification and vectorization might be necessary when applying the method on a larger part of the data.</p><p>The database has been normalized as far as reasonable with consideration of performance and usability. To enable reliable searches, several attributes has been interpreted and modified through categorization and classification.</p><p>The result is a geodatabase consisting of all poll answers, and the selected data from the digitalization test. To show how the database can be used, two simple examples of analyses have been made.</p>
APA, Harvard, Vancouver, ISO, and other styles
34

Tinjala, Daniel Dumitru. "Patologie iatrogene negli anziani fragili: prevalenza e analisi dei predittori associati al loro sviluppo." Doctoral thesis, Università degli studi di Padova, 2017. http://hdl.handle.net/11577/3426203.

Full text
Abstract:
Background. The potentially inappropriate prescriptions (PIPs) are frequent among the ederly, and generally, they are associated to the appearance of adverse drug reactions, hospital admissions and elevated welfare expenses. In literature, multiple studies aimed to improve the appropriateness of prescribing to the ederly, however with conflicting results. Today the choice of the tool to adopt for the improvement of the appropriateness of prescribing to the ederly represents, globally, a challenge for all the Health Services. Aims. This study aimed to review the pharmacological therapy in a group of patients admitted to a Geriatric Ward of Padua’s ULSS 16 and to evaluate if there is an association with the reduction of clinically relevant events such as mortality and the access to hospitals by an improvement to the appropriateness of prescribing. Furthermore, the study aimed to realize a logistic regression model to highlight the variable registries, clinical and therapeutic of the inappropriate prescription. Methods. For each hospitalized patient, during the period of april 1st 2012 and july 31st 2016, clinical and therapeutic data were collected. Such information is entered in a "built-in software" able to detect the presence of any PIP associated to drug interactions identified by Micromedex and the unsuitability of prescriptions according to the STOPP criteria. Lastly, the software produces a report that was discussed with the physician and the level of inappropriateness was measured by the MAI (Medication Appropriateness Index). Patients who have improved in terms of appropriateness were compared later with a group of patients without improvement, in order to highlight any differences in terms of mortality and use of health facilities. These data were extracted from administrative fluxes of Ulss 16. Finally, was realized a logistic regression model to highlight the demographic, clinical and therapeutic variables associated with PIPs. Results. During the observation period a total of 1,848 therapies were evaluated. At admission, they presented a high degree of fragility and, 67% of them, had significant degree of polypharmacy (≥ 5 drugs). After a proper review, a significant reduction in the MAI/patient score was noticed [4 (IQR=2-6) vs. 2 (IQR=0-5); p<0.001]. The subsequent realization of a retrospective cohort study highlighted, in favor of patients with improved prescription appropriateness, a downward trend in mortality at 12 months (7% vs 14%, p=0.08) and a significant reduction of hospitalizations expressed as the number of accesses/100 days of observation [0.27 (IQR=0.00 to 0.30)] vs [0.28 (IQR=0.00 to 0.86)]. Conclusively the logistics analysis has identified as predictors of PIPs: the number of drugs, the presence of antipsychotics, antidepressants, anti-thrombotic, NSAIDs and a diagnosis of COPD. Conclusions. This study revealed that improving appropriateness prescription, through a "built-in software", will drastically reduced hospital admissions. The logistic regressional model highlighted factors related to the presence of PIPs, therefore, will be used in hospitals for punctual and proper pharmacological review in frail elderly.<br>Introduzione. Le prescrizioni potenzialmente inappropriate (PPIs) sono molto frequenti nella popolazione anziana e, generalmente, sono associate alla comparsa di reazioni avverse, ricoveri ospedalieri e ad elevati costi assistenziali. In letteratura, numerosi studi si sono proposti di migliorare l’appropriatezza prescrittiva nell’anziano con risultati tuttavia discordanti. La scelta dello strumento da adottare per il miglioramento dell’appropriatezza prescrittiva nell’anziano rappresenta oggi, a livello globale, una sfida per tutti i Servizi Sanitari. Obiettivi. Il presente studio si è proposto di revisionare la terapia farmacologica in un gruppo di pazienti ricoverati consecutivamente presso un reparto di Geriatria dell’Ulss 16 di Padova e di valutare se vi è una riduzione di eventi clinicamente rilevanti quali la mortalità e l’accesso alle strutture ospedaliere di seguito ad un miglioramento dell’appropriatezza prescrittiva. Inoltre, lo studio si è proposto di realizzare un modello logistico regressionale per evidenziare le variabili anagrafiche, cliniche e terapeutiche suggestive di inappropriatezza prescrittiva. Metodi. Per ciascun paziente ricoverato, nel periodo 01.04.2012-31.07.2016, sono stati rilevati i dati clinici e terapeutici. Tali informazioni sono state inserite in un software “integrato” in grado di rilevare la presenza di eventuali PPIs associate ad interazioni farmacologiche identificate da Micromedex e altre inappropriatezze prescrittive secondo i criteri di STOPP. I dati sull'appropriatezza prescrittiva sono stati discussi con il medico ospedaliero e il suo miglioramento è stato misurato attraverso il MAI (Medication Appropriateness Index). I pazienti con miglioramento prescrittivo sono stati confrontati successivamente con un gruppo di soggetti senza miglioramento, al fine di evidenziare eventuali differenze in termini di mortalità e ricorso alle strutture sanitarie. Tali dati sono stati estratti dai flussi gestionali dell’Ulss 16. È stato infine realizzato un modello logistico regressionale per evidenziare le variabili anagrafiche, cliniche e terapeutiche associate alle PPIs. Risultati. Nel periodo di osservazione sono state valutate complessivamente le terapie di 1.848 pazienti. Tali soggetti presentano all’ingresso un elevato grado di fragilità e, nel 67% dei casi è stato riscontrato un importante grado di politerapia (³ 5 farmaci). Dopo l’intervento, si è osservata una significativa riduzione del punteggio MAI/paziente [4 (IQR=2-6) vs 2 (IQR=0-5); p<0.001]. La successiva realizzazione di uno studio di coorte retrospettivo ha permesso di evidenziare, nei pazienti con miglioramento prescrittivo alla dimissione rispetto ai soggetti senza miglioramento, un trend di riduzione della mortalità a 12 mesi (7% vs 14%, p=0,08) e una significativa riduzione dei ricoveri espressi come numero di accessi/100 giorni di osservazione [0,27 (IQR=0,00-0,30)] vs [0,28 (IQR=0,00-0,86)]. Infine, l’analisi logistica ha permesso di identificare come predittori di inapropriatezza prescrittiva il numero di medicinali assunti, la presenza di farmaci antipsicotici, antidepressivi, antitrombotici, FANS e una diagnosi di BPCO. Conclusioni. Il presente studio ha rilevato che il miglioramento dell’appropriatezza prescrittiva, effettuato con uno specifico software integrato, ha permesso una significativa riduzione dei ricoveri ospedalieri. Il modello logistico regressionale ha consentito di evidenziare i fattori correlati alla presenza di PPI e, pertanto, sarà utilizzato in ambito aziendale per una puntuale e corretta revisione farmacologica nell’anziano fragile.
APA, Harvard, Vancouver, ISO, and other styles
35

Boström, Erik, and Onur Can Celik. "Towards a Maturity Model for Digital Strategizing : A qualitative study of how an organization can analyze and assess their digital business strategy." Thesis, Umeå universitet, Institutionen för informatik, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-136736.

Full text
Abstract:
Many  companies  are  struggling  to  navigate  in  the  rapidly  changing  environment  and uncertain time of the digital era. Previous research has been exploring the ongoing trend of digital transformation, as well as digital business strategies, but still there is little guidance for  practitioners  in  terms  of  concrete  frameworks  and  concepts  for  digital  business strategizing.  This  thesis  investigates  critical  factors  of  digital  business  strategizing  and contributes  by  developing  a  maturity  model  for  digital  business  strategizing.  The contribution  of  this  study  is  two  folded,  on  the  one  hand  it  provides  practitioners  a conceptual  artefact  in  order  to  analyze  their  challenges  in  the  new  landscape  of  digital transformation and on the other it gives valuable insights for researchers on the new rising phenomena of digital business strategies.
APA, Harvard, Vancouver, ISO, and other styles
36

Miñarro, Cánovas Consuelo. "Propuesta metodológica para medir y analizar el interés noticioso de los principales ciberperiódicos de información general de España e Italia, en el marco de la convergencia digital. Participación de los usuarios y tema de las noticias, indicadores fundamentales de dicho interés noticioso." Doctoral thesis, Universidad de Murcia, 2013. http://hdl.handle.net/10803/129389.

Full text
Abstract:
El Interés Noticioso es un criterio periodístico relevante porque es lo que conecta las noticias –el producto periodístico por antonomasia que ofrecen los medios informativos– con sus públicos. Pero las aproximaciones a este criterio son teóricas y no tendentes a operativizarlo como un concepto observacional. Así pues, esta tesis doctoral plantea una aproximación metodológica para medir y analizar el Interés Noticioso de un ciberperiódico de información general. Además, existen dos indicadores fundamentales del interés que son el tema de las noticias y la participación de los usuarios en las mismas, a través de las redes sociales Facebook y Twitter y los comentarios de las noticias. Aproximación metodológica propiciada por el contexto digital. En nuestra investigación, consideramos que el Interés Noticioso de un ciberperiódico de información general viene definido por el grado de aproximación o correspondencia (punto de encuentro) entre el Interés Público y el Interés del Público en dicho ciberperiódico. El Interés Público es entendido como lo que el ciberperiódico estima que debe o puede interesar a un sector importante de la sociedad por la relevancia y el mayor alcance de los hechos para el conjunto de los ciudadanos y se materializa en la jerarquía informativa principal de la portada del ciberperiódico, a través de las 10 primeras noticias de la columna izquierda de la portada. Mientras que el Interés del Público de ese ciberperiódico se entiende como lo que realmente interesa al público de la oferta informativa total que propone dicho ciberperiódico y está representado por la lista de noticias más leídas por los usuarios de ese ciberperiódico, a través de sus 10 primeras noticias, que nos proporciona la jerarquía informativa principal de los lectores o agenda principal del público. Para testar nuestro planteamiento, se ha estudiado la aproximación propuesta al Interés Noticioso a través de un estudio comparativo europeo entre los principales ciberperiódicos de información general de España e Italia con ElPaís.com, ElMundo.es, el Corrieredellasera.it y LaStampa.it, a partir de criterios de difusión y posicionamiento de marca en estos países europeos. Así pues, el objetivo principal de nuestra investigación es conocer el Interés Noticioso de los ciberperiódicos de información general de la muestra. Pero también determinar la agenda temática y la participación de los usuarios en las noticias de Interés Noticioso, déficit de Interés Noticioso (el grado de no correspondencia entre el Interés Público y el Interés del Público en dichos ciberperiódicos), Interés Público e Interés del Público, principalmente. En cuanto a los resultados más significativos, se puede destacar que los principales ciberperiódicos de información general de España –ElPaís.com y ElMundo.es– e Italia –Corrieredellasera.it y LaStampa.it– tienen un Interés Noticioso bajo, siendo aún más bajo en los de España. Mientras que el Corrieredellasera.it es el único ciberperiódico que posee un Interés Noticioso medio. Con lo cual, son los usuarios de los ciberperiódicos españoles lo que más se independizan de la oferta informativa principal que reciben. En cuanto a la temática de las noticias, los temas más destacados que proponen estos cibermedios en su jerarquía informativa principal de portada son de Política y Economía, mientras que al público le interesan mayoritariamente los de Sociedad y Deportes. Esta divergencia de intereses temáticos podría explicar el bajo Interés Noticioso de estos ciberperiódicos. En relación a la participación de los usuarios a través de las redes sociales Facebook y Twitter y los comentarios de las noticias, los usuarios tanto de los ciberperiódicos de España como de los de Italia participan más en aquellas noticias que les interesan como son las de Interés Noticioso e Interés del Público. Los usuarios más participativos son los de los ciberperiódicos españoles, en especial, los de ElPaís.com y la forma de participación más utilizada por los usuarios de estos cibermedios es Facebook. En definitiva, este modelo de análisis puede ser un instrumento metodológico útil para las empresas periodísticas porque pueden conocer con datos precisos el Interés Noticioso del ciberperiódico, analizar sus temáticas y participación de sus usuarios y gestionarlo, lo que les puede reportar un beneficio periodístico, social y económico.<br>Newsworthiness is a relevant journalistic criterion because it connects news (the quintessential journalistic product offered by the media) with their audiences. But the approximations to this criterion are theoretical, and there is no intention of using it as a method of observation. Thus, this dissertation presents a methodological approach to measure and analyze the newsworthiness of a general-interest cyber-newspaper. In addition, there are two main indicators of the interest: the subject of the news and the participation of the users in them, through social networks as Facebook and Twitter and news comments. Methodological approach favored by the digital context. In our research, we consider that the newsworthiness of a general-interest cyber newspaper is defined by the degree of approximation or correspondence (meeting) between the Public Interest and the interest of the public in that cyber newspaper. A cyber-newspaper estimates as Public Interest something that should or could interest to a large sector of society because of its relevance and scope for all citizens, which finally becomes real in the hierarchy of the cyber-newspaper front page, across the first ten news of the left column of the front page. While the interest of the public is understood by this cyber-newspaper as the most interesting information proposed by them to the public, and is represented by a news list of the most read stories by the users of this cyber newspaper. An informative hierarchy of the readers will be provided across the first news. To test our approach, we have studied the proposed approximation to newsworthiness doing a comparative study between the main European general-interest cyber-newspapers of Spain and Italy: ElPaís.com, ElMundo.es, Corrieredellasera.it and LaStampa.it, based on certain criteria and branding diffusion in these European countries. Thus, the main objective of our research is to determine the newsworthiness of the general-interest cyber-newspaper described above. But also to define the agenda-setting and users’ participation in newsworthy news, the newsworthy deficit (the degree of mismatch between the Public Interest and the interest of the public in such newspapers), the Public Interest and the interest of the public. As for the most significant results, one can note that the main general-interest cyber-newspapers of Spain -ElPaís.com and ElMundo.es- and Italy -Corrieredellasera.it and LaStampa.it- have a low newsworthy, being even lower in those of Spain. However, Corrieredellasera.it is the only cyber- newspaper with an intermediate newsworthy. Whereupon, are the users of the Spanish cyber-newspapers the most independent regarding the main informative offer received. On the subject of news, Politics and Economics are the outstanding themes proposed by these online media in its hierarchy of information, while the public is mostly interested in Society and Sports. This divergence of thematic interests could explain a low-interest of these cyber-newspapers newsworthy. In relation to the users’ participation via social networks as Facebook and Twitter and their news comments, users of both countries, Spain and Italy, are more involved in stories that interest them such as those of the newsworthiness and interest of the public. The most active users are those of the Spanish cyber-newspapers, especially those of ElPaís.com. Facebook is the most widely way of participation by users of these online newspaper. Finally, this model of analysis can be a useful methodological tool for media companies because they could know the newsworthiness of a cyber-newspaper accurately. They could analyze its themes, participation of its members and its management, what it may provide them a journalistic benefit, social and economic.
APA, Harvard, Vancouver, ISO, and other styles
37

Olofsson, Petrus. "Digitalisering av Analoga Informationssystem : Vad är viktigt i denna process sett ur ett användarperspektiv?" Thesis, Karlstads universitet, Avdelningen för informatik och projektledning, 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:kau:diva-28451.

Full text
Abstract:
Trots otaliga digitala alternativ används fortfarande analoga system som whiteboardtavlor med tillhörande whiteboardpennor och post-it lappar vid t.ex. projekthantering. I denna studie undersöks användares motiv till varför de väljer att använda analoga respektive digitala system, samt vad de anser är viktigt vid utveckling av gränssnitt till digitala system. Syftet med studien är att, ur ett användarperspektiv, visa fördelar, nackdelar samt interaktionsmöjligheter hos analoga respektive digitala system, och att redogöra för vad som bör tas i beaktande när analoga system ska digitaliseras så att fördelaktiga egenskaper hos det analoga systemet kan överföras till det digitala. Anställda på det IT-företag studien genomförts i samarbete med har intervjuats, och resultatet från dessa intervjuer har sammanställts och analyserats med hjälp av en för studien framtagen analysmodell, vilken baserats på den litteraturstudie som gjorts. Vid analysen framkom att det främst är enkelheten och överskådligheten hos analoga system som gör att dessa föredras. Det som anses vara mest fördelaktigt hos digitala system är möjligheten till hög funktionalitet, att persistent kunna lagra information och att kunna utnyttja denna på olika sätt, samt möjligheten att kunna dela information. Beträffande de intervjuades åsikter om analoga respektive digitala system kan ett mönster ses, att de egenskaper de nämner som positiva och som fördelar hos analoga system ofta benämns som negativa och som nackdelar hos digitala system. Det omvända förhållandet ses också, att nämnda positiva egenskaper hos digitala system ofta nämns som negativa egenskaper hos analoga system. Genom att vid utveckling av digitala system se till att dessa även innehar de fördelaktiga egenskaper analoga system besitter, kan motsvarande negativa egenskaper hos digitala system elimineras. Vad som avgör om ett system är enkelt är svårdefinierat, då olika användares uppfattningar skiljer sig åt. Genom att kontinuerligt under digitaliseringsarbetet utföra någon form av användartester, där systemets gränssnitt testas, kan dock gränssnittets enkelhet utvärderas, och den fortsatta utvecklingen kan dra lärdom av och baseras på analyser av resultatet från dessa tester. Vad gäller överskådligheten hos digitala system, så kan denna förbättras genom att gränssnittet erbjuder olika typer av vyer. Fördelaktigt vid digitalisering av analoga system är att identifiera vad som är viktigt i det dagliga arbetet, samt att inse att det är uppgiften, tillvägagångssättet och arbetsflödet som är det väsentliga, inte verktyget i sig. Om en uppgift utförs i ett digitalt system, men den utförs av olika användare i olika situationer och kontexter, på olika typer av enheter vilka har olika interaktionsmöjligheter, så bör lämpligen systemets gränssnitt anpassas med utgångspunkt från de interaktionsmöjligheter den enhet uppgiften utförs på erbjuder, samt utefter var och hur olika användare vill utföra uppgiften.
APA, Harvard, Vancouver, ISO, and other styles
38

Haraldsson, Daniel. "Marknadsföring på Twitter : Vilken dag och tidpunkt är optimal?" Thesis, Högskolan i Skövde, Institutionen för informationsteknologi, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:his:diva-11517.

Full text
Abstract:
Twitter and social media has a big impact on the modern society. Companies uses Twitter and other social Medias as marketing channels to reach multiple customers. The purpose of this research was to get an insight on what day and time that businesses get the most respondents on Twitter. The focus area is the social media Twitter and the way to use the 140 characters available. Efficiency and profitability are key factors for business firms so if they know when the prospective and existing customers are most receptive to a message you can obtain an advantage which may be important in the future. The factors comes down to time, specifically time and day. To reach a conclusion on this matter the scientific report at hand will use business analytics to analyze data from Twitter to reach this conclusion. The data used for this analyze is from five companies with a Swedish market and based on two months April 2015 and May 2015.
APA, Harvard, Vancouver, ISO, and other styles
39

Moro, Lucia <1994&gt. "Accessibilità e semplificazione linguistica nei testi di ambito medico ad uso del paziente: un esempio di buona pratica. Analisi e commento dei testi informativi della Biblioteca per i Pazienti del Centro di Riferimento Oncologico (CRO) di Aviano." Master's Degree Thesis, Università Ca' Foscari Venezia, 2020. http://hdl.handle.net/10579/16631.

Full text
Abstract:
Il presente lavoro di tesi, inserendosi nella più ampia cornice del discorso sull’accessibilità linguistica della comunicazione istituzionale, si concentra sul tema della semplificazione del linguaggio della comunicazione di ambito medico rivolta a pazienti non specialisti. La prima parte comprende alcune considerazioni preliminari circa i concetti di “plain language”, “literacy” e “accessibilità” e una revisione della letteratura esistente a proposito delle iniziative di semplificazione, degli strumenti e delle raccomandazioni per la scrittura semplificata. Successivamente la trattazione procede ad analizzare nel dettaglio le caratteristiche linguistiche e testuali della comunicazione medica, evidenziandone gli aspetti di maggiore complessità. Vengono poi evidenziate le responsabilità comunicative degli operatori sanitari, soprattutto alla luce degli studi più recenti sull’alfabetizzazione sanitaria (health literacy). Nella seconda parte verrà presentato il modello di buona pratica della Biblioteca per i Pazienti del Centro di Riferimento Oncologico (CRO) di Aviano. In questo contesto, infatti, sono state sviluppate diverse iniziative in linea con il principio di accessibilità linguistica dell’informazione medica che hanno coinvolto gli stessi pazienti, fra cui l’elaborazione di uno strumento per testare l’efficacia comunicativa dei testi divulgativi medico-sanitari ad uso dei non specialisti. Si procederà quindi alla revisione di un campione di testi prodotti dalla Biblioteca, valutandone i punti di forza e quelli di possibile miglioramento.
APA, Harvard, Vancouver, ISO, and other styles
40

Visintin, Luca. "Realizzazione di un sit finalizzato allo studio delle aree carsiche." Doctoral thesis, Università degli studi di Trieste, 2011. http://hdl.handle.net/10077/4513.

Full text
Abstract:
2009/2010<br>L’obiettivo primo del lavoro di ricerca è stato la creazione di un SIT finalizzato allo studio delle aree carsiche che rispondesse a precisi requisiti; tra tutti, vi era la necessità di progettare uno strumento rapido, intuitivo e di facile consultazione che ponesse l’attenzione non tanto all’aspetto scientifico dello studio del carsismo, bensì ai risvolti applicativi che il fenomeno carsico comporta nella pianificazione territoriale e nella progettazione di infrastrutture in genere. Inoltre, in un’ottica applicativa, si è voluto proporre le linee guida per la standardizzazione e l’informatizzazione dei dati desunti dal rilevamento dei fenomeni carsici in campagna. La costruzione del SIT si è fondata su alcune esperienze lavorative inerenti, per lo più, la progettazione di infrastrutture ferroviarie ed autostradali nell’area del Carso Classico triestino; inoltre, sono state studiate nel dettaglio le possibili applicazioni nel campo dell’idrogeologia carsica, della gestione del territorio e della valorizzazione delle risorse naturali riconoscendo i caratteri distintivi del carsismo ed i loro risvolti applicativi. Dapprima, sono state analizzate le morfologie carsiche in termini genetici ed evolutivi; successivamente, è stata valutata l’eventuale criticità di ciascuna morfologia carsica in rapporto ai diversi usi del territorio e ne sono stati definiti i parametri utili ad una sua descrizione che intrecci il significato scientifico con quello tecnico ed ingegneristico della forma. Definiti tali parametri, si è avviata la progettazione di un Personal GeoDatabase che permettesse l’archiviazione, l’elaborazione e la consultazione dei dati; a tal scopo si è optato per l’utilizzo combinato di ArcGis ed Access per la creazione del Geodatabase e l’utilizzo di AutoCad Map 3D per la digitalizzazione e l’editing dei dati. La raccolta dei dati è partita da una riesamina degli archivi informatici e bibliografici del Dipartimento di GeoScienze dell’Università di Trieste; contemporaneamente, sono stati acquisiti i dati relativi alle cavità ed alla geologia delle aree studio direttamente dalle banche dati della Regione Autonoma Friuli Venezia Giulia. Sono state definite quattro feature class fondamentali per gli scopi prefissati: Grotte, Doline, Karren e Punti Acqua. Il popolamento dei campi delle tabelle associate alle feature class del Geodatabase è stato integrato con i dati provenienti dai rilevamenti di dettaglio in campagna e da fotointerpretazione. Le relazioni tra feature class e tra le tabelle associate sono state prodotte contemporaneamente sia in ArcGis che in Access; in ArcGis vi è stata la possibilità di interrogare il Geodatabase dal punto di vista statistico creando, contemporaneamente opportune mappe tematiche, in Access, si sono create le maschere per una rapida ed agevole immissione dei dati. I casi studio proposti nella tesi hanno lo scopo di dimostrare l’utilità del SIT in un contesto applicativo importante come quello della progettazione di grandi linee viarie; l’interrogazione statistica dei dati ha premesso di localizzare i tratti dei progetti a diversa criticità per carsismo ed a proporre un criterio decisionale per la scelta dei tracciati ottimali. Uno studio in modalità back analysis relativamente a quanto emerso durante la costruzione di un tunnel autostradale ha restituito un feedback positivo relativamente alla distribuzione dei fenomeni carsici sul territorio indagato; è, infatti, emersa una correlazione tra quanto prevedibile e quanto scoperto durante gli scavi del traforo in termini di zone a maggior o minor grado di carsificazione sotterranea. Pur necessitando di ulteriori implementazioni e verifiche applicative, il SIT creato si propone come base per i futuri lavori di pianificazione territoriale nell’area del Carso Classico; non si esclude, inoltre, la possibilità di adottare la base informatica qui proposta per indagare anche altre aree carsiche con caratteristiche simili a quella su cui è stato indirizzato il lavoro di ricerca.<br>XXIII Ciclo<br>1980
APA, Harvard, Vancouver, ISO, and other styles
41

Halinka, Adrian. "Inteligentne systemy automatyki zabezpieczeniowej dla złożonych elektroenergetycznych węzłów wytwórczych." Praca habilitacyjna, Wydawnictwo Politechniki Śląskiej, 2002. https://delibra.bg.polsl.pl/dlibra/docmetadata?showContent=true&id=8613.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Iansig, Massimo. "Le strutture fluviali del porto romano di Aquileia. Implementazione di un sistema informativo geografico per la gestione di dati archeologici, dati laser scanner, profili georadar, analisi stratigrafiche." Doctoral thesis, Università degli studi di Trieste, 2009. http://hdl.handle.net/10077/3140.

Full text
Abstract:
2007/2008<br>The objective of this Doctoral Thesis was to provide the archaeologists of the École Française de Rome, of CNRS Aix en Provence, and all those who carry out research on the territory of Aquileia with a tool enabling them to organize, store, visualize, share and compare the findings of a multitude of disciplines involved - their common subject being the ancient structures of the Fluvial Port of Aquileia. The study was carried out in the framework of a PICS-project and is based on the most recent findings on Roman Time - Aquileia, yet covering its complete history until the 19th and 20th century. Several institutions, departments and bodies both in Italy and abroad have been consulted for documents and technical support material. The result was an exhaustive collection of documents that was successively re-organised in a SIT-system, which had been created through constant exchange and consultation with the final user - the archaeologist himself. From the very outset the objective was not to create a mere IT application, but rather a tool for the efficient management of archaeological data which may in itself become an instrument for research and lead to new findings. The study ultimately proposes itself as a first step towards a better sharing of information through a common platform and better integration of technical and humanistic disciplines.<br>XXI Ciclo<br>1971
APA, Harvard, Vancouver, ISO, and other styles
43

Gherdevich, Davide. "L'analisi spaziale come strumento per la ricostruzione della viabilità medievale nel Friuli Venezia Giulia." Doctoral thesis, Università degli studi di Trieste, 2009. http://hdl.handle.net/10077/3139.

Full text
Abstract:
2007/2008<br>La ricerca mira a dare un contributo significativo alla ricostruzione della viabilità antica, di epoca romana e soprattutto di epoca medievale. La ricostruzione della rete viaria è stata effettuata attraverso apposite applicazioni di analisi spaziale contenute nei software GIS, in particolare è stata utilizzata la Cost Surface Analysis e la Line of Sight. Spesso la ricostruzione della rete viaria e resa alquanto difficile, sopratutto in territori che sono stati soggetti a bonifiche , culture intensive o a dissesti idrogeologici, in queste zone il dato archeologico è spesso mancante o parziale, ed è in questi casi che la tecnologia GIS, e più precisamente l'analisi spaziale, può aiutare a ricostruire il tracciato viario e fornire nuovi dati che possono essere usati per ulteriori analisi o per confutare e consolidare delle tesi o delle ipotesi. Le elaborazioni spaziali sono tecniche di simulazione finalizzate a classificare, rappresentare e interpretare il paesaggio archeologico, in micro o macro scala, sulla base delle relazioni spaziali e diacroniche che intercorrono fra elementi antropici, naturali, ambientali e, in parte, secondo fattori socio politici. L’analisi spaziale fa misurazioni e ha l’obiettivo di definire un quadro di riferimento all’interno del quale realizzare osservazioni. In particolare il cost surface analysis calcola l'energia consumata da un individuo che si sposta da un punto ad un altro; questo tipo di analisi ci consente non solo di valutare le percorrenze, ma anche ricostruire le strade ed i percorsi di un paesaggio antico. L’altra analisi che abbiamo effettuato e la line of sight o anche Viewshed analysis; calcola il campo visuale umano sulla base delle caratteristiche morfologiche ed ambientali del territorio, e le relazioni spaziali tra i siti all'interno del paesaggio. Le zone da me prese in considerazione per effettuare le prime analisi sono il territorio tra Gemona, Ragogna e Spilinbergo e la provincia di Trieste. Nel primo caso, dopo una prima fase di raccolta dei dati, la nostra attenzione si è concentrata sul tentativo di ricostruire la viabilità di epoca romana e medievale nella zona di trovare il possibile punto di guado sul fiume Tagliamento ed infine verificare se i castelli avessero o meno il controllo sulla rete viaria e sul guado. Per dare una risposta a queste domande abbiamo effettuato prevalentemente due tipi di analisi: il cost surface analysis e il line of sight. Come secondo caso di studio abbiamo analizzato la viabilità, soprattutto di epoca medievale, che attraversava una particolare zona della provincia triestina: la Val Rosandra. Ci siamo riproposti di ricostruire la viabilità nella zona e di confrontarla con i dati storici ed archeologici ed inoltre di verificare se vi era la possibilità di una viabilità principale che attraversasse la valle. Infine abbiamo confrontato i risultati ottenuti con la cartografia storica ed in particolare il rilievo cartografico Giuseppino di fine ‘700. In un ultima fase abbiamo controllato numerose foto aeree, concentrandoci sulla zona comprese tra Osoppo e san Daniele, alla ricerca di possibili anomalie collegabili alla viabilità. I voli visionati sono diversi:volo GAI 1954, Volo IGM 1971, volo R.A.F. 1976 a bassa quota e ad alta quota, volo E.N.E.L. 1976, volo CGR 1986, volo CGR 1998. Una prima analisi ci ha permesso di rilevare diverse possibili anomalie nella zona ad est di Osoppo, a sud di Ragogna e presso san Daniele.<br>XXI Ciclo<br>1977
APA, Harvard, Vancouver, ISO, and other styles
44

Osmani, Laura. "Database relazionali e applicazioni gis e webgis per la gestione, l'analisi e la comunicazione dei dati territoriali di un'area protetta. Il Parco Regionale del Conero come caso applicativo." Doctoral thesis, Università degli studi di Trieste, 2010. http://hdl.handle.net/10077/3637.

Full text
Abstract:
2008/2009<br>Alla base del lavoro di ricerca è stato posto un impianto metodologico a carattere multidisciplinare contrassegnato da un lato da un’analisi introduttiva teorico-geografica relativa alle tematiche inerenti il governo del territorio e del paesaggio in area protetta, dall’altro, da una fase di esame (connessa ad un ambito di indagine più strettamente cartografico – digitale) tesa a fare il punto sullo stato di avanzamento -a livello comunitario e nazionale- in merito al tema della costruzione di infrastrutture di dati spaziali, pubblicazione e condivisione di servizi legati al settore del Geographical Information System, con attenzione alla comunicazione degli elementi di natura ambientale (rintracciabili anche all’interno del contesto aree protette). Entrambe le panoramiche, arricchite al loro interno dalla descrizione del quadro normativo transcalare di riferimento, risultano necessarie ai fini della contestualizzazione e impostazione del lavoro e conducono ad una fase di screening in merito al tema comunicazione dei dati territoriali in ambiente webgis da parte degli enti italiani gestori delle aree protette, nello specifico parchi nazionali e regionali. Tali elementi teorici, legislativi e conoscitivi sono stati poi presi a riferimento nel corso della fase applicativa della ricerca con lo scopo di guidare e supportare i momenti che hanno condotto alla realizzazione di applicazioni dedicate all’area Parco del Conero facenti seguito ad una fase di survey sul campo, ad un’organizzata raccolta di dati territoriali (di base e di Piano del Parco) e successive fasi di analisi spaziale. Lo scopo è quello di supportare (grazie agli applicativi realizzati) le operazioni di gestione, studio e comunicazione territoriale che un Ente responsabile di un’area protetta si trova a dover definire e implementare alla luce delle tematiche considerate nel corso della sezione teorica. I risultati tangibili si incarnano nella creazione di un’architettura che partendo dal relational database, passando per il geodatabase e giungendo alle piattaforme webgis dinamiche e interattive funga da supporto ai processi di coordinamento, analisi e diffusione di selezionati elementi territoriali relativi al comprensorio Parco del Conero e al suo principale strumento di pianificazione (Piano del Parco) agevolando e supportando così sia processi gestionali e decisionali più “consapevoli”, sia percorsi informativi e partecipativi strutturati. Il corpus definitivo dell’elaborato è stato suddiviso in due parti distinte allo scopo di scandire i momenti dello studio e consentirne una più immediata lettura. Ciascuna si articola in tre capitoli. La prima parte, a cui si è assegnato il titolo “Governo del territorio e condivisione del dato informativo e cartografico. Scenari evolutivi verso lo sviluppo di dinamiche partecipative” esplicita al suo interno il quadro teorico, normativo e conoscitivo posto alla base della ricerca. - Nel corso del primo capitolo si è ritenuto opportuno introdurre brevemente alle recenti dinamiche che hanno interessato i concetti, le definizioni e gli aspetti normativi inerenti le tematiche relative al governo del territorio e del paesaggio in area protetta, più nel dettaglio di quello dei parchi naturali regionali in Italia e forme del paesaggio da tutelare. Un excursus che ha preso in esame gli scritti geografici nazionali e internazionali sul tema, facendo emergere posizioni eterogenee, in continua evoluzione e, comunque, oggi in linea con i recenti indirizzi di contesto sviluppati e approvati in ambito comunitario e convenientemente riletti alla scala nazionale. Il tutto ha la necessità di essere supportato da un’adeguata rappresentazione cartografico-tassonomica delle diverse tipologie, unità e categorie di paesaggio e parco. Principio, quello della classificazione, che caratterizza una delle fondamentali linee di dibattito, internazionale e nazionale sull’argomento. - Il secondo, attraverso un approccio che lega il mondo del Geographical Information System e le aree protette tramite il tema della pubblicazione e condivisione dei dati spaziali e ambientali, configura brevemente lo stato dell’arte nel contesto di realizzazione di infrastrutture ad essi dedicate, di implementazioni relative alla stesura dei metadati da indicare per set e serie di elementi territoriali, nonché servizi per i medesimi. Lo sguardo viene rivolto alle direttive, ai regolamenti e alle decisioni in ambito comunitario e alle trasposizioni delle stesse all’interno del contesto nazionale. - Nel terzo si inizia ad entrare nella parte del lavoro di ricerca caratterizzata da un’impronta più conoscitiva che teorico-normativa. Ci si spinge oltre il quadro concettuale e si cerca di capire, attraverso la realizzazione di uno screening sul tema della comunicazione e diffusione (da parte dei rispettivi enti gestori) dei più rilevanti dati territoriali relativi ai parchi nazionali e regionali italiani tramite piattaforme webgis, cosa nel nostro paese è stato fatto a favore della loro divulgazione e quali possono configurarsi come margini di miglioramento futuro. L’analisi è corredata da grafici e tabelle di dettaglio in relazione alle quali si espongono commenti relativi ai risultati ricavati nel corso dell’indagine -sia in valore assoluto che in valore percentuale-. Il capitolo funge da ponte tra la sezione teorica del lavoro e quella dedicata invece al caso di studio specifico. La seconda parte “Un’applicazione territoriale: il Parco del Conero. Da un’analisi geografica di contesto ad una di dettaglio attraverso tools gis-analyst. Database Management System e Web Service Application per la gestione e la comunicazione”, memore dell’indagine teorico-conoscitiva, è dedicata alla presentazione del caso applicato all’area protetta del Conero. Nel dettaglio: - all’interno del capitolo quarto si fornisce un inquadramento territoriale dell’area oggetto di esame tramite analisi condotte grazie a tools gis-analyst (ArcGis – ArcToolbox). Tale inquadramento viene arricchito dal rilievo sul campo della rete sentieristica interna al Parco del Conero in relazione alla quale si descrivono le modalità di acquisizione dei dati e le successive fasi di post-elaborazione. Il rilievo dei sentieri (reso necessario dal fatto che la rete era stata solo digitalizzata sulla carta) ha consentito di completare il quadro di analisi relativo alla viabilità pedonale interna all’area parco, ponendo l’accento non solo sulle caratteristiche di fruibilità turistico-paesaggistica che questa possiede, ma integrando i dati raccolti con quelli del Piano del Parco già a disposizione dell’Ente al fine di giungere alla realizzazione di modelli di analisi spaziale (ESRI Model Builder) da poter applicare in successive fasi di valutazione territoriale dell’area stessa o di programmazione concernente interventi puntuali da effettuarsi sulla rete sentieristica in relazione a tratti di percorso caratterizzati da elementi di criticità. Di tali modelli si sottolineano le caratteristiche di versatilità e adattabilità a qualsiasi tipologia di territorio, protetto e non, che risulti attraversato da sentieri, percorsi e itinerari turistico - culturali o di fruibilità paesaggistica e naturalistica. Il capitolo si conclude con la descrizione delle finalità di indagine e struttura dei modelli stessi. - Nel capitolo quinto i dati alfanumerici, quelli ricavati dalle survey della rete sentieristica, quelli di piano, nonché quelli riguardanti le fonti bibliografiche vengono integrati all’interno di un database relazionale MS Access pensato ai fini della loro consultazione anche da parte di utenti non esperti GIS. Tale database consente collegamenti e interazioni sia con un personal geodatabase ESRI che con il database spatial PostgreSQL (estensione PostGIS) all’interno dei quali sono stati archiviati i dati spaziali dedicati invece ad una utenza GIS specialist. Si prosegue con la descrizione delle tipologie di dataset territoriali in essi inseriti ai fini della loro archiviazione e del loro aggiornamento. - Il sesto capitolo risulta, infine, dedicato al testing e sviluppo (localhost) di un applicativo Webgis UMN Mapserver con front-end dinamico P.Mapper contenente una selezione dei dati spaziali di cui sopra. In relazione ad esso si delineeranno le caratteristiche fondanti, le categorie e le query di interrogazione, i parametri degli strati informativi di cui si intende consentire la visualizzazione. Il tutto consapevoli che la pubblicazione web di un Sistema Informativo Territoriale trova, di fatto, il suo fine ultimo non solo nel mero passaggio da un’utenza locale a una multiutenza condivisa del dato/database spaziale, ma anche nella sua auto-identificazione a strumento atto a supportate, favorire e attivare processi di condivisione informativa e partecipazione decisionale collettiva secondo dinamiche che, alternativamente, vertano ad un andamento di tipo top - down e bottom – up. Il lavoro, dopo le note conclusive, si chiude con le consuete indicazioni bibliografiche e sitografiche e tre allegati all’interno dei quali si riportano: due tabelle sinottiche relative allo screening sui parchi nazionali e regionali presentato nel corso del terzo capitolo, l’estratto di alcuni strati informativi inseriti nel file .map di Mapserver e infine un elenco delle sigle e degli acronimi incontrati nel corso dello scritto.<br>XXII Ciclo<br>1979
APA, Harvard, Vancouver, ISO, and other styles
45

Olędzki, Michał. "Udział wyszukiwarek internetowych w realizacji idei swobodnego przepływu informacji. Analiza działalności wyszukiwarki Google." Doctoral thesis, 2016. https://depotuw.ceon.pl/handle/item/1572.

Full text
Abstract:
Prezentowane w rozprawie wyniki badań i analiza literatury przedmiotu potwierdzają główną hipotezę rozprawy, która brzmiała: „Koncepcja swobodnego przepływu informacji na obecnym etapie rozwoju środków komunikowania ma mało realne szanse realizacji, ze względu na istniejące zagrożenia ograniczania swobodnego dostępu do Internetu”. W celu zweryfikowania słuszności tej hipotezy dokonano analizy swobodnego przepływu informacji w ujęciu krytycznym obejmującym zarówno historię koncepcji, jak i sposoby realizacji idei w dobie Internetu (rozdział 1) i poddano analizie istniejące przeszkody w urzeczywistnieniu swobodnego przepływu informacji w Internecie (rozdział 2). Hipotezie głównej towarzyszyły dwie hipotezy dodatkowe (poboczne). Po pierwsze, weryfikacji poddano założenie, że wyszukiwarki internetowe usiłują stworzyć globalny indeks cyfrowych zasobów informacyjnych i cyfrowych zasobów usług, m.in. dokonując analizy historii i rozwoju wyszukiwarek na świecie, jak również ich znaczącej roli w kształtowaniu Sieci, a w szczególności najpopularniejszej wyszukiwarki – Google (rozdział 3). Na podstawie zgromadzonych informacji można było sformułować opinię, że próby stworzenia globalnego indeksu cyfrowych zasobów informacyjnych wciąż nie przynoszą oczekiwanych rezultatów. Jest to przede wszystkim ograniczone możliwością technicznej indeksacji wszystkich cyfrowych informacji, zapewnieniem opłacalności biznesowej działalności wyszukiwarek i w konsekwencji sprzyjania reklamodawcom, a także brakiem neutralności w oferowaniu użytkownikom swoich zasobów. Druga hipoteza poboczna mówiąca o tym, że narzędzie Google wpływa (w sposób pozytywny/neutralny/negatywny) na realizację idei swobodnego przepływu informacji poprzez pokazywanie stronniczej perspektywy widzenia świata i hierarchii wartości, została tylko częściowo zweryfikowana (rozdziały 4 i 5). Google zdecydowanie wpływa na realizację idei swobodnego przepływu informacji – jest to wpływ zarówno pozytywny, neutralny, jak i negatywny. Zależy on od regionu świata, na którym oferuje swoje usługi. Popularność tej wyszukiwarki sprawia, że ciąży na niej ogromna odpowiedzialność wobec użytkowników związana z kierowaniem ich w różne miejsca Sieci i do tych twórców stron, które sama uznaje za najbardziej wartościowe. Każda zmiana algorytmu, po której nagle firmy zaczynają spadać o kilka pozycji w wynikach wyszukiwania, oznacza wymierne straty. Przedstawiona dysertacja jest jedną z niewielu tak kompleksowych analiz wyszukiwarki internetowej Google z udziałem użytkowników z całego świata – zarówno w Polsce, jak i w krajach Europy Wschodniej. Jest także pierwszym badaniem stopnia realizacji idei swobodnego przepływu w dobie Internetu i tym samym stara się wypełnić lukę w badaniach teoretycznych i empirycznych w tej dziedzinie. Aby idea swobodnego przepływu miała szansę realizacji w XXI wieku, powinna powstać odpowiednia infrastruktura technologii informacyjno-komunikacyjnych i przepisy prawa międzynarodowego, które umożliwią rozwój i wolny dostęp do Internetu. Podsumowując, przyszłość realizacji idei leży w rękach wielu aktorów: organizacji międzynarodowych, władz państwowych, firm technologicznych, organizacji pozarządowych i samych internautów. The research results and the analysis of the literature on the subject, as presented in this paper, confirm the main hypothesis of the paper, which was: “The concept of free movement of information has little chances of success at this stage of development of means of communication, due to the existing risk of limiting free access to Internet”. In order to verify the hypothesis, an analysis of the free movement of information was conducted, from a critical perspective, to include both the history of the concept and the ways to realise the idea in the Internet era (chapter 1) and the existing obstacles to making the free movement of information on the Web a reality were also analysed (chapter 2). The main hypothesis was complemented by two additional (secondary) hypotheses. Firstly, the paper verifies the assumption that Internet search engines try to create a global index of digital information resources and digital service resources, among other things, by analysing the history and development of search engines worldwide, and their significant role in shaping the Web, especially that of the most popular search engine – Google (chapter 3). Based on the collected information, it was possible to formulate an opinion that the attempts to create a global index of digital information resources still have not yielded the expected results. This is mostly limited by the capability of technical indexation of all digital information, by the need to ensure economic viability of search engine activity, and consequently, to favour advertisers, and by the lack of neutrality in offering their resources. The other secondary hypothesis, which says that Google tool has an influence (positive/neutral/negative) on how the idea of free movement of information is realised by showing a biased perspective of the world and hierarchy of values, has been only partly verified (chapters 4 and 5). Google definitely influences the realisation of the idea of free movement of information – which is positive, neutral and negative influence alike. It depends on the world region where it offers its services. The popularity of this search engine makes it highly accountable to its users as it directs them to various places on the Web and to websites it itself deems to be of the greatest value. Every algorithm change, following which companies suddenly start to go down several positions in search results means measurable loss. The present dissertation is one of the few, both in Poland and in Eastern European countries, to offer such a comprehensive analysis of Google search engine, with a participation of users from all over the world. It also represents the first research into the degree to which the idea of free movement of information has been realised in the Internet era, and thus it attempts to fill in the gap in theoretical and empirical research in this area. For the idea of free movement of information to have a chance of becoming a reality in the 21st century, an adequate Information and communication technology infrastructure and international law provisions should be put in place, enabling Internet development and unrestricted access to it. To sum up, the future of the idea realisation is in the hands of many players: international organisations, state authorities, technology companies, NGOs and Internet users themselves.
APA, Harvard, Vancouver, ISO, and other styles
46

Wojciechowski, Jerzy. "Wykorzystanie analizy potencjałów wywołanych i innych zmiennych fizjologicznych w wykrywaniu skrywanych informacji." Doctoral thesis, 2014. https://depotuw.ceon.pl/handle/item/732.

Full text
Abstract:
Celem badań przedstawionych w niniejszej rozprawie było sprawdzenie, czy skrywanie mimowolnie nabytych informacji na temat zdarzenia ma związek w wielkością amplitudy potencjału P300. Ze względu na interdyscyplinarny charakter zrealizowanego projektu, uwzględniono w nim zarówno aspekty praktyczne, związane z aplikacją badanej metody np. na gruncie kryminalistyki, jak również aspekty teoretyczne, związane z psychologiczną problematyką posiadania i skrywania informacji. W badaniach uwzględniono szereg czynników, które na podstawie przeglądu dotychczasowych badań, mogłyby mieć wpływ na amplitudę potencjału P300, a w rezultacie skuteczność wykrywania skrywanych informacji: odstęp czasowy miedzy popełnieniem pozorowanego przestępstwa a badaniem z użyciem poligrafu i EEG, istotność bodźca pojawiającego się w czasie zdarzenia (bodziec centralny vs. peryferyczny), pobudzenie emocjonalne wywołane zdarzeniem. W przeprowadzonych eksperymentach, obok rejestracji aktywności elektrycznej mózgu, przeprowadzono również badanie z wykorzystaniem poligrafu, aby porównać skuteczność tych dwóch metod. Przeprowadzono dwa badania, które zaplanowano w odpowiedzi na niską wartość ekologiczną dotychczas opublikowanych eksperymentów. Pierwsze z nich miało na celu sprawdzenie skuteczności wykrywania skrywanych informacji nabytych w sposób mimowolny oraz porównanie jej ze skutecznością badania poligraficznego. Planowano także zbadanie czy inne, obok amplitudy potencjału P300, wskaźniki neurofizjologiczne – moc fali theta i asymetria półkulową w mocy fali alfa – również mogą mieć związek ze skrywaniem informacji. W badaniu uwzględniono również szereg zmiennych indywidualnych i sprawdzono, czy ich poziom będzie związany z amplitudą potencjału P300 w teście skrywanych informacji. Wyniki uzyskane w tym badaniu wskazują na to, że wielkość amplitudy potencjału P300 jest związana ze skrywaniem informacji nabytych mimowolnie. Co więcej jej wielkość okazała się zależna od rodzaju elementu, którego dotyczył test wykrywania skrywanych informacji. W dalszej kolejności potwierdzono, że analiza amplitudy potencjału P300 jest skuteczną metodą wykrywania osób, które uczestniczyły w pozorowanym przestępstwie na podstawie skrywanych przez nie informacji nabytych mimowolnie. Metoda ta okazała się mieć podobną zdolność do rozróżniania osób, które brały udział w zdarzeniu i tych, które nie były z nim związane, jak badanie poligraficzne – w obu przypadkach osiągnięto skuteczność sięgającą 88%. Istotne znaczenie miał jednak element zdarzenia, o którym wiedzę próbowała zataić osoba badana. Przeprowadzone analizy nie potwierdziły zakładanego związku miedzy mocą fali theta i asymetrią półkulową w zakresie mocy fali alfa a skrywaniem informacji. Relacja pomiędzy zmiennymi indywidualnymi a różnicą w amplitudzie potencjału P300 po bodźcach istotnych i nieistotnych (związanych i niezwiązanych z pozorowanym przestępstwem) ograniczyła się głównie do pozytywnego związku między elementem zdarzenia dotyczącym nazwiska osoby okradzionej i behawioralnym systemem hamowania u osób, które popełniły pozorowane przestępstwo. Drugie badanie miało na celu weryfikację danych uzyskanych w badaniu pierwszym, uwzględnienie precyzyjnie wyróżnionych rodzajów informacji nabytych incydentalnie (elementy centralne vs. peryferyczne) oraz odstępu czasowego między nabywaniem informacji a chwilą badania. Wyniki badania drugiego potwierdziły wyniki badania pierwszego i pokazały, że wielkość amplitudy potencjału P300 w czasie wykrywania skrywanych informacji była wyższa w czasie testu dotyczącego elementu centralnego. Co więcej analizy wskazują na wyższą skuteczność badań opartych na analizie potencjału P300 w porównaniu do badań poligraficznych. Świadczą również o tym, że skuteczność badań wykrywania skrywanych informacji (szczególnie przy użyciu poligrafu) może ulec obniżeniu wraz z upływem czasu od zdarzenia, jednakże głównie w odniesieniu do elementów peryferycznych. Niestety również wyniki badania drugiego nie pozwoliły na potwierdzenie istnienia związku między mocą fali theta i asymetrią półkulową w zakresie fali alfa a faktem skrywania informacji. Co więcej w badaniu drugim nie udało się potwierdzić wyników badania pierwszego, wskazujących na pozytywny związek między behawioralnym systemem hamowania a różnicą w amplitudzie potencjału P300. Analizy pokazały jedynie negatywny związek stanu lęku z różnicą w amplitudzie potencjału P300 po bodźcach istotnych i nieistotnych, w teście dotyczącym elementu peryferycznego zdarzenia oraz negatywny związek między poziomem cechy lęku a różnicą w amplitudzie po bodźcach istotnych i nieistotnych, w teście dotyczącym elementu centralnego dla zdarzenia. Niniejsza praca stanowi istotny wkład w obszar badań związanych z wykrywaniem skrywanych informacji. Jej wyniki potwierdzają użyteczność metody analizy amplitudy potencjału P300 w wykrywaniu skrywanych informacji, wskazując jednocześnie na pewne ograniczenia, związane m.in. z funkcjonowaniem pamięci.
APA, Harvard, Vancouver, ISO, and other styles
47

Szczęśniak, Bartosz. "Poprawa jakości informacji w zarządzaniu kosztami wydziałów produkcji pomocniczej." Rozprawa doktorska, 2005. https://repolis.bg.polsl.pl/dlibra/docmetadata?showContent=true&id=5027.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Szczęśniak, Bartosz. "Poprawa jakości informacji w zarządzaniu kosztami wydziałów produkcji pomocniczej." Rozprawa doktorska, 2005. https://repolis.bg.polsl.pl/dlibra/docmetadata?showContent=true&id=61324.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

Szczęśniak, Bartosz. "Poprawa jakości informacji w zarządzaniu kosztami wydziałów produkcji pomocniczej." Rozprawa doktorska, 2005. https://delibra.bg.polsl.pl/dlibra/docmetadata?showContent=true&id=61324.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Szczęśniak, Bartosz. "Poprawa jakości informacji w zarządzaniu kosztami wydziałów produkcji pomocniczej." Rozprawa doktorska, 2005. https://delibra.bg.polsl.pl/dlibra/docmetadata?showContent=true&id=5027.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!