Dissertations / Theses on the topic 'Word processing. Information technology'
Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles
Consult the top 50 dissertations / theses for your research on the topic 'Word processing. Information technology.'
Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.
You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.
Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.
Carter, Simon Matthew James. "Changing complex documents /." St. Lucia, Qld, 2001. http://www.library.uq.edu.au/pdfserve.php?image=thesisabs/absthe16479.pdf.
Full textBeauvais, Erik Alexander Maoui. "An investigation of a framework to evaluate computer supported collaborative work." Thesis, Rhodes University, 1999. http://eprints.ru.ac.za/1383/.
Full textHowell, Gwyneth Veronica James. "Using the informational processing paradigm to design commercial rumour response strategies on the World Wide Web." UWA Business School, 2006. http://theses.library.uwa.edu.au/adt-WU2007.0024.
Full textNewton, Sandra Kay. "The information technology professional's psychological contract viewed through their employment arrangement and the relationship to organizational behaviors." [Tampa, Fla] : University of South Florida, 2006. http://purl.fcla.edu/usf/dc/et/SFE0001416.
Full textGarcia, Natanya. "Anti-circumvention technology legislation in Canada : drafting a new law in the wake of the DMCA." Thesis, McGill University, 2003. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=19625.
Full textRevelles, Patricia A. "Curriculum for a course in word/information processing." CSUSB ScholarWorks, 1990. https://scholarworks.lib.csusb.edu/etd-project/768.
Full textChernecki, Donna (Donna Rae) Carleton University Dissertation Psychology. "Disrupting holistic word recognition; evidence for word-specific visual patterns." Ottawa, 1992.
Find full textDare, Natasha. "Out of this word : the effect of parafoveal orthographic information on central word processing." Thesis, University of Edinburgh, 2010. http://hdl.handle.net/1842/4008.
Full textConstaninides, George Anthony. "High level synthesis and word length optimization of digital signal processing systems." Thesis, Imperial College London, 2001. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.252020.
Full textHo, Wai-cheong, and 何偉昌. "Business and information technology alignment." Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 1998. http://hub.hku.hk/bib/B31268833.
Full textStettheimer, Timothy Dwight. "Modeling Utilization of Planned Information Technology." Thesis, University of North Texas, 2000. https://digital.library.unt.edu/ark:/67531/metadc2496/.
Full textSennema-Skowronek, Anke. "The use of focus markers in second language word processing." Phd thesis, Universität Potsdam, 2009. http://opus.kobv.de/ubp/volltexte/2009/3723/.
Full textDas Sprechen und Verstehen einer Fremdsprache (L2) stellt eine komplexe Leistung für einen Nicht-Muttersprachler dar. Kenntnisse und Fertigkeiten auf verschiedenen sprachlichen und außersprachlichen Ebenen wirken dabei zusammen, wie z.B. eine andere Grammatik, neue Lautbildungen in der Aussprache, der Aufbau von Wortschatz, und auch die Sensibilisierung für mögliche kulturell unterschiedliche Kommunikationsformen oder das Training kommunikativer Kompetenz. Eine wichtige Hilfe bei der muttersprachlichen wie der fremdsprachlichen Sprachverarbeitung bieten Mittel, mit denen sprachliche Information gegliedert wird, um sie verständlich zu machen. Die Informationsstruktur ermöglicht es, zum Beispiel den Fokus einer Äußerung zu markieren und damit Intentionen sprachlich zu vermitteln. In gesprochener Sprache sind es vor allem prosodische Mittel wie Satzakzent, die es dem Hörer ermöglichen, die wichtigen Informationen in der Äußerung herauszufinden. Aber auch durch die Verwendung unterschiedlicher grammatischer Strukturen oder durch besondere Wortwahl können Sprecher Satzteile markieren, die sie für besonders wichtig halten, und sie damit hervorheben. Wird die Informationsstruktur eines Satzes verletzt, indem zum Beispiel der Satzakzent auf ein eher unwichtiges Wort gelegt wird, kann der Gesprächspartner/die Gesprächspartnerin einen anderen Teil des Satzes als im Fokus stehend interpretieren als den vom Sprecher eigentlich intendierten Teil. Dies kann - in Kombination mit anderen Faktoren wie ungeschickter Wortwahl - zu Missverständnissen führen. Nun kann eine Sprache prosodische, syntaktische oder lexikalische Möglichkeiten der Markierung besitzen, die entweder in einer anderen Sprache nicht vorkommen, oder die andere Funktionen in Bezug auf die Interpretation von Äußerungen erfüllen, die in dieser Form in der jeweils anderen Sprache nicht existieren. Dies betrifft zum Beispiel Unterschiede zwischen Intonations- und Tonsprachen oder zwischen silbenzählenden und akzentzählenden Sprachen. Ruft der Fremdsprachenlerner die Strukturen sprachlicher Information in der Muttersprache (L1) ab und überträgt sie auf die Fremdsprache, kann dies bei gleicher informationsstruktureller Organisation der Sprache zu einer erfolgreichen Strategie des fremdsprachlichen Verstehens führen. Wird aber Informationsstruktur in der Fremdsprache mit anderen Mitteln als in der Muttersprache ausgedrückt, entsteht ein Spannungsfeld zwischen Verarbeitungsstrategien der Muttersprache und denen der Fremdsprache. Die vorliegende Arbeit befasst sich mit der Rolle informationsstruktureller Parameter in der muttersprachlichen und fremdsprachlichen Sprachverarbeitung. Es wird untersucht, wie Fremdsprachenlerner Fokusmarkierung in der Muttersprache (hier: Deutsch) und in der Fremdsprache (hier: Englisch) zu effizienter Sprachverarbeitung nutzen. Das Ziel ist eine tiefere Einsicht, wie sich Informationsstruktur in der Fremdsprache erschließt; die grundlegende Annahme ist dabei, dass ein Verständnis und eine Sensibilisierung für Informationsstruktur dem Fremdsprachenlerner hilft, Form und Bedeutung von Sprache zu erkennen. Eine solche Einsicht in Informationsstruktur unterstützt die Erweiterung und Festigung fremdsprachlicher Kompetenz. Die Frage nach dem Gebrauch von Informationsstruktur in einer Fremdsprache wird in drei experimentellen Studien untersucht, die sich auf jeweils eines der folgenden sprachlichen Mittel zur Fokusmarkierung konzentrieren: 1. Prosodische Mittel der Fokusmarkierung: Unterstützen Satzakzent und Wortposition im Satz eine bessere Worterkennung? 2. Syntaktische Mittel der Fokusmarkierung: Ermöglicht die Konstruktion eines Spaltsatzes (Englisch: cleft) eine schnellere Verarbeitung des fokussierten Elements im Satz als eine kanonische Wortstellung, und kann sich der Hörer auch zu einem späteren Zeitpunkt noch besser an ein syntaktisch markiertes als an ein unmarkiertes Element erinnern? 3. Lexikalische Mittel der Fokusmarkierung: Bewirken Fokuspartikel (hier: nur/sogar) eine schnellere Verarbeitung des fokussierten Elements, und kann sich der Hörer auch zu einem späteren Zeitpunkt noch besser an das fokussierte als an das nicht-fokussierte Element erinnern? Zusätzlich wird in Experiment 2 und in Experiment 3 untersucht, welchen Einfluss einleitende Fragen haben, die zur Fokusmarkierung eines Elements im Folgesatz dienen. Außerdem wird nachgegangen, welche Rolle es spielt, wenn ein syntaktisch oder lexikalisch fokussiertes Element einen Tonhöheakzent bekommt oder wenn dieser auf dem vorangegangenen Adjektiv realisiert wird. Die Probanden sind deutsche Muttersprachler, die Englisch als Fremdsprache gelernt haben. In den Experimenten werden den Testpersonen jeweils Sprachaufnahmen von deutschen Sätzen und Aufnahmen von parallel dazu konstruierten englischen Sätzen dargeboten. Als Kontrollgruppe für den englischen Teil der Experimente werden englische Muttersprachler getestet, um Referenzdaten für die Ergebnisse der Fremdsprachenlerner zu erhalten. Die Experimente sind als Perzeptionsexperimente konzipiert. Experiment 1 (prosodische Fokusmarkierung) untersucht Worterkennung in drei Bedingungen mitunterschiedlichem Fokus (weiter und enger Fokus, enger Fokus auf anderem Satzelement als dem Zielwort), und zwei Bedingungen mit künstlich durch splicing verändertem Sprachmaterial. In Experiment 2 (syntaktische Fokusmarkierung) und Experiment 3 (lexikalische Fokusmarkierung) wird im Hörexperiment als Methode phoneme monitoring angewandt, wobei die Reaktionszeiten zum Erkennen des fokussierten Worts (welches ein vorher spezifiziertes Phonem enthält) gemessen werden. Im Anschluss an den Hörteil wird in diesen zwei Experimenten außerdem ein Erinnerungstest durchgeführt, bei dem die fokussierten Elemente mit einem Multiple-Choice-Verfahren (4AFC) noch einmal abgefragt werden und die Anzahl der richtigen Antworten gewertet wird. Zu 1.: Prosodische Mittel der Fokusmarkierung Akzentuierung ist ein Mittel, um im Satz wichtige Information hervorzuheben (Bolinger, 1972), was zu einer besseren Wahrnehmung solch akzentuierter Information führt (siehe z.B. van Santen & Olive, 1990; Eefting, 1991). Akzentstruktur scheint jedoch schneller in der L1 als in der L2 verarbeitet zu werden (Akker & Cutler, 2003). Es wird daher angenommen, dass in der L1 eine Fokusmarkierung durch Tonhöheakzent zu besserer Worterkennung eines solchermaßen markierten Wortes führt. Akzentstruktur sollte sich auch in der L2 erschließen, wenn auch in geringerem Maß (L1 > L2). Insgesamt wird ein unterschiedlich starker Fokuseffekt je nach Fokusbedingung erwartet (enger Fokus > weiter Fokus). Die Ergebnisse von Experiment 1 bestätigen, dass Worte in der Muttersprache besser erkannt werden als in der Fremdsprache. Ein unterschiedlicher, als Satzakzent realisierter Fokus hilft allerdings den Probanden weder in der Muttersprache noch in der Fremdssprache, fokussierte Worte schneller zu erkennen. Dies könnte auf ungenügende akustische Unterschiede in der Realisierung der unterschiedlichen Fokuskonditionen in den Sprachaufnahmen zurückzuführen sein. Die Experimente mit synthetisch, durch splicing manipuliertem Sprachmaterial ergeben, dass die umgebende Satzprosodie eher zur Worterkennung beiträgt als die einzelne Akzentmarkierung des Wortes (Cutler, 1976). Für die Salienz der Wortposition im Satz postulierte VanPatten (2004) für fremdsprachliche Wahrnehmung die Reihenfolge von initialer > finaler > medialer Position. Akker und Cutler (2003) erwähnen für L1 und L2 einen Verarbeitungsvorteil von später im Satz auftretenden Worten gegenüber früher Auftretenden. Des weiteren fand Rast (2003) in einer L2-Produktionsstudie einen Vorteil der äußeren Satzpositionen gegenüber der medialen Position. Im vorliegenden Experiment werden die Sätze vor allem wegen der fremdsprachlichen Testbedingung in akzeptabler Länge gehalten, was Aussagen über die Position an den äußeren Satzenden ermöglicht, aber weniger deutliche Effekte für die medial Position erwarten lässt. Wortlänge wurde als Nebenfaktor mit in das Experiment aufgenommen ohne eigenständige Hypothesen dafür zu formulieren. In einer früheren L2 Studie zeigte Wortlänge nur in Abhängigkeit zur Position des Wortes im Satz einen Effekt (Rast, 2003; Rast & Dommergues, 2003). Die Ergebnisse von Experiment 1 zeigen, dass die Länge der Zielworte keine entscheidende Rolle für deren korrekte Erkennung spielt. Die Wortposition im Satz, und hier besonders die finale Position, trägt jedoch entscheidend zur korrekten Worterkennung im Deutschen bei. Ein ähnlicher Trend zeigt sich für die Worterkennung in der Fremdsprache Englisch (siehe Klein, 1984; Slobin, 1985). Das Lokalitätsprinzip von VanPatten (2004) mit dem Verarbeitungsvorteil von initial > final > medial kann nicht bestätigt werden, und die besondere Salienz der finalen Position wird mit Murdock (1962) als recency effect erklärt. Außerdem könnte die finale Position von der Konvention für die Integration neuer Information profitieren: bekannte Information wird vor neuer Information genannt (Haviland & Clark, 1974). Hörer handeln nach dieser üblichen Diskursstruktur und richten ihre Aufmerksamkeit auf Information, die in finaler Position genannt wird. Zu 2.: Syntaktische Mittel der Fokusmarkierung Die Abweichung von kanonischer Satzstruktur lenkt die Aufmerksamkeit auf bestimmte Elemente im Satz, und der Spaltsatz ist in vielen Sprachen eine bekannte Art der Fokussierung (Lambrecht, 2001). Die Oberflächenstruktur eines Satzes beeinflusst seine Verarbeitung (Foss & Lynch, 1969; Langford & Holmes, 1979) und in Experiment 2 stehen zwei Hypothesen gegenüber: Der fokussierende Effekt von Spaltsätzen könnte einen Verarbeitungsvorteil bewirken. Andererseits sind Spaltsätze im Deutschen seltener und weniger gebräuchlich als im Englischen (Ahlemeyer & Kohlhof, 1999; Doherty, 1999; E. Klein, 1988); die syntaktische Komplexität von Spaltsätzen und die Erfahrung der Muttersprache könnten einem Verarbeitungsvorteil in Deutsch L1 und Englisch L2 entgegenwirken. Die Ergebnisse von Experiment 2 zeigen, dass der Spaltsatz ein effektives Mittel der Fokusmarkierung im Deutschen ist. Dies wird auf die geringe strukturelle Markiertheit des Ersatz-Subjekts ‚es’ zurückgeführt, da es an kanonischer, initialer Stelle steht. Die Prominenz dieses Subjekts setzt das nachfolgende Subjekt-Element in Fokus und verleiht ihm Subjekt-Prominenz. Der verarbeitungsfördernde Effekt von Spaltsätzen wird noch erhöht, wenn Oberflächenstruktur (Spaltsatz) und Satzzusammenhang (Kontext) integriert werden. Der Spaltsatz wird jedoch nicht in der Fremdsprache als ein effektives Mittel der Fokusmarkierung genutzt. Englische Muttersprachler nutzen den Fokuseffekt des Spaltsatzes zur schnellen Worterkennung, aber dieses informationsstrukturelle Mittel der L2 wird nicht von Fremdsprachenlernern erkannt und verwertet. Dies wird als Lernerproblem interpretiert: linguistische Strukturen der Muttersprache werden nicht adäquat nach informationsstrukturellen Prinzipien in der Fremdsprache angewandt. Der Spaltsatz trägt weder im Deutschen noch im Englischen zu einer besseren Erinnerungsleistung bei. Das kann zum einen an der starken phonologischen Ähnlichkeit der im Test angebotenen Antwortoptionen liegen (Conrad & Hull, 1964); zum anderen kann es mit der Zeitspanne zusammenhängen, die zwischen Hörexperiment und Erinnerungstest liegen und die die Erinnerung an ein bestimmtes Wort zu sehr erschwert (Birch & Garnsey, 1995; McCoon et.al., 1993). Zu 3.: Lexikalische Mittel der Fokusmarkierung Fokuspartikel sind Exponenten von Fokusstruktur und sie markieren Satzelemente (König, 1991; Paterson et al., 1999). Die untersuchten Fokuspartikel evozieren Kontrast und Alternativmengen zu dem fokussierten Element, was Interpretationen von Kontext bewirkt (Ni et al., 1996; Liversedge et al., 2002). Von daher wird keine schnellere Verarbeitung von fokussierten Worten erwartet. Ihre förderliche Eigenschaft zeigt sich jedoch in der Erinnerungsleistung, da sich dieser Prozess auf andere Erschließungsmechanismen zu stützen scheint: es wird erwartet, dass der bevorzugte Gebrauch von lexikalischen Mitteln zur Fokusmarkierung im Deutschen (König, 1991; Ahlemeyer & Kohlhof, 1999) sich positiv auf die Erinnerung von fokussierten Worten auswirkt. Die Fokuspartikel nur und sogar in Experiment 3 erweisen sich in der Experimentreihe als schwächste Exponenten von Fokusmarkierung: Weder im Deutschen noch in Englischen als Fremdsprache noch in der englischen Kontrollgruppe bewirken diese Fokuspartikel eine schnellere Verarbeitung des fokussierten Elements. Dies erklärt sich durch die Eigenschaft von Fokuspartikeln, eine Menge an Alternativen zu evozieren und dadurch beim Hörer komplexe Diskursmodelle anzuregen, die sowohl das Element in Fokus als auch Alternativen dazu beinhalten (siehe Ni et al., 1996; Liversedge et al., 2002). Verarbeitung und Interpretation der Fokusstruktur benötigen dann einen erhöhten Zeitaufwand. Im Erinnerungstest kommt der Fokuseffekt nur in der fremdsprachlichen Testbedingung zum Tragen: Werden Lerner hinsichtlich mit hinsichtlich ihrer L2-Fertigkeit anspruchsvollen Situationen konfrontiert, wird Fokusstruktur zu einer besseren Repräsentation in der Erinnerung genutzt. Übergreifend zeigt sich aus Experiment 2 und Experiment 3, dass ein zusätzlicher Satzakzent in Sätzen mit syntaktischer oder lexikalischer Fokusmarkierung in muttersprachlichem Deutsch und Englisch genutzt wird, aber in der Fremdsprache nicht gleichermaßen effektiv verarbeitet wird. Ein bedeutender Parameter wie Tonhöheakzent wird in der Fremdsprache scheinbar weniger genutzt, wenn gleichzeitig andere Mittel der Markierung auftreten. Vor allem deutet dieser Effekt jedoch auf eine weitaus differenziertere Wahrnehmung und Interpretation von Tonhöheakzent in der Muttersprache hin. Des weiteren scheint die Reihenfolge, in der die Testsprachen den Probanden angeboten werden (L1-L2,oder L2-L1) von Bedeutung zu sein, da ein Lerneffekt aus der ersten Testsprache die Leistung in der zweiten Testsprache beeinflussen kann. Dies erschwert die Erhebung vergleichbarer Daten für zwei Sprachen von derselben Probandengruppe (siehe Akker & Cutler, 2003). Im Hinblick auf die Auswirkungen von Kontext auf die Wortverarbeitung weisen die Ergebnisse darauf hin, dass vorangestellte Fragen dem Fremdsprachenlerner nur bedingt Hilfe bei der zügigen Verarbeitung von z.B. schwierigeren Satzkonstruktionen bieten. Zusätzlicher Kontext scheint außerdem die Erinnerungsleistung zu erschweren, vor allem in der Fremdsprache. Sowohl in der Fremdsprachenforschung als auch in der Fremdsprachendidaktik hat die Einbettung in einen Kontext bei dem Erlernen von Worten eine große Bedeutung (Lawson & Hogben, 1996). Es wird dahingehend argumentiert, dass eine Form von Kontext, die mehr semantische, prosodische oder lexikalische Verbindungen schafft, den zusätzlichen Verarbeitungsaufwand kompensieren müsste. Die Ergebnisse der vorliegenden Arbeit weisen darauf hin, dass sich Informationsstruktur eher in der Muttersprache als in der Fremdsprache erschließt. Einzelne informationsstrukturelle Parameter werden jedoch sehr wohl von den Fremdsprachenlernern erfolgreich ausgewertet, was sich in einer schnelleren und nachhaltigeren sprachlichen Verarbeitung äußert. Auf der kognitiven Ebene zeigt die vorliegende Arbeit die vorteilhafte Wirkung auf, wenn Informationsstruktur von Mutter- und Fremdsprache in dynamischem Austausch stehen. Die Ergebnisse bestärken die Annahme, dass ein Verständnis von Informationsstruktur dem Fremdsprachenlerner helfen kann, Form und Bedeutung der Fremdsprache zu erkennen. Informationsstruktur erweist sich als potentiell wertvolle Ressource in der Entwicklung und Stärkung fremdsprachlicher Kompetenz.
Lichacz, Frederick Michael John Carleton University Dissertation Psychology. "The locus of length effects in visual word recognition." Ottawa, 1998.
Find full textPerälä, J. (Juho). "Using open innovation to gain knowledge and technology." Bachelor's thesis, University of Oulu, 2016. http://urn.fi/URN:NBN:fi:oulu-201605282043.
Full textMarjamaa-Mankinen, L. (Liisa). "Technology ecosystems and digital business ecosystems for business." Master's thesis, University of Oulu, 2016. http://urn.fi/URN:NBN:fi:oulu-201603251356.
Full textCarson, Robyn. "Processing Grammatical and Notional Number Information in English and French." Thesis, Université d'Ottawa / University of Ottawa, 2018. http://hdl.handle.net/10393/38309.
Full textCheng, Man-fai, and 鄭文輝. "Utitlization in information technology in housing management." Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 2007. http://hub.hku.hk/bib/B4500920X.
Full textAydinci, Nedim. "Processing Technology for Si Based Tandem Solar Cells." Thesis, KTH, Skolan för informations- och kommunikationsteknik (ICT), 2014. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-177442.
Full textWeber, Mary Margaret. "The effect of information technology on retail logistics." The Ohio State University, 1990. http://rave.ohiolink.edu/etdc/view?acc_num=osu1299530060.
Full textPalokangas, M. (Mari). "CeHRes roadmap utilization in development of eHealth technology solutions:a Scoping review." Master's thesis, University of Oulu, 2017. http://urn.fi/URN:NBN:fi:oulu-201712023270.
Full textHall, Shirley L. "Information processing instruction in Virginia Community Colleges." Thesis, Virginia Polytechnic Institute and State University, 1986. http://hdl.handle.net/10919/94455.
Full textM.S.
Shi, H. (Henglin). "A GQM-based open research data technology evalution method in open research context." Master's thesis, University of Oulu, 2016. http://urn.fi/URN:NBN:fi:oulu-201605221853.
Full textSmolenska, Greta. "Complex Word Identification for Swedish." Thesis, Uppsala universitet, Institutionen för lingvistik och filologi, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-352349.
Full textThomas, Charalambos Bob. "Information communications technologies in education : a Faustian bargain?" Thesis, McGill University, 2001. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=33934.
Full textAnkener, Christine Susanne [Verfasser], and Maria [Akademischer Betreuer] Staudte. "The influence of visual information on word predictability and processing effort / Christine Susanne Ankener ; Betreuer: Maria Staudte." Saarbrücken : Saarländische Universitäts- und Landesbibliothek, 2019. http://d-nb.info/1196090025/34.
Full textAnkener, Christine Susanne Verfasser], and Maria [Akademischer Betreuer] [Staudte. "The influence of visual information on word predictability and processing effort / Christine Susanne Ankener ; Betreuer: Maria Staudte." Saarbrücken : Saarländische Universitäts- und Landesbibliothek, 2019. http://nbn-resolving.de/urn:nbn:de:bsz:291--ds-284518.
Full textChan, Ki-hung, and 陳己雄. "Implementation of information technology in small and medium retail and wholesale enterprises." Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 1997. http://hub.hku.hk/bib/B31267853.
Full textHarms, Herbert Andrew. "Considerations on the optimal and efficient processing of information-bearing signals." Thesis, Princeton University, 2013. http://pqdtopen.proquest.com/#viewpdf?dispub=3597492.
Full textNoise is a fundamental hurdle that impedes the processing of information-bearing signals, specifically the extraction of salient information. Processing that is both optimal and efficient is desired; optimality ensures the extracted information has the highest fidelity allowed by the noise, while efficiency ensures limited resource usage. Optimal detectors and estimators have long been known, e.g., for maximum likelihood or minimum mean-squared error criteria, but might not admit an efficient implementation. A tradeoff often exists between the two goals. This thesis explores the tradeoff between optimality and efficiency in a passive radar system and an analog-to-digital converter. A passive radar system opportunistically uses illuminating signals from the environment to detect and track targets of interest, e.g., airplanes or vehicles. As an opportunistic user of signals, the system does not have control over the transmitted waveform. The available waveforms are not designed for radar and often have undesirable properties for radar systems, so the burden is on the receiver processing to overcome these obstacles. A novel technique is proposed for the processing of digital television signals as passive radar illuminators that eases the need for complex detection and tracking schemes while incurring only a small penalty in detection performance. An analog-to-digital converter samples analog signals for digital processing. The Shannon-Nyquist theorem describes a sufficient sampling and recovery scheme for bandlimited signals from uniformly spaced samples taken at a rate twice the bandwidth of the signal. Frequency-sparse signals are composed of relatively few frequency components and have fewer degrees of freedom than a frequency-dense bandlimited signal. Recent results in compressed sensing describe sufficient sampling and recovery schemes for frequency-sparse signals that require a sampling rate proportional to the spectral density and the logarithm of the bandwidth, while providing high fidelity and requiring many fewer samples, which saves resources. A proposed sampling and simple recovery scheme is shown to efficiently recover the locations of tones in a large bandwidth nearly-optimally using relatively few samples. The proposed sampling scheme is further optimized for full recovery of the input signal by matching the statistics of the scheme to the statistics of the input signal.
Berdugo, Oviedo Gloria. "Comprehension and representation of algebra word problems in a second language." Thesis, McGill University, 2004. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=84473.
Full textThe sample consisted of 31 grade 9 students who attended a private bilingual school in a Colombian city. Students were asked to think aloud as they solved four problems that dealt with the topics of ratio and percentage. Problem presentation was counterbalanced with respect to topic, but the language of presentation was kept fixed; i.e., the first set of ratio and percentage problems were in English and the other set in Spanish. Students were allowed to use either language when solving the problems. There was a short post-task semi-structured interview. Students' think aloud protocols and answers to problems were analyzed.
The results support the role that language plays in performing this type of task, although not in the way that it was initially predicted. The results suggest that the language of instruction plays a more important role than whether the task is performed in L1 or L2. Thus, the hypothesis that completing the task would be more difficult in the L2 was not supported. The results suggest that the difficulty with word problems resides in the mismatch between text comprehension, the situation presented in the text and the mathematical representation. The evidence is discussed within the framework of current explanations for performance in word problems in the L1 as they apply to the bilingual case, and theories of text comprehension. It is argued that current explanations for performance in word problems in the L1 apply to the bilingual case, but with the caution that the interaction between the content of the subject domain, and the knowledge students have of the language of instruction and their first language must be taken into account.
Holzer, Corey T. "The application of natural language processing to open source intelligence for ontology development in the advanced persistent threat domain." Thesis, Purdue University, 2017. http://pqdtopen.proquest.com/#viewpdf?dispub=10249704.
Full textOver the past decade, the Advanced Persistent Threat (APT) has risen to forefront of cybersecurity threats. APTs are a major contributor to the billions of dollars lost by corporations around the world annually. The threat is significant enough that the Navy Cyber Power 2020 plan identified them as a “must mitigate” threat in order to ensure the security of its warfighting network.
Reports, white papers, and various other open source materials offer a plethora of information to cybersecurity professionals regarding these APT attacks and the organizations behind them but mining and correlating information out of these various sources needs the support of standardized language and a common understand of terms that comes from an accepted APT ontology.
This paper and its related research applies the science of Natural Language Processing Open Source Intelligence in order to build an open source Ontology in the APT domain with the goal of building a dictionary and taxonomy for this complex domain.
Hoffman, A. R. "Information technology decision making in South Africa : a framework for company-wide strategic IT management." Master's thesis, University of Cape Town, 1989. http://hdl.handle.net/11427/15854.
Full textThe area of interest in which this Study is set is the linking of a company's business strategies with its strategic planning for IT (information technology). The objectives of the Study are: to investigate how the IT planning environment is changing for business enterprises in South Africa; to establish how successfully South African companies are managing IT strategically; to propose a new approach to strategic IT decision making that will help South African management deal with the major issues; to propose a way of implementing the approach. In Chapter 2, conclusions are drawn from an examination of the key strategic IT planning literature. It appears that fundamental changes are indeed taking place, and are producing significant shifts in the way researchers, consultants and managers think about IT. The survey of South African management opinion is described in Chapter 3. The opinions analyzed range over environmental trends, strategic decision making practices, and what an acceptable strategic IT decision making framework would look like. The need for a new, comprehensive approach to strategic IT decision making in South Africa is clearly established. In Chapter 4, a theoretical Framework is proposed as a new, comprehensive approach to strategic IT decision making. The Framework covers five strategic tasks: analysing the key environmental issues; determining the purposes and uses of IT in competitive strategy and organizational designs; developing the IT infrastructure, human systems, information systems, and human resources to achieve these purposes and uses; implementing the strategic IT decisions; and learning to make better strategic IT decisions. In Chapter 5, ways of implementing the Framework in practice are .identified. A means of evaluating its acceptability in a specific company is also proposed. The general conclusions of the Study are presented in Chapter 6. The Framework developed in this Study is intended for use, not directly by the IT decision makers themselves, but by the persons responsible for designing the IT decision making processes of the company. It is not, however, offered as a theory or a methodology. The aim is· simply to provide a conceptual "filing system", to help designers uncover and classify the IT strategy problems of their own company, to identify the tools their decision makers need, and to put appropriate problem solving processes in place.
Gränsbo, Gustav. "Word Clustering in an Interactive Text Analysis Tool." Thesis, Linköpings universitet, Interaktiva och kognitiva system, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-157497.
Full textLomerson, William L. (William Lough). "Information Technology Needs of Professional Education Faculty with the Implications for the Design of Information Technology Systems." Thesis, University of North Texas, 1992. https://digital.library.unt.edu/ark:/67531/metadc332783/.
Full textTam, Chiu-han Sandy, and 譚肖嫻. "Strategic aspects of information technology in the banking industry inHong Kong." Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 1997. http://hub.hku.hk/bib/B31268298.
Full textSarni, T. (Tomi). "Use of workflow technology to assist remote caretakers in a smart kitchen environment designed for elderly people suffering from dementia." Master's thesis, University of Oulu, 2013. http://urn.fi/URN:NBN:fi:oulu-201305241339.
Full textBoshoff, Jacques. "An evaluation of the information-processing approach of knowledge management." Thesis, Stellenbosch : Stellenbosch University, 2003. http://hdl.handle.net/10019.1/53260.
Full textENGLISH ABSTRACT: The study involves research of secondary data in the field of knowledge management. It investigates the different perspectives of how knowledge can be managed. The complexity of knowledge requires different approaches for different organisations in a variety of industries. The complexity of this field has resulted in a number of acceptable as well as unacceptable knowledge management approaches. In the study the two predominant conflicting perspectives of knowledge management is discussed. The information-processing perspective suggests that knowledge can be effectively managed through the use of information technology. The emphasis is on the capabilities of information technology with little reference to the human and cultural issues. The opposing knowledgecentric perspective emphasises that a knowledge initiative requires fundamental change that affects the strategy, structure, culture and processes within an organisation. The goal is to create an environment that is conducive to knowledge creation and sharing. In the study these contrasting perspectives are investigated. Analysis of the main points of contention provides insight into faulty assumptions that affect the credibility of an approach. The first primary area of dispute relates to the understanding of knowledge and information. According to the information processing approach knowledge and information are similar. Therefore knowledge can be managed with information processing tools. Advocates of the knowledge-centric approach disagree with this assumption. They believe that knowledge sharing and creation are subject to human interaction and creativity, and not technological systems. A clear definition and description of knowledge and information is provided. It is apparent from this discussion that there is a vast difference between information and knowledge. It is therefore false to suggest that knowledge and information can be managed with information management tools. The analysis of the factors that limit the capabilities of information management tools to provide knowledge management solutions indicates that technology merely plays an enabling role in knowledge management. Humans play the fundamental role in creating new knowledge and sharing existing knowledge. The information-processing perspective is therefore flawed, for knowledge and information cannot be equated and therefore information-processing tools cannot be used to manage knowledge.
AFRIKAANSE OPSOMMING: Die studie gebruik sekondêre data in die veld van kennisbestuur. Verskillende perspektiewe of benaderings tot kennisbestuur word ondersoek. Die kompleksiteit van kennis noodsaak dat verskillende benaderings vir verskillende organisasies gevolg moet word. Die resultaat is dat daar 'n verskeidenheid van aanvaarbare sowel as onaanvaarbare benaderings tot kennisbestuur is. In hierdie studie word die twee primêre teenoorgestelde perspektiewe van kennisbestuur bespreek. Die inligtingsverwerkingsbenadering se standpunt is dat kennis effektief bestuur kan word deur die gebruik van inligtingstegnologie. Die vermoëns van inligtingstegnologie word beklemtoon terwyl min aandag aan kulturele en menslike aspekte betee word. Die opponerende kennis-georiënteerde benadering beklemtoon dat 'n kennisbestuursinisiatief fundamentele veranderinge in die strategie, struktuur, kultuur en besigheidsprosesse van 'n organisasie vereis. Die doel is om 'n omgewing daar te stel waarin die skep en deel van kennis vrylik kan geskied. In die studie word die kontrasterende perspektiewe van kennisbestuur ondersoek. 'n Analise van die hoof konflikareas verskaf insig in foutiewe afleidings wat gemaak word. Foutiewe afleidings bevraagteken die kredietwaardigheid van 'n benadering. Die eerste primêre area van konflik kan toegeskryf word aan verskillende interpretasies van kennis en inligting. Volgens die inligtingsverwerkingsbenadering is kennis en inligting dieselfde. Kennis kan dus effektief bestuur word deur tegnologie wat geskik is vir die bestuur van inligting. Die kennisgeoriënteerde benadering beskou hierdie afleiding as foutief. Ondersteuners van hierdie benadering is van mening dat die deel en skep van kennis afhanklik is van menslike interaksie en kreatiwiteit, nie tegnologiese stelsels nie. 'n Duidelike definisie en beskrywing van kennis en inligting word voorgelê. Dit is duidelik uit hierdie bespreking dat daar 'n definitiewe verskil bestaan tussen inligting en kennis. Die aaname dat kennis en inligting deur dieselfde tegnologie bestuur kan word, is dus foutief. Die analise van die faktore wat die vermoëns van tegnologie beperk om kennisbestuursoplossings te verskaf, maak dit duidelik dat tegnologie nie kennisbestuursprobleme kan oplos nie. Mense speel die fundamentele rol in die skepping van nuwe kennis en die deel van bestaande kennis. Die inligtingsverwerkingsbenadering tot kennisbestuur sal dus nie optimale gebruik van kennisbronne verseker nie.
Wong, Hon-ho, and 黃漢浩. "Analytical models for the assessment of information technology on sustainable electrification." Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 2000. http://hub.hku.hk/bib/B3122362X.
Full textAcevedo, Rafael A. "Valued information at the right time (VIRT) and the Navy's cooperative engagement capability (CEC) - a win/win proposition." Thesis, Monterey, Calif. : Springfield, Va. : Naval Postgraduate School ; Available from National Technical Information Service, 2006. http://library.nps.navy.mil/uhtbin/hyperion/06Mar%5FAcevedo.pdf.
Full textThesis Advisor(s): Rick Hayes-Roth, Curtis Blais. Includes bibliographical references (p. 65-68). Also available online.
Edizel, Necati Bora. "Word embeddings with applications to web search and advertising." Doctoral thesis, Universitat Pompeu Fabra, 2019. http://hdl.handle.net/10803/669622.
Full textDins del món del Processament del Llenguatge Natural (NLP) i d’altres camps relacionats amb aquest àmbit, les representaciones latents de paraules (word embeddings) s'han convertit en una tecnologia fonamental per a desenvolupar aplicacions pràctiques. En aquesta tesi es presenta un anàlisi teòric d’aquests word embeddings així com alguns algoritmes per a entrenar-los. A més a més, com a aplicació pràctica d’aquesta recerca també es presenten aplicacions per a cerques a la web i màrqueting. Primer, s’introdueixen alguns aspectes teòrics d’un dels algoritmes més populars per a aprendre word embeddings, el word2vec. També es presenta el word2vec en un context de Reinforcement Learning demostrant que modela les normes no explícites (off-policy) en presència d’un conjunt de normes (policies) de comportament fixes. A continuació, presentem un nou algoritme de d’aprenentatge de normes no explícites (off-policy), $word2vec_{\pi}$, com a modelador de normes de comportament. La validació experimental corrobora la superioritat d’aquest nou algorithme respecte \textit{word2vec}. Segon, es presenta un mètode per a aprendre word embeddings que són resistents a errors d’escriptura. La majoria de word embeddings tenen una aplicació limitada quan s’enfronten a textos amb errors o paraules fora del vocabulari. Nosaltres proposem un mètode combinant FastText amb sub-paraules i una tasca supervisada per a aprendre patrons amb errors. Els resultats proven com les paraules mal escrites estan pròximes a les correctes quan les comparem dins de l’embedding. Finalment, aquesta tesi proposa dues tècniques noves (una a nivell de caràcter i l’altra a nivell de paraula) que empren xarxes neuronals (DNNs) per a la tasca de similaritat semàntica. Es demostra experimentalment que aquests mètodes són eficaços per a la predicció de l’eficàcia (click-through rate) dins del context de cerces patrocinades.
梁南柱 and Nam-chu Alexander Leung. "The strategic importance of information system/technology to the Hong Kong Polytechnic University." Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 1995. http://hub.hku.hk/bib/B31266708.
Full textLeung, Shiu-keung, and 梁兆強. "Information technology and end user computing in the Hong Kong Government." Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 1992. http://hub.hku.hk/bib/B3196431X.
Full textXiang, Qiao. "In-network processing for mission-critical wireless networked sensing and control| A real-time, efficiency, and resiliency perspective." Thesis, Wayne State University, 2014. http://pqdtopen.proquest.com/#viewpdf?dispub=3619123.
Full textAs wireless cyber-physical systems (WCPS) are increasingly being deployed in mission-critical applications, it becomes imperative that we consider application QoS requirements in in-network processing (INP). In this dissertation, we explore the potentials of two INP methods, packet packing and network coding, on improving network performance while satisfying application QoS requirements. We find that not only can these two techniques increase the energy efficiency, reliability, and throughput of WCPS while satisfying QoS requirements of applications in a relatively static environment, but also they can provide low cost proactive protection against transient node failures in a more dynamic wireless environment.
We first study the problem of jointly optimizing packet packing and the timeliness of data delivery. We identify the conditions under which the problem is strong NP-hard, and we find that the problem complexity heavily depends on aggregation constraints instead of network and traffic properties. For cases when the problem is NP-hard, we show that there is no polynomial-time approximation scheme (PTAS); for cases when the problem can be solved in polynomial time, we design polynomial time, offline algorithms for finding the optimal packet packing schemes. We design a distributed, online protocol tPack that schedules packet transmissions to maximize the local utility of packet packing at each node. We evaluate the properties of tPack in NetEye testbed. We find that jointly optimizing data delivery timeliness and packet packing and considering real-world aggregation constraints significantly improve network performance.
We then work on the problem of minimizing the transmission cost of network coding based routing in sensor networks. We propose the first mathematical framework so far as we know on how to theoretically compute the expected transmission cost of NC-based routing in terms of expected number of transmission. Based on this framework, we design a polynomial-time greedy algorithm for forwarder set selection and prove its optimality on transmission cost minimization. We designed EENCR, an energy-efficient NC-based routing protocol that implement our forwarder set selection algorithm to minimize the overall transmission cost. Through comparative study on EENCR and other state-of-the-art routing protocols, we show that EENCR significantly outperforms CTP, MORE and CodeOR in delivery reliability, delivery cost and network goodput.
Furthermore, we study the 1+1 proactive protection problem using network coding. We show that even under a simplified setting, finding two node-disjoint routing braids with minimal total cost is NP-hard. We then design a heuristic algorithm to construct two node-disjoint braids with a transmission cost upper bounded by two shortest node-disjoint paths. And we design ProNCP, a proactive NC-based protection protocol using similar design philosophy as in EENCR. We evaluate the performance of ProNCP under various transient network failure scenarios. Experiment results show that ProNCP is resilient to various network failure scenarios and provides a state performance in terms of reliability, delivery cost and goodput.
Our findings in this dissertation explore the challenges, benefits and solutions in designing real-time, efficient, resilient and QoS-guaranteed wireless cyber-physical systems, and our solutions shed lights for future research on related topics.
Richards, Jessica Smith. "Terminological Mediation in Information Technology and Related Fields." BYU ScholarsArchive, 2015. https://scholarsarchive.byu.edu/etd/5572.
Full textFoster, Geoff. "On-line help : an aid to effective use of software /." [St. Lucia, Qld.], 2006. http://adt.library.uq.edu.au/public/adt-QU20060329.152932/index.html.
Full textChen, Simin. "Topic discovery and document similarity via pre-trained word embeddings." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-235537.
Full textUnder hela historien fortsätter människor att skapa en växande mängd dokument om ett brett spektrum av publikationer. Vi förlitar oss nu på dataprogram för att automatiskt bearbeta dessa stora samlingar av dokument i olika applikationer. Många applikationer kräver en kvantitativmått av dokumentets likhet. Traditionella metoder först lära en vektorrepresentation för varje dokument med hjälp av en stor corpus och beräkna sedan avståndet mellan two document vektorer som dokumentets likhet.Till skillnad från detta corpusbaserade tillvägagångssätt, föreslår vi en rak modell som direkt upptäcker ämnena i ett dokument genom att klustra sina ord , utan behov av en corpus. Vi definierar en vektorrepresentation som kallas normalized bag-of-topic-embeddings (nBTE) för att inkapsla de upptäckta ämnena och beräkna den mjuka cosinuslikheten mellan två nBTE-vektorer som dokumentets likhet. Dessutom föreslår vi en logistisk ordbetydelsefunktion som tilldelar ord olika viktvikter baserat på relativ diskriminerande kraft.Vår modell är effektiv när det gäller den genomsnittliga tidskomplexiteten. nBTE-representationen är också tolkbar som möjliggör ämnesidentifiering av dokumentet. På tremärkta offentliga dataset uppnådde vår modell jämförbar närmaste grannklassningsnoggrannhet med fem toppmoderna modeller. Vidare härledde vi från de tre dataseten fyra multi-ämnesdatasatser där varje etikett hänvisar till en uppsättning ämnen. Vår modell överensstämmer överens med de högteknologiska baslinjemodellerna med en stor marginal av fyra utmanande multi-ämnesdatasatser. Dessa arbetsstöd ger svar på forskningsproblemet av tisthesis:Kan vi konstruera en tolkbar dokumentrepresentation genom att klustra orden i ett dokument och effektivt och effektivt uppskatta dokumentets likhet?
Blom, Nicolaas Willem. "Extended Information processing of Technology Education learners during the early phases of the design process." Diss., University of Pretoria, 2015. http://hdl.handle.net/2263/52075.
Full textDissertation (MEd)--University of Pretoria, 2015.
National Research Foundation (NRF)
Science, Mathematics and Technology Education
MEd
Unrestricted
劉淑賢 and Shuk-yin Josephine Lau. "Management of public housing estates: competitiveness and information technology." Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 2002. http://hub.hku.hk/bib/B31968909.
Full textSmith, Michael Alan. "An empirical investigation of the determinants of information systems outsourcing." Diss., Georgia Institute of Technology, 1998. http://hdl.handle.net/1853/29455.
Full textZhou, Wenqi. "Three Essays on the Economic Impact of Online Word-of-Mouth in Online Software Market." Thesis, The George Washington University, 2013. http://pqdtopen.proquest.com/#viewpdf?dispub=3557958.
Full textThe advances in information technologies and the Internet significantly promote the prosperous growth of electronic commerce in recent years. Simply surfing the Internet allows consumers to conveniently explore endless product choices and a flood of related product information. As one of the most important sources of product information, Word-of-Mouth (WOM) helps consumers assess product quality, reduces decision risk without physical trials, and thus facilitates locating their best matches. WOM volume on the Internet has been rising fast while the Internet also unprecedentedly enhances the reach of WOM. As a result, online WOM could significantly influence consumer decision-making. More and more firms are embracing and applying online WOM marketing as a complementary strategy for advertising to increase sales. Even so, not much has been known regarding the mechanism underlying the WOM effect on online consumer behavior. A deeper understanding of the economic impact of online WOM is needed to provide practitioners insightful guidance on information systems design and the allocation of firm resources to more effectively develop online WOM marketing strategies.
This dissertation seeks to shed light on online WOM effect from three angles using a three-essay structure. The first essay of this dissertation investigates how a demand side factor (online user-generated WOM) interplays with a supply side factor (product variety) to affect a product's popularity in the online market where product choices are abundant and consumers can easily access product information. Extant research primarily looks into either demand side or supply side justifications for the heterogeneity of consumption pattern. Alternatively, this study highlights that consumers' reliance on online user reviews to choose products is significantly influenced by the quantity of products available.
In addition, this dissertation also explores the differential impact of online WOM created by different types of reviewers on online user choices. While consumers are widely exposed to both online user reviews and professional reviews, those two sources of WOM information are generally believed to influence user choices independently. However, an in-depth mediation analysis conducted in the Bayesian framework shows that professional reviews influence online user choices not only directly but also indirectly through the volume of online user reviews. This study also proposes a more robust hierarchical structure to model the interaction effect between online user reviews and product variety, refining the first essay.
Following this line of inquiry, this dissertation further studies the impact of the distribution of online WOM across retailing and third-party websites on consumers' purchasing decisions. In parallel with the flocking WOM available on the Internet, nowadays consumers are able to reach almost every piece of online WOM information relevant to their interested products. The distribution of WOM information across the Internet may accordingly influence consumers' search costs for product information and affect their final decisions. This research has found empirical evidence that both the dispersion of WOM volume and variation of WOM valence across the Internet significantly influence online retail sales.
Foote, Alan Richard. "Exploring Knowledge Management Models on Information Technology Projects." ScholarWorks, 2016. https://scholarworks.waldenu.edu/dissertations/2028.
Full text