Academic literature on the topic '[INFO:INFO_OH] Computer Science/Other'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic '[INFO:INFO_OH] Computer Science/Other.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "[INFO:INFO_OH] Computer Science/Other"

1

Iovane, Gerardo, Riccardo Emanuele Landi, Antonio Rapuano, and Riccardo Amatore. "Assessing the Relevance of Opinions in Uncertainty and Info-Incompleteness Conditions." Applied Sciences 12, no. 1 (December 25, 2021): 194. http://dx.doi.org/10.3390/app12010194.

Full text
Abstract:
Researchers are interested in defining decision support systems that can act in contexts characterized by uncertainty and info-incompleteness. The present study proposes a learning model for assessing the relevance of probability, plausibility, credibility, and possibility opinions in the conditions above. The solution consists of an Artificial Neural Network acquiring input features related to the considered set of opinions and other relevant attributes. The model provides the weights for minimizing the error between the expected outcome and the ground truth concerning a given phenomenon of interest. A custom loss function was defined to minimize the Mean Best Price Error (MBPE), while the evaluation of football players’ was chosen as a case study for testing the model. A custom dataset was constructed by scraping the Transfermarkt, Football Manager, and FIFA21 information sources and by computing a sentiment score through BERT, obtaining a total of 398 occurrences, of which 85% were employed for training the proposed model. The results show that the probability opinion represents the best choice in conditions of info-completeness, predicting the best price with 0.86 MBPE (0.61% of normalized error), while an arbitrary set composed of plausibility, credibility, and possibility opinions was considered for deciding successfully in info-incompleteness, achieving a confidence score of 2.47±0.188 MBPE (1.89±0.15% of normalized error). The proposed solution provided high performance in predicting the transfer cost of a football player in conditions of both info-completeness and info-incompleteness, revealing the significance of extending the feature space to opinions concerning the quantity to predict. Furthermore, the assumptions of the theoretical background were confirmed, as well as the observations found in the state of the art regarding football player evaluation.
APA, Harvard, Vancouver, ISO, and other styles
2

Basargekar, Prema, and Chandan Sanjayraj Singhavi. "INTEGRATING ICT IN SCHOOL EDUCATION: A CASE OF PRATHAM INFO TECH FOUNDATION, INDIA." Journal of Information Technology Education: Discussion Cases 4 (2015): 03. http://dx.doi.org/10.28945/2328.

Full text
Abstract:
In the scorching and sultry heat of a Mumbai summer Prem Yadav, the Director of Pratham Info Tech Foundation (referred to as the Foundation), Mumbai, India and his team were busy teaching basic computer skills to students attending a school for children raised in poor households. These children were stumbling at every stage. Classrooms were very small and congested. Electricity supply was erratic. Software products were available only in English and were not compatible with the hardware. Schools and teachers were unenthusiastic if not wary of the additional burden put on them. This was the situation in spite of the fact that for four years since 1998, Prem and his team had tried everything to integrate Information and Communication Technology (ICT) in 54 Municipal Corporation schools, (schools run by the civic body that governs the city) started mainly for unprivileged children. The team enjoyed moderate success, but the overall impact was small. Uses of ICT in education were perceived to be an add-on support, rather than an effective toolbox to bring consistency and equality in providing quality education and empowerment to underprivileged children. Information technology had led to decisive and sweeping changes in other fields like healthcare, e-governance, logistics, and manufacturing. Yet so far ICT had very limited success in the field of education especially at pre-primary and secondary school levels (i.e., from standard 1st to 8th). On the one hand, India was emerging as a knowledge based economy by exporting IT and IT based services to the world, and, on the other hand, most of the population belonging to the low income group did not have any access to learn basic knowledge and skills related to IT. Prem was convinced that this digital gap needed to be closed as early as possible; otherwise India would risk leaving a large section of the population far behind. He knew that it was not the technology per se, but the implementation of the technology at the grass roots level that was more important.
APA, Harvard, Vancouver, ISO, and other styles
3

Geetha, Dr V., Dr C. K. Gomathy*, Mr Maddu Pavan Manikanta Kiran, and Mr Gandikota Rajesh. "A Secure Based Preserving Social Media Data Management System." International Journal of Engineering and Advanced Technology 10, no. 4 (April 30, 2021): 210–14. http://dx.doi.org/10.35940/ijeat.d2455.0410421.

Full text
Abstract:
Personalized suggestions are important to help users find relevant information. It often depends on huge collection of user data, especially users’ online activity (e.g., liking/commenting/sharing) on social media, thereto user interests. Publishing such user activity makes inference attacks easy on the users, as private data (e.g., contact details) are often easily gathered from the users’ activity data. during this module, we proposed PrivacyRank, an adjustable and always protecting privacy on social media data publishing framework , which protects users against frequent attacks while giving personal ranking based recommendations. Its main idea is to continuously blur user activity data like user-specified private data is minimized under a given data budget, which matches round the ranking loss suffer from the knowledge blurring process so on preserve the usage of the info for enabling suggestions. a true world evaluation on both synthetic and real-world datasets displays that our model can provide effective and continuous protection against to the info given by the user, while still conserving the usage of the blurred data for private ranking based suggestion. Compared to other approaches, Privacy Rank achieves both better privacy protection and a far better usage altogether the rank based suggestions use cases we tested.
APA, Harvard, Vancouver, ISO, and other styles
4

Azis, Nasir, Muslim Amin, Syafruddin Chan, and Cut Aprilia. "How smart tourism technologies affect tourist destination loyalty." Journal of Hospitality and Tourism Technology 11, no. 4 (October 7, 2020): 603–25. http://dx.doi.org/10.1108/jhtt-01-2020-0005.

Full text
Abstract:
Purpose The purpose of this study is to investigate how smart tourism technologies and memorable tourism experiences affect tourist satisfaction and tourist destination loyalty. Design/methodology/approach A total of 600 questionnaires were distributed, 360 were returned (60% response rate) and a covariance-based structural equation modeling technique was used to test the hypotheses. Findings The results of this study explain that smart tourism technologies and memorable tourism experiences play essential roles in enhancing tourist satisfaction and tourist destination loyalty. Practical implications This study specifies that tourists have pleasant memories and are satisfied at a tourist destination; as a result, they are more likely to revisit and recommend a tourist destination to their friends, family and other tourists. If a tourist has a negative experience with smart city info-structure facilities, a tourist might reach an overall conclusion to not revisit or recommend the location to other tourists. Originality/value This study provides empirical evidence to support the importance of smart tourism technologies and memorable tourism experiences in enhancing tourist satisfaction and tourist destination loyalty.
APA, Harvard, Vancouver, ISO, and other styles
5

Syahputra, Abdul Karim, Edi Kurniawan, and Dina Pertiwi. "APLIKASI DESKTOP MANAJEMEN TUGAS DENGAN KONSEP CLIENT SERVER PADA MEDIA DAN INFORMASI STMIK ROYAL KISARAN." JURNAL TEKNISI 2, no. 2 (November 23, 2022): 57. http://dx.doi.org/10.54314/teknisi.v2i2.1051.

Full text
Abstract:
Abstract: One of the applications of technology in the world of education is the digital dissemination of information on social media or other online media by education providers about their school profiles so that they are more widely known to the public. STMIK Royal through the Media and Information institution is currently using social media platforms such as Instagram, Facebook, Twitter, Youtube, and Tiktok in disseminating information about its campus, both regarding new student admissions, info on academic activities, as well as information about announcements or policies that made. The application is built on a desktop basis with a client-server concept so that all work data originating from the creative team's computers in the STMIK Royal Media and Information office can be centralized on one computer. With a basic field of knowledge, research research groups, and focus on teaching courses from researchers, namely the field of Computer Science with the Software Engineering research group and teaching Visual Programming courses, this research will be carried out very maturely and seriously to produce application products according to what is expected. needed and usable..Keywords: desktop applications, client servers, media and information Abstrak: Salah satu penerapan teknologi dalam dunia pendidikan adalah penyebaran informasi secara digital di media sosial ataupun media online lainnya oleh penyelenggara pendidikan tentang profil sekolahnya agar lebih banyak dikenal masyarakat. STMIK Royal melalui lembaga Media dan Informasi saat ini sudah menggunakan platform media sosial seperti Instagram, Facebook, Twitter, Youtube, dan Tiktok dalam penyebaran informasi-informasi seputar kampusnya, baik tentang penerimaan mahasiswa baru, info kegiatan akademik, juga informasi mengenaik pengumuman atau kebijakan yang dibuat. Aplikasi yang dibangun berbasis desktop dengan konsep client-server agar seluruh data pekerjaan yang berasal dari komputer-komputer tim kreatif yang ada di kantor Media dan Informasi STMIK Royal bisa terpusat pada satu komputer. Dengan dasar bidang ilmu, kelompok bidang riset penelitian, dan fokus pengajaran mata kuliah dari peneliti yaitu bidang Ilmu Komputer dengan kelompok riset penelitian Software Engineering dan mengajar mata kuliah Pemrograman Visual, menjadikan penelitian ini akan dikerjakan dengan sangat matang dan serius hingga menghasilkan produk aplikasi sesuai yang dibutuhkan dan bisa dipakai. ? Kata kunci: aplikasi desktop, client server, media dan informasi
APA, Harvard, Vancouver, ISO, and other styles
6

Sobol, Łukasz, and Arkadiusz Dyjakon. "The Influence of Power Sources for Charging the Batteries of Electric Cars on CO2 Emissions during Daily Driving: A Case Study from Poland." Energies 13, no. 16 (August 18, 2020): 4267. http://dx.doi.org/10.3390/en13164267.

Full text
Abstract:
The main sources of greenhouse gas emissions and air pollution from the transport sector are diesel- and gasoline-powered passenger cars. The combustion of large amounts of conventional fuels by cars contributes to a significant release of various compounds into the atmosphere, such as solid particles, nitrogen oxides, carbon monoxide, and carbon dioxide. In order to reduce these pollutants in places of their high concentration (especially in urban agglomerations), the use of ecological means of transport for daily driving is highly recommended. Electric vehicles (EV) are characterized by ecological potential due to their lack of direct emissions and low noise. However, in Poland and many other countries, electricity production is still based on fossil fuels which can significantly influence the indirect emissions of carbon dioxide into the atmosphere associated with battery charging. Thus, indirect emissions from electric cars may be comparable or even higher than direct emissions related to the use of traditional cars. Therefore, the aim of the work was to analyze the amount of carbon dioxide emissions associated with the use of electric vehicles for daily driving (City, Sedan, SUV) and their impact on the environment on a local and global scale. Based on the assumed daily number of kilometers driven by the vehicle and the collected certified catalog data (Car Info Nordic AB), the direct emissions generated by the internal combustion engines (ICE) were calculated for specific cars. These values were compared to the indirect emissions related to the source of electricity generation, for the calculation of which the CO2 emission coefficient for a particular energy source and energy mix was used, as well as reference values of electricity generation efficiency in a given combustion installation, in accordance with the KOBiZE (The National Centre for Emissions Management) and European Union regulation. Indirect emissions generated from non-renewable fuels (lignite, hard coal, natural gas, diesel oil, heating oil, municipal waste) and renewable emissions (wind energy, solar energy, hydro energy, biomass, biogas) were considered. The results indicated that for the Polish case study, indirect carbon dioxide emission associated with the daily driving of EV (distance of 26 km) ranges 2.49–3.28 kgCO2∙day−1. As a result, this indirect emission can be even higher than direct emissions associated with ICE usage (2.55–5.64 kgCO2∙day−1).
APA, Harvard, Vancouver, ISO, and other styles
7

Obeidat, Rasha, Maram Gharaibeh, Malak Abdullah, and Yara Alharahsheh. "Multi-label multi-class COVID-19 Arabic Twitter dataset with fine-grained misinformation and situational information annotations." PeerJ Computer Science 8 (December 5, 2022): e1151. http://dx.doi.org/10.7717/peerj-cs.1151.

Full text
Abstract:
Since the inception of the current COVID-19 pandemic, related misleading information has spread at a remarkable rate on social media, leading to serious implications for individuals and societies. Although COVID-19 looks to be ending for most places after the sharp shock of Omicron, severe new variants can emerge and cause new waves, especially if the variants can evade the insufficient immunity provided by prior infection and incomplete vaccination. Fighting the fake news that promotes vaccine hesitancy, for instance, is crucial for the success of the global vaccination programs and thus achieving herd immunity. To combat the proliferation of COVID-19-related misinformation, considerable research efforts have been and are still being dedicated to building and sharing COVID-19 misinformation detection datasets and models for Arabic and other languages. However, most of these datasets provide binary (true/false) misinformation classifications. Besides, the few studies that support multi-class misinformation classification deal with a small set of misinformation classes or mix them with situational information classes. False news stories about COVID-19 are not equal; some tend to have more sinister effects than others (e.g., fake cures and false vaccine info). This suggests that identifying the sub-type of misinformation is critical for choosing the suitable action based on their level of seriousness, ranging from assigning warning labels to the susceptible post to removing the misleading post instantly. We develop comprehensive annotation guidelines in this work that define 19 fine-grained misinformation classes. Then, we release the first Arabic COVID-19-related misinformation dataset comprising about 6.7K tweets with multi-class and multi-label misinformation annotations. In addition, we release a version of the dataset to be the first Twitter Arabic dataset annotated exclusively with six different situational information classes. Identifying situational information (e.g., caution, help-seeking) helps authorities or individuals understand the situation during emergencies. To confirm the validity of the collected data, we define three classification tasks and experiment with various machine learning and transformer-based classifiers to offer baseline results for future research. The experimental results indicate the quality and validity of the data and its suitability for constructing misinformation and situational information classification models. The results also demonstrate the superiority of AraBERT-COV19, a transformer-based model pretrained on COVID-19-related tweets, with micro-averaged F-scores of 81.6% and 78.8% for the multi-class misinformation and situational information classification tasks, respectively. Label Powerset with linear SVC achieved the best performance among the presented methods for multi-label misinformation classification with micro-averaged F-scores of 76.69%.
APA, Harvard, Vancouver, ISO, and other styles
8

Conway, Aoife, Assumpta Ryan, Deirdre Harkin, Claire Mc Cauley, and Deborah Goode. "A review of the factors influencing adoption of digital health applications for people living with dementia." DIGITAL HEALTH 9 (January 2023): 205520762311629. http://dx.doi.org/10.1177/20552076231162985.

Full text
Abstract:
Objective Researchers have used various theories and models to understand technology adoption, however, with the growing interest and availability of mobile applications (apps) for people living with dementia, it is desirable to have a broader insight into how technology adoption may be further improved. This paper aims to explore the factors influencing the adoption of digital health applications for people living with dementia and add to the current literature on this topic. Methods Searches were conducted in CINHAL, Web of Science, Psych Info, ProQuest Health and Medical, IEEE Xplore and Scopus. Citation searching and handsearching were used in the identification of other studies. Results Following an assessment of relevancy, nine studies remained and are included within this review. Methodological quality was assessed using The Mixed Methods Appraisal Tool (MMAT). A thematic analysis was used for the data synthesis of included studies. Each study reported on different types of apps. Conclusion From the synthesis of included studies, four analytic themes were identified; Theme 1: Personal and contextual factors; Theme 2: Perceived value and benefit; Theme 3: Design and content of app; and Theme 4: Digital Literacy and Confidence. People are diverse and so are their reasons for the adoption of apps. These findings provide an insight into the range of factors that impact the adoption of apps for people living with dementia. Understanding the factors that impact the adoption of mobile applications is critical to their success. These findings can be beneficial for app developers and for people living with dementia and their carers.
APA, Harvard, Vancouver, ISO, and other styles
9

Koh, Dax E. "Further extensions of Clifford circuits and their classical simulation complexities." Quantum Information and Computation 17, no. 3&4 (March 2017): 262–82. http://dx.doi.org/10.26421/qic17.3-4-5.

Full text
Abstract:
Extended Clifford circuits straddle the boundary between classical and quantum computational power. Whether such circuits are efficiently classically simulable seems to depend delicately on the ingredients of the circuits. While some combinations of ingredients lead to efficiently classically simulable circuits, other combinations, which might just be slightly different, lead to circuits which are likely not. We extend the results of Jozsa and Van den Nest [Quant. Info. Comput. 14, 633 (2014)] by studying two further extensions of Clifford circuits. First, we consider how the classical simulation complexity changes when we allow for more general measurements. Second, we investigate different notions of what it means to ‘classically simulate’ a quantum circuit. These further extensions give us 24 new combinations of ingredients compared to Jozsa and Van den Nest, and we give a complete classification of their classical simulation complexities. Our results provide more examples where seemingly modest changes to the ingredients of Clifford circuits lead to “large” changes in the classical simulation complexities of the circuits, and also include new examples of extended Clifford circuits that exhibit “quantum supremacy”, in the sense that it is not possible to efficiently classically sample from the output distributions of such circuits, unless the polynomial hierarchy collapses.
APA, Harvard, Vancouver, ISO, and other styles
10

Heidari, Ali Asghar, Mehdi Akhoondzadeh, and Huiling Chen. "A Wavelet PM2.5 Prediction System Using Optimized Kernel Extreme Learning with Boruta-XGBoost Feature Selection." Mathematics 10, no. 19 (September 29, 2022): 3566. http://dx.doi.org/10.3390/math10193566.

Full text
Abstract:
The fine particulate matter (PM2.5) concentration has been a vital source of info and an essential indicator for measuring and studying the concentration of other air pollutants. It is crucial to realize more accurate predictions of PM2.5 and establish a high-accuracy PM2.5 prediction model due to their social impacts and cross-field applications in geospatial engineering. To further boost the accuracy of PM2.5 prediction results, this paper proposes a new wavelet PM2.5 prediction system (called WD-OSMSSA-KELM model) based on a new, improved variant of the salp swarm algorithm (OSMSSA), kernel extreme learning machine (KELM), wavelet decomposition, and Boruta-XGBoost (B-XGB) feature selection. First, we applied the B-XGB feature selection to realize the best features for predicting hourly PM2.5 concentrations. Then, we applied the wavelet decomposition (WD) algorithm to reach the multi-scale decomposition results and single-branch reconstruction of PM2.5 concentrations to mitigate the prediction error produced by time series data. In the next stage, we optimized the parameters of the KELM model under each reconstructed component. An improved version of the SSA is proposed to reach higher performance for the basic SSA optimizer and avoid local stagnation problems. In this work, we propose new operators based on oppositional-based learning and simplex-based search to mitigate the core problems of the conventional SSA. In addition, we utilized a time-varying parameter instead of the main parameter of the SSA. To further boost the exploration trends of SSA, we propose using the random leaders to guide the swarm towards new regions of the feature space based on a conditional structure. After optimizing the model, the optimized model was utilized to predict the PM2.5 concentrations, and different error metrics were applied to evaluate the model’s performance and accuracy. The proposed model was evaluated based on an hourly database, six air pollutants, and six meteorological features collected from the Beijing Municipal Environmental Monitoring Center. The experimental results show that the proposed WD-OLMSSA-KELM model can predict the PM2.5 concentration with superior performance (R: 0.995, RMSE: 11.906, MdAE: 2.424, MAPE: 9.768, KGE: 0.963, R2: 0.990) compared to the WD-CatBoost, WD-LightGBM, WD-Xgboost, and WD-Ridge methods.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "[INFO:INFO_OH] Computer Science/Other"

1

Le, Yaouanc Jean-Marie. "Formalisation de la description d'un environnement naturel. Application à la géo-localisation d'un individu." Phd thesis, Université de Bretagne occidentale - Brest, 2010. http://tel.archives-ouvertes.fr/tel-00529036.

Full text
Abstract:
Les récents outils dédiés aux Sciences de l'Information Géographique s'attachent principalement à visualiser, analyser voire interpréter une information dite quantitative, c'est-à-dire issue de données cartographiques. Malgré une utilisation exponentielle voire quotidienne de ces systèmes, ces derniers ne correspondent pas à la manière dont un individu perçoit l'espace. Le mécanisme de perception spatiale est en effet dépendant de nos propres connaissances, du contexte ou de la tâche à réaliser. Il entraîne une représentation cognitive de l'environnement qui est caractérisée par une absence de formalisation des concepts manipulés. Cette représentation n'est pas une reproduction fidèle de la réalité, mais un assemblage d'objets aux formes et aux échelles exagérées qui est structuré par des relations spatiales approximatives. Ce travail est né du paradoxe suivant : comment peut-on utiliser des systèmes informatiques dont les fondements reposent sur des données quantitatives, alors que la perception de l'espace et son expression par le langage naturel sont par définition absentes de toute formalisation, et ainsi très éloignées de la précision métrique recherchée par les outils géo-informatiques actuels ? L'objectif de cette thèse consiste à associer une représentation cognitive issue de la perception d'un environnement naturel, aux données quantitatives provenant d'une base de données géographiques. Le scénario associé à cette approche s'attache à identifier les positions géographiques d'un individu à partir de la description de ses environs : un randonneur ou un pêcheur perdu ne disposant pas d'outil de géo-positionnement, décrit de manière spontanée son environnement à un interlocuteur qui s'appuie sur les propositions d'un système informatique pour le localiser. Une modélisation de la description linguistique puis de la scène environnementale perçue est proposée. Cette "carte conceptuelle" est contrainte par quatre espaces de proximité et deux à quatre cônes directionnels qui ordonnent et orientent les objets perçus par rapport à la position fixe de l'individu. Une telle représentation ne permet cependant pas de distinguer les entités saillantes, des entités ne favorisant pas le géo-positionnement de l'observateur. Nous avons donc proposé deux critères de saillance linguistique et spatiale fondés sur un algorithme de renforcement mutuel. Les positions géographiques possibles de l'individu sont alors calculées à partir de l'interprétation de la configuration spatiale fournie par la carte conceptuelle. Les zones de visibilité des objets perçus sont calculées puis les relations spatiales sont interprétées sous la forme de contraintes spatiales. Chaque nouvelle contrainte réduit au fur et à mesure l'espace solution, et le résultat exploitable pour lancer les opérations de recherche de l'individu est fourni par l'intersection des différentes régions.
APA, Harvard, Vancouver, ISO, and other styles
2

Hilaire, Vincent. "Du semi-formel au formel : une Approche Organisationnelle pour l'Ingénierie de Systèmes Multi-Agents." Habilitation à diriger des recherches, Université de Franche-Comté, 2008. http://tel.archives-ouvertes.fr/tel-00424864.

Full text
Abstract:
Les Systèmes Multi-Agents (SMA) forment un paradigme prometteur pour la conception de systèmes logiciel complexes. En effet, ce paradigme propose de nouvelles stratégies pour analyser, concevoir et implémenter de tels systèmes. Les systèmes multi-agents sont considérés comme des sociétés composées d'entités autonomes et indépendantes, appelées agents, qui interagissent en vue de résoudre un problème ou de réaliser collectivement une tâche. Nous nous plaçons dans un cadre d'ingénierie logicielle pour ce mémoire. Pour tout nouveau paradigme d'ingénierie logicielle pour pouvoir être pleinement appliqué et déployé il est nécessaire de disposer de nouveaux modèles et d'abstractions nouvelles. Ces abstractions servent de base à l'analyse et à la conception des SMA. De plus, toute méthodologie dédiée aux SMA doit prendre ces abstractions pour pouvoir développer des SMA de manière sys\-té\-ma\-ti\-que, sure, robuste et fiable. Les modèles à la base de tous les travaux dans ce mémoire sont composés de concepts organisationnels qui permettent de concevoir les SMA comme des sociétés d'individus, les agents, qui jouent des rôles dans des organisations. Ces concepts permettent également la description de structures organisationnelles complexes telles que les holarchies dans lesquelles les agents, désignés par le terme holons, peuvent être composés d'autres holons et définir une structure hiérarchique. La définition de ces concepts se fait au travers de méta-modèles exprimés avec une notation semi-formelle. Pour définir une sémantique non ambigüe et bénéficier d'outils de validation et de vérification nous proposons de spécifier des concepts au travers d'un langage formel. Aucun langage ne satisfaisant nos besoins nous avons composé deux langages existants : Object-Z et les statecharts. La syntaxe et la sémantique du langage formel OZS sont définies sur cette base. Des architectures d'agents sont étudiées en utilisant le modèle organisationnel et les outils formels. Ces études sont de deux types, définition complète d'une architecture et rétro-ingénierie afin de comprendre et analyser les éléments fondateurs d'architectures existantes pour pouvoir les réutiliser dans d'autres contextes. Deux méthodologies sont exploitant les concepts et la notation formelle sont proposées. La première est issue d'un travail initial concernant l'analyse et la conception de SMA Holoniques utilisant un cadre particulier. La deuxième est issue d'une collaboration avec Massimo Cossentino et est plus générale.
APA, Harvard, Vancouver, ISO, and other styles
3

Chevalier, Max. "Usagers & Recherche d'Information." Habilitation à diriger des recherches, Université Paul Sabatier - Toulouse III, 2011. http://tel.archives-ouvertes.fr/tel-00573946.

Full text
Abstract:
La recherche d'information est confrontée à une variété de plus en plus importante tant en termes d'usagers, de tâches à remplir, d'outils.... Face à cette hétérogénéité de nombreux travaux, s'attachent à améliorer la recherche d'information par le biais d'approches adaptatives, de systèmes de recommandation... Mes travaux s'inscrivent dans ce cadre et apportent un éclairage essentiellement porté sur l'usager et ses activités et plus particulièrement sur la recherche d'information. Les résultats correspondent à 3 angles d'investigation nous permettant d'aborder cette problématique de l'hétérogénéité en Recherche d'Information.
APA, Harvard, Vancouver, ISO, and other styles
4

Lacroix, Benoit. "Normer pour mieux varier ? La différenciation comportementale par les normes, et son application au trafic dans les simulateurs de conduite." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2009. http://tel.archives-ouvertes.fr/tel-00527846.

Full text
Abstract:
Dans les simulations centrées individu, la variété et la cohérence du comportement des agents sont des critères importants pour le réalisme et la validité de la simulation. Dans ce travail, nous nous sommes intéressés à la prise en compte simultanée de ces deux éléments. Nous proposons un modèle de différenciation comportementale, qui se décline en un outil dont les principaux apports sont d'être générique, non-intrusif, et de permettre une conception en dehors de l'agent. Le modèle s'articule selon trois axes. Tout d'abord, il décrit les comportements des agents par des normes. Celles-ci fournissent un profil comportemental à la conception, et un contrôle de la conformité à l'exécution. Ensuite, le processus de génération des comportements permet d'autoriser la création d'agents déviants ou en violation. Il inlfue pour cela sur le déterminisme du mécanisme. Enfin, les normes peuvent être inférées à partir de simulations enregistrées ou de situations réelles, afin d'analyser les résultats des expérimentations et d'automatiser la configuration du modèle. Nous avons appliqué cet outil à la simulation de trafic dans SCANeR, l'application développée et utilisée par Renault pour ses simulateurs de conduite. Les développements réalisés au cours de la thèse introduisent dans le trafic des styles de conduite spécifiés sous forme de normes, par exemple des conducteurs prudents ou agressifs. Ils permettent ensuite de peupler l'environnement de manière automatisée. Au delà de l'amélioration subjective du réalisme, les expérimentations réalisées démontrent les apports de l'outil sur la variété et la représentativité des comportements obtenus.
APA, Harvard, Vancouver, ISO, and other styles
5

Lam, Jeffrey. "Preserving Useful Info While Reducing Noise of Physiological Signals by Using Wavelet Analysis." UNF Digital Commons, 2011. http://digitalcommons.unf.edu/etd/362.

Full text
Abstract:
Wavelet analysis is a powerful mathematical tool commonly used in signal processing applications, such as image analysis, image compression, image edge detection, and communications systems. Unlike traditional Fourier analysis, wavelet analysis allows for multiple resolutions in the time and frequency domains; it can preserve time information while decomposing a signal spectrum over a range of frequencies. Wavelet analysis is also more suitable for detecting numerous transitory characteristics, such as drift, trends, abrupt changes, and beginnings and ends of events. These characteristics are often the most important and critical part of some non-stationary signals, such as physiological signals. The thesis focuses on a formal analysis of using wavelet transform for noise filtering. The performance of the wavelet analysis is simulated on a variety of patient samples of Arterial Blood Pressure (ABP 14 sets) and Electrocardiography (ECG 14 sets) from the Mayo Clinic at Jacksonville. The performance of the Fourier analysis is also simulated on the same patient samples for comparison purpose. Additive white Gaussian noise (AWGN) is generated and added to the samples for studying the AWGN effect on physiological signals and both analysis methods. The algorithms of finding the optimal level of approximation and calculating the threshold value of filtering are created and different ways of adding the details back to the approximation are studied. Wavelet analysis has the ability to add or remove certain frequency bands with threshold selectivity from the original signal. It can effectively preserve the spikes and humps, which are the information that is intended to be kept, while de-noising physiological signals. The simulation results show that the wavelet analysis has a better performance than Fourier analysis in preserving the transitory information of the physiological signals.
APA, Harvard, Vancouver, ISO, and other styles
6

Le, Pors Thierry. "Simulation cognitive de la prise de décision d'experts ; application au trafic maritime." Phd thesis, Université de Bretagne Sud, 2010. http://tel.archives-ouvertes.fr/tel-00547128.

Full text
Abstract:
Les systèmes multi-agents (SMA) permettent à ce jour de simuler des phénomènes impliquant des entités en interactions. Ces entités peuvent représenter des experts et doivent alors utilisent des processus cognitifs de haut niveau (perception, prise de décision, raisonnement, stockage de l'information en mémoire). Depuis longtemps, la psychologie cognitive étudie ces processus cognitifs et a proposé des modèles conceptuels de la cognition humaine. L'approche « Naturalistic Decision Making » (prise de décision naturelle) et plus particulièrement RPD (Recognition-Primed-Decision), modélise la prise de décisions efficaces par des individus dans des situations complexes en fonction de leur expérience et du contexte. L'objectif de cette thèse est d'intégrer au sein d'un SMA, via l'approche Agent-Groupe-Rôle, le modèle RPD pour simuler les comportements d'experts. L'expérience des individus est stockée à l'aide d'une base de patrons. Un patron associe à une situation prototypique une décision générique. Le modèle de prise de décision qui en découle : DBP (Décision à Base de Patrons) est décomposé en quatre phases. La première ; la perception de la situation courante est basée sur des sous-ensembles flous. Ils sont employés pour transformer des données quantitatives en données qualitatives. Une phase d'appariement de la situation courante à une ou plusieurs situations prototypiques est alors lancée. Puis, le patron optimal, en fonction de critères spécifiques au profil de chaque agent, est retenu. Finalement, la décision est traduite en une action. DBP est validé par une extension du simulateur TRANS (Tractable Role Agent prototype for concurrent Navigation Systems) afin de reproduire le comportement d'experts maritimes. L'extension créée ; CogTRANS (cognitive TRANS) porte plus particulièrement sur les décisions des chefs de quart à bord de ferries et de cargos. CogTRANS permet de simuler les évitements de collisions de façon réaliste. Il offre ainsi de bonnes perspectives pour une meilleure compréhension des risques maritimes et l'amélioration d'outils pédagogiques pour l'apprentissage de la navigation.
APA, Harvard, Vancouver, ISO, and other styles
7

Durand, Irène. "Call by need computations in orthogonal term rewriting systems." Habilitation à diriger des recherches, Université Sciences et Technologies - Bordeaux I, 2005. http://tel.archives-ouvertes.fr/tel-00599195.

Full text
Abstract:
The foundation of term rewriting is equational logic but for the sake of efficiency, the equations are oriented and become the rules of a term rewriting system. Term rewriting form a model of computation on algebraic data structures (terms). Term rewriting systems play an important role in various domains of computer science such as automated theorem proving, functional programming, code generation, problem formalization (security of cryptographic protocols). Rewriting starts with a ground term, and consists of repeatedly replacing a redex (an instance of a left-hand side) by its contractum (the corresponding right-handside after applying the substitution). Rewriting may eventually yield a term in normal form which is a term containing no redex. Natural questions in term rewriting are: * is the system terminating" (i.e. there are no infinite rewrite sequences)? * "is the system confluent" (if a term rewrites independently to two terms t1 and t2 , there exists a term s such that both t1 and t2 rewrite to s)? We are interested in systems which can be used as programs so we want to allow non-terminating computations. Confluence implies unicity of normal forms but does not imply termination. Confluent systems form a good framework for deterministic programming. They have the power of Turing machines. However confluence is not a decidable property for term rewriting systems. Orthogonal systems (i.e. linear and non-overlapping left-hand sides) which are always confluent form the framework of all this work, although some results may apply to the more general class of left-linear systems (linear left-hand sides). The first point we want to address is "how to compute the normal form?" and not end up in an infinite computation when the normal form exists. The second is "how to do that efficiently?". The following theorem of Huet and Levy [HL91] forms the basis of all result on optimal normalizing rewrite strategies for orthogonal term rewrite systems: "Every reducible term contains a needed redex, i.e., a redex which is contracted in every rewrite sequence to normal form, and repeated contraction of needed redexes results in a normal form, if the term under consideration has a normal form". Unfortunately, needed redexes are not computable in general. Hence, in order to obtain a computable optimal rewrite strategy, we are left to find (1) decidable approximations of neededness and (2) decidable properties of rewrite systems which ensure that every reducible term has a needed redex identi-fied by (1). Starting with the seminal work of Huet and Levy [HL91] on strong sequentiality, these issues have been extensively investigated in the literature [Com00, Jac96b, JS95, KM91, NST95, Oya93, Toy92]. In all these works Huet and Levy's notions of index, omega-reduction, and sequentiality figure prominently. We present here our contributions to this domain.
APA, Harvard, Vancouver, ISO, and other styles
8

Majorczyk, Frédéric. "Détection d'intrusions comportementale par diversification de COTS : application au cas des serveurs web." Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00355366.

Full text
Abstract:
L'informatique et en particulier l'Internet jouent un rôle grandissant dans notre société. Un grand nombre d'applications critiques d'un point de vue de leur sécurité sont déployées dans divers domaines comme le domaine militaire, la santé, le commerce électronique, etc. La sécurité des systèmes informatiques devient alors une problématique essentielle tant pour les individus que pour les entreprises ou les états. Il est donc important de définir une politique de sécurité pour ces systèmes et de veiller à son respect. Néanmoins les mécanismes de sécurité préventifs mis en place ne sont pas incontournables. Il est nécessaire de mettre en œuvre des outils permettant de détecter toute violation de la politique de sécurité, c'est-à-dire toute intrusion. Ces outils sont appelés des systèmes de détection d'intrusions ou IDS. Souvent en collaboration avec les IDS, il est possible de mettre en place des outils et techniques de tolérance aux intrusions. Ces outils et techniques ont pour objectif que les intrusions affectant un composant du système n'entrainent pas de violations de la politique de sécurité du système global.
Notre travail s'inscrit dans le domaine de la détection d'intrusions, de manière essentielle, et permet une certaine tolérance aux intrusions. Contrairement aux méthodes de détection classiques en détection comportementale pour lesquelles il est nécessaire de définir et construire un modèle de référence du comportement de l'entité surveillée, nous avons suivi une méthode issue de la sureté de fonctionnement fondée sur la programmation N-versions pour laquelle le modèle de référence est implicite et est constitué par les autres logiciels constituant l'architecture. Nous proposons l'utilisation de COTS en remplacement des versions spécifiquement développées car développer N-versions est couteux et est réservé à des systèmes critiques du point de vue de la sécurité-innocuité. D'autres travaux et projets ont proposé des architectures fondées sur ces idées. Nos contributions se situent à différents niveaux. Nous avons pris en compte dans notre modèle général de détection d'intrusions les spécificités liées à l'utilisation de COTS en lieu et place de versions spécifiquement développées et proposé deux solutions pour parer aux problèmes induits par ces spécificités. Nous avons proposé deux approches de détection d'intrusions fondées sur cette architecture : l'une suivant une approche de type boite noire et l'autre suivant une approche de type boite grise. Notre méthode de type boite grise peut, en outre, aider l'administrateur de sécurité à effectuer un premier diagnostic des alertes. Nous avons réalisé une implémentation de ces deux approches dans le cadre des serveurs web et avons évalué pratiquement la pertinence et de la fiabilité de ces deux IDS.
APA, Harvard, Vancouver, ISO, and other styles
9

Hajlaoui, Najeh. "Multilinguïsation des systèmes de e-commerce traitant des énoncés spontanés en langue naturelle." Phd thesis, Grenoble 1, 2008. http://www.theses.fr/2008GRE10118.

Full text
Abstract:
Nous nous intéressons à la multilinguïsation, ou « portage linguistique » (plus simple que la localisation) des services de gestion de contenu traitant des énoncés spontanés en langue naturelle, souvent bruités, mais contraints par la situation, et constituant toujours un « sous-langage » plus ou moins restreint. Un service de ce type (soit App) utilise une représentation du contenu spécifique (RC-App) sur laquelle travaille le noyau fonctionnel. Le plus souvent, cette représentation est produite à partir de la langue « native » L1 par un extracteur de contenu (EC-App). Nous avons dégagé trois méthodes de portage possibles, et les avons illustrées par le portage en français d'une partie de CATS, un système de traitement de petites annonces en SMS (en arabe) déployé à Amman, ainsi que sur IMRS, un système de recherche de morceaux de musique dont l'interface native est en japonais et dont seule la RC est accessible. Il s'agit de : (1) localisation « interne », i. E. Adaptation à L2 de l'EC donnant EC-App-L2 ; (2) localisation « externe », i. E. Adaptation d'un EC existant pour L2 au domaine et à la représentation de contenu de App (EC-X-L2-App); (3) traduction des énoncés de L2 vers L1. Le choix de la stratégie est contraint par la situation traductionnelle : types et niveau d'accès possibles (accès complet au code source, accès limité à la représentation interne, accès limité au dictionnaire, et aucun accès), ressources disponibles (dictionnaires, corpus), compétences langagières et linguistiques des personnes intervenant dans la multilinguïsation des applications. Les trois méthodes ont donné de bons résultats sur le portage d'arabe en français de la partie de CATS concernant l'occasion automobile. En localisation interne, la partie grammaticale a été très faiblement modifiée, ce qui prouve que, malgré la grande distance entre l'arabe et le français, ces deux sous-langages sont très proches l'un de l'autre, une nouvelle illustration de l'analyse de R. Kittredge. La localisation externe a été expérimentée sur CATS et sur IMRS en adaptant au nouveau domaine considéré l'extracteur de contenu du français écrit initialement par H. Blanchon pour le domaine du tourisme (projet CSTAR/Nespole!), puis en changeant de langue pour IMRS (anglais). Enfin, le portage par TA statistique a également donné de très bonnes performances, et cela avec un corpus d'apprentissage très petit (moins de 10. 000 mots) et un dictionnaire complet. Cela prouve que, dans le cas de sous-langages très petits, la TA statistique peut être de qualité suffisante en partant de corpus 100 à 500 fois moins grands que pour de la langue générale
We are interested in the multilinguization, or “linguistic porting” (simpler than localization) of management content services processing spontaneous utterances in natural language, often noisy, but constrained by the situation and constituting a restricted “sublangage”. Any service of this type (App) uses a specific content representation (CR-App) on which the functionnal kernel operates. Most often, this representation is produced from the “native” language L1 by a content extractor (CE-App). We identified three possible methods of porting and have illustrated them by porting to French a part of CATS, a system handling small ads in SMS (in Arabic), deployed in Amman, as well as IMRS, a music retrieval system, where the native natural language interface is in Japanese and only the CR is accessible. These are: (1) “internal localisation”, i. E. Adaptation to L2 of the CE, giving CE-App-L2; (2)”external” localization , i. E. Adaptation of an existing CE for L2 to the domain and to the App content representation (CE-X-L2-App); (3) translation of utterances from L2 to L1. The choice of the strategy is constrained by the translational situation: type and level of possible access (complete access to the source code, access limited to the internal representation, access limited to the dictionary, and no access), available resources (dictionaries, corpus), competences in languages and linguistics of persons taking part in the multilinguisation of application. The three methods gave good results on the Arabic to French porting of the CARS part of CATS. For internal localization, the grammatical part was very little modified, which proves that, despite the great distance between Arabic and French, these two sub-languages are very near one to another. This is a new illustration of R. Kittredge’s analysis. The external localization was experimented with CATS and with IMRS by adapting to the new domain the French content extractor written initially by H. Blanchon for the tourism domain (CSTAR/Nespole! project), and then by changing the language for IMRS (English). Finally, porting by statistical MT gave also a very good performance, and that with a very small training corpus (less than 10 000 words) and a complete dictionary. This proves that, in the case of very small sub-languages, statistical MT may be of sufficient quality, starting from a corpus 100 to 500 smaller than for the general language
APA, Harvard, Vancouver, ISO, and other styles
10

Hajlaoui, Najeh. "Multilinguïsation des systèmes de e-commerce traitant des énoncés spontanés en langue naturelle." Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00337336.

Full text
Abstract:
Nous nous intéressons à la multilinguïsation, ou « portage linguistique » (plus simple que la localisation) des services de gestion de contenu traitant des énoncés spontanés en langue naturelle, souvent bruités, mais contraints par la situation, et constituant toujours un « sous-langage » plus ou moins restreint.
Un service de ce type (soit App) utilise une représentation du contenu spécifique (RC-App) sur laquelle travaille le noyau fonctionnel. Le plus souvent, cette représentation est produite à partir de la langue « native » L1 par un extracteur de contenu (EC-App). Nous avons dégagé trois méthodes de portage possibles, et les avons illustrées par le portage en français d'une partie de CATS, un système de traitement de petites annonces en SMS (en arabe) déployé à Amman, ainsi que sur IMRS, un système de recherche de morceaux de musique dont l'interface native est en japonais et dont seule la RC est accessible. Il s'agit de : (1) localisation « interne », i.e. adaptation à L2 de l'EC donnant EC-App-L2 ; (2) localisation « externe », i.e. adaptation d'un EC existant pour L2 au domaine et à la représentation de contenu de App (EC-X-L2-App); (3) traduction des énoncés de L2 vers L1.
Le choix de la stratégie est contraint par la situation traductionnelle : types et niveau d'accès possibles (accès complet au code source, accès limité à la représentation interne, accès limité au dictionnaire, et aucun accès), ressources disponibles (dictionnaires, corpus), compétences langagières et linguistiques des personnes intervenant dans la multilinguïsation des applications.
Les trois méthodes ont donné de bons résultats sur le portage d'arabe en français de la partie de CATS concernant l'occasion automobile. En localisation interne, la partie grammaticale a été très faiblement modifiée, ce qui prouve que, malgré la grande distance entre l'arabe et le français, ces deux sous-langages sont très proches l'un de l'autre, une nouvelle illustration de l'analyse de R. Kittredge. La localisation externe a été expérimentée sur CATS et sur IMRS en adaptant au nouveau domaine considéré l'extracteur de contenu du français écrit initialement par H. Blanchon pour le domaine du tourisme (projet CSTAR/Nespole!), puis en changeant de langue pour IMRS (anglais).
Enfin, le portage par TA statistique a également donné de très bonnes performances, et cela avec un corpus d'apprentissage très petit (moins de 10.000 mots) et un dictionnaire complet. Cela prouve que, dans le cas de sous-langages très petits, la TA statistique peut être de qualité suffisante en partant de corpus 100 à 500 fois moins grands que pour de la langue générale.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "[INFO:INFO_OH] Computer Science/Other"

1

Geldenhuys, Aletta E. Knowledge representation and relation nets. Boston: Kluwer Academic Publishers, 1999.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Knowledge Representation and Relation Nets (The International Series in Engineering and Computer Science). Springer, 1999.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography