Academic literature on the topic 'Modèle de l'utilisateur'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Modèle de l'utilisateur.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Modèle de l'utilisateur"

1

Blanpain, O., and B. Chocat. "Un système d'aide au choix de modèles hydrologiques et hydrauliques pour simuler les réseaux d'assainissement : application aux modèles de propagation en conduite." Revue des sciences de l'eau 12, no. 2 (April 12, 2005): 317–32. http://dx.doi.org/10.7202/705354ar.

Full text
Abstract:
La nouvelle génération de logiciels destinés aux études d'assainissement dispose d'un nombre croissant de modèles hydrauliques et hydrologiques. Il en découle une augmentation des possibilités de choix parmi ces modèles qui complique la tâche des techniciens de l'assainissement. Pour limiter cette difficulté, nous suggérons d'introduire dans les logiciels des outils permettant d'aider les utilisateurs à choisir les modèles en adéquation avec le réseau à simuler. Dans cet article, nous nous intéresserons essentiellement aux modèles de propagation en conduite. Les modèles de propagation les plus usités sont un modèle basé sur les équations de Barré de Saint Venant et des modèles conceptuels nettement plus simples tels que le modèle Muskingum. Ces modèles présentent chacun des avantages et des inconvénients. Dans la pratique, plus un modèle est sophistiqué, mieux il est capable de représenter la réalité. En contrepartie, il est plus difficile à utiliser et nécessite davantage de données et des temps de calcul plus importants. Le problème qui se pose alors à l'utilisateur est de décider quel modèle utiliser. Pour régler ce problème, nous proposons un système d'aide au choix prenant en compte les caractéristiques du réseau étudié, les événements pluvieux simulés et le type d'étude réalisée. Les connaissances nécessaires pour cette aide au choix de modèles peuvent être de qualité variable. Pour mesurer la confiance à accorder à ces connaissances, il est nécessaire de prendre en compte les notions d'imprécision et d'incertitude. Cet état de fait nous a conduit, lors de l'élaboration de cet outil d'aide au choix des modèles de propagation en conduite, à définir un ensemble de règles utilisant la théorie des sous-ensembles flous.
APA, Harvard, Vancouver, ISO, and other styles
2

Ohmaid, Hicham, S. Eddarouich, A. Bourouhou, and M. Timouya. "Comparison between SVM and KNN classifiers for iris recognition using a new unsupervised neural approach in segmentation." IAES International Journal of Artificial Intelligence (IJ-AI) 9, no. 3 (September 1, 2020): 429. http://dx.doi.org/10.11591/ijai.v9.i3.pp429-438.

Full text
Abstract:
<p class="Abstract"><span lang="EN-US"><span style="vertical-align: inherit;"><span style="vertical-align: inherit;">Un système biométrique d'identification et d'authentification permet la reconnaissance automatique d'un individu en fonction de certaines caractéristiques ou caractéristiques uniques qu'il possède. </span><span style="vertical-align: inherit;">La reconnaissance de l'iris est une méthode d'identification biométrique qui applique la reconnaissance des formes aux images de l'iris. </span><span style="vertical-align: inherit;">En raison des motifs épigénétiques uniques de l'iris, la reconnaissance de l'iris est considérée comme l'une des méthodes les plus précises dans le domaine de l'identification biométrique. </span><span style="vertical-align: inherit;">L'algorithme de segmentation proposé dans cet article commence par déterminer les régions de l'œil à l'aide d'une approche neuronale non supervisée, après que le contour de l'œil a été trouvé à l'aide du bord de Canny, la transformation de Hough est utilisée pour déterminer le centre et le rayon de la pupille et de l'iris. . </span><span style="vertical-align: inherit;">Ensuite, la normalisation permet de transformer la région de l'iris circulaire segmenté en une forme rectangulaire de taille fixe en utilisant le modèle de feuille de caoutchouc de Daugman. </span><span style="vertical-align: inherit;">Une transformation en ondelettes discrètes (DWT) est appliquée à l'iris normalisé pour réduire la taille des modèles d'iris et améliorer la précision du classificateur. </span><span style="vertical-align: inherit;">Enfin, la base de données URIBIS iris est utilisée pour la vérification individuelle de l'utilisateur en utilisant le classificateur KNN ou la machine à vecteur de support (SVM) qui, sur la base de l'analyse du code de l'iris lors de l'extraction des caractéristiques, est discutée.</span></span></span></p>
APA, Harvard, Vancouver, ISO, and other styles
3

Cléry, Isabelle, and Marc Pierrot-Deseilligny. "Une interface ergonomique de calcul de modèles 3D par photogrammétrie." Revue Française de Photogrammétrie et de Télédétection, no. 196 (April 15, 2014): 40–51. http://dx.doi.org/10.52638/rfpt.2011.36.

Full text
Abstract:
De nombreux logiciels du commerce proposent de créer des modélisations en 3D d'objets ou de scènes à partir uniquement de photographies. Cependant les professionnels, notamment les archéologues et les architectes, ont un certain nombre de contraintes qui restreignent fortement le choix du logiciel, telles que des ressources financières limitées, des connaissances peu approfondies en photogrammétrie et en informatique, des impératifs qui limitent le temps d'acquisition et de traitement, et enfin des attentes précises en terme de qualité, de précision et de complétude de la modélisation. Le laboratoire MATIS a développé un ensemble d'outils libres, open source, qui permettent d'effectuer l'ensemble des étapes du traitement d'un chantier photogrammétrique et qui fournissent des modèles 3D très denses et précis grâce à la rigueur de l'approche photogrammétrique ; ils représentent donc une solution intéressante pour ces professionnels du point de vue algorithmique.Cependant ils ont été développés pour des applications de recherche et sont donc peu ergonomiques pour le public non photogrammètre et non informaticien. C'est pourquoi une interface graphique est en cours de développement afin de fournir un accès simplifié et unifié à ces outils, notamment aux architectes et aux archéologues. Grâce à l'interface, l'utilisateur peut manipuler les images d'un même chantier et contrôler chaque étape du traitement qui comprend : le calcul automatique de points homologues entre les images, l'estimation des poses de la caméra et le calcul des modèles 3D. Les résultats peuvent être convertis en cartes de profondeur ombrées ou en nuages denses de points 3D (au format standard ply), et peuvent être affichés directement par l'interface. Pour offrir la possibilité de traiter des chantiers suffisamment variés, tout en masquant la complexité du paramétrage, la démarche retenue est de présenter à l'utilisateur un accès par grande famille de prises de vue, par exemple : chantier convergent, relevé de façades, chantier aérien sub-vertical, modélisation d'intérieur. . . Une attention particulière est apportée à la qualité de la documentation et à la portabilité du produit sur les principaux types d'ordinateur grand public (Linux, Mac et Windows). Cette interface, bien que non finalisée, permet déjà d'effectuer l'intégralité du traitement de chantiers de type convergent et est disponible en ligne. Des utilisateurs issus des différentes communautés de professionnels ciblées (archéologie, architecture, géologie, photogrammétrie architecturale) l'ont déjà testée et l'interface est régulièrement mise à jour afin de l'adapter aux remarques et demandes de ces testeurs.
APA, Harvard, Vancouver, ISO, and other styles
4

Gharsellaoui, Asma, Yacine Bellik, and Christophe Jacquet. "Un modèle de tâches exploitable à l'exécution pour une assistance à l'utilisateur dans les environnements ambiants." Journal d'Interaction Personne-Système Volume 3, Issue 3, Special..., Special issue on Task Models (July 22, 2015). http://dx.doi.org/10.46298/jips.660.

Full text
Abstract:
International audience Existing task models have often been used in the context of graphic systems. In this paper, we propose to use the task model at runtime to monitor user actions, to verify that he/she has not made a mistake when performing his/her actions and to give him/her help when necessary. In particular, we present, as a first contribution, a task model specific to interactions in ambient environments. This model enables to assign dynamic characteristics to each task thereby allowing to a supervision system to assign states to tasks at runtime based on the information exchanged with the environment (start of a task, end of a task, preconditions states...). Our second contribution is a monitoring and support system that exploits our task model. More precisely we specify the intervention strategy of our system in order to guide the user. We present then an illustration of our system through the execution of a scenario on our simulator. This simulation shows how the interactions with the task model at runtime allow us to produce a dynamic system that takes into consideration the context and provides assistance to the users while carrying out their daily tasks. Finally, we end with a conclusion and perspectives of our approach. Les modèles de tâches existants ont souvent été utilisés dans le cadre des systèmes interactifs gra-phiques. Dans cet article, nous proposons d'utiliser le modèle de tâches dans un environnement ambiant au moment de l'exécution des tâches par l'utilisateur, afin de suivre les actions de l'utilisateur, vérifier qu'il n'a pas fait d'erreurs lors de l'accomplissement de ses tâches et lui procurer de l'aide quand cela est nécessaire. En particulier, nous présentons, dans une première contribution, un modèle de tâches spécifique aux environnements ambiants. Ce modèle permet d'associer des caractéristiques dynamiques à chaque tâche permettant ainsi à un système de supervision d'attribuer des états aux tâches au moment de l'exécution en fonction des informations échangées avec l'environnement (démarrage d'une tâche, fin de réalisation d'une tâche, états des pré-conditions...). Notre deuxième contribution consiste en un système de suivi et d'assistance qui exploite notre modèle de tâches. Plus précisément nous spécifions la stratégie d'intervention du système qui va orienter l'utilisateur. Nous présentons par la suite une illustration de notre système à travers le déroulement d'un scénario sur notre simulateur. Cette simulation montre comment les interactions avec le modèle de tâches à l'exécution nous permettent de produire un système dynamique, qui prend en considération le contexte et fournit une aide à l'utilisateur pour la réalisation de ses tâches quotidiennes. Enfin, nous terminons par une conclusion sur notre approche et les perspectives ouvertes pour ce travail.
APA, Harvard, Vancouver, ISO, and other styles
5

Ochs, Magalie, Yu Ding, Nesrine Fourati, Mathieu Chollet, Brian Ravenet, Florian Pecune, Nadine Glas, Ken Prepin, Chloe Clavel, and Catherine Pelachaud. "Vers des Agents Conversationnels Animés dotés d'émotions et d'attitudes sociales." Journal d'Interaction Personne-Système Volume 3, Issue 2, Special..., Special Issue "the best... (September 22, 2015). http://dx.doi.org/10.46298/jips.1282.

Full text
Abstract:
International audience In this article, we propose an architecture of a socio-affective Embodied Conversational Agent (ECA). The different computational models of the architecture enable an ECA to express emotions and social attitudes during an interaction with a user. Based on corpora of actors expressing emotions, models have been defined to compute the emotional facial expressions of an ECA and the characteristics of its corporal movements. A user-perceptive approach has been used to design models to define how an ECA should adapt its non-verbal behavior according to the social attitude the ECA wants to display and the behavior of its interlocutor. The emotions and the social attitudes to express are computed by cognitive models presented in this article. Dans cet article, nous proposons une architecture d'un Agent Conversationnel Animé (ACA) socio-affectif. Les différents modèles computationnels sous-jacents à cette architecture, permettant de donner la capacité à un ACA d'exprimer des émotions et des attitudes sociales durant son interaction avec l'utilisateur, sont présentés. A partir de corpus d'individus exprimant des émotions, des modèles permettant de calculer l'expression faciale émotionnelle d'un ACA ainsi que les caractéristiques de ses mouvements du corps ont été définis. Fondés sur une approche centrée sur la perception de l'utilisateur, des modèles permettant de calculer comment un ACA doit adapter son comportement non-verbal suivant l'attitude sociale qu'il souhaite exprimer et suivant le comportement de son interlocuteur ont été construits. Le calcul des émotions et des attitudes sociales à exprimer est réalisé par des modèles cognitifs présentés dans cet article.
APA, Harvard, Vancouver, ISO, and other styles
6

Absar, Rafa, Helen Halbert, Heather O'Brien, and Allison Trumble. "Searching for Information On-the-Go: Understanding User Engagement with Mobile Devices." Proceedings of the Annual Conference of CAIS / Actes du congrès annuel de l'ACSI, February 28, 2014. http://dx.doi.org/10.29173/cais706.

Full text
Abstract:
Information interaction with mobile devices is becoming increasingly common, and is often an everyday method of information search for many users. This research will investigate the system, user, and contextual variables that predict user engagement with mobile search and examine the general engagement model in the more specific mobile context.L'interaction entre l'information et les appareils mobiles est de plus en plus commune, voire une méthode de recherche d'information quotidienne pour de nombreux utilisateurs. Cette étude s'intéresse au système, à l'etilisateur et aux variables contextuelles qui prédisent l'engagement de l'utilisateur lors de la recherche sur appareils mobiles et examine les modèles d'engagement généraux dans le context plus précis des appareils mobiles.
APA, Harvard, Vancouver, ISO, and other styles
7

Belleflamme, Paul. "Numéro 17 - décembre 2003." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.16123.

Full text
Abstract:
Il ne se passe pas un jour sans que l'on parle du secteur de la musique et de la période chahutée qu'il traverse pour le moment. Epinglons quelques nouvelles récentes. - Sur son site web, la Recording Industry Association of America (Association américaine de l’industrie du disque) constate une nouvelle baisse de 9 % des ventes de disques au 1er semestre 2003 et l'attribue en priorité au "partage illégal de fichiers" - Selon Nielsen/Netratings, le nombre d'utilisateurs de KaZaa (qui permet le téléchargement gratuit grâce aux réseaux «peer-to-pee (P2P)») aux Etats-Unis aurait décliné de 41 % entre juin et septembre 2003, passant de 6,5 millions à 3,9 millions par semaine. Cette baisse coïncide avec les poursuites intentées contre les utilisateurs qui mettent en partage des œuvres musicales sur les réseaux P2P. - Grâce notamment à iTunes ou à Napster 2.0, les services de ventes de musique en ligne viennent de dépasser les ventes de CD 2 titres (singles) sur le territoire américain. - Le programmeur norvégien qui avait distribué le premier moyen pour "craquer" la technologie de protection contre la copie des DVDs semble avoir trouvé une solution pour contourner la protection anti-copie des morceaux de musique vendus par Apple via iTunes Music Store (qui permet de télécharger des chansons pour un prix unique de $ 0,99). - Selon David Bowie, "le copyright deviendra caduc à force de téléchargements et de remix de remix". Alors que des turbulences similaires agitent les industries du logiciel et du cinéma, il est important de s'interroger sur les conséquences du piratage et des réponses qui y sont apportées, tant du point de vue des producteurs que de celui de la société dans son ensemble. Nous proposons dans cet article une grille d'analyse permettant d'aborder ces questions de manière rigoureuse. Notre analyse peut se résumer en quelques points : Le piratage risque d'entraîner un déficit de création de biens d'information (livres, logiciels, musique, fichiers vidéo) vu que les créateurs peuvent éprouver des difficultés à tirer des revenus suffisants de leur création. La réponse naturelle à ce problème consiste à protéger le bien pour le rendre "excluable" et permettre ainsi au créateur de se rémunérer par la vente du bien. C'est la justification traditionnelle de l'instauration d'un régime légal de protection de la propriété intellectuelle (droits d'auteur et brevets); c'est aussi la logique qui conduit les producteurs à développer des mesures techniques empêchant la copie (par exemple, des CDs anti-copie). Cette réponse n'est pas univoque dans le sens où renforcer la protection peut engendrer une baisse globale de la demande pour le bien (ainsi, les dispositifs empêchant la copie d'un CD peuvent également empêcher l'écoute du CD sur un ordinateur ou sur un autoradio, ce qui réduit l'attrait du CD pour tous les consommateurs, y compris ceux qui n'ont aucune intention de le copier). Cette réponse n'est pas non plus unique dans la mesure où de nombreux biens d'information n'ont pas besoin d'être vendus pour être créés : des revenus alternatifs peuvent être tirés de la vente de biens complémentaires, dont la demande est accrue grâce à la gratuité du bien d'information en question (ainsi, la gratuité du logiciel Acrobat Reader—grâce auquel vous lisez Regards Economiques—a contribué à faire du format pdf un standard de facto, ce qui motive de nombreux auteurs à acheter le logiciel Acrobat Writer pour produire des documents sous ce format). A la lumière des deux derniers constats, nous conseillons aux producteurs de biens d'information d'utiliser l'Internet et les technologies digitales pour concurrencer le piratage plutôt que pour le combattre. Ces mêmes technologies qui font de tout consommateur un pirate en puissance offrent également de formidables outils pour ajouter de la valeur aux biens d'information (une valeur difficile à copier et pour laquelle le consommateur est prêt à payer) et pour créer des modes de distribution et de payement originaux. Ainsi, plusieurs projets de distribution payante de musique en ligne ont vu le jour ces dernières années. Après plusieurs tentatives infructueuses (comme celles de Pressplay et de Musicnet), quelques unes des formules proposées aujourd'hui semblent remporter l'adhésion des consommateurs et ont l'espoir de devenir rentables. Apple semble avoir trouvé la formule gagnante avec iTunes Music Store. Quatre jours après son lancement, la version PC de ce service (réservé à l'origine aux ordinateurs Macintosh) avait été téléchargée par un million d'utilisateurs. Ce qui fait le succès de ce service, ce ne sont pas tant les prix pratiqués (qui ne sont guère inférieurs à ceux du commerce physique de détail) que sa facilité d'utilisation, son intégration avec le lecteur portable de musique digitale iPod et son absence de restrictions quant à l'usage ultérieur que les consommateurs peuvent faire des morceaux téléchargés. Ce dernier point illustre notre argument selon lequel une réduction du degré d'exclusion a un effet positif sur le niveau de la demande pour un bien d'information. Le concurrent le plus sérieux de iTunes dans le monde PC est sans doute le nouveau—et désormais légal—Napster 2.0. Ce service combine le modèle de vente de iTunes (même les prix sont identiques) avec le sentiment d'appartenance à une communauté qu'offrait le Napster original. Contre un abonnement de $ 9,99 par mois, les utilisateurs ont accès à des services additionnels : ils peuvent écouter les sélections d'autres utilisateurs, échanger leurs opinions avec d'autres et télécharger autant de morceaux qu'ils le désirent sur leur PC (mais uniquement sur leur PC). Il est intéressant de constater que c'est la firme de logiciels Roxio qui a relancé Napster. Le fait que les produits phares de cette firme sont des logiciels de gravure de CD et de DVD illustre notre argument à propos des sources de revenus complémentaires. Le service Rhapsody constitue un autre modèle. Il s'agit d'un "jukebox" qui n'offre que très peu de possibilités de téléchargement. Ses atouts résident dans la très large sélection de musique qu'il offre et dans la qualité du son. Moyennant $ 9,95 par mois, l'utilisateur peut écouter ce qu'il désire dans un catalogue comptant plus de 400 000 morceaux. Et si le morceau recherché ne figure pas dans le catalogue, le service renvoie l'auditeur vers une de ses stations "web-radio". On n'est donc pas très loin d'un service de musique "sur demande" qui permet à l'amateur de musique d'écouter un morceau à l'instant-même où il y pense, où il en entend parler, où un ami le lui recommande. Ecouter un morceau, sans vraiment le posséder toutefois… Nous ouvrons également la réflexion quant aux aménagements à apporter au régime légal de droit d’auteur pour l'adapter au nouvel environnement technologique.
APA, Harvard, Vancouver, ISO, and other styles
8

Belleflamme, Paul. "Numéro 17 - décembre 2003." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2003.12.01.

Full text
Abstract:
Il ne se passe pas un jour sans que l'on parle du secteur de la musique et de la période chahutée qu'il traverse pour le moment. Epinglons quelques nouvelles récentes. - Sur son site web, la Recording Industry Association of America (Association américaine de l’industrie du disque) constate une nouvelle baisse de 9 % des ventes de disques au 1er semestre 2003 et l'attribue en priorité au "partage illégal de fichiers" - Selon Nielsen/Netratings, le nombre d'utilisateurs de KaZaa (qui permet le téléchargement gratuit grâce aux réseaux «peer-to-pee (P2P)») aux Etats-Unis aurait décliné de 41 % entre juin et septembre 2003, passant de 6,5 millions à 3,9 millions par semaine. Cette baisse coïncide avec les poursuites intentées contre les utilisateurs qui mettent en partage des œuvres musicales sur les réseaux P2P. - Grâce notamment à iTunes ou à Napster 2.0, les services de ventes de musique en ligne viennent de dépasser les ventes de CD 2 titres (singles) sur le territoire américain. - Le programmeur norvégien qui avait distribué le premier moyen pour "craquer" la technologie de protection contre la copie des DVDs semble avoir trouvé une solution pour contourner la protection anti-copie des morceaux de musique vendus par Apple via iTunes Music Store (qui permet de télécharger des chansons pour un prix unique de $ 0,99). - Selon David Bowie, "le copyright deviendra caduc à force de téléchargements et de remix de remix". Alors que des turbulences similaires agitent les industries du logiciel et du cinéma, il est important de s'interroger sur les conséquences du piratage et des réponses qui y sont apportées, tant du point de vue des producteurs que de celui de la société dans son ensemble. Nous proposons dans cet article une grille d'analyse permettant d'aborder ces questions de manière rigoureuse. Notre analyse peut se résumer en quelques points : Le piratage risque d'entraîner un déficit de création de biens d'information (livres, logiciels, musique, fichiers vidéo) vu que les créateurs peuvent éprouver des difficultés à tirer des revenus suffisants de leur création. La réponse naturelle à ce problème consiste à protéger le bien pour le rendre "excluable" et permettre ainsi au créateur de se rémunérer par la vente du bien. C'est la justification traditionnelle de l'instauration d'un régime légal de protection de la propriété intellectuelle (droits d'auteur et brevets); c'est aussi la logique qui conduit les producteurs à développer des mesures techniques empêchant la copie (par exemple, des CDs anti-copie). Cette réponse n'est pas univoque dans le sens où renforcer la protection peut engendrer une baisse globale de la demande pour le bien (ainsi, les dispositifs empêchant la copie d'un CD peuvent également empêcher l'écoute du CD sur un ordinateur ou sur un autoradio, ce qui réduit l'attrait du CD pour tous les consommateurs, y compris ceux qui n'ont aucune intention de le copier). Cette réponse n'est pas non plus unique dans la mesure où de nombreux biens d'information n'ont pas besoin d'être vendus pour être créés : des revenus alternatifs peuvent être tirés de la vente de biens complémentaires, dont la demande est accrue grâce à la gratuité du bien d'information en question (ainsi, la gratuité du logiciel Acrobat Reader—grâce auquel vous lisez Regards Economiques—a contribué à faire du format pdf un standard de facto, ce qui motive de nombreux auteurs à acheter le logiciel Acrobat Writer pour produire des documents sous ce format). A la lumière des deux derniers constats, nous conseillons aux producteurs de biens d'information d'utiliser l'Internet et les technologies digitales pour concurrencer le piratage plutôt que pour le combattre. Ces mêmes technologies qui font de tout consommateur un pirate en puissance offrent également de formidables outils pour ajouter de la valeur aux biens d'information (une valeur difficile à copier et pour laquelle le consommateur est prêt à payer) et pour créer des modes de distribution et de payement originaux. Ainsi, plusieurs projets de distribution payante de musique en ligne ont vu le jour ces dernières années. Après plusieurs tentatives infructueuses (comme celles de Pressplay et de Musicnet), quelques unes des formules proposées aujourd'hui semblent remporter l'adhésion des consommateurs et ont l'espoir de devenir rentables. Apple semble avoir trouvé la formule gagnante avec iTunes Music Store. Quatre jours après son lancement, la version PC de ce service (réservé à l'origine aux ordinateurs Macintosh) avait été téléchargée par un million d'utilisateurs. Ce qui fait le succès de ce service, ce ne sont pas tant les prix pratiqués (qui ne sont guère inférieurs à ceux du commerce physique de détail) que sa facilité d'utilisation, son intégration avec le lecteur portable de musique digitale iPod et son absence de restrictions quant à l'usage ultérieur que les consommateurs peuvent faire des morceaux téléchargés. Ce dernier point illustre notre argument selon lequel une réduction du degré d'exclusion a un effet positif sur le niveau de la demande pour un bien d'information. Le concurrent le plus sérieux de iTunes dans le monde PC est sans doute le nouveau—et désormais légal—Napster 2.0. Ce service combine le modèle de vente de iTunes (même les prix sont identiques) avec le sentiment d'appartenance à une communauté qu'offrait le Napster original. Contre un abonnement de $ 9,99 par mois, les utilisateurs ont accès à des services additionnels : ils peuvent écouter les sélections d'autres utilisateurs, échanger leurs opinions avec d'autres et télécharger autant de morceaux qu'ils le désirent sur leur PC (mais uniquement sur leur PC). Il est intéressant de constater que c'est la firme de logiciels Roxio qui a relancé Napster. Le fait que les produits phares de cette firme sont des logiciels de gravure de CD et de DVD illustre notre argument à propos des sources de revenus complémentaires. Le service Rhapsody constitue un autre modèle. Il s'agit d'un "jukebox" qui n'offre que très peu de possibilités de téléchargement. Ses atouts résident dans la très large sélection de musique qu'il offre et dans la qualité du son. Moyennant $ 9,95 par mois, l'utilisateur peut écouter ce qu'il désire dans un catalogue comptant plus de 400 000 morceaux. Et si le morceau recherché ne figure pas dans le catalogue, le service renvoie l'auditeur vers une de ses stations "web-radio". On n'est donc pas très loin d'un service de musique "sur demande" qui permet à l'amateur de musique d'écouter un morceau à l'instant-même où il y pense, où il en entend parler, où un ami le lui recommande. Ecouter un morceau, sans vraiment le posséder toutefois… Nous ouvrons également la réflexion quant aux aménagements à apporter au régime légal de droit d’auteur pour l'adapter au nouvel environnement technologique.
APA, Harvard, Vancouver, ISO, and other styles
9

Belleflamme, Paul, and Xavier Wauthy. "Numéro 100 - décembre 2012." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.14903.

Full text
Abstract:
Nous publions le 100ème numéro de Regards économiques en ce 12/12/12, jour de fin du monde pour certains, jour marquant l'anniversaire d'une belle aventure entamée voici déjà 10 ans pour d'autres ! En effet, c'est en 2002, à l'initiative de l'IRES, que la revue des économistes de l'UCL a vu le jour avec pour objectif de publier 6 à 8 numéros par an. Avec une moyenne de 10 numéros chaque année, nous sommes bien au-delà de nos espérances ! De quelques centaines d'abonnés en 2002, on est passé en 2012 à plus de 6.000 abonnés qui sont informés de la sortie d'un nouveau numéro. Regards économiques, c'est aussi 111 auteurs différents qui ont tenté de montrer, dans un style qui se veut délibérément pédagogique et non technique, la diversité des regards que les économistes peuvent porter sur des questions socio-économiques importantes. Enfin, les numéros de Regards économiques ont suscité l'intérêt des journalistes puisqu'on compte près de 300 articles dans les principaux organes de presse belges. 10 ans de contenus riches... mais pourtant gratuits, voilà ce qui a inspiré Paul Belleflamme (UCL) et Xavier Wauthy (FUSL), les auteurs du numéro anniversaire de Regards économiques. Dans leur article intitulé «Economie des contenus numériques : bientôt la fin du gratuit ?», ils nous livrent leur réflexion sur les questions que soulève à long terme la gratuité dans le monde numérique. Face à des contenus surabondants parce que gratuits, ils préconisent toute initiative permettant aux utilisateurs «saturés» de contenus de trier et/ou de prioritiser l'information, quitte à rendre ces services payants. On vous rassure d'emblée : Regards économiques reste gratuit et renforce en sus son offre de services grâce à ce tout nouveau site web spécialement conçu pour faciliter l'accès aux articles de la revue. Et cerise sur le gâteau, le site web s'enrichit d'un nouveau type d'articles, le «focus», qui donne, avec un regard vif mais toujours aussi rigoureux, un point de vue concis sur des événements de l'actualité. A l'occasion de la sortie du nouveau site web de Regards économiques, nous publions, sur ce site, trois premiers focus. Economie des contenus numériques : bientôt la fin du gratuit ? Cela fait plusieurs années que la presse écrite traverse des temps difficiles. Ainsi, le groupe Rossel vient d'annoncer un plan d'économies à hauteur de 10 millions d'euros. Même si les licenciements secs devraient être évités, le personnel sera inévitablement réduit (on parle, notamment, d'une réduction de 34 équivalents temps plein au Soir). En cause, essentiellement, la réduction des revenus publicitaires due au ralentissement de l'activité économique. La presse écrite doit également faire face aux changements dans les habitudes de consommation de l'information qu'entraîne l'usage de l'internet mobile et des réseaux sociaux. Ainsi, une étude récente du Pew Research Center (think-tank américain) menée aux Etats-Unis montre que de 2010 à 2011, près de deux fois plus d'utilisateurs ont obtenu de l'information via un appareil mobile et près de trois fois plus via les réseaux sociaux; ces chiffres sont encore plus élevés pour la population jeune. C'est sans doute ce qui a motivé le magazine d'actualité hebdomadaire Newsweek à abandonner son édition papier (vieille de 80 ans) au profit d'un format entièrement numérique. Mais les défis à relever dans un monde digital où les contenus sont dématérialisés sont au moins aussi importants que dans un monde analogique où ils sont couchés sur papier. Et ceci est vrai pour la presse comme pour tout autre producteur de contenu. Aujourd'hui, n'importe quel contenu se résume en effet à une suite de 0 et de 1, que l'on peut transmettre de manière indistincte sur le réseau à destination de n'importe quel utilisateur doté d'un réceptacle quasi universel. La diffusion de l'information a donc changé radicalement de nature : elle n'est plus incarnée dans un support (un livre, un journal, etc.) mais transmise comme un flux à destination d'un support d'interprétation (une tablette numérique, par exemple). Une conséquence de cette évolution est que la consommation de contenus a peu à peu été perçue comme gratuite par nombres d'utilisateurs. L'objectif du centième numéro de Regards Economiques est de revisiter les questions que pose à long terme la gratuité dans le monde digital. La consommation gratuite des contenus numériques pourrait en effet receler en elle-même les ferments de sa disparition. Dans ce numéro, nous identifions et discutons trois problèmes majeurs : L'extinction de certains contenus. Faute de trouver les moyens de couvrir les coûts de production, certains contenus pourraient ne plus être produits et, en disparaissant, menacer la «media-diversité». La saturation de notre attention. Il faut de plus en plus de temps et d'énergie pour identifier, parmi des contenus surabondants parce que gratuits, ceux qui nous sont les plus pertinents et pour en disposer au moment opportun. Traiter individuellement le flot d'information pourrait représenter un coût à terme prohibitif. Des embouteillages informationnels. Confrontées à une explosion des flux numériques, les capacités de transmission pourraient être engorgées, ré-instaurant de facto une forme de rareté dans l'accessibilité des contenus, ou de certains d'entre eux. Le développement d'offres de contenus légales, et payantes soit pour l'utilisateur (Deezer) ou pour la plateforme qui diffuse (YouTube) offre des perspectives de solution pour le premier problème. La où la diffusion de l'information est devenue non coûteuse, des modèles d'affaires commencent à se développer autour de la monétisation d'une consommation triée, partagée, temporalisée en fonction des besoins de chaque utilisateur (par exemple, Apple a introduit une fonction «A lire plus tard» dans la dernière version de son navigateur Safari). Enfin, la gestion des embouteillages informationnels renvoie évidemment à la neutralité supposée du net et à sa pérennité.
APA, Harvard, Vancouver, ISO, and other styles
10

Belleflamme, Paul, and Xavier Wauthy. "Numéro 100 - décembre 2012." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2012.12.01.

Full text
Abstract:
Nous publions le 100ème numéro de Regards économiques en ce 12/12/12, jour de fin du monde pour certains, jour marquant l'anniversaire d'une belle aventure entamée voici déjà 10 ans pour d'autres ! En effet, c'est en 2002, à l'initiative de l'IRES, que la revue des économistes de l'UCL a vu le jour avec pour objectif de publier 6 à 8 numéros par an. Avec une moyenne de 10 numéros chaque année, nous sommes bien au-delà de nos espérances ! De quelques centaines d'abonnés en 2002, on est passé en 2012 à plus de 6.000 abonnés qui sont informés de la sortie d'un nouveau numéro. Regards économiques, c'est aussi 111 auteurs différents qui ont tenté de montrer, dans un style qui se veut délibérément pédagogique et non technique, la diversité des regards que les économistes peuvent porter sur des questions socio-économiques importantes. Enfin, les numéros de Regards économiques ont suscité l'intérêt des journalistes puisqu'on compte près de 300 articles dans les principaux organes de presse belges. 10 ans de contenus riches... mais pourtant gratuits, voilà ce qui a inspiré Paul Belleflamme (UCL) et Xavier Wauthy (FUSL), les auteurs du numéro anniversaire de Regards économiques. Dans leur article intitulé «Economie des contenus numériques : bientôt la fin du gratuit ?», ils nous livrent leur réflexion sur les questions que soulève à long terme la gratuité dans le monde numérique. Face à des contenus surabondants parce que gratuits, ils préconisent toute initiative permettant aux utilisateurs «saturés» de contenus de trier et/ou de prioritiser l'information, quitte à rendre ces services payants. On vous rassure d'emblée : Regards économiques reste gratuit et renforce en sus son offre de services grâce à ce tout nouveau site web spécialement conçu pour faciliter l'accès aux articles de la revue. Et cerise sur le gâteau, le site web s'enrichit d'un nouveau type d'articles, le «focus», qui donne, avec un regard vif mais toujours aussi rigoureux, un point de vue concis sur des événements de l'actualité. A l'occasion de la sortie du nouveau site web de Regards économiques, nous publions, sur ce site, trois premiers focus. Economie des contenus numériques : bientôt la fin du gratuit ? Cela fait plusieurs années que la presse écrite traverse des temps difficiles. Ainsi, le groupe Rossel vient d'annoncer un plan d'économies à hauteur de 10 millions d'euros. Même si les licenciements secs devraient être évités, le personnel sera inévitablement réduit (on parle, notamment, d'une réduction de 34 équivalents temps plein au Soir). En cause, essentiellement, la réduction des revenus publicitaires due au ralentissement de l'activité économique. La presse écrite doit également faire face aux changements dans les habitudes de consommation de l'information qu'entraîne l'usage de l'internet mobile et des réseaux sociaux. Ainsi, une étude récente du Pew Research Center (think-tank américain) menée aux Etats-Unis montre que de 2010 à 2011, près de deux fois plus d'utilisateurs ont obtenu de l'information via un appareil mobile et près de trois fois plus via les réseaux sociaux; ces chiffres sont encore plus élevés pour la population jeune. C'est sans doute ce qui a motivé le magazine d'actualité hebdomadaire Newsweek à abandonner son édition papier (vieille de 80 ans) au profit d'un format entièrement numérique. Mais les défis à relever dans un monde digital où les contenus sont dématérialisés sont au moins aussi importants que dans un monde analogique où ils sont couchés sur papier. Et ceci est vrai pour la presse comme pour tout autre producteur de contenu. Aujourd'hui, n'importe quel contenu se résume en effet à une suite de 0 et de 1, que l'on peut transmettre de manière indistincte sur le réseau à destination de n'importe quel utilisateur doté d'un réceptacle quasi universel. La diffusion de l'information a donc changé radicalement de nature : elle n'est plus incarnée dans un support (un livre, un journal, etc.) mais transmise comme un flux à destination d'un support d'interprétation (une tablette numérique, par exemple). Une conséquence de cette évolution est que la consommation de contenus a peu à peu été perçue comme gratuite par nombres d'utilisateurs. L'objectif du centième numéro de Regards Economiques est de revisiter les questions que pose à long terme la gratuité dans le monde digital. La consommation gratuite des contenus numériques pourrait en effet receler en elle-même les ferments de sa disparition. Dans ce numéro, nous identifions et discutons trois problèmes majeurs : L'extinction de certains contenus. Faute de trouver les moyens de couvrir les coûts de production, certains contenus pourraient ne plus être produits et, en disparaissant, menacer la «media-diversité». La saturation de notre attention. Il faut de plus en plus de temps et d'énergie pour identifier, parmi des contenus surabondants parce que gratuits, ceux qui nous sont les plus pertinents et pour en disposer au moment opportun. Traiter individuellement le flot d'information pourrait représenter un coût à terme prohibitif. Des embouteillages informationnels. Confrontées à une explosion des flux numériques, les capacités de transmission pourraient être engorgées, ré-instaurant de facto une forme de rareté dans l'accessibilité des contenus, ou de certains d'entre eux. Le développement d'offres de contenus légales, et payantes soit pour l'utilisateur (Deezer) ou pour la plateforme qui diffuse (YouTube) offre des perspectives de solution pour le premier problème. La où la diffusion de l'information est devenue non coûteuse, des modèles d'affaires commencent à se développer autour de la monétisation d'une consommation triée, partagée, temporalisée en fonction des besoins de chaque utilisateur (par exemple, Apple a introduit une fonction «A lire plus tard» dans la dernière version de son navigateur Safari). Enfin, la gestion des embouteillages informationnels renvoie évidemment à la neutralité supposée du net et à sa pérennité.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Modèle de l'utilisateur"

1

Thomas, Isabelle. "Modèle de l'utilisateur, modèle de la tache et modèles d'explications pour expliquer dans le contexte des taches de conception : application en conception d'équipements électroniques." Paris 13, 1993. http://www.theses.fr/1993PA132026.

Full text
Abstract:
Les systèmes a base de connaissances sont aujourd'hui exploites pour réaliser des taches complexes, comme la recherche documentaire, du conseil financier, ou de la conception d'équipements électroniques, qui nécessitent non seulement de mettre en œuvre un raisonnement, mais encore d'instaurer une coopération entre le systeme informatique et son utilisateur. Cette thèse vise l'amélioration de l'interaction entre un tel systeme et son utilisateur, par le développement des capacités d'explication du premier. Notre réflexion est issue d'une étude de cas, le développement d'un module d'explication pour un systeme d'aide a la conception d'équipements électroniques de satellites. Nous proposons de considérer l'explication comme une forme de communication qui respecte un principe de coopération, i. E. Qui dépasse la réponse directe a la question de l'interlocuteur, en lui apportant des informations qu'il n'a pas explicitement demandées mais qui vont faciliter sa compréhension. Nous soutenons que la mise en œuvre du principe de coopération est spécifique de la tache pour laquelle le systeme est utilise. Nous avons élaboré une méthode de construction d'explications qui comporte trois phases. La première phase analyse la question de l'utilisateur et en construit une représentation conceptuelle. La deuxième phase construit une représentation conceptuelle de l'explication, qui spécifie son contenu informatif et sa structure rhétorique. Dans un premier temps, un schéma explicatif est sélectionné puis instancie par rapport au contexte de l'interaction. Dans un deuxième temps, l'explication ainsi construite est complétée de manière opportuniste, par des informations destinées à bloquer les inférences incorrectes et a devances les nouvelles questions de l'utilisateur. La troisième phase engendre le texte correspondant à l'explication conceptuelle
APA, Harvard, Vancouver, ISO, and other styles
2

Nadal, Maurin. "Assistance à l'utilisateur novice dans le cadre du dessin de graphe à l'aide de méthodes d'apprentissage." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00981993.

Full text
Abstract:
Cette thèse se concentre sur la problématique suivante : comment assister un utilisateur novice pour l'aider à obtenir un dessin de son graphe qui soit adapté à ses besoins ? En effet, les méthodes de dessins actuelles, très nombreuses, nécessitent une grande expertise pour obtenir un dessin de bonne qualité. Or, par manque d'expertise, les utilisateurs novices ne peuvent pour l'instant pas produire des dessins d'une telle qualité à partir de leurs données. La solution proposée consiste à mettre en place un système interactif proposant à l'utilisateur différents dessins pour un même graphe afin qu'il obtienne un résultat qui réponde correctement à ses besoins. Ce système se base sur un algorithme de force modifié utilisé par un système d'algorithme génétique hautement modulable. L'objectif de la modification apportée à l'algorithme de dessin étant de pouvoir générer plusieurs dessins intéressants pour un même graphe.
APA, Harvard, Vancouver, ISO, and other styles
3

Laitano, María Inés. "Le modèle trifocal : une approche communicationnelle des interfaces numériques : Contributions à la conception d'interfaces accessibles." Thesis, Paris 8, 2015. http://www.theses.fr/2015PA080025.

Full text
Abstract:
: Objet d'étude pour plusieurs disciplines, l'interface numérique se présente comme un objet hétérogène : un dialogue humain-ordinateur, le reflet d’un modèle mental, un instrument, un ensemble de signes sémiotiques… Toutes ces dimensions, traitées individuellement par les approches disciplinaires, n’ont jamais été rassemblées dans un cadre paradigmatique commun. Cette thèse soutient que l’interface, en tant qu’objet d’étude complexe, doit être abordée dans un cadre capable de traiter cette complexité. Elle propose de le faire par la systémique communicationnelle et de poser la réflexion, non pas en termes d’attributs de qualité de l’interface (utilisabilité, communicabilité, convivialité…), mais en termes de significations. Cela implique de centrer le modèle sur l’humain et fournit une vision intégrée, non parcellisée, de l’interface permettant de concevoir de nouvelles interfaces, de les implémenter dans des contextes et des modalités sensorielles diverses.Le modèle trifocal est ainsi une approche systémique de la communication via l’interface. Il étudie les rapports de l’usager à la machine, à l’objet de son activité et au concepteur, ainsi que les propriétés émergentes de ce système. Le modèle trifocal fournit une description de l’interface transposable d'une modalité à une autre. Il permet, d’une part, l’étude de la signification d’interfaces non visuelles et, d’autre part, la traduction d’interfaces d’une modalité dans une autre. Le modèle trifocal jette un regard nouveau sur la conception d’interfaces accessibles puisqu’il complète les méthodes existantes avec des nouvelles dimensions d’analyse
Object of study for several disciplines, digital interfaces appear as a heterogeneous object: a human-computer dialogue, a reflection of a mental model, an instrument, a set of semiotic signs ... All these dimensions, addressed individually by disciplinary approaches, have never been gathered in a common paradigmatic framework. This thesis argues that interfaces, as a complex object of study, must be addressed in a framework capable of dealing with this complexity. It proposes to do so by the Systemic Communication Theory and to think about not in terms of interface quality attributes (usability, communicability, conviviality...) but in terms of meanings. This implies a human-centered model and provides an integrated point of view enabling the design of new interfaces as well as their implementation in numerous contexts and sensory modalities.The trifocal model is thus a systemic approach to communication via the interface. It studies the relationships between user and machine, between user and object of his activity and between user and designer, as well as emergent properties of the system. The trifocal model provides an interface description transposable from one modality to another. It allows, on one hand, to study the meaning of non-visual interfaces and, on the other, to translate interfaces from one modality to another. The trifocal model takes a fresh look on designing accessible interfaces since it complements existing methods with new analytical dimensions
APA, Harvard, Vancouver, ISO, and other styles
4

Krichene, Haná. "SCAC : modèle d'exécution faiblement couplé pour les systèmes massivement parallèles sur puce." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10093.

Full text
Abstract:
Ce travail propose un modèle d'exécution pour les systèmes massivement parallèles qui vise à assurer le recouvrement des communications par les calculs. Le modèle d'exécution défini dans cette thèse est nommé SCAC: Synchronous Communication Asynchronous Computation. Ce modèle faiblement couplé, sépare l'exécution des phases de communication de celles de calculs afin de faciliter leur chevauchement pour recouvrir les délais de transfert de données. Pour permettre l'exécution simultanée de ces deux phases, nous proposons une approche basée sur trois niveaux: deux niveaux de contrôle hiérarchiques globalement centralisés/localement distribués et un niveau de calcul parallèle. Une implémentation générique et paramétrique du modèle SCAC a été réalisée afin de permettre la conception d'une architecture qui convient à l'application. Cette implémentation donne la possibilité au concepteur de choisir les composants de son système parmi un ensemble de composants préconçus, et d'en fixer les paramètres afin de construire la configuration SCAC adéquate à l'exécution de son application. Une estimation analytique est ensuite proposée pour évaluer les performances d'une application exécutée en mode SCAC. Cette estimation permet de prédire le temps d'exécution sans passer par l'implémentation physique afin de faciliter la conception du programme parallèle et la définition de la configuration de l'architecture SCAC. Le modèle SCAC a été validé par simulation, synthèse et implémentation sur une plateforme FPGA en traitant différents exemples d'applications de calcul parallèle. La comparaison des résultats obtenus par le modèle SCAC avec d'autres modèles a montré son efficacité en termes de flexibilité et d'accélération du temps d'exécution
This work proposes an execution model for massively parallel systems aiming at ensuring the communications overlap by the computations. The execution model defined in this PhD thesis is named SCAC: Synchronous Communication Asynchronous Computation. This weakly coupled model separates the execution of communication phases from those of computation in order to facilitate their overlapping, thus covering the data transfer time. To allow the simultaneous execution of these two phases, we propose an approach based on three levels: two globally-centralized/locally-distributed hierarchical control levels and a parallel computation level. A generic and parametric implementation of the SCAC model was performed to fit different applications. This implementation allows the designer to choose the system components (from pre-designed ones) and to set its parameters in order to build the adequate SCAC configuration for the target application. An analytical estimation is proposed to evaluate the performance of an application running in SCAC mode. This estimation is used to predict the execution time without passing through the physical implementation in order to facilitate the parallel program design and the SCAC architecture configuration. The SCAC model was validated by simulation, synthesis and implementation on an FPGA platform, with different examples of parallel computing applications. The comparison of the results obtained by the SCAC model with other models has shown its effectiveness in terms of flexibility and execution time acceleration
APA, Harvard, Vancouver, ISO, and other styles
5

Lavergne-Boudier, Valérie. "Système dynamique d'interrogation des bases de données bibliographiques." Paris 7, 1990. http://www.theses.fr/1990PA077243.

Full text
Abstract:
Les bases de données bibliographiques répondent à des protocoles d'organisation très formels qui vont de pair avec des méthodes d'interrogation rigides. Cette étude propose de nouvelles méthodes d'interrogation qui prennent en compte le point de vue de l'utilisateur et son modèle personnel d'organisation et de représentation des connaissances. La requête se fait à partir de la structuration des données disponibles de la base de données bibliographique, sous forme de cartes cognitives. Les cartes cognitives sont des représentations personnalisées de connaissances dans lesquelles sont définies des conditions d'apparition de concepts selon des modèles booléens. Une carte cognitive permet d'exploiter un fonds bibliographique de façon nouvelle, en se présentant comme une grille d'analyse définie spécifiquement pour répondre à une question donnée. Elle permet également d'exploiter des coïncidences partielles qui permettent de révéler de l'information en émergence.
APA, Harvard, Vancouver, ISO, and other styles
6

Gantier, Samuel. "Contribution au design du documentaire interactif : jonction et disjonction des figures de l'utilisateur de B4, fenêtres sur tour, coproduit par France Télévisions." Thesis, Valenciennes, 2014. http://www.theses.fr/2014VALE0031.

Full text
Abstract:
Ces dix dernières années, plusieurs centaines de web-documentaires ont été publiés sur Internet. Si ce format émergent connaît un succès d’estime important auprès des professionnels des médias, son design ne va pas de soi. Dès lors, comment les théories du cinéma documentaire et des médias informatisés éclairent-elles les métamorphoses médiatiques caractéristiques de ces « nouvelles écritures » ? Quels sont les enjeux ontologico-esthétiques et communicationnels d’un documentaire interactif ? Quel rôle et quel pouvoir l’instance d’énonciation doit-elle octroyer à un « spectateur-actant » ? Afin de répondre à ces questions, un état des lieux de la production francophone permet tout d’abord d’établir une typologie des différents modes d’interaction. Ensuite, une approche ethnographique, fondée sur une observation participante du design de B4, fenêtres sur tour, au sein de France Télévisions, interroge l’ensemble des controverses socio-techniques et sémio-pragmatiques qui jalonnent les six mois de conception. Une analyse par théorisation ancrée met en exergue les différentes dimensions d’un Utilisateur Modèle négociées, de manière plus ou moins implicite, par l’ensemble des acteurs. Enfin, les usages supposés du web-documentaire sont confrontés à une évaluation de l’expérience utilisateur. Les jonctions et disjonctions entre les figures d’un Utilisateur Modèle, Statistique et Empirique contribuent in fine à mieux appréhender le design de ce format hybride et non stabilisé
In the last few years, several hundred interactive documentaries (i-docs) have been published on the Internet. If many media professionals prize the i-doc format, its design remains a challenging feat. Given this, what light do film documentary theories and digital media shed on the mediated metamorphoses that typify the “New Writings” movement? What are the communicational and ontologico-aesthetic issues of i-docs? What role and what power should an instance of enunciation accord to the “actant-spectator”?In response to these questions, our study of the current state of the French-speaking production scene brought to the fore a typology of interaction modes. Following this observation, an ethnographic approach, based on a participant observation method, questioned the overall sociotechnical and semio-graphic issues that marked the six-month design process of an i-doc called B4, fenêtres sur tour for the State-run France Télévisions. A Grounded Theory analysis of the data highlighted the different dimensions of a more or less implicit negotiated Model User used by the actors. Finally, the purported uses of i-docs were questioned in evaluating users’ experience. The junctions and disjunctions involving the interaction of the User, Statistical and Empirical Models contributed to a better grasp of the designing of the hybrid and non-stabilised i-doc format
APA, Harvard, Vancouver, ISO, and other styles
7

Lequay, Victor. "Une approche ascendante pour la gestion énergétique d'une Smart-Grid : modèle adaptatif et réactif fondé sur une architecture décentralisée pour un système générique centré sur l'utilisateur permettant un déploiement à grande échelle." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1304.

Full text
Abstract:
Le domaine de la gestion de l'énergie dans les smart grids a été largement exploré ces dernières années, de nombreuses approches différentes étant proposées dans la littérature. En collaboration avec notre partenaire industriel Ubiant, qui déploie des solutions d'optimisation énergétique du bâtiment, nous avons mis en évidence le besoin d'un système vraiment robuste et évolutif exploitant la flexibilité de la consommation résidentielle pour optimiser l'utilisation de l'énergie au sein d'une smart grid. Dans le même temps, nous avons observé que la majorité des travaux existants se concentraient sur la gestion de la production et du stockage et qu'aucune des architectures proposées n'étaient véritablement décentralisées. Notre objectif était alors de concevoir un mécanisme dynamique et adaptatif permettant de tirer parti de toute la flexibilité existante tout en garantissant le confort de l'utilisateur et une répartition équitable des efforts d'équilibrage ; mais aussi de proposer une plate-forme ouverte et modulaire avec laquelle une grande variété d'appareils, de contraintes et même d'algorithmes pourraient être interfacés. Dans cette thèse, nous avons réalisé (1) une évaluation des techniques actuelles de prévision de la consommation individuelle en temps réel, dont les résultats nous ont amenés à suivre (2) une approche ascendante et décentralisée pour l'ajustement diffus résidentiel reposant sur un mécanisme de compensation pour assurer un effacement stable. Sur cette base, nous avons ensuite construit (3) une plate-forme générique centrée sur l'utilisateur pour la gestion de l'énergie dans les réseaux intelligents, permettant une intégration aisée de plusieurs périphériques, une adaptation rapide à l'évolution de l'environnement et des contraintes, ainsi qu'un déploiement efficace
The field of Energy Management Systems for Smart Grids has been extensively explored in recent years, with many different approaches being described in the literature. In collaboration with our industrial partner Ubiant, which deploys smart homes solutions, we identified a need for a highly robust and scalable system that would exploit the flexibility of residential consumption to optimize energy use in the smart grid. At the same time we observed that the majority of existing works focused on the management of production and storage only, and that none of the proposed architectures are fully decentralized. Our objective was then to design a dynamic and adaptive mechanism to leverage every existing flexibility while ensuring the user's comfort and a fair distribution of the load balancing effort ; but also to offer a modular and open platform with which a large variety of devices, constraints and even algorithms could be interfaced. In this thesis we realised (1) an evaluation of state of the art techniques in real-time individual load forecasting, whose results led us to follow (2) a bottom-up and decentralized approach to distributed residential load shedding system relying on a dynamic compensation mechanism to provide a stable curtailment. On this basis, we then built (3) a generic user-centered platform for energy management in smart grids allowing the easy integration of multiple devices, the quick adaptation to changing environment and constraints, and an efficient deployment
APA, Harvard, Vancouver, ISO, and other styles
8

Perron, Marc. "Conception d'une stratégie de commande vectorielle énergétiquement optimale de la machine asynchrone basée sur un modèle des pertes neuronal sur FPGA." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26247/26247.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Khenak, Nawel. "Vers un modèle unifié de la présence spatiale et de ses facteurs : application à l’étude de la téléprésence en environnements immersifs." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG024.

Full text
Abstract:
La "présence spatiale" est le phénomène psycho-cognitif faisant référence à la sensation éprouvée par une personne lorsqu'elle a l'impression de se trouver physiquement dans un espace donné. A l'instar d'autres phénomènes psycho-cognitifs, aucun consensus n'a encore été atteint sur la définition ou le moyen de mesurer cette sensation. Par conséquent, cette thèse s'attèle à établir un modèle de la présence spatiale à travers la mise en lumière de ses facteurs et des outils pour mesurer son intensité. Ainsi, tout en tenant compte des nouvelles avancées technologiques dans le domaine de la Réalité Virtuelle (RV), le premier apport de cette thèse a été de décrire de manière précise les facteurs jouant un rôle dans l'émergence de la présence spatiale au travers d'un modèle conceptuel unifiant les théories existantes.Afin de pouvoir évaluer ce phénomène, il était impératif de trouver des moyens permettant de le quantifier de manière stable. Cette tâche s’avère compliquée au regard de la nature subjective de la présence : les outils les plus utilisés sont les questionnaires administrés à des utilisateurs, à l’issue d’une expérience en environnement contrôlé. Cependant d’autres outils plus objectifs existent, notamment l’analyse comportementale des utilisateurs lorsqu’ils interagissent avec l’environnement. Néanmoins, la fiabilité de ces mesures reste encore sujette à débat. Un second apport de cette thèse a donc été de mettre en place des outils de mesure de la présence spatiale fiables et valides, non seulement en combinant les approches subjectives et objectives déjà existantes, mais en proposant également de nouvelles mesures. Dans cette optique, un questionnaire de présence spatiale a été élaboré. De plus, différentes mesures comportementales ont été testées au travers d’expériences où des utilisateurs devaient accomplir certaines tâches dans différents environnements immersifs. Aussi, une attention particulière a été portée aux environnements distants qui permettent d’engendrer la sensation de « Téléprésence », cette dernière ayant été beaucoup moins étudiée que la présence en environnements virtuels. L’intérêt des environnements distants est que les actions entreprises en leur sein ont des conséquences réelles dans notre monde, ce qui n’est pas le cas des environnements générés par ordinateur dans lesquels les actions restent confinées. De ce fait, les utilisateurs ont conscience de l’impact de leurs actions dans le monde réel, ce qui peut influencer leur comportement et affecter la présence ressentie. Par conséquent, la téléprésence peut mettre en évidence des facteurs différents de ceux engendrés en environnements virtuels. De plus, la téléprésence peut être comparée à la présence « naturelle » ressentie par les utilisateurs localisés physiquement dans des environnements réels. Ce type de comparaison permet de mettre en évidence l’effet de l’utilisation des technologies sur la présence. En effet, les résultats des expériences menées, comparant la présence spatiale dans des environnements réels, distants et virtuels, ont montré une différence significative entre les environnements concernant le degré de présence spatiale ressenti ainsi que certains de ses facteurs, en particulier le « degré de réalité » accordé à l’environnement. En conclusion, les travaux menés durant cette thèse ont permis d’établir un modèle de la présence spatiale, d’analyser son lien avec différents facteurs et de mettre en place des outils pour mesurer ces derniers. Le modèle peut maintenant être exploité pour caractériser la présence spatiale dans le but d’améliorer les systèmes de RV, que ce soit en terme de performance ou de bien-être utilisateur. En particulier, la situation de pandémie de Covid-19 survenue pendant la durée de ce travail est un exemple frappant qui encourage l’étude et l’utilisation des systèmes de téléprésence
« Spatial presence » is a psycho-cognitive phenomenon that refers to the sensation experienced by people when they feel they are physically located in a given space. This feeling has already been studied extensively. However, like other psycho-cognitive phenomena, no consensus has yet been reached on its definition or how to measure it. Therefore, this thesis attempts to establish a model of spatial presence by highlighting the factors involved in its emergence, and the tools to measure its intensity. Thus, while taking into account the new technological advances in the field of Virtual Reality (VR), the first contribution of this thesis was to describe the main factors of spatial presence gathered into a conceptual model that takes into account the existing theories. Many factors of different importance exist, the best known is the « immersion » factor. Particular attention was paid to this factor through the evaluation of spatial presence in highly immersive environments. Yet, the evaluation of spatial presence can only be done by finding stable ways to quantify it. This task proves to be complicated due to the subjective nature of the phenomenon : the most commonly used tools are questionnaires administered to users after they have completed an experiment in a controlled environment. However, other more objective tools exist, such as the behavioral analysis of users when interacting within an environment. Nevertheless, the reliability of these measurements is still open to debate. Then, the second contribution of this thesis was to find reliable and valid tools for measuring spatial presence, not only by combining the subjective and objective approaches already existing but also by proposing new measures to evaluate this phenomenon and its factors. To this end, a spatial presence questionnaire was developed. In addition, different measures based on human behavior were assessed through the conduction of experiments where users had to perform specific tasks in different immersive environments. Particular attention has also been paid to remote environments that can generate the feeling of « Telepresence », which has been much less studied than presence in virtual environments. The advantage of remote environments is that the actions in such environments have real consequences in our world, in contrast to computer-generated environments in which actions remain confined. The users’ awareness of the impact of their actions in remote environments influences their behavior, and could, therefore, affect the presence experienced. Consequently, spatial telepresence may highlight different factors compared to those generated in virtual environments. Besides, telepresence can be compared to « natural » presence experienced by users when they are physically located in real environments without any technological mediation. Such comparison allows to highlight the effect of the technologies used on the feeling of presence. Indeed, the results of the experiments conducted during this thesis, comparing real, remote, and virtual environments, showed a significant difference between the environments in the degree of spatial presence as well as in some of its factors, such as the « degree of reality » attributed to the environment. In conclusion, the work carried out during this thesis allowed developing a model of spatial presence, analyzing its relationship with several factors, and finding suitable tools to measure them. The model can now be used to characterize spatial presence in order to improve VR systems, either in terms of performance or user well-being in concrete contexts. In particular, the Covid-19 pandemic situation that occurred during this thesis is a very good example that encourages the study and the use of spatial telepresence systems
APA, Harvard, Vancouver, ISO, and other styles
10

Pangracious, Vinod. "High Performance Three-Dimensional Tree-based FPGA Architecture using 3D Technology Process." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066480.

Full text
Abstract:
Les FPGAs (Field Programmable Gate Arrays) sont aujourd'hui des acteurs fondamen-taux dans le domaine des calculateurs qui etait auparavant domin par les microprocesseurs et les ASICs. Le principal enjeu de la conception de FPGA est de trouver le bon compromis entre les performances et la exibilite. Les caractristiques d'un FPGA dependent de trois facteurs : la qualite de l'architecture, la qualite des outils permettant d'implantes l'application sur le FPGA et la technologie utilisee. Le but de cette thse est de proposer une methodologie de conception pour la realisation physique de FPGA en technologie 3 dimensions (3D) ainsi que les outils d'exploration architecturale pour l'empilement en 3D du FPGA arborescent an d'ameliorer lses performances en terme de surface, densite, consommation et vitesse.La premiere partie du manuscrit etudie les dierentes variantes des architectures 2D du FPGA arborescent et l'impact de la migration vers la technologie 3D sur leur topologie. Nous presentons de nombreuses etudes montrant les caracteristiques des reseaux d'interconnexion arborescents, comment ils se comportent en terme de surface et per- formances et comment ils tiennent compte des particularites de l'applicationablee. Mal- heureusement, nous n'avons jamais vu d'avancees en ce qui concerne l'optimisation de telles topologies an d'exploiter leur avantage en terme de surface et consommation, ou encore de resoudre le probleme de longueur des ls qui entrave leurs performances. Tout au long de ce travail, nous avons compris qu'il ne serait pas possible d'optimiser la vitesse sans s'attaquer a la structure m^eme du reseau d'interconnexion arborescent pour l'exploiter a nouveau gr^ace a la technologie 3D. Ce type de technologie peut reduire les problemes de delai du reseau d'interconnexion en orant davantage de exibilite a la conception, au placement et au routage. Un ensemble d'outil d'exploration d'architectures 3D de FPGA a ete developpe pour valider les avancees en terme de performances et surface.La seconde contribution de cette these est le developpement d'une methodologie de conception de circuits FPGA 3D ainsi que l'utilisation des outils de conception classiques (en 2D) pour la realisation physique d'un FPGA arborescent 3D. Tout au long du processus de conception, nous avons ete confrontes aux nombreux problemes que rencontrent les concepteurs 3D en utilisant des outils qui ne sont pas connus pour leurs besoins. De plus, l'utilisation de la technologie 3D risque d'aggraver les performances thermiques. Nous examinons alors precisement l'evolution du comportement thermique lie a l'integration 3D et nous avons montrons comment le contrler en utilisant des techniques de conception tenant compte de la temprature
Today, FPGAs (Field Programmable Gate Arrays) has become important actors in the computational devices domain that was originally dominated by microprocessors and ASICs. FPGA design big challenge is to nd a good trade-o between exibility and performances. Three factors combine to determine the characteristics of an FPGA: quality of its architecture, quality of the CAD tools used to map circuits into the FPGA, and its electrical technology design. This dissertation aims at exploring a development of Three- dimensional (3D) physical design methodology and exploration tools for 3D Tree-based stacked FPGA architecture to improve area, density, power and performances. The first part of the dissertation is to study the existing variants of 2D Tree-based FPGA architecture and the impact of 3D migration on its topology. We have seen numerous studies showing the characteristics of Tree-based interconnect networks, how they scale in terms of area and performance, and empirically how they relate to particular designs. Nevertheless we never had any breakthrough in optimizing these network topologies to exploit the advantages in area and power consumption and how to deal with the larger wire-length issues that impede performance of Tree-based FPGA architecture. Through the course of the work, we understand that, we would not be able to optimize the speed, unless we break the very backbone of the Tree-based interconnect network and resurrect again by using 3D technology. The 3D-ICs can alleviate interconnect delay issues by ofering exibility in system design, placement and routing. A new set of 3D FPGA architecture exploration tools and technologies developed to validate the advance in performance and area.The second contribution of this thesis is the development 3D physical design methodology and tools using existing 2D CAD tools for the implementation of 3D Tree-based FPGA demonstrator. During the course of design process, we addressed many specic issues that 3D designers will encounter dealing with tools that are not specically designed to meet their needs. In contrast, the thermal performance is expected to worsen with the use of 3D integration. We examined precisely how thermal behavior scales in 3D integration and determine how the temperature can be controlled using thermal design techniques
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Modèle de l'utilisateur"

1

Hainaut, Jean-Luc. Bases de données et modèles de calcul: Outils et méthodes pour l'utilisateur : cours et exercices corrigés. 4th ed. Paris: Dunod, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Guide de l'utilisateur UML. Eyrolles, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Modèle de l'utilisateur"

1

Caffiau, Sybille, Patrick Girard, Dominique L. Scapin, and Laurent Guittet. "Prise en compte de l'utilisateur dans le processus de conception d'une application d'édition de modèles de tâches." In the Ergonomie et Informatique Avancee Conference. New York, New York, USA: ACM Press, 2010. http://dx.doi.org/10.1145/1868650.1868665.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography